stringtranslate.com

Человеческая ошибка

Человеческая ошибка — это действие, которое было совершено, но «не было запланировано действующим лицом; нежелательно набором правил или внешним наблюдателем; или которое вывело задачу или систему за пределы допустимых пределов». [1] Человеческая ошибка упоминается в качестве основного фактора, способствующего катастрофам и авариям в таких различных отраслях, как атомная энергетика (например, авария на острове Три-Майл ), авиация , исследование космоса (например, катастрофа космического корабля «Челленджер» и космического корабля «Шаттл»). Колумбийская катастрофа ) и медицина . Предотвращение человеческих ошибок обычно рассматривается как основной фактор, способствующий надежности и безопасности (сложных) систем. Человеческая ошибка является одной из многих причин, способствующих возникновению рисковых событий.

Определение

Человеческая ошибка означает, что было сделано что-то, что «не было задумано действующим лицом; нежелательно набором правил или внешним наблюдателем; или что вывело задачу или систему за пределы допустимых пределов». [1] Короче говоря, это отклонение от намерения, ожидания или желательности. [1] Логично, что действия человека могут не достичь своей цели двумя разными способами: действия могут идти по плану, но план может быть неадекватным (что приводит к ошибкам); или план может быть удовлетворительным, но выполнение может быть недостаточным (что приводит к сбоям и упущениям ). [2] [3] Однако простая неудача не является ошибкой, если не было плана достижения чего-то конкретного. [1]

Производительность

Человеческая ошибка и производительность — это две стороны одной медали: механизмы «человеческой ошибки» аналогичны механизмам «человеческой деятельности»; действия, позже классифицированные как «ошибки», выполняются задним числом: [3] [4] поэтому действия, позже названные «человеческой ошибкой», на самом деле являются частью обычного спектра человеческого поведения. Изучение рассеянности в повседневной жизни дает обширную документацию и категоризацию таких аспектов поведения. Хотя человеческие ошибки прочно укоренились в классических подходах к расследованию происшествий и оценке рисков, они не играют никакой роли в новых подходах, таких как проектирование устойчивости . [5]

Категории

Есть много способов классифицировать человеческие ошибки: [6] [7]

Источники

Когнитивное изучение человеческих ошибок — очень активная область исследований, включающая работу, связанную с ограничениями памяти и внимания , а также со стратегиями принятия решений , такими как эвристика доступности и другие когнитивные искажения . Такая эвристика и предвзятость являются стратегиями, которые полезны и часто верны, но могут привести к систематическим ошибкам.

Непонимание как тема человеческого общения изучалось в ходе анализа разговоров , например, при рассмотрении нарушений принципа сотрудничества и максим Грайса.

Организационные исследования ошибок или дисфункций включали исследования культуры безопасности . Одним из методов анализа сбоев сложных систем, включающим организационный анализ, является анализ дерева рисков управленческого надзора . [13] [14] [15]

Споры

Некоторые исследователи утверждают, что разделение человеческих действий на «правильные» и «неправильные» является вредным упрощением сложного явления. [16] [17] Сосредоточение внимания на изменчивости человеческой деятельности и на том, как люди-операторы (и организации) могут управлять этой изменчивостью, может быть более плодотворным подходом. Новые подходы, такие как упомянутая выше инженерия устойчивости, подчеркивают положительную роль, которую люди могут играть в сложных системах. В проектировании устойчивости успехи (то, что идет хорошо) и неудачи (то, что идет не так) рассматриваются как имеющие одну и ту же основу, а именно изменчивость человеческой деятельности. Конкретным объяснением этого является принцип компромисса между эффективностью и тщательностью [18] , который можно найти на всех уровнях человеческой деятельности, как индивидуальной, так и коллективной.

Смотрите также

Рекомендации

  1. ^ abcd Сендерс, Дж. У. и Морей, Н. П. (1991) Человеческая ошибка: причина, прогнозирование и уменьшение . Лоуренс Эрлбаум Ассошиэйтс, стр.25. ISBN  0-89859-598-3 .
  2. ^ Холлнагель, Э. (1993) Контекст и контроль человеческого анализа надежности . Академик Пресс Лимитед. ISBN 0-12-352658-2
  3. ^ abc Reason, Джеймс (1990) Человеческая ошибка . Издательство Кембриджского университета. ISBN 0-521-31419-4
  4. ^ Вудс, 1990.
  5. ^ Холлнагель, Э., Вудс, Д.Д. и Левесон, Н.Г. (2006). Проектирование устойчивости: концепции и заповеди. Олдершот, Великобритания: Эшгейт
  6. ^ Джонс, 1999 г.
  7. ^ Уоллес и Росс, 2006 г.
  8. ^ Сендерс и Морей, 1991.
  9. ^ Рот и др., 1994.
  10. ^ Мудрец, 1992.
  11. ^ Норман, 1988
  12. ^ DOE HDBK-1028-2009 ( https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@images/file)
  13. ^ Расмуссен, Йенс ; Пейтерсен, Аннелиза М.; Гудштейн, LP (1994). Когнитивная системная инженерия. Джон Уайли и сыновья. ISBN 0471011983.
  14. ^ «Дерево управленческого надзора и рисков (MORT)» . Международная ассоциация кризисного управления. Архивировано из оригинала 27 сентября 2014 года . Проверено 1 октября 2014 г.
  15. ^ Запись для MORT на инструментальных средствах человеческого фактора ФАУ.
  16. ^ Холлнагель, Э. (1983). «Человеческая ошибка. (Документ с изложением позиции конференции НАТО по человеческим ошибкам, август 1983 г., Белладжио, Италия).
  17. ^ Холлнагель Э. и Амальберти Р. (2001). Новое платье императора или что случилось с «человеческой ошибкой»? Приглашенный основной доклад на 4-м Международном семинаре по человеческим ошибкам, безопасности и развитию систем. Линчёпинг, 11–12 июня 2001 г.
  18. ^ Холлнагель, Эрик (2009). Принцип ETTO: компромисс между эффективностью и тщательностью: почему все, что идет хорошо, иногда идет не так . Фарнем, Англия Берлингтон, Вирджиния: Эшгейт. ISBN 978-0-7546-7678-2. ОСЛК  432428967.

Внешние ссылки