Человеческая ошибка — это действие, которое было совершено, но «не было запланировано действующим лицом; нежелательно набором правил или внешним наблюдателем; или которое вывело задачу или систему за пределы допустимых пределов». [1] Человеческая ошибка упоминается в качестве основного фактора, способствующего катастрофам и авариям в таких различных отраслях, как атомная энергетика (например, авария на острове Три-Майл ), авиация , исследование космоса (например, катастрофа космического корабля «Челленджер» и космического корабля «Шаттл»). Колумбийская катастрофа ) и медицина . Предотвращение человеческих ошибок обычно рассматривается как основной фактор, способствующий надежности и безопасности (сложных) систем. Человеческая ошибка является одной из многих причин, способствующих возникновению рисковых событий.
Человеческая ошибка означает, что было сделано что-то, что «не было задумано действующим лицом; нежелательно набором правил или внешним наблюдателем; или что вывело задачу или систему за пределы допустимых пределов». [1] Короче говоря, это отклонение от намерения, ожидания или желательности. [1] Логично, что действия человека могут не достичь своей цели двумя разными способами: действия могут идти по плану, но план может быть неадекватным (что приводит к ошибкам); или план может быть удовлетворительным, но выполнение может быть недостаточным (что приводит к сбоям и упущениям ). [2] [3] Однако простая неудача не является ошибкой, если не было плана достижения чего-то конкретного. [1]
Человеческая ошибка и производительность — это две стороны одной медали: механизмы «человеческой ошибки» аналогичны механизмам «человеческой деятельности»; действия, позже классифицированные как «ошибки», выполняются задним числом: [3] [4] поэтому действия, позже названные «человеческой ошибкой», на самом деле являются частью обычного спектра человеческого поведения. Изучение рассеянности в повседневной жизни дает обширную документацию и категоризацию таких аспектов поведения. Хотя человеческие ошибки прочно укоренились в классических подходах к расследованию происшествий и оценке рисков, они не играют никакой роли в новых подходах, таких как проектирование устойчивости . [5]
Есть много способов классифицировать человеческие ошибки: [6] [7]
Когнитивное изучение человеческих ошибок — очень активная область исследований, включающая работу, связанную с ограничениями памяти и внимания , а также со стратегиями принятия решений , такими как эвристика доступности и другие когнитивные искажения . Такая эвристика и предвзятость являются стратегиями, которые полезны и часто верны, но могут привести к систематическим ошибкам.
Непонимание как тема человеческого общения изучалось в ходе анализа разговоров , например, при рассмотрении нарушений принципа сотрудничества и максим Грайса.
Организационные исследования ошибок или дисфункций включали исследования культуры безопасности . Одним из методов анализа сбоев сложных систем, включающим организационный анализ, является анализ дерева рисков управленческого надзора . [13] [14] [15]
Некоторые исследователи утверждают, что разделение человеческих действий на «правильные» и «неправильные» является вредным упрощением сложного явления. [16] [17] Сосредоточение внимания на изменчивости человеческой деятельности и на том, как люди-операторы (и организации) могут управлять этой изменчивостью, может быть более плодотворным подходом. Новые подходы, такие как упомянутая выше инженерия устойчивости, подчеркивают положительную роль, которую люди могут играть в сложных системах. В проектировании устойчивости успехи (то, что идет хорошо) и неудачи (то, что идет не так) рассматриваются как имеющие одну и ту же основу, а именно изменчивость человеческой деятельности. Конкретным объяснением этого является принцип компромисса между эффективностью и тщательностью [18] , который можно найти на всех уровнях человеческой деятельности, как индивидуальной, так и коллективной.