Фактор безопасности, эргономики и устойчивости системы
В области человеческого фактора и эргономики надежность человека (также известная как производительность человека или HU ) — это вероятность того, что человек выполнит задачу на достаточном уровне. [1] Надежность человека может зависеть от многих факторов, таких как возраст , физическое здоровье , психическое состояние , отношение , эмоции , личная склонность к определенным ошибкам и когнитивные предубеждения .
Человеческая надежность важна для устойчивости социально -технических систем и имеет значение для таких областей, как производство , медицина и ядерная энергетика . Попытки уменьшить человеческие ошибки и повысить надежность взаимодействия человека с технологиями включают проектирование, ориентированное на пользователя , и проектирование, устойчивое к ошибкам .
Факторы, влияющие на работоспособность человека
Человеческие ошибки , человеческая эффективность и человеческая надежность особенно важны, когда работа выполняется в сложной и высокорисковой среде. [2]
Стратегии борьбы с факторами, влияющими на производительность, такими как психологический стресс , когнитивная нагрузка , усталость, включают эвристики и предубеждения, такие как предубеждение подтверждения , эвристика доступности и частотное предубеждение .
Анализ надежности человека
Существует множество методов анализа надежности человека (HRA). [3] [4] Два основных класса методов — это методы, основанные на вероятностной оценке риска (PRA), и методы, основанные на когнитивной теории контроля .
Методы, основанные на PRA
Один из методов анализа надежности человека — это прямое расширение вероятностной оценки риска (PRA): так же, как оборудование может выйти из строя на электростанции , так и оператор-человек может совершать ошибки. В обоих случаях анализ ( функциональная декомпозиция для оборудования и анализ задач для людей) сформулирует уровень детализации, для которого могут быть назначены вероятности отказа или ошибки. Эта основная идея лежит в основе Методики прогнозирования частоты ошибок человека (THERP). [5] THERP предназначен для генерации вероятностей ошибок человека, которые будут включены в PRA. Процедура надежности человека Программы оценки последовательности аварий (ASEP) — это упрощенная форма THERP; связанный с ней вычислительный инструмент — Упрощенный код анализа человеческих ошибок (SHEAN). [6] Совсем недавно Комиссия по ядерному регулированию США опубликовала метод Стандартизированного анализа риска завода — Анализ надежности человека (SPAR-H), чтобы учесть потенциальную возможность человеческой ошибки. [7] [8]
Методы, основанные на когнитивном контроле
Эрик Холлнагель развил эту линию мысли в своей работе над моделью контекстного управления (COCOM) [9] и методом анализа когнитивной надежности и ошибок (CREAM). [10] COCOM моделирует человеческую эффективность как набор режимов управления — стратегический (основанный на долгосрочном планировании), тактический (основанный на процедурах), оппортунистический (основанный на текущем контексте) и скрамблированный (случайный) — и предлагает модель того, как происходят переходы между этими режимами управления. Эта модель перехода между режимами управления состоит из ряда факторов, включая оценку человеком-оператором результата действия (успех или неудача), оставшееся время для выполнения действия (адекватное или неадекватное) и количество одновременных целей человека-оператора в это время. CREAM — это метод анализа надежности человека, основанный на COCOM.
Связанные методы
Смежные методы в области техники безопасности и надежности включают анализ видов и последствий отказов , анализ рисков , дерево отказов и SAPHIRE (программы системного анализа для комплексной практической оценки надежности).
Система анализа и классификации человеческого фактора (HFACS)
Система анализа и классификации человеческого фактора (HFACS) изначально была разработана как основа для понимания роли человеческой ошибки в авиационных происшествиях . [11] [12] Она основана на модели швейцарского сыра Джеймса Ризона для человеческой ошибки в сложных системах. HFACS различает «активные сбои» небезопасных действий и «скрытые сбои» предпосылок для небезопасных действий, небезопасного надзора и организационных влияний. Эти категории были разработаны эмпирически на основе множества отчетов об авиационных происшествиях.
«Небезопасные действия» совершаются человеком-оператором «на передовой» (например, пилотом , авиадиспетчером или водителем). Небезопасные действия могут быть либо ошибками (в восприятии, принятии решений или выполнении на основе навыков), либо нарушениями. Нарушения или преднамеренное пренебрежение правилами и процедурами могут быть обычными или исключительными. Обычные нарушения происходят регулярно и обычно допускаются организацией или органом власти. Исключительные нарушения необычны и часто экстремальны. Например, вождение со скоростью 60 миль в час в зоне ограничения скорости 55 миль в час является обычным нарушением, в то время как вождение со скоростью 130 миль в час в той же зоне является исключительным.
Существует два типа предпосылок для небезопасных действий: те, которые связаны с внутренним состоянием человека-оператора, и те, которые связаны с практикой или способами работы человека-оператора. Неблагоприятные внутренние состояния включают те, которые связаны с физиологией (например, болезнь) и психическим состоянием (например, умственная усталость, рассеянность). Третий аспект «внутреннего состояния» на самом деле является несоответствием между способностями оператора и требованиями задачи. Четыре типа небезопасного надзора: неадекватный надзор; запланированные ненадлежащие операции; неспособность исправить известную проблему; и нарушения надзора.
Организационные влияния включают в себя те, которые связаны с управлением ресурсами (например, нехватка человеческих или финансовых ресурсов), организационным климатом (структуры, политики и культура ) и организационными процессами (такими как процедуры , графики , надзор).
Смотрите также
Сноски
- ^ Каликсто, Эдуардо (2016-01-01), Каликсто, Эдуардо (ред.), «Глава 5 — Анализ надежности человека», Gas and Oil Reliability Engineering (второе издание) , Бостон: Gulf Professional Publishing, стр. 471–552, ISBN 978-0-12-805427-7, получено 2023-12-18
- ^ https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@images/file DOE-HDBK-1028-2009
- ^ Кирван и Эйнсворт, 1992
- ^ Кирван, 1994
- ^ Свейн и Гуттманн, 1983
- ^ Упрощенный код анализа человеческих ошибок (Уилсон, 1993)
- ^ SPAR-H
- ^ Гертман и др., 2005
- ^ (Холлнагель, 1993)
- ^ (Холлнагель, 1998)
- ^ Шаппель и Вигманн, 2000
- ^ Вигманн и Шаппель, 2003
Ссылки
- Gertman, DL; Blackman, HS (2001). Справочник по анализу данных о надежности и безопасности человека . Wiley.
- Gertman, D., Blackman, H., Marble, J., Byers, J. и Smith, C. (2005). Метод анализа надежности человека SPAR-H. NUREG/CR-6883. Айдахская национальная лаборатория, подготовлено для Комиссии по ядерному регулированию США .
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка )[1] - M. Cappelli, AMGadomski, M.Sepielli (2011). Человеческие факторы в управлении безопасностью атомных электростанций: подход к социально-когнитивному моделированию с использованием метатеории TOGA. Труды Международного конгресса по достижениям в области атомных электростанций. Ницца (Франция) . SFEN (Société Française d'Energie Nucléaire).
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Холлнагель, Э. (1993). Анализ надежности человека: контекст и контроль . Academic Press.
- Холлнагель, Э. (1998). Метод анализа когнитивной надежности и ошибок: CREAM . Elsevier.
- Холлнагель, Э.; Амальберти, Р. (2001). Новое платье короля, или что случилось с «человеческой ошибкой»? Приглашенный основной доклад на 4-м Международном семинаре по человеческим ошибкам, безопасности и разработке систем . Линчёпинг, 11–12 июня 2001 г.
- Холлнагель, Э., Вудс, Д.Д. и Левесон, Н. (ред.) (2006). Инженерия устойчивости: концепции и предписания . Ashgate.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Джонс, П. М. (1999). Человеческая ошибка и ее устранение. В Handbook of Systems Engineering and Management (редакторы AP Sage и WB Rouse), 687-702 . Wiley.
- Кирван, Б. (1994). Руководство по практической оценке надежности человека . Тейлор и Фрэнсис.
- Кирван, Б. и Эйнсворт, Л. (ред.) (1992). Руководство по анализу задач . Тейлор и Фрэнсис.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Норман, Д. (1988). Психология повседневных вещей . Basic Books.
- Reason, J. (1990). Человеческая ошибка . Cambridge University Press.
- Рот, Э. и др. (1994). Эмпирическое исследование производительности оператора в моделируемых чрезвычайных ситуациях, требующих когнитивных усилий. NUREG/CR-6208, Westinghouse Science and Technology Center . Отчет, подготовленный для Комиссии по ядерному регулированию.
- Сейдж, А. П. (1992). Системная инженерия . Wiley.
- Сендерс, Дж.; Морей, Н. (1991). Человеческая ошибка: причина, прогнозирование и сокращение . Lawrence Erlbaum Associates.
- Шаппель, С.; Вигманн, Д. (2000). Система анализа и классификации человеческого фактора - HFACS. DOT/FAA/AM-00/7, Управление авиационной медицины, Федеральное управление гражданской авиации, Министерство транспорта .[2]
- Свейн, А. Д. и Гуттман, Х. Э. (1983). Справочник по анализу надежности человека с упором на применение на атомных электростанциях . NUREG/CR-1278 (Вашингтон, округ Колумбия).
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Уоллес, Б.; Росс, А. (2006). За пределами человеческой ошибки . CRC Press.
- Вигманн, Д.; Шаппелл, С. (2003). Подход к анализу авиационных происшествий с точки зрения человеческого фактора: система анализа и классификации человеческого фактора . Эшгейт.
- Уилсон, Дж. Р. (1993). SHEAN (код упрощенного анализа человеческих ошибок) и автоматизированный THERP . Номер технического отчета Министерства энергетики США WINCO--11908.[3]
- Woods, DD (1990). Моделирование и прогнозирование человеческих ошибок. В J. Elkind, S. Card, J. Hochberg, and B. Huey (Eds.), Модели производительности человека для компьютерного проектирования (248-274) . Academic Press.
- Федеральное управление гражданской авиации. Электронный свод правил 2009 года. Получено 25 сентября 2009 г. с https://web.archive.org/web/20120206214308/http://www.airweb.faa.gov/Regulatory_and_Guidance_library/rgMakeModel.nsf/0/5a9adccea6c0c4e286256d3900494a77/$FILE/H3WE.pdf
Дальнейшее чтение
- Autrey, TD (2015). 6-часовая культура безопасности: как устойчиво снизить человеческие ошибки и риски (и сделать то, чего не может сделать одно лишь обучение). Human Performance Association. Архивировано из оригинала 2021-04-11 . Получено 2020-08-21 .
- Дэвис, Дж. Б., Росс, А., Уоллес, Б. и Райт, Л. (2003). Управление безопасностью: качественный системный подход . Тейлор и Фрэнсис.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Dekker, SWA (2005). Ten Questions About Human Error: a new view of human factors and systems safety. Lawrence Erlbaum Associates. Архивировано из оригинала 2012-12-11 . Получено 2010-05-24 .
- Dekker, SWA (2006). Полевое руководство по пониманию человеческих ошибок. Ashgate. Архивировано из оригинала 2012-03-06 . Получено 2010-05-24 .
- Dekker, SWA (2007). Just Culture: Balancing Safety and Accountability. Ashgate. Архивировано из оригинала 2012-03-06 . Получено 2010-05-24 .
- Дисмьюкс, Р. К., Берман, Б. А. и Лукопулос, Л. Д. (2007). Пределы экспертных знаний: переосмысление ошибок пилотов и причин авиакатастроф . Эшгейт.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Forester, J., Kolaczkowski, A., Lois, E., и Kelly, D. (2006). Оценка методов анализа надежности человека в сравнении с передовой практикой. Заключительный отчет NUREG-1842 . Комиссия по ядерному регулированию США.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка )[4] - Гудстейн, Л. П., Андерсен, Х. Б. и Олсен, С. Э. (ред.) (1988). Задачи, ошибки и ментальные модели . Тейлор и Фрэнсис.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Грабовски, М.; Робертс, К. Х. (1996). «Человеческие и организационные ошибки в крупномасштабных системах». Труды IEEE по системам, человеку и кибернетике — Часть A: Системы и люди . 26 : 2–16. doi :10.1109/3468.477856.
- Гринбаум, Дж. и Кинг, М. (ред.) (1991). Дизайн в работе: кооперативное проектирование компьютерных систем . Lawrence Erlbaum Associates.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Харрисон, М. (2004). Анализ человеческих ошибок и оценка надежности . Семинар по взаимодействию человека с компьютером и надежности, 46-е заседание рабочей группы IFIP 10.4, Сиена, Италия, 3–7 июля 2004 г.[5]
- Hollnagel, E. (1991). Фенотип ошибочных действий: последствия для проектирования HCI. В GWR Weir и JL Alty (ред.), Взаимодействие человека с компьютером и сложные системы. Академическая пресса.
- Хатчинс, Э. (1995). Познание в дикой природе . MIT Press.
- Канеман, Д., Слович, П. и Тверски, А. (ред.) (1982). «Суждение в условиях неопределенности: эвристики и предубеждения». Science . 185 (4157). Cambridge University Press: 1124–31. doi :10.1126/science.185.4157.1124. PMID 17835457. S2CID 143452957.
{{cite journal}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Левесон, Н. (1995). Safeware: безопасность систем и компьютеров . Addison-Wesley.
- Морган, Г. (1986). Образы организации . Sage.
- Мура, С.С. (1983). Нарушения лицензирования: Законные нарушения принципа разговора Грайса. В книге Р. Крейга и К. Трейси (редакторы), Разговорная связность: форма, структура и стратегия (101-115) . Sage.
- Перроу, К. (1984). Обычные несчастные случаи: Жизнь с высокорискованными технологиями . Базовые книги. ISBN 9780465051441.
- Расмуссен, Дж. (1983). Навыки, правила и знания: сигналы, знаки, символы и другие различия в моделях человеческой деятельности. Труды IEEE по системам, человеку и кибернетике , SMC-13, 257-267 .
- Расмуссен, Дж. (1986). Обработка информации и взаимодействие человека и машины: подход к когнитивной инженерии . Wiley.
- Сильверман, Б. (1992). Критика человеческой ошибки: основанный на знаниях подход к сотрудничеству человека и компьютера . Academic Press.
- Swets, J. (1996). Теория обнаружения сигналов и ROC-анализ в психологии и диагностике: Сборник статей . Lawrence Erlbaum Associates.
- Тверски, А.; Канеман, Д. (1974). Суждение в условиях неопределенности: эвристики и предубеждения. Наука , 185, 1124-1131 .
- Vaughan, D. (1996). Решение о запуске Challenger: Рискованные технологии, культура и отклонения в NASA . Издательство Чикагского университета. ISBN 9780226851761.
- Вудс, Д.Д., Йоханнесен, Л., Кук, Р. и Сартер, Н. (1994). За человеческой ошибкой: когнитивные системы, компьютеры и ретроспективный взгляд. Отчет CSERIAC SOAR 94-01 . Центр анализа информации об эргономике систем экипажа, авиабаза Райт-Паттерсон, Огайо.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Wu, S., Hrudey, S., French, S., Bedford, T., Soane, E. и Pollard, S. (2009). «Роль анализа надежности человека (HRA) в предотвращении инцидентов, связанных с питьевой водой, и обеспечении безопасной питьевой воды» (PDF) . Water Research . 43 (13): 3227–3238. Bibcode : 2009WatRe..43.3227W. doi : 10.1016/j.watres.2009.04.040. PMID 19493557.
{{cite journal}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - CCPS, Руководство по предотвращению человеческих ошибок. В этой книге объясняется качественная и количественная методология прогнозирования человеческих ошибок. Качественная методология называется SPEAR: Системы прогнозирования человеческих ошибок и восстановления, а количественная методология также включает THERP и т. д.
Внешние ссылки
Стандарты и руководящие документы
- Стандарт IEEE 1082 (1997): Руководство IEEE по включению анализа надежности действий человека для атомных электростанций
- Стандарт DOE DOE-HDBK-1028-2009: Справочник по улучшению деятельности человека
Инструменты
- Калькулятор EPRI HRA
- Инструменты Eurocontrol Human Error
- Программное обеспечение RiskSpectrum HRA
- Упрощенный код анализа человеческих ошибок
Научно-исследовательские лаборатории
Освещение в СМИ
- «Как избежать человеческих ошибок в ИТ» Архивировано 04.03.2016 на Wayback Machine
- «Надежность человека. Мы ломаемся так же, как машины» Industrial Engineer – ноябрь 2004 г., 36(11): 66
Нетворкинг
- Группа управления высокой надежностью на LinkedIn.com