Иллюзия достоверности — это когнитивное искажение , при котором человек переоценивает свою способность точно интерпретировать и предсказывать результат при анализе набора данных , в частности, когда проанализированные данные демонстрируют очень последовательную картину, то есть когда данные «рассказывают» связную историю. [1] [2]
Этот эффект сохраняется даже тогда, когда человек осознает все факторы, ограничивающие точность его прогнозов , то есть когда данные и/или методы, используемые для их оценки, приводят к крайне ошибочным прогнозам. [2]
Дэниел Канеман , Пол Слович и Амос Тверски объясняют эту иллюзию следующим образом: «люди часто делают прогнозы, выбирая выходные данные... которые наиболее репрезентативны для входных данных... Уверенность, которую они имеют в своих прогнозах, зависит в первую очередь от степени репрезентативности ... при незначительном или полном отсутствии учета факторов, ограничивающих точность прогнозов. Таким образом, люди выражают большую уверенность в прогнозе, что человек является библиотекарем, когда им дают описание его личности, которое соответствует стереотипу библиотекаря, даже если описание скудное, ненадежное или устаревшее. Необоснованная уверенность, которая возникает из-за хорошего соответствия между прогнозируемым результатом и входной информацией, может быть названа иллюзией достоверности». [3]
Последовательные модели могут наблюдаться, когда входные переменные являются сильно избыточными или коррелированными , что может повысить субъективную уверенность. Однако, несколько сильно коррелированных входных данных не должны повышать уверенность намного больше, чем только один из входных данных; вместо этого более высокая уверенность должна быть заслужена, когда несколько сильно независимых входных данных показывают последовательную модель. [2]
Это смещение было впервые описано Амосом Тверски и Дэниелом Канеманом в их статье 1973 года «О психологии предсказания». [1]
В статье 2011 года Канеман рассказал историю своего открытия иллюзии обоснованности. Получив степень бакалавра психологии и прослужив год пехотным офицером в израильской армии, он был направлен в отделение психологии армии, где помогал оценивать кандидатов на офицерскую подготовку с помощью теста под названием Leaderless Group Challenge. Кандидатов выводили на поле с препятствиями и давали групповое задание, чтобы Канеман и его коллеги-оценщики могли распознать их индивидуальные лидерские качества или их отсутствие.
Но хотя Канеман и его коллеги вышли из эксперимента с очень четкими суждениями о том, кто был потенциальным лидером, а кто нет, их прогнозы оказались «в значительной степени бесполезными» в долгосрочной перспективе. Сравнивая свои первоначальные оценки кандидатов с суждениями командиров их офицерских училищ несколько месяцев спустя, Канеман и его коллеги обнаружили, что их собственная «способность предсказывать результаты в училище была ничтожно мала. Наши прогнозы были лучше слепых догадок, но не намного».
Однако, когда их попросили снова оценить еще одну группу кандидатов, их суждения были такими же ясными, как и прежде. «Унылая правда о качестве наших предсказаний», — вспоминал Канеман, «никакого влияния на то, как мы оценивали новых кандидатов, и очень слабое влияние на нашу уверенность в наших суждениях и прогнозах». Канеман нашел это поразительным: «Статистические доказательства нашей неудачи должны были поколебать нашу уверенность в наших суждениях о конкретных кандидатах, но этого не произошло. Они также должны были заставить нас смягчить наши предсказания, но этого не произошло». Канеман назвал эту когнитивную ошибку «иллюзией обоснованности».
Спустя десятилетия Канеман размышлял о том, что по крайней мере отчасти причиной его и его коллег неудач в оценке кандидатов в офицеры было то, что они столкнулись со сложным вопросом, но вместо этого, не осознавая этого, ответили на более простой. «От нас требовалось предсказать действия солдата на офицерской подготовке и в бою, но мы сделали это, оценивая его поведение в течение часа в искусственной ситуации. Это был идеальный пример общего правила, которое я называю WYSIATI: «То, что вы видите, — это все, что есть». Мы составили историю из того немногого, что знали, но не имели возможности учесть то, чего мы не знали о будущем человека, а это было почти все, что на самом деле имело значение». [4]
Сравнивая результаты 25 консультантов по управлению благосостоянием за восьмилетний период, Канеман обнаружил, что ни один из них не выделялся последовательно как лучший или худший, чем другие. «Результаты», как он выразился, «напоминали то, что можно было бы ожидать от соревнования по бросанию костей, а не от игры мастерства». Однако в фирме, на которую работали все эти консультанты, никто, казалось, не осознавал этого: «Сами консультанты чувствовали себя компетентными профессионалами, выполняющими задачу, которая была сложной, но не невозможной, и их начальники соглашались с этим». Канеман сообщил директорам фирмы, что они «вознаграждают удачу, как если бы это было мастерство». Директора верили в это, однако «жизнь в фирме продолжалась так же, как и прежде». Директора цеплялись за «иллюзию мастерства», как и сами консультанты. [4]
Ученый Фримен Дайсон вспомнил свой опыт работы в качестве статистика британской армии во время Второй мировой войны, когда он проводил анализ операций Бомбардировочного командования. В то время один офицер утверждал, что из-за тяжелых орудийных башен, которые они несли, бомбардировщики были слишком медленными и не могли летать достаточно высоко, чтобы избежать сбития. Он предложил им убрать башни и стрелков. Но главнокомандующий отклонил это предложение, потому что, как сказал Дайсон, «он был ослеплен иллюзией обоснованности». Он был не одинок: все в командовании «видели каждый экипаж бомбардировщика как сплоченную команду из семи человек, в которой стрелки играли важную роль, защищая своих товарищей от атак истребителей». Частью этой иллюзии «была вера в то, что команда училась на опыте. По мере того, как они становились более умелыми и более тесно связанными, их шансы на выживание увеличивались». Однако статистика, как обнаружил Дайсон, доказывала, что все это было иллюзией: смерти происходили случайным образом, не имея ничего общего с опытом. Он понял, что члены командования бомбардировочной авиации погибали напрасно, потому что все были введены в заблуждение. [5]
В 2014 году статья в Rolling Stone представила как факт обвинение в изнасиловании в Университете Вирджинии , которое оказалось ложным. Авторы и редакторы Rolling Stone, президент университета и другие администраторы, а также многие студенты U.Va. быстро поверили ложным обвинениям. Харлан Лоэб позже объяснил это как пример иллюзии обоснованности в действии. [6]
В 2012 году спортивный обозреватель, назвавший Канемана своим «любимым ученым», написал: «Иллюзия достоверности — вот почему я начинаю испытывать сильное подозрение, когда болельщик, спортивный обозреватель, тренер или генеральный менеджер говорит что-либо вроде «цифры не рассказывают всей истории». Это действительно так, но человек, говорящий это, обычно имеет в виду: «Мне все равно, что говорят цифры, потому что я убежден, что то, что я видел, верно». Что, благодаря этой иллюзии, почти никогда не является правдой. Если я привожу аргумент, что данные говорят, что игрок не хорош, и кто-то указывает: «Да, но если вы посмотрите игры, вы заметите, что в этом году они бросают только трехочковые из слота и редко из угла, где он раньше преуспел», то этот человек указывает на пробел в данных, который стоит исследовать. Если аргумент в духе «любой, кто наблюдает за ним, может ясно видеть, что он намного лучше этого», то я уверен, что иллюзия достоверности делает свое черное дело». [7]
В статье 1981 года JB Bushyhead и JJ Christensen-Szalanski изучали данные из амбулаторной клиники, показывающие, что врачи там назначали рентгенограммы грудной клетки только пациентам, у которых проявлялись клинические признаки, связанные с некоторыми случаями пневмонии, а не пациентам, у которых проявлялись клинические признаки, связанные со всеми случаями пневмонии. Они приписали такое поведение иллюзии достоверности. [8]
Другие случаи, когда это явление проявляется, включают собеседования при приеме на работу , дегустацию вин , фондовые рынки , политическую стратегию . [9] [10]
Иллюзия достоверности может быть частично вызвана предвзятостью подтверждения и/или эвристикой репрезентативности и может, в свою очередь, вызывать эффект чрезмерной уверенности . [11] [ как? ]
По мнению Мейнольфа Диркса, Арианы Бертойн Антал, Джона Чайлда и Икудзиро Нонаки, среди факторов, способствующих иллюзии достоверности, находятся «тенденция человека регистрировать частоту событий больше, чем их вероятность »; «невозможность сбора информации об альтернативных предположениях, если действие основано на гипотезе»; «пренебрежение информацией о базовой вероятности»; и «самоисполняющееся пророчество » или «поведение, проявляющееся у отдельных лиц или групп, потому что оно ожидалось» [12] .
По мнению Канемана, если кто-то хочет попытаться избежать иллюзии обоснованности, он должен задать два вопроса:
Достаточно ли регулярна среда, в которой выносится суждение, чтобы делать прогнозы на основе имеющихся доказательств ? Ответ: да для диагностов, нет для биржевых спекулянтов.
Имеют ли профессионалы адекватную возможность изучить сигналы и закономерности? Ответ здесь зависит от опыта профессионалов, а также от качества и скорости, с которой они обнаруживают свои ошибки.
Хотя многие профессионалы «легко проходят оба теста», что означает, что их «экспромтные суждения» имеют ценность, в целом суждения «уверенных и настойчивых людей» следует воспринимать с долей скепсиса, «если только у вас нет независимых оснований полагать, что они знают, о чем говорят». Однако это может быть сложно, поскольку «излишне самоуверенные профессионалы... действуют как эксперты и выглядят как эксперты», и может быть «трудно напомнить себе, что они могут находиться во власти иллюзии». [4]
В своей статье о ложном деле об изнасиловании в Университете Вирджинии Харлан Лоэб изложил подход к избеганию иллюзии обоснованности в случаях, которые, как этот, связаны с «крайне эмоциональной и личной проблемой, имеющей национальный резонанс, широко освещаемой в СМИ и организацией, уже находящейся в обороне в связи с недавними проблемами». Он посоветовал, во-первых: «Всегда подвергайте сомнению (разумеется, уместно) факты и предположения, на которые многие полагаются, чтобы информировать свое мышление и принятие решений о рисках и управлении кризисами ». Во-вторых: «В ситуациях с ощутимыми неизвестными , где иллюзия обоснованности в принятии решений представляет собой материальную угрозу, настойчиво добивайтесь проведения исследований, опросов и активного слушания, чтобы помочь выявить рычаги и шкивы, которые формируют операционные и экологические реалии текущего риска». В-третьих: «Определите существующие организационные проблемы, которые будут мешать руководству принимать решения последовательно, эффективно и быстро в условиях неопределенности». В-четвертых: «Осознайте, как текущие действия могут диктовать будущую стратегию». В-пятых: «Будьте готовы взять на себя текущий риск, чтобы управлять будущим риском». [6]
Фил Торнтон дал следующий совет, как избежать иллюзии обоснованности в финансовом секторе. Во-первых, «помните, что просто потому, что предыдущие поколения были успешны, следуя определенным подходам, повторение их действий не обязательно может быть хорошей идеей». Во-вторых, «помните, что последствия неправильных решений могут быть важнее вероятности того, что они будут правильными». [13]
{{cite book}}
: |journal=
проигнорировано ( помощь )