В информатике эффект ELIZA — это тенденция проецировать человеческие качества — такие как опыт, семантическое понимание или эмпатия — в компьютерные программы, имеющие текстовый интерфейс. Результатом является категориальная ошибка , которая возникает, когда символические вычисления программы описываются такими терминами, как «думать», «знать» или «понимать».
Эффект назван в честь ELIZA , чат-бота , разработанного в 1966 году ученым-компьютерщиком Массачусетского технологического института Джозефом Вайзенбаумом . При выполнении сценария «ДОКТОР» Вейценбаума ELIZA имитировала роджерианского психотерапевта , в основном перефразируя ответы «пациента » в вопросы: [1]
Хотя скрипт ELIZA DOCTOR был разработан исключительно как механизм поддержки «разговора на естественном языке» с компьютером, [2] он оказался на удивление успешным в получении эмоциональных реакций у пользователей, которые в ходе взаимодействия с программой начали приписывать понимание и мотивация к результатам программы. [3] Как позже писал Вайценбаум: «Я не осознавал… что чрезвычайно короткое воздействие относительно простой компьютерной программы может вызвать мощное бредовое мышление у вполне нормальных людей». [4] Действительно, код ELIZA изначально не был разработан для того, чтобы вызывать такую реакцию. В ходе наблюдения исследователи обнаружили, что пользователи неосознанно полагали, что вопросы ELIZA подразумевают интерес и эмоциональную вовлеченность в обсуждаемые темы, даже если они сознательно знали, что ELIZA не имитирует эмоции. [5]
Хотя впервые эффект был назван в 1960-х годах, тенденцию понимать механические операции в психологических терминах отметил Чарльз Бэббидж . Предлагая то, что позже будет названо сумматором с переносом и прогнозированием , Бэббидж заметил, что он нашел такие термины удобными для описательных целей, хотя под этим подразумевалось не что иное, как механическое действие. [6]
В своей конкретной форме эффект ELIZA относится только к «способности людей читать гораздо больше понимания, чем требуется, в цепочках символов - особенно слов, - связанных вместе компьютерами». [7] Тривиальный пример конкретной формы эффекта Элизы, приведенный Дугласом Хофштадтером , включает в себя банкомат, который отображает слова «СПАСИБО» в конце транзакции. Наивный наблюдатель может подумать, что машина на самом деле выражает благодарность; однако аппарат печатает только заранее запрограммированную строку символов. [7]
В более общем смысле, эффект ELIZA описывает любую ситуацию [8] [9] , когда, основываясь исключительно на результатах работы системы, пользователи воспринимают компьютерные системы как обладающие «внутренними качествами и способностями, которых программное обеспечение, контролирующее (выход), не может достичь» [10] или «предположим, что [результаты] отражают большую причинно-следственную связь, чем на самом деле». [11] Как в конкретной, так и в общей форме эффект ELIZA примечателен тем, что возникает даже тогда, когда пользователи системы осознают определенный характер выходных данных, производимых системой.
С психологической точки зрения эффект ELIZA является результатом тонкого когнитивного диссонанса между осознанием пользователем ограничений программирования и его поведением по отношению к выходным данным программы . [12]
Открытие эффекта ELIZA стало важным достижением в области искусственного интеллекта , продемонстрировав принцип использования социальной инженерии , а не явного программирования для прохождения теста Тьюринга . [13]
ЭЛИЗА убедила некоторых пользователей думать, что машина — это человек. Этот сдвиг во взаимодействии человека и машины ознаменовал прогресс в технологиях, имитирующих человеческое поведение. Уильям Мейзель выделяет две группы чат-ботов как « личных помощников общего назначения » и «специализированных цифровых помощников». [14] В персональные устройства были интегрированы цифровые помощники общего назначения с такими функциями, как отправка сообщений, ведение заметок, проверка календарей и назначение встреч. Специализированные цифровые помощники «работают в очень специфических областях или помогают решать очень специфические задачи». [14] Цифровые помощники, которые запрограммированы повышать производительность, ведя себя аналогично человеческому.
Вайценбаум считал, что не каждую часть человеческого мышления можно свести к логическим формализмам и что «есть некоторые мыслительные действия, которые должны предприниматься только людьми». [15] Он также заметил, что у нас развивается эмоциональная привязанность к машинам, если мы взаимодействуем с ними как люди. Когда чат-боты антропоморфизированы, они склонны изображать гендерные особенности как способ установления отношений с технологией. «Гендерные стереотипы используются для управления нашими отношениями с чат-ботами», когда человеческое поведение программируется в машинах. [16]
В 1990-х годах Клиффорд Насс и Байрон Ривз провели серию экспериментов, создавших «Уравнение СМИ» , продемонстрировав, что люди склонны реагировать на средства массовой информации так же, как на другого человека (будучи вежливыми, готовыми к сотрудничеству, приписывая такие личностные характеристики, как агрессивность, юмор, экспертные знания и пол) – или к местам и явлениям физического мира. Многочисленные последующие исследования, возникшие на основе исследований в области психологии , социальных наук и других областей, показывают, что этот тип реакции является автоматическим, неизбежным и случается чаще, чем люди думают. Ривз и Насс (1996) утверждают, что «взаимодействия людей с компьютерами, телевидением и новыми средствами массовой информации по своей сути являются социальными и естественными, точно так же, как и взаимодействия в реальной жизни» (стр. 5).
Феминизированный труд, или женский труд , автоматизированный антропоморфными цифровыми помощниками, усиливает «предположение о том, что женщины обладают естественной склонностью к работе в сфере обслуживания и эмоциональному труду». [17] Определяя нашу близость к цифровым помощникам через их человеческие качества, чат-боты становятся гендерно-ориентированными сущностями.
(Джозеф) Вейценбаум неожиданно обнаружил, что, даже полностью осознавая, что они разговаривают с простой компьютерной программой, люди, тем не менее, будут относиться к ней так, как если бы она была реальным, мыслящим существом, которое заботится об их проблемах – явление, теперь известное как Эффект Элизы».
{{cite news}}
: CS1 maint: неподходящий URL ( ссылка )Хотя Хофштадтер делает здесь упор на текстовый режим, «эффект Элизы» можно увидеть практически во всех режимах взаимодействия человека и компьютера.
Это особая проблема в цифровой среде, где «эффект Элизы», как его иногда называют, заставляет взаимодействующих лиц предполагать, что система более интеллектуальна, чем она есть на самом деле, предполагать, что события отражают большую причинно-следственную связь, чем они есть на самом деле.
Но люди хотят верить, что программа «видит» футбольный матч на каком-то правдоподобном уровне абстракции. Слова, которыми (программа) манипулирует, настолько полны ассоциаций для читателей, что НЕ МОГУТ быть лишены всех своих образов. Коллинз, конечно, знал, что его программа не имеет дело ни с чем, напоминающим двумерный мир плавно движущихся точек (не говоря уже об упрощенных человеческих телах), и, по-видимому, он думал, что его читатели тоже это поймут. Однако он и не подозревал, насколько силен эффект Элизы.
«Эффект Элизы» — тенденция людей относиться к программам, которые реагируют на них, как будто у них больше интеллекта, чем на самом деле (Weizenbaum 1966), — один из самых мощных инструментов, доступных создателям виртуальных персонажей.
{{cite book}}
: CS1 maint: отсутствует местоположение издателя ( ссылка )