stringtranslate.com

Тест Тьюринга

«Стандартная интерпретация» теста Тьюринга, в которой игроку C, допрашивающему, дается задача попытаться определить, какой игрок — A или B — является компьютером, а какой — человеком. Для вынесения решения следователь ограничивается использованием ответов на письменные вопросы. [1]

Тест Тьюринга , первоначально названный Аланом Тьюрингом в 1950 году игрой в имитацию [2] , представляет собой тест способности машины демонстрировать разумное поведение , эквивалентное человеческому или неотличимое от него. Тьюринг предположил, что оценщик-человек будет оценивать разговоры на естественном языке между человеком и машиной, предназначенной для генерации ответов, подобных человеческим. Оценщик будет знать, что один из двух собеседников является машиной, и все участники будут отделены друг от друга. Разговор будет ограничен только текстовым каналом, таким как клавиатура и экран компьютера, поэтому результат не будет зависеть от способности машины отображать слова как речь. [3] Если бы оценщик не мог достоверно отличить машину от человека, можно было бы сказать, что машина прошла испытание. Результаты теста не будут зависеть от способности машины давать правильные ответы на вопросы , а только от того, насколько ее ответы будут похожи на те, которые дал бы человек. Поскольку тест Тьюринга представляет собой тест неотличимости производительности, вербальная версия естественным образом обобщает все человеческие способности, как вербальные, так и невербальные (роботизированные). [4]

Этот тест был представлен Тьюрингом в его статье 1950 года « Вычислительная техника и интеллект », когда он работал в Манчестерском университете . [5] Он открывается словами: «Я предлагаю рассмотреть вопрос: «Могут ли машины мыслить? »» . Поскольку «мышление» трудно определить, Тьюринг предпочитает «заменить этот вопрос другим, который тесно с ним связан и выражается относительно однозначными словами». [6] Тьюринг описывает новую форму задачи в терминах игры для трех человек, называемой «игрой в имитацию», в которой следователь задает вопросы мужчине и женщине в другой комнате, чтобы определить правильный пол. два игрока. Новый вопрос Тьюринга звучит так: «Существуют ли вообразимые цифровые компьютеры, которые преуспели бы в игре в имитацию[2] На этот вопрос, по мнению Тьюринга, действительно можно было ответить. В оставшейся части статьи он выступил против всех основных возражений против утверждения о том, что «машины могут думать». [7]

С тех пор, как Тьюринг представил свой тест, он пользовался большим влиянием и широкой критикой и стал важной концепцией в философии искусственного интеллекта . [8] [9] [10] Философ Джон Сирл прокомментировал тест Тьюринга в своей аргументации в китайской комнате , мысленный эксперимент, который предполагает, что машина не может иметь « разум », « понимание » или « сознание », независимо от того, насколько разумно или по-человечески программа может заставить компьютер вести себя. Сирл критикует тест Тьюринга и утверждает, что его недостаточно для обнаружения присутствия сознания. Серл продолжает оспаривать представление о том, что разум ( ментальное познание ) может существовать вне тела, — убеждение, известное как картезианский дуализм .

История

Философская подоплека

Вопрос о том, могут ли машины мыслить, имеет долгую историю, которая прочно укоренилась в различии между дуалистическим и материалистическим взглядами на разум. Рене Декарт является прообразом аспектов теста Тьюринга в своем «Рассуждении о методе» 1637 года , когда он пишет:

[Как] много разных автоматов или движущихся машин могло бы быть создано человеческой промышленностью... Ибо мы можем легко понять, что машина устроена так, что она может произносить слова и даже излучать некоторые реакции на действия над ней телесного рода. , что вызывает изменение в его органах; например, если прикоснуться к определенной части, он может спросить, что мы хотим ему сказать; если в другой части он может воскликнуть, что ему причиняют боль, и так далее. Но никогда не бывает так, чтобы оно по-разному устраивало свою речь, чтобы соответственно ответить на все, что можно сказать в его присутствии, как это может сделать даже самый низший тип человека. [11]

Здесь Декарт отмечает, что автоматы способны реагировать на человеческие взаимодействия, но утверждает, что такие автоматы не могут реагировать соответствующим образом на слова, сказанные в их присутствии, так, как это может сделать любой человек. Таким образом, Декарт является прообразом теста Тьюринга, определяя недостаточность соответствующей языковой реакции как то, что отделяет человека от автомата. Декарт не учитывает возможность того, что будущие автоматы смогут преодолеть такую ​​недостаточность, и поэтому не предлагает тест Тьюринга как таковой, даже если он является прообразом его концептуальной основы и критерия.

Дени Дидро формулирует в своей книге «Философские мысли» 1746 года критерий теста Тьюринга, хотя и с сохранением важного неявного ограничивающего предположения, согласно которому участники являются естественными живыми существами, а не учитывают созданные артефакты:

Если бы они нашли попугая, который мог бы ответить на все вопросы, я бы без колебаний назвал его разумным существом.

Это не значит, что он с этим согласен, но то, что это уже было обычным рассуждением материалистов того времени.

Согласно дуализму, разум нефизичен (или, по крайней мере, обладает нефизическими свойствами ) [12] и, следовательно, не может быть объяснен в чисто физических терминах . Согласно материализму, разум можно объяснить физически, что оставляет открытой возможность существования разума, созданного искусственно. [13]

В 1936 году философ Альфред Айер задумался над стандартным философским вопросом, касающимся других умов : откуда мы знаем, что другие люди имеют тот же сознательный опыт, что и мы? В своей книге « Язык, истина и логика » Айер предложил протокол, позволяющий различать сознательного человека и бессознательную машину: «Единственное основание, которое я могу иметь для утверждения, что объект, который кажется сознательным, на самом деле не является сознательным существом, но только манекен или машина, заключается в том, что она не удовлетворяет одному из эмпирических тестов, с помощью которых определяется наличие или отсутствие сознания». [14] (Это предположение очень похоже на тест Тьюринга, но нет уверенности в том, что популярная философская классика Айера была знакома Тьюрингу.) Другими словами, вещь не является сознательной, если она не проходит тест на сознание.

Культурный фон

Тесты, в которых человек определяет, разумен ли компьютер или инопланетянин, были устоявшейся традицией в научной фантастике к 1940-м годам, и вполне вероятно, что Тьюринг знал о них. [15] Книга Стэнли Г. Вайнбаума «Марсианская одиссея» (1934) представляет собой пример того, насколько детальными могут быть такие испытания. [15]

Более ранние примеры машин или автоматов, пытающихся выдать себя за людей, включают древнегреческий миф о Пигмалионе , который создает скульптуру женщины, оживляемую Афродитой , роман Карло Коллоди «Приключения Пиноккио» о марионетке, которая хочет стать реальной. мальчика и рассказ Э.Т.А. Гофмана 1816 года « Песочный человек », где главный герой влюбляется в автомат. Во всех этих примерах людей обманывают искусственные существа, которые — до определенного момента — выдают себя за людей. [16]

Алан Тьюринг и игра в имитацию

Исследователи в Соединенном Королевстве изучали «машинный интеллект» в течение десяти лет до основания области исследований искусственного интеллекта ( ИИ ) в 1956 году . [17] Это была общая тема среди членов Ratio Club . неофициальная группа британских исследователей кибернетики и электроники , в которую входил Алан Тьюринг. [18]

Тьюринг, в частности, выдвигал идею машинного интеллекта, по крайней мере, с 1941 года [19], а одно из самых ранних известных упоминаний о «компьютерном интеллекте» было сделано им в 1947 году . [20] В докладе Тьюринга «Интеллектуальные машины» «, [21] он исследовал «вопрос о том, возможно ли, чтобы машины демонстрировали разумное поведение» [22] и в рамках этого исследования предложил то, что можно считать предшественником его более поздних испытаний:

Нетрудно изобрести бумажную машину, которая будет играть в неплохие шахматы. [23] Теперь возьмите трех мужчин A, B и C в качестве субъектов для эксперимента. А и С должны быть довольно плохими шахматистами, Б — оператором бумагоделательной машины. ... Используются две комнаты с некоторыми приспособлениями для обмена ходами, и игра ведется между C и A или бумагоделательной машиной. Игроку C может быть довольно сложно определить, на каком игроке он играет. [24]

« Вычислительная техника и интеллект » (1950) была первой опубликованной работой Тьюринга, посвященной исключительно машинному интеллекту. Тьюринг начинает статью 1950 года с заявления: «Я предлагаю рассмотреть вопрос: «Могут ли машины думать? » » [6] Как он подчеркивает, традиционный подход к такому вопросу состоит в том, чтобы начать с определений , определяя оба термина «машина» и «думать». Тьюринг предпочитает не делать этого; вместо этого он заменяет вопрос новым, «который тесно связан с ним и выражен сравнительно недвусмысленными словами». [6] По сути, он предлагает заменить вопрос «Могут ли машины думать?» на «Могут ли машины делать то, что можем мы (как мыслящие существа)?» [25] Преимущество нового вопроса, утверждает Тьюринг, состоит в том, что он проводит «довольно резкую грань между физическими и интеллектуальными способностями человека». [26]

Чтобы продемонстрировать этот подход, Тьюринг предлагает тест, вдохновленный игрой для вечеринок , известной как «игра в имитацию», в которой мужчина и женщина идут в разные комнаты, а гости пытаются отличить их друг от друга, записывая серию вопросов и читая машинописные тексты. ответы отправлены обратно. В этой игре и мужчина, и женщина стремятся убедить гостей, что они другие. (Хума Шах утверждает, что эта версия игры для двух человек была представлена ​​Тьюрингом только для того, чтобы познакомить читателя с тестом «вопрос-ответ» человека и машины. [27] ) Тьюринг описал свою новую версию игры следующим образом:

Теперь мы задаем вопрос: «Что произойдет, когда машина возьмет на себя роль А в этой игре?» Будет ли следователь принимать ошибочные решения при таком виде игры так же часто, как и при игре между мужчиной и женщиной? Эти вопросы заменяют наш первоначальный вопрос: «Могут ли машины думать?» [26]

Далее в статье Тьюринг предлагает «эквивалентную» альтернативную формулировку, в которой судья разговаривает только с компьютером и человеком. [28] Хотя ни одна из этих формулировок не соответствует в точности версии теста Тьюринга, которая сегодня более широко известна, в 1952 году он предложил третью. В этой версии, которую Тьюринг обсуждал в радиопередаче BBC , присяжные задают вопросы компьютеру. и роль компьютера состоит в том, чтобы заставить значительную часть присяжных поверить, что это действительно мужчина. [29]

В статье Тьюринга рассматривались девять предполагаемых возражений, в том числе некоторые из основных аргументов против искусственного интеллекта , выдвинутых за годы, прошедшие после публикации статьи (см. « Вычислительная техника и интеллект »). [7]

ЭЛИЗА и ПЭРРИ

В 1966 году Джозеф Вайценбаум создал программу, которая, по-видимому, прошла тест Тьюринга. Программа, известная как ELIZA , работала, проверяя набранные пользователем комментарии на предмет ключевых слов. Если ключевое слово найдено, применяется правило, преобразующее комментарии пользователя, и возвращается результирующее предложение. Если ключевое слово не найдено, ELIZA отвечает либо общим ответом, либо повторением одного из предыдущих комментариев. [30] Кроме того, Вайценбаум разработал ELIZA, чтобы воспроизвести поведение психотерапевта Роджера , позволяя ELIZA «свободно принимать позу почти ничего не знающего о реальном мире». [31] С помощью этих методов программа Вайценбаума смогла обмануть некоторых людей, заставив их поверить, что они разговаривают с реальным человеком, при этом некоторых испытуемых «очень трудно убедить, что ЭЛИЗА [...] не человек ». [31] Таким образом, некоторые утверждают, что ELIZA является одной из программ (возможно, первой), способной пройти тест Тьюринга, [31] [32] , хотя эта точка зрения весьма спорна (см. «Наивность следователей» ниже).

Кеннет Колби создал PARRY в 1972 году, программу, названную «ЭЛИЗА с отношением». [33] Была предпринята попытка смоделировать поведение параноидального шизофреника , используя аналогичный (хотя и более продвинутый) подход, использованный Вейценбаумом. Для проверки работы PARRY был протестирован в начале 1970-х годов с использованием варианта теста Тьюринга. Группа опытных психиатров проанализировала сочетание реальных пациентов и компьютеров, запускающих PARRY через телетайпы . Другой группе из 33 психиатров были показаны стенограммы разговоров. Затем обеим группам было предложено определить, кто из «пациентов» был человеком, а кто — компьютерной программой. [34] Психиатры смогли сделать правильную идентификацию только в 52 процентах случаев – цифра, согласующаяся со случайным угадыванием. [34]

В 21 веке версии этих программ (теперь известные как « чат-боты ») продолжают обманывать людей. «CyberLover», вредоносная программа, охотится на пользователей Интернета, убеждая их «раскрыть информацию о своей личности или заставить их посетить веб-сайт, который будет доставлять вредоносный контент на их компьютеры». [35] Программа возникла как «Валентинский риск», флиртующий с людьми, «ищущими отношений в Интернете с целью сбора своих личных данных». [36]

Китайская комната

В статье Джона Сирла 1980 года «Разум, мозг и программы » был предложен мысленный эксперимент « Китайская комната » и доказано, что тест Тьюринга нельзя использовать для определения способности машины думать. Сирл отметил, что программное обеспечение (такое как ELIZA) может пройти тест Тьюринга, просто манипулируя символами, которые они не понимают. Без понимания их нельзя было бы назвать «думающими» в том же смысле, в каком это делают люди. Таким образом, заключил Сирл, тест Тьюринга не может доказать, что машины могут думать. [37] Как и сам тест Тьюринга, аргумент Сирла подвергался широкой критике [38] и поддержался. [39]

Аргументы, подобные аргументам Сирла и других авторов, занимающихся философией разума , вызвали более интенсивные дебаты о природе интеллекта, возможности существования машин с сознательным разумом и ценности теста Тьюринга, которые продолжались на протяжении 1980-х и 1990-х годов. [40]

Премия Лебнера

Премия Лебнера обеспечивает ежегодную платформу для практических тестов Тьюринга, первый конкурс состоялся в ноябре 1991 года. [41] Ее спонсором является Хью Лебнер . Кембриджский центр поведенческих исследований в Массачусетсе , США, организовал призы вплоть до конкурса 2003 года. По словам Лебнера, одной из причин создания конкурса является улучшение состояния исследований ИИ, по крайней мере частично, потому что никто не предпринял шагов для реализации теста Тьюринга, несмотря на 40 лет его обсуждения. [42]

Первый конкурс на премию Лебнера в 1991 году привел к возобновлению дискуссии о жизнеспособности теста Тьюринга и ценности его проведения как в популярной прессе [43] , так и в научных кругах. [44] Первый конкурс выиграла бессмысленная программа без поддающегося выявлению интеллекта, которой удалось обмануть наивных следователей, заставив их сделать неправильную идентификацию. Это выявило несколько недостатков теста Тьюринга (обсуждаемых ниже): Победитель победил, по крайней мере частично, потому что смог «имитировать человеческие ошибки ввода»; [43] неискушенных следователей было легко обмануть; [44] и некоторые исследователи ИИ пришли к выводу, что тест — это просто отвлечение от более плодотворных исследований. [45]

Серебряный (только текст) и золотой (аудио и визуальный) призы так и не были выиграны. Однако конкурс каждый год присуждает бронзовую медаль за компьютерную систему, которая, по мнению судей, демонстрирует «самое человечное» диалоговое поведение среди работ того года. Искусственная лингвистическая Интернет-компьютерная организация (ALICE) за последнее время трижды получала бронзовую награду (2000, 2001, 2004). «Изучение искусственного интеллекта» Джабберваки выигрывал в 2005 и 2006 годах.

Премия Лебнера проверяет разговорный интеллект; победителями обычно становятся программы -чат-боты или искусственные диалоговые сущности (ACE) . Ранние правила премии Лебнера ограничивали разговоры: каждый участник и скрытый человек разговаривали на одну тему, [46] таким образом, следователи были ограничены одной линией допроса на каждое взаимодействие с сущностью. Правило ограниченного разговора было отменено для премии Лёбнера 1995 года. Продолжительность взаимодействия между судьей и субъектом в рамках премий Лебнера различалась. В Лебнере 2003 года в Университете Суррея каждому следователю было предоставлено пять минут на взаимодействие с сущностью, машиной или скрытым человеком. В период с 2004 по 2007 год время взаимодействия, разрешенное в рамках Премий Лебнера, составляло более двадцати минут.

Чат-бот Google LaMDA

В июне 2022 года чат-бот Google LaMDA (Языковая модель для диалоговых приложений) получил широкое освещение в связи с утверждениями о том, что он достиг разумности. Первоначально в статье в The Economist научный сотрудник Google Блез Агуэра-и-Аркас сказал, что чат-бот продемонстрировал определенную степень понимания социальных отношений. [47] Несколько дней спустя инженер Google Блейк Лемуан заявил в интервью Washington Post , что LaMDA обрела разум. Лемуана отправили в отпуск из-за внутренних заявлений по этому поводу. Агуэра-и-Аркас (вице-президент Google) и Джен Дженнаи (руководитель отдела ответственных инноваций) расследовали претензии, но отклонили их. [48] ​​Утверждение Лемуана было категорически отвергнуто другими экспертами в этой области, указав, что языковая модель, которая, по-видимому, имитирует человеческий разговор, не указывает на то, что за ней стоит какой-либо разум, [49] несмотря на то, что она, казалось бы, прошла тест Тьюринга. Широкая дискуссия со стороны сторонников и противников утверждения о том, что LaMDA достигла разумности, вызвала дискуссии на платформах социальных сетей, в том числе определение значения разума, а также того, что значит быть человеком.

Версии

Имитационная игра, описанная Аланом Тьюрингом в книге «Вычислительная техника и интеллект». Игрок С с помощью серии письменных вопросов пытается определить, кто из двух других игроков мужчина, а кто из двоих женщина. Игрок А, мужчина, пытается обманом заставить игрока С принять неправильное решение, в то время как игрок Б пытается помочь игроку С. Рисунок адаптирован из Сайгина, 2000. [8]

Сол Трейгер утверждает, что существует по крайней мере три основных версии теста Тьюринга, две из которых предлагаются в «Вычислительной технике и интеллекте», а одну он описывает как «Стандартную интерпретацию». [50] Хотя ведутся споры о том, является ли «Стандартная интерпретация» той, которую описал Тьюринг, или же она основана на неправильном прочтении его статьи, эти три версии не считаются эквивалентными, [50] и их сильные и слабые стороны отчетливый. [51]

В оригинальной статье Тьюринга описывается простая групповая игра с участием трех игроков. Игрок А — мужчина, игрок Б — женщина и игрок С (играющий роль следователя) — любого пола. В имитационной игре игрок С не может видеть ни игрока А, ни игрока Б и может общаться с ними только посредством письменных заметок. Задавая вопросы игроку А и игроку Б, игрок С пытается определить, кто из двоих мужчина, а кто женщина. Роль игрока А состоит в том, чтобы обманом заставить допрашивающего принять неправильное решение, в то время как игрок Б пытается помочь допрашивающему принять правильное решение. [8]

Затем Тьюринг спрашивает:

«Что произойдет, если машина возьмет на себя роль А в этой игре? Будет ли следователь принимать ошибочные решения, когда игра ведется таким образом, как он делает это, когда игра ведется между мужчиной и женщиной?» Эти вопросы заменяют наш первоначальный вопрос: «Могут ли машины думать?» [26]

Оригинальный имитационный игровой тест, в котором игрока А заменяет компьютер. Теперь компьютеру поручена роль мужчины, а игрок Б продолжает попытки помочь следователю. Рисунок адаптирован из Сайгина, 2000. [8]

Вторая версия появилась позже в статье Тьюринга 1950 года. Как и в оригинальном имитационном игровом тесте, роль игрока А выполняет компьютер. Однако роль игрока Б выполняет мужчина, а не женщина.

Давайте сосредоточим наше внимание на одном конкретном цифровом компьютере C. Верно ли, что, модифицировав этот компьютер, чтобы он имел достаточный объем памяти, соответствующим образом увеличив скорость его действия и снабдив его соответствующей программой, можно заставить C удовлетворительно выполнять свою роль А в имитационной игре роль Б занимает мужчина? [26]

В этой версии и игрок А (компьютер), и игрок Б пытаются обманом заставить следователя принять неправильное решение.

Стандартная интерпретация не включена в оригинальную статью, но одновременно принимается и обсуждается. Общепринято считать, что цель теста Тьюринга состоит не в том, чтобы определить, способен ли компьютер обмануть следователя, заставив его поверить, что он человек, а в том, может ли компьютер имитировать человека. [8] Хотя существует некоторый спор о том, была ли эта интерпретация задумана Тьюрингом, Стерретт считает, что это была [52] и, таким образом, объединяет вторую версию с этой, в то время как другие, такие как Трейгер, этого не делают [50]  – это, тем не менее, имеет привело к тому, что можно рассматривать как «стандартную интерпретацию». В этой версии игрок А — компьютер, а игрок Б — человек любого пола. Роль следователя состоит не в том, чтобы определить, кто мужчина, а кто женщина, а в том, кто компьютер, а кто человек. [53] Фундаментальная проблема стандартной интерпретации заключается в том, что следователь не может отличить, кто из отвечающих — человек, а кто — машина. Существуют вопросы по поводу продолжительности, но стандартная интерпретация обычно считает это ограничение разумным.

Интерпретации

Споры возникли по поводу того, какую из альтернативных формулировок теста имел в виду Тьюринг. [52] Стерретт утверждает, что из его статьи 1950 года можно извлечь два различных теста и что, согласно замечанию Тьюринга, они не эквивалентны. Тест, в котором используется групповая игра и сравнивается частота успеха, называется «Оригинальным тестом в имитационной игре», тогда как тест, в котором судья-человек разговаривает с человеком и машиной, называется «Стандартным тестом Тьюринга». отмечая, что Стерретт приравнивает это к «стандартной интерпретации», а не ко второй версии имитационной игры. Стерретт согласен, что стандартный тест Тьюринга (STT) имеет проблемы, на которые ссылаются его критики, но считает, что, напротив, оригинальный тест имитационной игры (OIG), определенный таким образом, невосприимчив ко многим из них из-за существенного различия: в отличие от STT, он не делает критерием сходство с человеческими способностями, хотя и использует человеческие способности при установлении критерия машинного интеллекта. Мужчина может провалить тест OIG, но утверждается, что достоинством теста интеллекта является то, что неудача указывает на недостаток изобретательности: тест OIG требует находчивости, связанной с интеллектом, а не просто «симуляции человеческого разговорного поведения». Общая структура теста OIG может использоваться даже с невербальными версиями имитационных игр. [54]

По словам Хумы Шаха, Тьюринг сам был обеспокоен тем, может ли машина думать, и предлагал простой метод проверки этого: посредством сеансов вопросов и ответов между человеком и машиной. [55] Шах утверждает, что имитационную игру, описанную Тьюрингом, можно реализовать на практике двумя различными способами: а) тест «один на один» между следователем и машиной и б) одновременное сравнение машины с человеком, оба из которых допрашиваются параллельно следователем. . [27]

Третьи авторы [56] интерпретировали Тьюринга как предположение о том, что имитационная игра сама по себе является тестом, не уточняя, как учитывать утверждение Тьюринга о том, что тест, который он предложил с использованием партийной версии имитационной игры, основан на критерии сравнительного сравнения. частота успеха в этой имитационной игре, а не способность добиться успеха в одном раунде игры.

Некоторые авторы утверждают, что имитационную игру лучше всего понять через ее социальные аспекты. В своей статье 1948 года Тьюринг называет интеллект «эмоциональной концепцией» и отмечает, что

Степень, в которой мы считаем что-то разумным, определяется как нашим собственным состоянием ума и тренировкой, так и свойствами рассматриваемого объекта. Если мы способны объяснить и предсказать его поведение или если кажется, что в его основе нет никакого плана, у нас мало искушения представить разум. Следовательно, с одним и тем же объектом один человек может считать его разумным, а другой — нет; второй человек узнал бы правила его поведения. [57]

Следуя этому замечанию и аналогичным замечаниям, разбросанным по публикациям Тьюринга, Дайан Праудфут [58] утверждает, что Тьюринг придерживался подхода к интеллекту, основанного на реакции , согласно которому разумная (или мыслящая) сущность — это сущность, которая кажется разумной среднестатистическому следователю. Бернардо Гонсалвеш показывает, что, хотя Тьюринг использовал риторику введения своего теста как своего рода решающий эксперимент, чтобы решить, можно ли сказать, что машины думают, [59] фактическое представление его теста удовлетворяет хорошо известным свойствам мысленных экспериментов в современной научной литературе. традиция Галилея. [60] Шломо Данцигер [61] продвигает социально-технологическую интерпретацию, согласно которой Тьюринг рассматривал имитационную игру не как тест на интеллект, а как технологическое стремление, реализация которого, вероятно, повлечет за собой изменение отношения общества к машинам. Согласно этому прочтению, знаменитое 50-летнее предсказание Тьюринга о том, что к концу 20-го века его тест пройдет какая-то машина, на самом деле состоит из двух различных предсказаний. Первый — технологический прогноз:

Я считаю, что лет через пятьдесят можно будет запрограммировать компьютеры... заставить их играть в имитационную игру настолько хорошо, что у среднего следователя будет не более 70% шансов правильно опознать после пяти минут допроса. . [62]

Второе предсказание Тьюринга носит социологический характер:

Я считаю, что в конце столетия употребление слов и общее мнение образованных людей изменятся настолько, что можно будет говорить о машинном мышлении, не ожидая, что вам будут возражать. [62]

Данцигер утверждает далее, что для Тьюринга изменение отношения общества к машинам является предпосылкой существования разумных машин: Только когда термин «разумная машина» больше не будет рассматриваться как оксюморон, существование разумных машин станет логически возможным .

Сайгин предположил, что, возможно, оригинальная игра — это способ предложить менее предвзятый экспериментальный дизайн, поскольку он скрывает участие компьютера. [63] Имитационная игра также включает в себя «социальный хак», которого нет в стандартной интерпретации, поскольку в игре и компьютер, и человек мужского пола должны играть, притворяясь тем, кем они не являются. [64]

Должен ли следователь знать о компьютере?

Важнейшей частью любого лабораторного исследования является наличие контроля. Тьюринг никогда не уточняет, осознает ли следователь в своих тестах, что одним из участников является компьютер. Он утверждает только, что игрок А должен быть заменен машиной, а не что игрок С должен быть уведомлен об этой замене. [26] Когда Колби, Ф.Д. Хильф, С. Вебер и А.Д. Крамер тестировали PARRY, они делали это, предполагая, что следователям не нужно знать, что один или несколько из допрашиваемых во время допроса использовали компьютер. [65] Как подчеркнули Айше Сайгин, Питер Свирски, [66] и другие, это имеет большое значение для реализации и результатов теста. [8] Экспериментальное исследование нарушений максимы Грайса с использованием стенограмм приза Лёбнера «один на один» (скрытый собеседник) в конкурсах ИИ в период с 1994 по 1999 год, Айше Сайгин обнаружила значительные различия между ответами участников, которые знали и не знали. знать о задействованных компьютерах. [67]

Сильные стороны

Удобство и простота

Сила и привлекательность теста Тьюринга проистекают из его простоты. Философия разума , психология и современная нейробиология не смогли дать определения «интеллекта» и «мышления», которые были бы достаточно точными и общими, чтобы их можно было применить к машинам. Без таких определений невозможно ответить на центральные вопросы философии искусственного интеллекта . Тест Тьюринга, даже если он несовершенен, по крайней мере дает то, что действительно можно измерить. По существу, это прагматичная попытка ответить на сложный философский вопрос.

Широта тематики

Формат теста позволяет следователю давать машине самые разнообразные интеллектуальные задачи. Тьюринг писал, что «метод вопросов и ответов, кажется, подходит для знакомства практически с любой из областей человеческой деятельности, которые мы хотим включить». [68] Джон Хаугеланд добавляет, что «понимания слов недостаточно; нужно также понимать тему ». [69]

Чтобы пройти хорошо продуманный тест Тьюринга, машина должна использовать естественный язык , рассуждать , обладать знаниями и учиться . Тест можно расширить, включив в него видеовход, а также «люк», через который можно пропускать предметы: это также заставит машину продемонстрировать умелое использование хорошо продуманного зрения и робототехники . Вместе они представляют почти все основные проблемы, которые исследования искусственного интеллекта хотели бы решить. [70]

Тест Фейгенбаума предназначен для использования широкого спектра тем, доступных для теста Тьюринга. Это ограниченная форма игры «вопрос-ответ» Тьюринга, в которой машина сравнивается со способностями экспертов в конкретных областях, таких как литература или химия .

Акцент на эмоциональном и эстетическом интеллекте.

Ожидалось, что Тьюринг, будучи выпускником Кембриджа по математике с отличием, предложит тест компьютерного интеллекта, требующий экспертных знаний в какой-то высокотехнической области и, таким образом, предвосхищающий более современный подход к этому предмету . Вместо этого, как уже отмечалось, тест, который он описал в своей основополагающей статье 1950 года, требует, чтобы компьютер был в состоянии успешно конкурировать в обычной групповой игре, и для этого он должен действовать так же хорошо, как обычный человек, отвечая на ряд вопросов, чтобы убедительно притворитесь участницей конкурса.

Учитывая статус полового диморфизма человека как одного из самых древних субъектов , из приведенного выше сценария неявно следует, что вопросы, на которые предстоит ответить, не будут включать ни специализированные фактические знания, ни методы обработки информации. Задача компьютера, скорее, будет заключаться в том, чтобы продемонстрировать сочувствие к роли женщины, а также продемонстрировать характерную эстетическую чувствительность — оба эти качества демонстрируются в этом фрагменте диалога, который вообразил Тьюринг:

Следователь: Скажите, пожалуйста, Х, длину его или ее волос?
Участница: Мои волосы расчесаны, а самые длинные пряди имеют длину около девяти дюймов.

Когда Тьюринг вводит некоторые специальные знания в один из своих воображаемых диалогов, речь идет не о математике или электронике, а о поэзии:

Следователь: В первой строке вашего сонета, которая гласит: «Сравнить ли мне тебя с летним днем», не подойдет ли «весенний день» так же или даже лучше?
Свидетель: Он не сканировал .
Следователь: Как насчет «зимнего дня»? Это будет нормально сканировать.
Свидетель: Да, но никто не хочет, чтобы его сравнивали с зимним днем.

Таким образом, Тьюринг еще раз демонстрирует свой интерес к эмпатии и эстетической чувствительности как компонентам искусственного интеллекта; и в свете растущего осознания угрозы со стороны вышедшего из-под контроля ИИ [71] было высказано предположение [72] , что этот фокус, возможно, представляет собой критическую интуицию со стороны Тьюринга, т.е. что эмоциональный и эстетический интеллект будет играть ключевую роль в создании « дружественного ИИ ». Далее отмечается, однако, что любое вдохновение, которое Тьюринг мог бы оказать в этом направлении, зависит от сохранения его первоначального видения, то есть, далее, что распространение «стандартной интерпретации» теста Тьюринга, т.е. , который фокусируется только на дискурсивном интеллекте, следует рассматривать с некоторой осторожностью.

Недостатки

Тьюринг прямо не заявил, что тест Тьюринга можно использовать в качестве меры « интеллекта » или любого другого человеческого качества. Он хотел предложить ясную и понятную альтернативу слову «думать», которую он затем мог бы использовать, чтобы ответить на критику возможности «мыслящих машин» и предложить пути дальнейшего развития исследований.

Тем не менее, тест Тьюринга был предложен как мера «способности машины думать» или ее «интеллекта». Это предложение подверглось критике как со стороны философов, так и ученых-компьютерщиков. Интерпретация предполагает, что следователь может определить, «думает» ли машина, сравнивая ее поведение с поведением человека. Каждый элемент этого предположения был подвергнут сомнению: надежность суждения следователя, ценность сравнения машины с человеком и ценность сравнения только поведения. Из-за этих и других соображений некоторые исследователи ИИ поставили под сомнение актуальность теста для их области.

Наивность следователей

На практике результаты теста могут легко зависеть не от интеллекта компьютера, а от отношения, навыков или наивности спрашивающего. Многочисленные эксперты в этой области, в том числе ученый-когнитивист Гэри Маркус , настаивают на том, что тест Тьюринга лишь показывает, насколько легко обмануть людей, и не является показателем машинного интеллекта. [73]

Тьюринг не указывает точные навыки и знания, необходимые следователю в своем описании теста, но он использовал термин «средний следователь»: «[средний] следователь не будет иметь более 70 процентов шансов сделать правильный выбор». опознание после пяти минут допроса». [62]

Программы Chatterbot, такие как ELIZA, неоднократно обманывали ничего не подозревающих людей, заставляя их поверить, что они общаются с людьми. В этих случаях «дознаватели» даже не подозревают о возможности взаимодействия с компьютерами. Чтобы успешно казаться человеком, машине не обязательно обладать каким-либо интеллектом, достаточно лишь поверхностного сходства с человеческим поведением.

В первых конкурсах на получение премии Лебнера использовались «неискушенные» следователи, которых машины легко обманули. [44] С 2004 года организаторы премии Лебнера привлекали к допросам философов, ученых-компьютерщиков и журналистов. Тем не менее, некоторые из этих экспертов были обмануты машинами. [74]

Одной из интересных особенностей теста Тьюринга является частота эффекта конфедерации , когда люди-конфедераты (испытуемые) ошибочно принимаются следователями за машины. Было высказано предположение, что то, что следователи ожидают от человеческих ответов, не обязательно типично для людей. В результате некоторых людей можно отнести к машинам. Таким образом, это может сработать в пользу конкурирующей машины. Людям приказано «действовать самостоятельно», но иногда их ответы больше похожи на то, что следователь ожидает от машины. [75] Это поднимает вопрос о том, как обеспечить мотивацию людей «вести себя по-человечески».

Человеческий интеллект против интеллекта в целом

Тест Тьюринга не проверяет напрямую, разумно ли ведет себя компьютер. Он проверяет только то, ведет ли компьютер себя как человек. Поскольку человеческое поведение и интеллектуальное поведение — это не одно и то же, тест может не дать точного измерения интеллекта по двум причинам:

Некоторые виды человеческого поведения неразумны
Тест Тьюринга требует, чтобы машина могла выполнять все человеческие действия, независимо от того, являются ли они разумными. Он даже проверяет поведение, которое вообще нельзя считать разумным, например, восприимчивость к оскорблениям, [76] искушение солгать или просто высокая частота ошибок при наборе текста . Если машина не может детально имитировать это неразумное поведение, она не проходит тест.
Это возражение было выдвинуто журналом The Economist в статье под названием « искусственная глупость » , опубликованной вскоре после первого конкурса на премию Лебнера в 1992 году. В статье отмечалось, что победа первого лауреата Лебнера была обусловлена, по крайней мере частично, его способностью «имитировать человеческие ошибки при наборе текста». [43] Сам Тьюринг предлагал программам добавлять ошибки в свой вывод, чтобы стать лучшими «игроками» в игре. [77]
Некоторое разумное поведение бесчеловечно
Тест Тьюринга не проверяет высокоинтеллектуальное поведение, такое как способность решать сложные проблемы или приходить к оригинальным идеям. На самом деле, это конкретно требует обмана со стороны машины: если машина умнее человека, она должна сознательно избегать показаться слишком умной. Если бы нужно было решить вычислительную задачу, которую человеку практически невозможно решить, тогда исследователь знал бы, что программа не является человеком, и машина не прошла бы тест.
Поскольку он не может измерить интеллект, превосходящий возможности человека, этот тест нельзя использовать для создания или оценки систем, которые более интеллектуальны, чем люди. По этой причине было предложено несколько альтернативных тестов, которые могли бы оценить сверхразумные системы. [78]

Сознание против симуляции сознания

Тест Тьюринга касается исключительно того, как действует субъект  – внешнего поведения машины. В этом отношении к изучению разума применяется бихевиористский или функционалистский подход. Пример ELIZA предполагает, что машина, прошедшая тест, может быть способна имитировать разговорное поведение человека, следуя простому (но большому) списку механических правил, не думая и вообще не задумываясь.

Джон Сирл утверждал, что внешнее поведение нельзя использовать для определения того, «на самом деле» думает машина или просто «симулирует мышление». [37] Его аргумент о китайской комнате призван показать, что, даже если тест Тьюринга является хорошим оперативным определением интеллекта, он не может указывать на то, что машина обладает разумом , сознанием или интенциональностью . (Интенциональность — это философский термин, обозначающий способность мысли быть «о» чем-то.)

Тьюринг предвосхитил эту линию критики в своей оригинальной статье [79] , написав:

Я не хочу создавать впечатление, что, по моему мнению, в сознании нет никакой тайны. Например, существует некий парадокс, связанный с любой попыткой его локализации. Но я не думаю, что эти загадки обязательно нужно разгадать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье. [80]

Непрактичность и бесполезность: тест Тьюринга и исследования искусственного интеллекта

Попытка ток-бота GPT-3

Ведущие исследователи ИИ утверждают, что попытка пройти тест Тьюринга — это просто отвлечение от более плодотворных исследований. [45] Действительно, тест Тьюринга не является активным объектом научных или коммерческих усилий — как пишут Стюарт Рассел и Питер Норвиг : «Исследователи ИИ уделяют мало внимания прохождению теста Тьюринга». [81] Причин несколько.

Во-первых, есть более простые способы протестировать их программы. Большинство современных исследований в областях, связанных с ИИ, направлены на скромные и конкретные цели, такие как распознавание объектов или логистика . Чтобы проверить интеллект программ, решающих эти проблемы, исследователи ИИ просто дают им задание напрямую. Стюарт Рассел и Питер Норвиг предлагают аналогию с историей полетов : самолеты проверяются по тому, насколько хорошо они летают, а не по сравнению с птицами. « Тексты по авиационной технике , — пишут они, — не определяют цель своей области как «создание машин, которые летают настолько точно, как голуби , что могут обмануть других голубей » » [81] .

Во-вторых, создание реалистичных симуляций людей само по себе является сложной проблемой, которую не нужно решать для достижения основных целей исследований ИИ. Правдоподобные человеческие персонажи могут быть интересны в произведении искусства, игре или сложном пользовательском интерфейсе , но они не являются частью науки создания интеллектуальных машин, то есть машин, решающих проблемы с помощью интеллекта.

Тьюринг не собирался использовать свою идею для проверки интеллекта программ — он хотел предоставить ясный и понятный пример, который поможет в обсуждении философии искусственного интеллекта . [82] Джон Маккарти утверждает, что нам не следует удивляться тому, что философская идея оказывается бесполезной для практического применения. Он отмечает, что философия ИИ «вряд ли окажет большее влияние на практику исследований ИИ, чем философия науки в целом оказывает на научную практику». [83] [84]

Языкоцентрическое возражение

Другое широко известное возражение, выдвинутое против теста Тьюринга, касается его исключительного внимания к языковому поведению (т.е. это всего лишь «языковый» эксперимент, в то время как все остальные когнитивные способности не проверяются). Этот недостаток умаляет роль других модально-специфичных «умных способностей» человека, которые предлагает учитывать психолог Говард Гарднер в своей « теории множественного интеллекта » (вербально-лингвистические способности — лишь одна из них). [85]

Тишина

Важнейшим аспектом теста Тьюринга является то, что машина должна выдавать себя за машину по своим высказываниям. Затем следователь должен провести «правильную идентификацию», правильно идентифицировав машину как таковую. Однако если машина молчит во время разговора, то собеседник не сможет точно идентифицировать машину, кроме как посредством расчетного предположения. [86] Даже учет параллельного/скрытого человека в рамках теста может не помочь ситуации, поскольку людей часто можно ошибочно принять за машину. [87]

Ловушка Тьюринга

Сосредотачиваясь на подражании людям, а не на увеличении или расширении человеческих возможностей, тест Тьюринга рискует направить исследования и внедрение на технологии, которые заменяют людей и тем самым снижают заработную плату и доходы работников. По мере того, как они теряют экономическую власть, эти рабочие могут также потерять политическую власть, что затрудняет им изменение распределения богатства и доходов. Это может привести их в ловушку плохого равновесия. Эрик Бриньольфссон назвал это «ловушкой Тьюринга» и заявил, что в настоящее время существует избыток стимулов для создания машин, которые имитируют, а не дополняют людей.

Вариации

На протяжении многих лет выдвигалось множество других версий теста Тьюринга, включая изложенные выше.

Обратный тест Тьюринга и CAPTCHA

Модификация теста Тьюринга, в которой цель одной или нескольких ролей между машинами и людьми поменялась местами, называется обратным тестом Тьюринга. Примером может служить работа психоаналитика Уилфреда Биона [88] , который был особенно очарован «штормом», возникающим в результате столкновения одного разума с другим. В своей книге 2000 года [66] среди нескольких других оригинальных моментов, касающихся теста Тьюринга, литературовед Питер Свирски подробно обсудил идею того, что он назвал тестом Свирского — по сути, обратного теста Тьюринга. Он отметил, что это преодолевает большинство, если не все стандартные возражения, выдвигаемые против стандартной версии.

Развивая эту идею, Р.Д. Хиншельвуд [89] описал разум как «аппарат, распознающий разум». Задача будет заключаться в том, чтобы компьютер смог определить, взаимодействует ли он с человеком или другим компьютером. Это расширение исходного вопроса, на который Тьюринг пытался ответить, но, возможно, предложил бы достаточно высокий стандарт, чтобы определить машину, которая могла бы «думать» способом, который мы обычно определяем как типично человеческий.

CAPTCHA — это разновидность обратного теста Тьюринга. Прежде чем разрешить совершить какое-либо действие на веб-сайте, пользователю предъявляют буквенно-цифровые символы в искаженном графическом изображении и просят их напечатать. Это сделано для предотвращения использования автоматизированных систем для злоупотреблений сайтом. Причина в том, что программного обеспечения, достаточно сложного для точного считывания и воспроизведения искаженного изображения, не существует (или оно недоступно обычному пользователю), поэтому любая система, способная это сделать, скорее всего, будет человеком.

Программное обеспечение, которое могло бы с некоторой точностью отменить CAPTCHA путем анализа шаблонов в генерирующем механизме, начало разрабатываться вскоре после создания CAPTCHA. [90] В 2013 году исследователи Vicarious объявили, что они разработали систему для решения задач CAPTCHA от Google , Yahoo! и PayPal в 90 % случаев. [91] В 2014 году инженеры Google продемонстрировали систему, способную решать задачи CAPTCHA с точностью 99,8%. [92] В 2015 году Шуман Госемаджумдер , бывший руководитель Google по мошенничеству с кликами , заявил, что существуют сайты киберпреступников , которые за определенную плату преодолевают проблемы CAPTCHA, чтобы обеспечить различные формы мошенничества. [93]

Отличие точного использования языка от фактического понимания

Дальнейший вариант мотивирован опасением, что современные системы обработки естественного языка оказываются очень успешными в генерации текста на основе огромного текстового корпуса и могут в конечном итоге пройти тест Тьюринга, просто манипулируя словами и предложениями, которые использовались при начальном обучении. модели. Поскольку опросчик не имеет точного понимания обучающих данных, модель может просто возвращать предложения, которые существуют одинаковым образом в огромном объеме обучающих данных. По этой причине Артур Шванингер предлагает вариант теста Тьюринга, который позволяет различать системы, способные только использовать язык, и системы, понимающие язык. Он предлагает тест, в котором машина сталкивается с философскими вопросами, которые не зависят от каких-либо предварительных знаний, но требуют саморефлексии для правильного ответа. [94]

Эксперт в предметной области Тест Тьюринга

Другой вариант описывается как тест Тьюринга эксперта по предметной области , при котором реакцию машины невозможно отличить от реакции эксперта в данной области. Это также известно как «тест Фейгенбаума» и было предложено Эдвардом Фейгенбаумом в статье 2003 года. [95]

Тест на когнитивные способности «низкого уровня»

Роберт Френч (1990) утверждает, что следователь может различать людей и нечеловеческих собеседников, задавая вопросы, раскрывающие низкоуровневые (т.е. бессознательные) процессы человеческого познания, изучаемые когнитивной наукой . Такие вопросы раскрывают точные детали человеческого воплощения мысли и могут разоблачить компьютер, если он не воспринимает мир так, как это делают люди. [96]

Полный тест Тьюринга

«Тотальный тест Тьюринга» [4] вариант теста Тьюринга, предложенный учёным-когнитивистом Стеваном Харнадом [ 97] добавляет два дополнительных требования к традиционному тесту Тьюринга. Следователь также может проверить перцептивные способности субъекта (требуется компьютерное зрение ) и способность субъекта манипулировать объектами (требуется робототехника ). [98]

Электронные медицинские карты

В письме, опубликованном в журнале Communications of the ACM [99], описывается концепция создания синтетической популяции пациентов и предлагается вариант теста Тьюринга для оценки разницы между синтетическими и реальными пациентами. В письме говорится: «В контексте EHR, хотя врач-человек может легко отличить синтетически созданных пациентов от реальных живых людей, может ли машина обладать интеллектом, чтобы сделать такое определение самостоятельно?» и далее в письме говорится: «Прежде чем синтетические личности пациентов станут проблемой общественного здравоохранения, законный рынок ЭМК может извлечь выгоду из применения методов, подобных тесту Тьюринга, для обеспечения большей надежности данных и диагностической ценности. Таким образом, любые новые методы должны учитывать гетерогенность пациентов и являются вероятно, будет более сложным, чем тест Аллена по естественным наукам для восьмого класса».

Минимальный интеллектуальный тест сигнала

Тест минимального интеллектуального сигнала был предложен Крисом МакКинстри как «максимальная абстракция теста Тьюринга» [100] , в котором разрешены только бинарные ответы (истина/ложь или да/нет), чтобы сосредоточиться только на способности мыслить. Он устраняет проблемы текстового чата, такие как предвзятость антропоморфизма, и не требует эмуляции неразумного человеческого поведения, что позволяет создавать системы, превосходящие человеческий интеллект. Однако каждый из вопросов должен быть самостоятельным, что делает его больше похожим на тест IQ , чем на допрос. Обычно он используется для сбора статистических данных, на основе которых можно измерить производительность программ искусственного интеллекта. [101]

Премия Хаттера

Организаторы премии Хаттера считают, что сжатие текста на естественном языке — сложная задача искусственного интеллекта, эквивалентная прохождению теста Тьюринга.

Тест сжатия данных имеет некоторые преимущества перед большинством версий и вариантов теста Тьюринга, в том числе:

Основными недостатками использования сжатия данных в качестве теста являются:

Другие тесты, основанные на сжатии или сложности Колмогорова.

Подход, похожий на премию Хаттера, который появился гораздо раньше, в конце 1990-х годов, — это включение задач сжатия в расширенный тест Тьюринга. [102] или с помощью тестов, полностью выведенных из колмогоровской сложности . [103] Другие родственные тесты в этой линии представлены Эрнандесом-Оралло и Доу. [104]

Алгоритмический IQ, или сокращенно AIQ, — это попытка превратить теоретическую меру универсального интеллекта Легга и Хаттера (основанную на индуктивном выводе Соломонова ) в работающий практический тест машинного интеллекта. [105]

Двумя основными преимуществами некоторых из этих тестов являются их применимость к нечеловеческому интеллекту и отсутствие требований к тестировщикам-людям.

тест Эберта

Тест Тьюринга вдохновил на создание теста Эберта , предложенного в 2011 году кинокритиком Роджером Эбертом , который представляет собой тест, обладает ли компьютерно-синтезированный голос достаточными навыками с точки зрения интонаций, интонаций, времени и т. д., чтобы заставить людей смеяться. [106]

Социальная игра Тьюринга

Воспользовавшись преимуществами больших языковых моделей , в 2023 году исследовательская компания AI21 Labs провела социальный онлайн-эксперимент под названием «Человек или нет?». [107] [108] В нее сыграли более 10 миллионов раз более 2 миллионов человек. [109] На тот момент это крупнейший эксперимент в стиле Тьюринга. Результаты показали, что 32% людей не могут отличить человека от машины. [110] [111]

Конференции

Коллоквиум Тьюринга

В 1990 году исполнилось сорок лет со дня первой публикации статьи Тьюринга «Вычислительная техника и интеллект», и интерес к тесту возобновился. В этом году произошли два важных события: первым стал коллоквиум Тьюринга, который состоялся в Университете Сассекса в апреле и собрал ученых и исследователей из самых разных дисциплин для обсуждения теста Тьюринга с точки зрения его прошлого и настоящего. и будущее; вторым стало учреждение ежегодного конкурса премии Лебнера .

Блей Уитби перечисляет четыре важнейших поворотных момента в истории теста Тьюринга: публикация «Вычислительной техники и интеллекта» в 1950 году, анонс ELIZA Джозефа Вайценбаума в 1966 году, создание Кеннетом Колби теста PARRY , который был впервые описан. в 1972 году и коллоквиум Тьюринга в 1990 году. [112]

Симпозиум AISB 2008 г.

Параллельно с вручением премии Лебнера 2008 года в Университете Рединга [113] Общество по изучению искусственного интеллекта и моделирования поведения (AISB) провело однодневный симпозиум по обсуждению теста Тьюринга, организованный Джоном Барнденом . , Марк Бишоп , Хума Шах и Кевин Уорвик . [114] Среди выступавших были директор Королевского института баронесса Сьюзан Гринфилд , Сельмер Брингсйорд , биограф Тьюринга Эндрю Ходжес и учёный, занимающийся сознанием Оуэн Холланд . Никакого соглашения по поводу канонического теста Тьюринга достигнуто не было, хотя Брингсйорд заявил, что крупный приз приведет к более быстрому прохождению теста Тьюринга.

Смотрите также

Примечания

  1. ^ Изображение адаптировано из Saygin 2000.
  2. ^ аб (Тьюринг 1950). Тьюринг писал о «игре в имитацию» центрально и подробно на протяжении всего своего текста 1950 года, но впоследствии, очевидно, отказался от этого термина. Он упомянул «[свой] тест» четыре раза — три раза на стр. 446–447 и один раз на стр. 446–447. 454. Он также назвал это «экспериментом» — однажды на с. 436, дважды на с. 455, и еще дважды на с. 457 — и использовал термин «viva voce» (стр. 446), см. Gonçalves (2023b, стр. 2). См. также #Версии ниже. Тьюринг дает более точную версию вопроса далее в статье: «[Эти] вопросы [эквивалентны] следующему: «Давайте сосредоточим наше внимание на одном конкретном цифровом компьютере C. Верно ли, что модифицировав этот компьютер так, чтобы он имел адекватное хранилище, соответствующим образом увеличивающее скорость его действий и снабжающее его соответствующей программой, можно заставить С удовлетворительно играть роль А в имитационной игре, причем роль Б берет на себя человек?» (Тьюринг, 1950 ) , стр. 442)
  3. ^ Тьюринг первоначально предложил телетайп , одну из немногих систем текстовой связи, доступных в 1950 году. (Тьюринг 1950, стр. 433)
  4. ^ ab Оппи, Грэм и Доу, Дэвид (2011). Тест Тьюринга. Архивировано 20 марта 2012 года в Wayback Machine . Стэнфордская энциклопедия философии .
  5. ^ «Тест Тьюринга, 1950». turing.org.uk . Интернет-альбом для вырезок Алана Тьюринга. Архивировано из оригинала 3 апреля 2019 года . Проверено 23 апреля 2015 г.
  6. ^ abc Тьюринг 1950, с. 433.
  7. ^ ab Turing 1950, стр. 442–454 и см. Russell & Norvig (2003, стр. 948), где они комментируют: «Тьюринг исследовал широкий спектр возможных возражений против возможности существования разумных машин, включая практически все те, которые был поднят за полвека с момента появления его статьи».
  8. ^ abcdef Сайгин 2000.
  9. ^ Рассел и Норвиг 2003, стр. 2–3, 948.
  10. ^ Свеховский, Мацей (2020). «Соревнования по игровому искусственному интеллекту: мотивация для соревнований по имитации игр» (PDF) . Материалы Федеральной конференции по информатике и информационным системам 2020 года . Издательство IEEE. стр. 155–160. дои : 10.15439/2020F126 . ISBN 978-83-955416-7-4. S2CID  222296354. Архивировано (PDF) из оригинала 26 января 2021 года . Проверено 8 сентября 2020 г.
  11. ^ Декарт 1996, стр. 34–35.
  12. ^ Пример дуализма свойств см. в Qualia .
  13. ^ Отмечая, что материализм не требует возможности существования искусственного разума (например, Роджера Пенроуза ), так же, как дуализм обязательно исключает эту возможность. (См., например, «Дуализм свойств» .)
  14. ^ Айер, AJ (2001), «Язык, истина и логика», Nature , Penguin , 138 (3498): 140, Бибкод : 1936Natur.138..823G, doi : 10.1038/138823a0 , ISBN 978-0-334-04122-1, S2CID  4121089[ нужны разъяснения ]
  15. ^ аб Свилпис, Янис (2008). «Научно-фантастическая предыстория теста Тьюринга». Научно-фантастические исследования . 35 (3): 430–449. ISSN  0091-7729. JSTOR  25475177.
  16. ^ Уонсбро, Алекс (2021). Капитализм и заколдованный экран: мифы и аллегории в эпоху цифровых технологий . Нью-Йорк: Bloomsbury Academic. п. 114. ИСБН 978-1-5013-5639-1. ОСЛК  1202731640.
  17. ^ Дартмутские конференции 1956 года широко считаются «рождением искусственного интеллекта». (Кревье, 1993, стр. 49)
  18. ^ МакКордак 2004, с. 95.
  19. ^ Коупленд 2003, с. 1.
  20. ^ Коупленд 2003, с. 2.
  21. ^ «Интеллектуальная техника» (1948) не была опубликована Тьюрингом и не публиковалась до 1968 года в:
    • Эванс, ADJ; Робертсон (1968), Кибернетика: ключевые статьи , University Park Press
  22. ^ Тьюринг 1948, с. 412.
  23. В 1948 году, работая со своим бывшим коллегой по бакалавриату Д. Г. Чамперноуном , Тьюринг начал писать шахматную программу для ещё не существовавшего компьютера, а в 1952 году, не имея компьютера, достаточно мощного для выполнения этой программы, сыграл игру, в которой он симулировал на каждый ход уходит около получаса. Игра была записана, и программа проиграла коллеге Тьюринга Алику Гленни , хотя говорят, что выиграла партию у жены Чамперноуна.
  24. ^ Тьюринг 1948, с.  [ нужна страница ] .
  25. ^ Харнад 2004, с. 1.
  26. ^ abcde Тьюринг 1950, с. 434.
  27. ^ аб Шах и Уорвик 2010a.
  28. ^ Тьюринг 1950, с. 446.
  29. ^ Тьюринг 1952, стр. 524–525. Тьюринг, похоже, не делает различия между «мужчиной» как полом и «мужчиной» как человеком. В первом случае эта формулировка будет ближе к имитационной игре, а во втором — к нынешнему изображению теста.
  30. ^ Вайценбаум 1966, с. 37.
  31. ^ abc Weizenbaum 1966, с. 42.
  32. ^ Томас 1995, с. 112.
  33. ^ Боуден 2006, с. 370.
  34. ^ аб Колби и др. 1972, с. 220.
  35. Уизерс, Стивен (11 декабря 2007 г.), «Кокетливые пропуска бота для человека», iTWire , заархивировано из оригинала 4 октября 2017 г. , получено 10 февраля 2010 г.
  36. Уильямс, Ян (10 декабря 2007 г.), «Онлайн-искатели любви предупредили ботов для флирта», версия 3 , заархивировано из оригинала 24 апреля 2010 г. , получено 10 февраля 2010 г.
  37. ^ аб Сирл 1980.
  38. Существует большое количество аргументов против китайской комнаты Сирла . Некоторые из них:
    • Хаузер, Ларри (1997), «Китайская шкатулка Сирла: развенчание аргумента о китайской комнате», Minds and Machines , 7 (2): 199–226, doi : 10.1023/A: 1008255830248, S2CID  32153206.
    • Рехман, Уоррен. (19 июля 2009 г.), Аргумент против аргумента о китайской комнате , заархивировано из оригинала 19 июля 2010 г..
    • Торнли, Дэвид Х. (1997), Почему китайская комната не работает, заархивировано из оригинала 26 апреля 2009 г.
  39. ^ М. Бишоп и Дж. Престон (ред.) (2001) Очерки аргумента Сирла о китайской комнате. Издательство Оксфордского университета.
  40. ^ Сайгин 2000, с. 479.
  41. ^ Сундман 2003.
  42. ^ Лебнер 1994.
  43. ^ abc «Искусственная глупость». Экономист . Том. 324, нет. 7770. 1 августа 1992. с. 14.
  44. ^ abc Шапиро 1992, с. 10–11 и Шибер 1994, среди других.
  45. ^ аб Шибер 1994, с. 77.
  46. ^ «Тест Тьюринга, 4 сезон, 3 серия» . Научные американские границы . Производственная компания Чедд-Анжер. 1993–1994 гг. ПБС . Архивировано из оригинала 1 января 2006 года.
  47. Дэн Уильямс (9 июня 2022 г.). «По мнению Блеза Агуэра-и-Аркаса, искусственные нейронные сети делают шаги к сознанию». Экономист . Архивировано из оригинала 9 июня 2022 года . Проверено 13 июня 2022 г.
  48. Ниташа Тику (11 июня 2022 г.). «Инженер Google, который считает, что ИИ компании ожил». Вашингтон Пост . Архивировано из оригинала 11 июня 2022 года . Проверено 13 июня 2022 г.
  49. Джереми Кан (13 июня 2022 г.). «Эксперты по искусственному интеллекту говорят, что утверждение исследователя Google о том, что его чат-бот стал «разумным», смехотворно, но оно также подчеркивает большие проблемы в этой области». Удача . Архивировано из оригинала 13 июня 2022 года . Проверено 13 июня 2022 г.
  50. ^ abc Трейгер 2000.
  51. ^ Сайгин, Робертс и Бебер 2008.
  52. ^ Аб Мур 2003.
  53. ^ Трейгер 2000, с. 99.
  54. ^ Стерретт 2000.
  55. ^ Шах 2011.
  56. ^ Генуя 1994, Хейс и Форд 1995, Хайль 1998, Дрейфус 1979
  57. ^ Тьюринг 1948, с. 431.
  58. ^ Праудфут 2013, с. 398.
  59. ^ Гонсалвеш 2023a.
  60. ^ Гонсалвеш 2023b.
  61. ^ Данцигер 2022.
  62. ^ abc Тьюринг 1950, с. 442.
  63. ^ Р. Эпштейн, Г. Робертс, Г. Поланд, (ред.) Анализ теста Тьюринга: философские и методологические проблемы в поисках мыслящего компьютера. Спрингер: Дордрехт, Нидерланды
  64. ^ Томпсон, Клайв (июль 2005 г.). «Другой тест Тьюринга». Выпуск 13.07 . Журнал WIRED . Архивировано из оригинала 19 августа 2011 года . Проверено 10 сентября 2011 г. Будучи геем, который провел почти всю свою жизнь в туалете, Тьюринг, должно быть, остро осознавал социальные трудности, связанные с постоянной фальсификацией своей настоящей личности. И есть восхитительная ирония в том, что десятилетия учёных в области искусственного интеллекта предпочитали игнорировать тест Тьюринга на гендерные искажения – только для того, чтобы за него ухватились три женщины студенческого возраста.. (Полная версия заархивирована 23 марта 2019 г. на Wayback Machine ).
  65. ^ Колби и др. 1972.
  66. ^ Аб Свирски 2000.
  67. ^ Сайгин и Чичекли 2002.
  68. ^ Тьюринг 1950, в разделе «Критика новой проблемы».
  69. ^ Хаугеланд 1985, с. 8.
  70. ^ «Эти шесть дисциплин», пишут Стюарт Дж. Рассел и Питер Норвиг , «представляют собой большую часть ИИ». Рассел и Норвиг 2003, с. 3
  71. ^ Урбан, Тим (февраль 2015 г.). «Революция искусственного интеллекта: наше бессмертие или вымирание». Подождите, но почему. Архивировано из оригинала 23 марта 2019 года . Проверено 5 апреля 2015 г.
  72. Смит, GW (27 марта 2015 г.). «Искусство и искусственный интеллект». АртЭнт. Архивировано из оригинала 25 июня 2017 года . Проверено 27 марта 2015 г.
  73. Маркус, Гэри (9 июня 2014 г.). «Что происходит после теста Тьюринга?». Житель Нью-Йорка . Архивировано из оригинала 1 января 2022 года . Проверено 16 декабря 2021 г.
  74. ^ Шах и Уорвик 2010j.
  75. ^ Кевин Уорвик; Хума Шах (июнь 2014 г.). «Ошибочная идентификация человека в тестах Тьюринга». Журнал экспериментального и теоретического искусственного интеллекта . 27 (2): 123–135. дои : 10.1080/0952813X.2014.921734. S2CID  45773196.
  76. ^ Сайгин и Чичекли 2002, стр. 227–258.
  77. ^ Тьюринг 1950, с. 448.
  78. ^ Несколько альтернатив тесту Тьюринга, предназначенных для оценки машин, более умных, чем люди:
    • Хосе Эрнандес-Оралло (2000), «За пределами теста Тьюринга», Journal of Logic, Language and Information , 9 (4): 447–466, CiteSeerX  10.1.1.44.8943 , doi :10.1023/A:1008367325700, S2CID  14481982.
    • Д.Л. Доу и А.Р. Хайек (1997), «Вычислительное расширение теста Тьюринга», Труды 4-й конференции Австралазийского общества когнитивных наук , заархивировано из оригинала 28 июня 2011 г. , получено 21 июля 2009 г.
    • Шейн Легг и Маркус Хаттер (2007), «Универсальный интеллект: определение машинного интеллекта» (PDF) , Minds and Machines , 17 (4): 391–444, arXiv : 0712.3329 , Bibcode : 2007arXiv0712.3329L, doi : 10.1007/ s11023-007-9079-x, S2CID  847021, заархивировано из оригинала (PDF) 18 июня 2009 г. , получено 21 июля 2009 г.
    • Эрнандес-Оралло, Дж; Доу, Д.Л. (2010), «Измерение универсального интеллекта: к тесту интеллекта в любое время», Искусственный интеллект , 174 (18): 1508–1539, doi : 10.1016/j.artint.2010.09.006 .
  79. ^ Рассел и Норвиг (2003, стр. 958–960) отождествляют аргумент Сирла с тем, на который отвечает Тьюринг.
  80. ^ Тьюринг 1950.
  81. ^ ab Рассел и Норвиг 2003, стр. 3.
  82. ^ Тьюринг 1950, под заголовком «Игра в имитацию», где он пишет: «Вместо того, чтобы пытаться дать такое определение, я заменю вопрос другим, который тесно связан с ним и выражен относительно недвусмысленными словами».
  83. ^ Маккарти, Джон (1996), «Философия искусственного интеллекта», Что общего у ИИ с философией? , архивировано из оригинала 5 апреля 2019 года , получено 26 февраля 2009 года.
  84. Бриньольфссон, Эрик (1 мая 2022 г.). «Ловушка Тьюринга: обещание и опасность человеческого искусственного интеллекта». Дедал . 151 (2): 272–287. дои : 10.1162/daed_a_01915 .
  85. ^ Гарднер, Х. (2011). Образ мышления: теория множественного интеллекта. Хачетт Великобритания
  86. ^ Уорик, Кевин; Шах, Хума (4 марта 2017 г.). «Принятие пятой поправки в имитационной игре Тьюринга» (PDF) . Журнал экспериментального и теоретического искусственного интеллекта . 29 (2): 287–297. Бибкод : 2017JETAI..29..287W. дои : 10.1080/0952813X.2015.1132273. ISSN  0952-813X. S2CID  205634569.[ постоянная мертвая ссылка ]
  87. ^ Уорик, Кевин; Шах, Хума (4 марта 2015 г.). «Ошибочная идентификация человека в тестах Тьюринга». Журнал экспериментального и теоретического искусственного интеллекта . 27 (2): 123–135. дои : 10.1080/0952813X.2014.921734. ISSN  0952-813X. S2CID  45773196.
  88. ^ Бион 1979.
  89. ^ Хиншельвуд 2001.
  90. ^ Малик, Джитендра ; Мори, Грег, Взлом визуальной капчи, заархивировано из оригинала 23 марта 2019 г. , получено 21 ноября 2009 г.
  91. ^ Пачал, Пит, Ошибка капчи: исследователи взломали самый популярный тест Тьюринга в Интернете, заархивировано из оригинала 3 декабря 2018 г. , получено 31 декабря 2015 г.
  92. ^ Тунг, Лиам, алгоритм Google разрушает CAPTCHA с точностью 99,8 процента, заархивировано из оригинала 23 марта 2019 г. , получено 31 декабря 2015 г.
  93. ^ Госемаджумдер, Шуман, Имитационная игра: Новый фронт безопасности, заархивировано из оригинала 23 марта 2019 г. , получено 31 декабря 2015 г.
  94. ^ Шванингер, Артур К. (2022), «Философствующая машина - спецификация теста Тьюринга», Philosophia , 50 (3): 1437–1453, doi : 10.1007/s11406-022-00480-5 , S2CID  247282718
  95. ^ McCorduck 2004, стр. 503–505, Feigenbaum 2003. Тест эксперта по предмету также упоминается в Kurzweil (2005).
  96. ^ Френч, Роберт М. , «Подсознание и пределы теста Тьюринга», Mind , 99 (393): 53–65.
  97. ^ Гент, Эдд (2014), Тест Тьюринга: многопутевой подход к вычислениям, вдохновленным мозгом, заархивировано из оригинала 23 марта 2019 г. , получено 18 октября 2018 г.
  98. ^ Рассел и Норвиг 2010, с. 3.
  99. ^ Персонал Cacm (2017). «Прыжок от искусственного к интеллекту». Коммуникации АКМ . 61 : 10–11. дои : 10.1145/3168260.
  100. ^ [1]
  101. ^ МакКинстри, Крис (1997), «Тест минимального интеллектуального сигнала: альтернативный тест Тьюринга», Канадский искусственный интеллект (41), заархивировано из оригинала 31 марта 2019 г. , получено 4 мая 2011 г.
  102. ^ DL Dowe & AR Hajek (1997), «Вычислительное расширение теста Тьюринга», Труды 4-й конференции Австралазийского общества когнитивных наук , заархивировано из оригинала 28 июня 2011 г. , получено 21 июля 2009 г.
  103. ^ Хосе Эрнандес-Оралло (2000), «За пределами теста Тьюринга», Журнал логики, языка и информации , 9 (4): 447–466, CiteSeerX 10.1.1.44.8943 , doi : 10.1023/A: 1008367325700, S2CID  14481982 . 
  104. ^ Эрнандес-Оралло и Доу, 2010.
  105. ^ Приближение меры универсального интеллекта, Шейн Легг и Джоэл Венесс, Конференция памяти Соломонова, 2011 г.
  106. ^ Alex_Pasternack (18 апреля 2011 г.). «MacBook, возможно, подарил Роджеру Эберту его голос, но iPod спас ему жизнь (видео)». Материнская плата. Архивировано из оригинала 6 сентября 2011 года . Проверено 12 сентября 2011 г. Он называет это «тестом Эберта» в честь стандарта искусственного интеллекта Тьюринга...
  107. Ки, Элис (21 апреля 2023 г.). «Можете ли вы сказать, был ли кто-то человеком или искусственным интеллектом?». Вечерний стандарт . Проверено 2 августа 2023 г.
  108. ^ «Масштабный тест Тьюринга показывает, что мы можем лишь с трудом отличить ИИ от людей» . Новый учёный . Проверено 2 августа 2023 г.
  109. Бивер, Селеста (25 июля 2023 г.). «ChatGPT сломал тест Тьюринга — идет гонка за новыми способами оценки ИИ». Природа . 619 (7971): 686–689. Бибкод : 2023Natur.619..686B. дои : 10.1038/d41586-023-02361-7 . ПМИД  37491395.
  110. ^ «Можете ли вы отличить людей от ботов с искусственным интеллектом? Онлайн-игра «Человек или нет» показывает результаты» . ЗДНЕТ . Проверено 2 августа 2023 г.
  111. ^ Пресс, Гил. «Это чат-бот с искусственным интеллектом или человек? 32% не могут сказать». Форбс . Проверено 2 августа 2023 г.
  112. ^ Уитби 1996, с. 53.
  113. Премия Лебнера 2008 г., Университет Рединга , получено 29 марта 2009 г.[ постоянная мертвая ссылка ]
  114. ^ Симпозиум AISB 2008 по тесту Тьюринга, Общество изучения искусственного интеллекта и моделирования поведения, заархивировано из оригинала 18 марта 2009 г. , получено 29 марта 2009 г.

Рекомендации

дальнейшее чтение

Внешние ссылки