Аргумент китайской комнаты гласит, что компьютер, выполняющий программу, не может иметь разум , понимание или сознание , [a] независимо от того, насколько разумно или по-человечески программа может заставить компьютер вести себя. Аргумент был представлен в статье 1980 года философа Джона Сирла под названием «Разум, мозг и программы» и опубликован в журнале Behavioral and Brain Sciences . [1] До Сирла подобные аргументы были представлены такими деятелями, как Готфрид Вильгельм Лейбниц (1714), Анатолий Днепров (1961), Лоуренс Дэвис (1974) и Нед Блок (1978). Версия Сирла широко обсуждалась в последующие годы. [2] Центральным элементом аргумента Сирла является мысленный эксперимент , известный как китайская комната . [3]
Мысленный эксперимент начинается с помещения компьютера, который может прекрасно разговаривать на китайском языке, в одну комнату, и человека, который знает только английский, в другую, с дверью, разделяющей их. Китайские иероглифы пишутся и помещаются на листе бумаги под дверью, и компьютер может бегло отвечать, просовывая ответ под дверь. Затем человеку даются инструкции на английском языке, которые копируют инструкции и функции компьютерной программы для общения на китайском языке. Человек следует инструкциям, и две комнаты могут прекрасно общаться на китайском языке, но человек по-прежнему фактически не понимает иероглифы, а просто следует инструкциям для общения. Сирл утверждает, что и компьютер, и человек выполняют одинаковые задачи, следуя инструкциям, не понимая их по-настоящему или не «думая».
Аргумент направлен против философских позиций функционализма и вычислительности , [4] которые утверждают, что разум можно рассматривать как систему обработки информации, работающую на формальных символах, и что симуляция заданного ментального состояния достаточна для его наличия. В частности, аргумент направлен на опровержение позиции, которую Сирл называет сильной гипотезой ИИ : [b] «Соответствующим образом запрограммированный компьютер с правильными входами и выходами будет иметь разум в том же смысле, в котором разум есть у людей». [c]
Хотя его сторонники изначально представили аргумент в ответ на заявления исследователей искусственного интеллекта (ИИ), это не аргумент против целей основных исследований ИИ, поскольку он не показывает предела в количестве интеллектуального поведения, которое может демонстрировать машина. [5] Аргумент применим только к цифровым компьютерам, запускающим программы, и не применим к машинам в целом. [6] Несмотря на широкое обсуждение, аргумент подвергся значительной критике и остается спорным среди философов сознания и исследователей ИИ. [7] [8]
Предположим, что исследования искусственного интеллекта привели к успеху в программировании компьютера, который ведет себя так, как будто он понимает китайский язык. Машина принимает китайские иероглифы в качестве входных данных, выполняет каждую инструкцию программы шаг за шагом, а затем выдает китайские иероглифы в качестве выходных данных. Машина делает это настолько идеально, что никто не может сказать, что он общается с машиной, а не со скрытым человеком.
Вопросы, которые обсуждаются, таковы: действительно ли машина понимает разговор или она просто имитирует способность понимать разговор? Имеет ли машина разум в том же смысле, что и люди, или она просто действует так, как будто у нее есть разум?
Теперь предположим, что Сирл находится в комнате с английской версией программы, а также достаточным количеством карандашей, бумаги, ластиков и картотечными шкафами. Китайские иероглифы просовываются под дверь, он следует программе шаг за шагом, которая в конечном итоге инструктирует его просовывать другие китайские иероглифы обратно под дверь. Если бы компьютер прошел тест Тьюринга таким образом, то Сирл сделал бы то же самое, просто запустив программу вручную.
Сирл утверждает, что нет существенной разницы между ролями компьютера и его самого в эксперименте. Каждый просто следует программе, шаг за шагом, производя поведение, которое заставляет их казаться понимающими. Однако Сирл не смог бы понять разговор. Следовательно, утверждает он, следует, что компьютер также не смог бы понять разговор.
Сёрл утверждает, что без «понимания» (или « интенциональности ») мы не можем описать то, что делает машина, как «мышление», и, поскольку она не мыслит, у неё нет «разума» в обычном смысле этого слова. Поэтому он приходит к выводу, что сильная гипотеза ИИ ложна.
Готфрид Лейбниц в 1714 году выдвинул аналогичный аргумент против механицизма (идеи о том, что все, что составляет человека, может быть, в принципе, объяснено в механических терминах. Другими словами, что человек, включая его разум, является всего лишь очень сложной машиной). Лейбниц использовал мысленный эксперимент по расширению мозга до размеров мельницы. [9] Лейбницу было трудно представить, что «разум», способный к «восприятию», может быть построен с использованием только механических процессов. [d]
Питер Уинч высказал ту же точку зрения в своей книге «Идея социальной науки и ее связь с философией» (1958), где он приводит аргумент, показывающий, что «человек, понимающий китайский язык, не является человеком, который имеет четкое представление о статистических вероятностях появления различных слов в китайском языке» (стр. 108).
Советский кибернетик Анатолий Днепров высказал по сути идентичный аргумент в 1961 году в форме рассказа « Игра ». В нем стадион людей действует как переключатели и ячейки памяти, реализующие программу для перевода предложения на португальском языке, который никто из них не знает. [10] Игра была организована «профессором Зарубиным», чтобы ответить на вопрос «Могут ли математические машины мыслить?» Говоря устами Зарубина, Днепров пишет: «единственный способ доказать, что машины могут мыслить, — превратить себя в машину и изучить свой мыслительный процесс», и он заключает, как и Сирл: «Мы доказали, что даже самая совершенная симуляция машинного мышления не является самим мыслительным процессом».
В 1974 году Лоуренс Х. Дэвис представил себе дублирование мозга с помощью телефонных линий и офисов, укомплектованных людьми, а в 1978 году Нед Блок представил себе все население Китая, вовлеченное в такую симуляцию мозга. Этот мысленный эксперимент называется « китайский мозг» , также «китайская нация» или «китайский спортзал». [11]
Версия Сирла появилась в его статье 1980 года «Minds, Brains, and Programs», опубликованной в Behavioral and Brain Sciences . [1] В конечном итоге она стала «самой влиятельной целевой статьей» журнала, [2] вызвав огромное количество комментариев и откликов в последующие десятилетия, и Сирл продолжил защищать и совершенствовать аргумент во многих статьях, популярных статьях и книгах. Дэвид Коул пишет, что «аргумент китайской комнаты, вероятно, был наиболее широко обсуждаемым философским аргументом в когнитивной науке, появившимся за последние 25 лет». [12]
Большая часть обсуждения состоит из попыток опровергнуть его. «Подавляющее большинство», отмечает редактор Behavioral and Brain Sciences Стеван Харнад , [e] «все еще считает, что аргумент китайской комнаты абсолютно неверен». [13] Огромный объем литературы, которая выросла вокруг него, вдохновил Пэта Хейса прокомментировать, что область когнитивной науки должна быть переопределена как «текущая исследовательская программа, показывающая, что аргумент китайской комнаты Серла является ложным». [14]
По словам Харнада, аргумент Сирла стал «чем-то вроде классики в когнитивной науке». [13] Варол Акман соглашается и описывает оригинальную статью как «образец философской ясности и чистоты». [15]
Хотя аргумент китайской комнаты изначально был представлен в ответ на заявления исследователей искусственного интеллекта , философы стали рассматривать его как важную часть философии разума . Это вызов функционализму и вычислительной теории разума , [f] и он связан с такими вопросами, как проблема разума и тела , проблема других разумов , проблема обоснования символов и трудная проблема сознания . [a]
Сёрл сформулировал философскую позицию, которую он называет «сильным ИИ»:
Соответственно запрограммированный компьютер с правильными входами и выходами будет иметь разум в том же смысле, в котором разум есть у людей. [c]
Определение зависит от различия между имитацией разума и фактическим наличием разума. Сёрл пишет, что «согласно сильному ИИ, правильная имитация действительно является разумом. Согласно слабому ИИ, правильная имитация является моделью разума». [22]
Это утверждение подразумевается в некоторых заявлениях ранних исследователей и аналитиков ИИ. Например, в 1955 году основатель ИИ Герберт А. Саймон заявил, что «теперь в мире есть машины, которые думают, учатся и творят». [23] Саймон вместе с Алленом Ньюэллом и Клиффом Шоу , завершив первую программу, которая могла выполнять формальные рассуждения ( Logic Theorist ), заявили, что они «решили почтенную проблему разума и тела, объяснив, как система, состоящая из материи, может обладать свойствами разума». [24] Джон Хогеланд писал, что «ИИ хочет только подлинного: машины с разумом , в полном и буквальном смысле. Это не научная фантастика, а настоящая наука, основанная на теоретической концепции, столь же глубокой, сколь и смелой: а именно, мы, по сути, сами являемся компьютерами ». [25]
Сирл также приписывает следующие утверждения сторонникам сильного ИИ:
В более поздних презентациях аргумента китайской комнаты Сирл определил «сильный ИИ» как «компьютерный функционализм » (термин, который он приписывает Дэниелу Деннету ). [4] [30] Функционализм — это позиция в современной философии сознания , которая утверждает, что мы можем определять ментальные явления (такие как убеждения, желания и восприятия), описывая их функции по отношению друг к другу и к внешнему миру. Поскольку компьютерная программа может точно представлять функциональные отношения как отношения между символами, компьютер может иметь ментальные явления, если он запускает правильную программу, согласно функционализму.
Стивен Харнад утверждает, что описания Сёрлом сильного ИИ можно переформулировать как «узнаваемые принципы вычислительного искусства , позиции (в отличие от «сильного ИИ»), которой на самом деле придерживаются многие мыслители, и, следовательно, которую стоит опровергнуть». [31] Вычислительное искусство [i] — это позиция в философии разума, которая утверждает, что разум можно точно описать как систему обработки информации .
По мнению Харнада, каждое из следующих положений является «принципом» вычислительного искусства: [34]
Сирл придерживается философской позиции, которую он называет « биологическим натурализмом »: сознание [а] и понимание требуют определенных биологических механизмов, которые находятся в мозге. Он пишет: «мозги вызывают разум» [35] и что «реальные человеческие ментальные явления [зависят] от реальных физико-химических свойств реальных человеческих мозгов». [35] Сирл утверждает, что этот механизм (известный в нейробиологии как « нейронные корреляты сознания ») должен иметь некоторые каузальные силы, которые позволяют человеку переживать сознание. [36] Вера Сирла в существование этих сил подвергалась критике.
Сёрл не возражает против идеи, что машины могут обладать сознанием и пониманием, потому что, как он пишет, «мы именно такие машины». [6] Сёрл считает, что мозг, по сути, является машиной, но что мозг порождает сознание и понимание, используя определенную машину. Если нейронаука способна выделить механический процесс, который порождает сознание, то Сёрл допускает, что возможно создание машин, обладающих сознанием и пониманием. Однако Сёрл не верит, что без определенной необходимой машины может возникнуть сознание.
Биологический натурализм подразумевает, что невозможно определить, происходит ли опыт сознания, просто исследуя, как функционирует система, поскольку существенна конкретная машина мозга. Таким образом, биологический натурализм прямо противоположен как бихевиоризму , так и функционализму (включая «компьютерный функционализм» или «сильный ИИ»). [37] Биологический натурализм похож на теорию идентичности (позиция, согласно которой ментальные состояния «идентичны» или «состоят из» неврологических событий); однако у Сирла есть определенные технические возражения против теории идентичности. [38] [j] Биологический натурализм Сирла и сильный ИИ противостоят картезианскому дуализму , [37] классической идее о том, что мозг и разум состоят из разных «субстанций». Действительно, Сирл обвиняет сильный ИИ в дуализме, написав, что «сильный ИИ имеет смысл только при условии дуалистического предположения, что, когда дело касается разума, мозг не имеет значения». [26]
Первоначальное представление Сирла подчеркивало понимание, то есть ментальные состояния с преднамеренностью , и не касалось напрямую других тесно связанных идей, таких как «сознание». Однако в более поздних презентациях Сирл включил сознание в качестве реальной цели аргумента. [4]
Вычислительные модели сознания сами по себе недостаточны для сознания. Вычислительная модель сознания относится к сознанию так же, как вычислительная модель чего-либо относится к моделируемой области. Никто не предполагает, что вычислительная модель ливней в Лондоне оставит нас всех мокрыми. Но они совершают ошибку, предполагая, что вычислительная модель сознания каким-то образом является сознательной. Это одна и та же ошибка в обоих случаях. [39]
— Джон Р. Сирл, Сознание и язык , стр. 16
Дэвид Чалмерс пишет: «Совершенно очевидно, что сознание лежит в основе всего» китайской комнаты. [40]
Колин Макгинн утверждает, что китайская комната дает весомые доказательства того, что сложная проблема сознания принципиально неразрешима. Аргумент, если быть точным, не о том, может ли машина быть сознательной, а о том, можно ли показать, что она (или что-либо еще в этом роде) является сознательной. Очевидно, что любой другой метод исследования обитателя китайской комнаты имеет те же трудности в принципе, что и обмен вопросами и ответами на китайском языке. Просто невозможно угадать, обитает ли в комнате сознательная сила или некая умная симуляция. [41]
Сирл утверждает, что это верно только для наблюдателя вне комнаты. Весь смысл мысленного эксперимента заключается в том, чтобы поместить кого-то внутрь комнаты, где он может непосредственно наблюдать операции сознания. Сирл утверждает, что с его точки зрения в комнате нет ничего, что могло бы вообразимо вызвать возникновение сознания, кроме него самого, и очевидно, что у него нет разума, который мог бы говорить по-китайски. По словам Сирла, «компьютер не имеет ничего большего, чем я, в случае, когда я ничего не понимаю». [42]
Патрик Хью использовал аргумент китайской комнаты, чтобы вывести требования из систем военного командования и управления , если они должны сохранить моральную агентность командира . Он провел аналогию между командиром в их командном центре и человеком в китайской комнате и проанализировал ее с точки зрения понятий Аристотеля «обязательность» и «невежество» . Информация могла быть «преобразована вниз» из значения в символы и манипулирована символически, но моральная агентность могла быть подорвана, если не было адекватного «преобразования вверх» в значение. Хью привел примеры из инцидента с USS Vincennes . [43]
Аргумент китайской комнаты — это в первую очередь аргумент в философии сознания, и как крупные специалисты по информатике, так и исследователи искусственного интеллекта считают его не имеющим отношения к своим областям. [5] Однако несколько концепций, разработанных специалистами по информатике, имеют важное значение для понимания аргумента, включая обработку символов , машины Тьюринга , полноту Тьюринга и тест Тьюринга.
Аргументы Сирла обычно не считаются проблемой для исследований ИИ. Основная миссия исследований искусственного интеллекта заключается только в создании полезных систем, которые действуют разумно, и не имеет значения, является ли интеллект «просто» симуляцией. Исследователи ИИ Стюарт Дж. Рассел и Питер Норвиг писали в 2021 году: «Нас интересуют программы, которые ведут себя разумно. Отдельные аспекты сознания — осознание, самосознание, внимание — могут быть запрограммированы и могут быть частью интеллектуальной машины. Дополнительный проект, делающий машину сознательной точно так же, как и люди, — это не тот проект, к которому мы готовы». [5]
Сирл не спорит, что исследования ИИ могут создавать машины, способные на высокоинтеллектуальное поведение. Аргумент китайской комнаты оставляет открытой возможность создания цифровой машины, которая будет действовать более разумно, чем человек, но не будет обладать разумом или преднамеренностью в том же смысле, что и мозг.
«Сильную гипотезу ИИ» Сирла не следует путать с «сильным ИИ», как его определяют Рэй Курцвейл и другие футуристы, [44] [21], которые используют этот термин для описания машинного интеллекта, который соперничает с человеческим интеллектом или превосходит его, то есть искусственный общий интеллект , ИИ человеческого уровня или сверхинтеллект . Курцвейл в первую очередь имеет в виду объем интеллекта, демонстрируемого машиной, тогда как аргумент Сирла не устанавливает никаких ограничений на это. Сирл утверждает, что сверхразумная машина не обязательно будет иметь разум и сознание.
В китайской комнате реализована версия теста Тьюринга. [46] Алан Тьюринг представил тест в 1950 году, чтобы помочь ответить на вопрос «могут ли машины думать?» В стандартной версии судья-человек вступает в разговор на естественном языке с человеком и машиной, разработанной для создания производительности, неотличимой от человеческой. Все участники отделены друг от друга. Если судья не может надежно отличить машину от человека, машина считается прошедшей тест.
Затем Тьюринг рассмотрел каждое возможное возражение против предложения «машины могут мыслить» и обнаружил, что существуют простые, очевидные ответы, если вопрос демистифицирован таким образом. Однако он не намеревался, чтобы тест измерял наличие «сознания» или «понимания». Он не считал, что это имеет отношение к проблемам, которые он рассматривал. Он писал:
Я не хочу создавать впечатление, что я думаю, что нет никакой тайны в сознании. Например, есть некий парадокс, связанный с любой попыткой локализовать его. Но я не думаю, что эти тайны обязательно должны быть решены, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье. [46]
Для Сирла, как философа, исследующего природу разума и сознания, это важные тайны. Китайская комната создана, чтобы показать, что тест Тьюринга недостаточен для обнаружения присутствия сознания, даже если комната может вести себя или функционировать как сознательный разум.
Компьютеры манипулируют физическими объектами для выполнения вычислений и моделирования. Исследователи ИИ Аллен Ньюэлл и Герберт А. Саймон назвали этот тип машины физической символьной системой . Она также эквивалентна формальным системам, используемым в области математической логики .
Сёрл подчеркивает тот факт, что этот вид манипуляции символами является синтаксическим (заимствуя термин из изучения грамматики ). Компьютер манипулирует символами, используя форму синтаксиса, без какого-либо знания семантики символа (то есть его значения ).
Ньюэлл и Саймон предположили, что физическая символьная система (такая как цифровой компьютер) имеет все необходимые механизмы для «общего разумного действия», или, как это известно сегодня, искусственного общего интеллекта . Они сформулировали это как философскую позицию, гипотезу физической символьной системы : «Физическая символьная система имеет необходимые и достаточные средства для общего разумного действия». [47] [48] Аргумент китайской комнаты не опровергает этого, потому что он сформулирован в терминах «разумного действия», т. е. внешнего поведения машины, а не наличия или отсутствия понимания, сознания и разума.
Программы ИИ двадцать первого века (такие как « глубокое обучение ») выполняют математические операции с огромными матрицами неопознанных чисел и имеют мало общего с символической обработкой, используемой программами ИИ в то время, когда Серл написал свою критику в 1980 году. Нильс Нильссон описывает такие системы как «динамические», а не «символические». Нильссон отмечает, что по сути это оцифрованные представления динамических систем — отдельные числа не имеют определенной семантики, а вместо этого являются образцами или точками данных из динамического сигнала, и именно аппроксимируемый сигнал будет иметь семантику. Нильссон утверждает, что неразумно рассматривать эти сигналы как «обработку символов» в том же смысле, что и гипотеза физических символьных систем. [49]
Китайская комната имеет конструкцию, аналогичную конструкции современного компьютера. Она имеет архитектуру фон Неймана , которая состоит из программы (книги инструкций), некоторой памяти (бумаги и картотечные шкафы), машины, которая следует инструкциям (человек), и средства для записи символов в память (карандаш и ластик). Машина с такой конструкцией известна в теоретической информатике как « полная по Тьюрингу », потому что у нее есть необходимые механизмы для выполнения любых вычислений, которые может выполнить машина Тьюринга, и поэтому она способна выполнять пошаговое моделирование любой другой цифровой машины при наличии достаточной памяти и времени. Тьюринг пишет: «Все цифровые компьютеры в некотором смысле эквивалентны». [50] Широко распространенный тезис Чёрча-Тьюринга гласит, что любая функция, вычислимая эффективной процедурой, вычислима машиной Тьюринга.
Полнота Тьюринга китайской комнаты подразумевает, что она может делать все, что может делать любой другой цифровой компьютер (хотя и намного, намного медленнее). Таким образом, если китайская комната не содержит или не может содержать говорящий по-китайски разум, то никакой другой цифровой компьютер не может содержать разум. Некоторые ответы Сирлу начинаются с утверждения, что комната, как она описана, не может иметь говорящий по-китайски разум. Аргументы такой формы, по словам Стевана Харнада , являются «не опровержением (а скорее утверждением)» [51] аргумента китайской комнаты, потому что эти аргументы фактически подразумевают, что ни один цифровой компьютер не может иметь разум. [28]
Некоторые критики, такие как Ханох Бен-Ями, утверждают, что китайская комната не может имитировать все возможности цифрового компьютера, например, способность определять текущее время. [52]
Searle создал более формальную версию аргумента, частью которого является китайская комната. Он представил первую версию в 1984 году. Версия, приведенная ниже, датируется 1990 годом. [53] [k] Мысленный эксперимент с китайской комнатой призван доказать пункт A3. [l]
Он начинает с трех аксиом:
Сирл утверждает, что это напрямую приводит к следующему выводу:
Эта большая часть аргумента призвана показать, что искусственный интеллект никогда не сможет создать машину с разумом, написав программы, которые манипулируют символами. Оставшаяся часть аргумента затрагивает другую проблему. Выполняет ли человеческий мозг программу? Другими словами, верна ли вычислительная теория разума ? [f] Он начинает с аксиомы, которая призвана выразить базовый современный научный консенсус о мозге и разуме:
Сёрл утверждает, что мы можем вывести «немедленно» и «тривиально» [54] , что:
И из этого он делает дальнейшие выводы:
Опровержения аргумента Сёрла принимают множество различных форм (см. ниже). Вычислители и функционалисты отвергают A3, утверждая, что «синтаксис» (как его описывает Сёрл) может иметь «семантику», если синтаксис имеет правильную функциональную структуру. Элиминативные материалисты отвергают A2, утверждая, что разум на самом деле не имеет «семантики» — что мысли и другие ментальные явления по своей сути бессмысленны, но тем не менее функционируют так, как если бы они имели смысл.
Ответы на аргументы Сирла можно классифицировать в соответствии с тем, что они якобы показывают: [м]
Некоторые аргументы (например, моделирование роботов и мозга) попадают в несколько категорий.
Эти ответы пытаются ответить на вопрос: поскольку человек в комнате не говорит по-китайски, где находится разум, который говорит? Эти ответы затрагивают ключевые онтологические вопросы разума против тела и симуляции против реальности. Все ответы, которые идентифицируют разум в комнате, являются версиями «системного ответа».
Базовая версия ответа системы утверждает, что это «вся система» понимает китайский язык. [59] [n] В то время как человек понимает только английский язык, когда он объединяется с программой, черновиками, карандашами и картотечными шкафами, они образуют систему, которая может понимать китайский язык. «Здесь понимание не приписывается простому индивидууму; скорее, оно приписывается всей этой системе, частью которой он является», — объясняет Сирл. [29]
Сёрл отмечает, что (в этой простой версии ответа) «система» — это не более чем набор обычных физических объектов; она наделяет силой понимания и сознания «соединение этого человека и кусочков бумаги» [29], не прилагая никаких усилий для объяснения того, как эта куча объектов стала сознательным, мыслящим существом. Сёрл утверждает, что ни один разумный человек не должен быть удовлетворен ответом, если только он не находится «под гнетом идеологии»; [29] Для того чтобы этот ответ был хоть немного правдоподобным, нужно принять как должное, что сознание может быть продуктом «системы» обработки информации и не требует ничего, напоминающего реальную биологию мозга.
Затем Сирл отвечает, упрощая этот список физических объектов: он спрашивает, что произойдет, если человек запомнит правила и будет отслеживать все в своей голове? Тогда вся система будет состоять только из одного объекта: самого человека. Сирл утверждает, что если человек не понимает китайский язык, то и система не понимает китайский язык, потому что теперь «система» и «человек» описывают один и тот же объект. [29]
Критики ответа Сирла утверждают, что программа позволила человеку иметь два разума в одной голове. [ кто? ] Если мы предположим, что «разум» — это форма обработки информации, то теория вычислений может объяснить два вычисления, происходящих одновременно, а именно (1) вычисление для универсальной программируемости (которая является функцией, реализуемой человеком и материалами для заметок независимо от какого-либо конкретного содержимого программы) и (2) вычисление машины Тьюринга, которое описывается программой (которая реализуется всем, включая конкретную программу). [61] Таким образом, теория вычислений формально объясняет открытую возможность того, что второе вычисление в китайской комнате может повлечь за собой эквивалентное человеку семантическое понимание китайских входных данных. Основное внимание уделяется машине Тьюринга программы, а не человека. [62] Однако с точки зрения Сирла этот аргумент является циклическим. Вопрос в том, является ли сознание формой обработки информации, и этот ответ требует, чтобы мы сделали это предположение.
Более сложные версии системного ответа пытаются точнее определить, что такое «система», и они различаются тем, как именно они ее описывают. Согласно этим ответам, [ кто? ] «разум, говорящий по-китайски» может быть чем-то вроде: «программное обеспечение», «программа», «работающая программа», симуляция «нейронных коррелятов сознания», «функциональная система», «симулированный разум», « возникающее свойство» или «виртуальный разум».
Марвин Мински предложил версию системного ответа, известную как «ответ виртуального разума». [o] Термин « виртуальный » используется в информатике для описания объекта, который, как кажется, существует «внутри» компьютера (или компьютерной сети) только потому, что программное обеспечение заставляет его казаться существующим. Все объекты «внутри» компьютеров (включая файлы, папки и т. д.) являются «виртуальными», за исключением электронных компонентов компьютера. Аналогично Мински утверждает, что компьютер может содержать «разум», который является виртуальным в том же смысле, что и виртуальные машины , виртуальные сообщества и виртуальная реальность .
Чтобы прояснить различие между ответом простой системы, приведенным выше, и ответом виртуального разума, Дэвид Коул отмечает, что в одной системе могут одновременно работать две симуляции: одна, говорящая по-китайски, и одна, говорящая по-корейски. Хотя есть только одна система, может быть несколько «виртуальных разумов», поэтому «система» не может быть «разумом». [66]
Searle отвечает, что такой разум в лучшем случае является симуляцией, и пишет: «Никто не предполагает, что компьютерное моделирование пожара с пятью сигналами тревоги сожжет окрестности или что компьютерное моделирование ливня оставит нас всех мокрыми». [67] Nicholas Fearn отвечает, что для некоторых вещей симуляция так же хороша, как и реальность. «Когда мы вызываем функцию карманного калькулятора на настольном компьютере, на экране появляется изображение карманного калькулятора. Мы не жалуемся, что это на самом деле не калькулятор, потому что физические атрибуты устройства не имеют значения». [68] Вопрос в том, похож ли человеческий разум на карманный калькулятор, по сути состоящий из информации, где идеальная симуляция вещи просто есть вещь? Или разум похож на ливень, вещь в мире, которая является чем-то большим, чем просто ее симуляция, и не может быть полностью реализована компьютерной симуляцией? На протяжении десятилетий этот вопрос симуляции заставлял исследователей ИИ и философов задуматься о том, является ли термин « синтетический интеллект » более подходящим, чем общее описание таких интеллектов как «искусственный».
Эти ответы дают объяснение того, кто именно понимает китайский язык. Если есть что-то, кроме человека в комнате, что может понимать китайский язык, Сирл не может утверждать, что (1) человек не понимает китайский язык, следовательно (2) ничто в комнате не понимает китайский язык. Это, по мнению тех, кто дает этот ответ, показывает, что аргумент Сирла не доказывает, что «сильный ИИ» ложен. [p]
Однако эти ответы сами по себе не предоставляют никаких доказательств того, что сильный ИИ истинен. Они не показывают, что система (или виртуальный разум) понимает китайский язык, за исключением гипотетической предпосылки, что он проходит тест Тьюринга. Сёрл утверждает, что если мы хотим считать сильный ИИ хотя бы отдаленно правдоподобным, то китайская комната — это пример, требующий объяснения, и трудно или невозможно объяснить, как сознание может «появиться» из комнаты или как система будет иметь сознание. Как пишет Сёрл, «ответ системы просто уклоняется от вопроса, настаивая на том, что система должна понимать китайский язык» [29] , и, таким образом, уклоняется от ответа или безнадежно зацикливается.
Что касается человека в комнате, символы — это просто бессмысленные «закорючки». Но если китайская комната действительно «понимает», что она говорит, то символы должны откуда-то получить свое значение. Эти аргументы пытаются связать символы с вещами, которые они символизируют. Эти ответы затрагивают опасения Сирла по поводу преднамеренности , обоснования символов и синтаксиса против семантики .
Предположим, что вместо комнаты программа была помещена в робота, который мог бы бродить и взаимодействовать с окружающей средой. Это позволило бы установить « причинно-следственную связь» между символами и вещами, которые они представляют. [70] [q] Ганс Моравек комментирует: «Если бы мы могли привить робота к программе рассуждений, нам больше не нужен был бы человек, чтобы предоставить значение: оно бы исходило из физического мира». [72] [r]
Ответ Сирла заключается в том, чтобы предположить, что, без ведома человека в китайской комнате, некоторые входные данные поступали напрямую с камеры, установленной на роботе, а некоторые выходные данные использовались для управления руками и ногами робота. Тем не менее, человек в комнате все еще просто следует правилам и не знает, что означают символы. Сирл пишет: «Он не видит того, что попадает в глаза робота». [74]
Некоторые отвечают, что комната, как ее описывает Сирл, связана с миром: через носителей китайского языка, с которыми она «общается», и через программистов, которые разработали базу знаний в его картотеке. Символы, которыми манипулирует Сирл, уже имеют смысл, просто они не имеют для него смысла. [75] [s]
Сирл говорит, что символы имеют только «производное» значение, как значение слов в книгах. Значение символов зависит от сознательного понимания носителей китайского языка и программистов за пределами комнаты. Комната, как и книга, не имеет собственного понимания. [t]
Некоторые утверждали, что значения символов исходят из обширного «фона» здравого смысла, закодированного в программе и картотечных шкафах. Это обеспечит «контекст», который даст символам их значение. [73] [u]
Сёрл согласен, что этот фон существует, но он не согласен, что он может быть встроен в программы. Хьюберт Дрейфус также критиковал идею о том, что «фон» может быть представлен символически. [78]
На каждое из этих предложений ответ Сирла одинаков: независимо от того, сколько знаний записано в программу и как программа связана с миром, он все еще находится в комнате, манипулируя символами в соответствии с правилами. Его действия синтаксичны, и это никогда не сможет объяснить ему, что означают символы. Сирл пишет: «синтаксис недостаточен для семантики». [79] [v]
Однако для тех, кто принимает, что действия Сирла имитируют разум, отдельный от его собственного, важным вопросом является не то, что символы означают для Сирла, а то, что они означают для виртуального разума. В то время как Сирл заперт в комнате, виртуальный разум не заперт: он связан с внешним миром через китайских носителей, с которыми он разговаривает, через программистов, которые дали ему мировые знания, и через камеры и другие датчики, которые могут предоставить робототехники .
Все эти аргументы являются версиями системного ответа, который определяет определенный тип системы как важный; они определяют некоторую особую технологию, которая могла бы создать сознательное понимание в машине. (В ответах «робот» и «здравый смысл» выше также указывается определенный тип системы как важный.)
Предположим, что программа в мельчайших подробностях имитирует действие каждого нейрона в мозге говорящего на китайском языке. [81] [w] Это усиливает интуицию о том, что не будет существенной разницы между работой программы и работой живого человеческого мозга.
Серл отвечает, что такая симуляция не воспроизводит важные особенности мозга — его каузальные и намеренные состояния. Он непреклонен в том, что «человеческие ментальные феномены [зависят] от реальных физико-химических свойств реальных человеческих мозгов». [26] Более того, он утверждает:
[Я] представьте, что вместо человека, говорящего на одном языке и перебирающего символы в комнате, у нас есть человек, управляющий сложным набором водопроводных труб с соединяющими их клапанами. Когда человек получает китайские символы, он ищет в программе, написанной на английском языке, какие клапаны он должен включить и выключить. Каждое водопроводное соединение соответствует синапсу в китайском мозге, и вся система устроена так, что после выполнения всех правильных запусков, то есть после включения всех правильных кранов, китайские ответы выскакивают на выходе ряда труб. Где же понимание в этой системе? Она принимает китайский язык в качестве входных данных, имитирует формальную структуру синапсов китайского мозга и выдает китайский язык в качестве выходных данных. Но человек, конечно же, не понимает китайский язык, и водопроводные трубы тоже, и если мы соблазнимся принять то, что я считаю абсурдным мнением, что каким-то образом соединение человека и водопроводных труб понимает, помните, что в принципе человек может усвоить формальную структуру водопроводных труб и выполнить все «нейронные запуски» в своем воображении. [83]
Что, если мы попросим каждого гражданина Китая смоделировать один нейрон, используя телефонную систему для моделирования связей между аксонами и дендритами ? В этой версии кажется очевидным, что ни один человек не будет иметь никакого понимания того, что может говорить мозг. [84] [x] Также очевидно, что эта система будет функционально эквивалентна мозгу, поэтому, если сознание является функцией, эта система будет сознательной.
В этом случае нас просят представить, что инженеры изобрели крошечный компьютер, который имитирует действие отдельного нейрона. Что произойдет, если мы заменим один нейрон за раз? Замена одного явно не изменит сознательное осознание. Замена всех их создаст цифровой компьютер, который имитирует мозг. Если Сирл прав, то сознательное осознание должно исчезнуть во время процедуры (либо постепенно, либо все сразу). Критики Сирла утверждают, что не будет никакого смысла во время процедуры, когда он может утверждать, что сознательное осознание заканчивается и начинается бессмысленное моделирование. [86] [y] [z] (См. Корабль Тесея для похожего мысленного эксперимента.)
Эти аргументы (и ответы робота или здравого смысла) определяют некую особую технологию, которая помогла бы создать сознательное понимание в машине. Их можно интерпретировать двумя способами: либо они утверждают, что (1) эта технология необходима для сознания, китайская комната не реализует или не может реализовать эту технологию, и поэтому китайская комната не может пройти тест Тьюринга или (даже если бы она это сделала) у нее не было бы сознательного понимания. Или они могут утверждать, что (2) легче увидеть, что у китайской комнаты есть разум, если мы визуализируем эту технологию как используемую для его создания.
В первом случае, когда требуются такие функции, как тело робота или архитектура коннекционизма, Сирл утверждает, что сильный ИИ (как он его понимает) был заброшен. [ac] Китайская комната имеет все элементы полной машины Тьюринга и, таким образом, способна имитировать любые цифровые вычисления вообще. Если комната Сирла не может пройти тест Тьюринга, то нет никакой другой цифровой технологии, которая могла бы пройти тест Тьюринга. Если комната Сирла может пройти тест Тьюринга, но все еще не имеет разума, то тест Тьюринга недостаточен для определения того, есть ли у комнаты «разум». В любом случае, это отрицает одну или другую позицию, которую Сирл считает «сильным ИИ», доказывая свой аргумент.
Аргументы в пользу мозга в частности отрицают сильный ИИ, если они предполагают, что нет более простого способа описать разум, чем создать программу, которая была бы столь же загадочной, как и мозг. Он пишет: «Я думал, что вся идея сильного ИИ заключается в том, что нам не нужно знать, как работает мозг, чтобы знать, как работает разум». [27] Если вычисления не дают объяснения человеческого разума, то сильный ИИ потерпел неудачу, по словам Сирла.
Другие критики считают, что комната, как ее описал Сирл, на самом деле имеет разум, однако они утверждают, что это трудно увидеть — описание Сирла верно, но вводит в заблуждение. Переделывая комнату более реалистично, они надеются сделать это более очевидным. В данном случае эти аргументы используются как апелляции к интуиции (см. следующий раздел).
Фактически, комнату можно так же легко переделать, чтобы ослабить нашу интуицию. Аргумент Неда Блока о Blockhead [92] предполагает, что теоретически программа может быть переписана в простую таблицу поиска правил вида «если пользователь пишет S , ответь P и перейди к X». По крайней мере, в принципе, любая программа может быть переписана (или « рефакторизирована ») в эту форму, даже симуляция мозга. [ad] В сценарии Blockhead все ментальное состояние скрыто в букве X, которая представляет собой адрес памяти — число, связанное со следующим правилом. Трудно представить, что момент сознательного опыта человека может быть зафиксирован в одном большом числе, однако именно это утверждает «сильный ИИ». С другой стороны, такая таблица поиска была бы смехотворно большой (вплоть до физической невозможности), и поэтому состояния могли бы быть чрезмерно конкретными.
Сирл утверждает, что как бы ни была написана программа или как бы машина ни была связана с миром, разум моделируется простой пошаговой цифровой машиной (или машинами). Эти машины всегда похожи на человека в комнате: они ничего не понимают и не говорят по-китайски. Они просто манипулируют символами, не зная, что они означают. Сирл пишет: «У меня может быть любая формальная программа, какая вам нравится, но я все равно ничего не понимаю». [93]
Следующие аргументы (и интуитивные интерпретации аргументов выше) не объясняют напрямую, как китайский говорящий разум мог существовать в комнате Сирла, или как символы, которыми он манипулирует, могли стать осмысленными. Однако, вызывая сомнения в интуиции Сирла, они поддерживают другие позиции, такие как ответы системы и робота. Эти аргументы, если их принять, не позволяют Сирлу утверждать, что его вывод очевиден, подрывая интуицию, которую требует его уверенность.
Некоторые критики полагают, что аргумент Сирла полностью полагается на интуицию. Блок пишет: «Сила аргумента Сирла зависит от интуиции, что некоторые сущности не мыслят». [94] Дэниел Деннетт описывает аргумент китайской комнаты как вводящий в заблуждение « интуитивный насос » [95] и пишет: «Мысленный эксперимент Сирла незаконно зависит от того, что вы представляете себе слишком простой случай, не относящийся к делу, и делаете из него очевидный вывод». [95]
Некоторые из приведенных выше аргументов также функционируют как апелляции к интуиции, особенно те, которые призваны сделать более правдоподобным то, что китайская комната содержит разум, который может включать робота, знание здравого смысла, моделирование мозга и ответы коннекционистов. Некоторые из приведенных выше ответов также затрагивают конкретную проблему сложности. Ответ коннекционистов подчеркивает, что работающая система искусственного интеллекта должна быть такой же сложной и взаимосвязанной, как человеческий мозг. Ответ здравого смысла подчеркивает, что любая программа, прошедшая тест Тьюринга, должна быть «чрезвычайно гибкой, сложной и многослойной системой, наполненной «мировыми знаниями», метазнаниями и мета-метазнаниями», как объясняет Дэниел Деннетт . [77]
Многие из этих критиков подчеркивают скорость и сложность человеческого мозга, [ae] , который обрабатывает информацию со скоростью 100 миллиардов операций в секунду (по некоторым оценкам). [97] Некоторые критики указывают, что человеку в комнате, вероятно, понадобятся миллионы лет, чтобы ответить на простой вопрос, и для этого потребуются «шкафы для хранения документов» астрономических размеров. [98] Это ставит под сомнение ясность интуиции Серла.
Особенно яркая версия ответа о скорости и сложности принадлежит Полу и Патрисии Черчленд . Они предлагают аналогичный мысленный эксперимент: «Представьте себе темную комнату, в которой находится человек, держащий стержневой магнит или заряженный предмет. Если человек качает магнит вверх и вниз, то, согласно теории Максвелла об искусственной яркости (AL), он инициирует распространяющийся круг электромагнитных волн и, таким образом, будет светиться. Но, как хорошо известно всем нам, кто играл с магнитами или заряженными шарами, их силы (или любые другие силы, если на то пошло), даже когда они приведены в движение, не производят никакой яркости вообще. Немыслимо, чтобы вы могли создать настоящую яркость, просто перемещая силы!» [85] Суть Черчленда в том, что проблема в том, что ему пришлось бы махать магнитом вверх и вниз около 450 триллионов раз в секунду, чтобы что-то увидеть. [99]
Стеван Харнад критикует ответы на вопросы скорости и сложности, когда они выходят за рамки обращения к нашим интуициям. Он пишет: «Некоторые создали культ скорости и времени, полагая, что при ускорении до нужной скорости вычислительное может совершить фазовый переход в ментальное. Должно быть ясно, что это не контраргумент, а всего лишь ad hoc-спекуляция (как и мнение, что все это просто вопрос повышения до нужной степени «сложности»)» [100] [af]
Сирл утверждает, что его критики также полагаются на интуицию, однако интуиция его оппонентов не имеет эмпирической основы. Он пишет, что для того, чтобы считать «системный ответ» хотя бы отдаленно правдоподобным, человек должен находиться «под гнетом идеологии». [29] Системный ответ имеет смысл (для Сирла), только если предположить, что любая «система» может обладать сознанием, просто в силу того, что она является системой с правильным поведением и функциональными частями. Это предположение, утверждает он, несостоятельно, учитывая наш опыт сознания.
В нескольких ответах утверждается, что аргумент Сирла нерелевантен, поскольку его предположения о разуме и сознании ошибочны. Сирл считает, что люди непосредственно испытывают свое сознание, преднамеренность и природу разума каждый день, и что этот опыт сознания не подлежит сомнению. Он пишет, что мы должны «предположить реальность и познаваемость ментального». [103] В ответах ниже ставится вопрос о том, оправдано ли использование Сирлом собственного опыта сознания для определения того, что это больше, чем механическая обработка символов. В частности, ответ о других разумах утверждает, что мы не можем использовать наш опыт сознания для ответа на вопросы о других разумах (даже разуме компьютера), ответ эпифеномы спрашивает, можем ли мы вообще выдвигать какие-либо аргументы о чем-то вроде сознания, которое по определению не может быть обнаружено никаким экспериментом, а ответ элиминативного материалиста утверждает, что собственное личное сознание Сирла не «существует» в том смысле, в котором Сирл думает, что оно существует.
«Ответ других умов» указывает на то, что аргумент Сирла — это версия проблемы других умов , примененная к машинам. Нет способа определить, совпадает ли субъективный опыт других людей с нашим собственным. Мы можем только изучать их поведение (т. е. давая им наш собственный тест Тьюринга). Критики Сирла утверждают, что он предъявляет к китайской комнате более высокие требования, чем мы предъявляем к обычному человеку. [104] [ag]
Нильс Нильссон пишет: «Если программа ведет себя так, как будто она умножает, большинство из нас скажет, что она на самом деле умножает. Насколько я знаю, Сирл может вести себя так, как будто он глубоко размышляет об этих вопросах. Но, хотя я с ним и не согласен, его симуляция довольно хороша, поэтому я готов отдать ему должное за реальные мысли». [106]
Тьюринг предвосхитил линию аргументации Серла (которую он назвал «Аргументом от сознания») в 1950 году и заставил другие умы ответить. [107] Он отметил, что люди никогда не рассматривают проблему других умов, когда имеют дело друг с другом. Он пишет, что «вместо того, чтобы постоянно спорить по этому вопросу, обычно придерживаются вежливой конвенции, что все думают». [108] Тест Тьюринга просто распространяет эту «вежливую конвенцию» на машины. Он не намерен решать проблему других умов (для машин или людей), и он не думает, что нам это нужно. [ах]
Если мы принимаем описание преднамеренности, сознания и разума, данное Сирлом, мы вынуждены признать, что сознание эпифеноменально : что оно «не отбрасывает тени», т. е. необнаружимо во внешнем мире. «Причинные свойства» Сирла не могут быть обнаружены никем за пределами разума, в противном случае китайская комната не смогла бы пройти тест Тьюринга — люди снаружи смогли бы определить, что в комнате нет говорящего на китайском языке, обнаружив их причинные свойства. Поскольку они не могут обнаружить причинные свойства, они не могут обнаружить существование ментального. Таким образом, «причинные свойства» Сирла и само сознание необнаружимы, и все, что не может быть обнаружено, либо не существует, либо не имеет значения.
Майк Олдер называет это «Ответом Ньютона о пылающем лазерном мече». Он утверждает, что весь аргумент несерьёзен, потому что он неверификационный : не только различие между имитацией разума и наличием разума нечётко определено, но и не имеет значения, потому что не было и не может быть предложено никаких экспериментов для различения этих двух вещей. [110]
Дэниел Деннетт приводит такую иллюстрацию: предположим, что в результате некоторой мутации рождается человек, который не обладает «причинными свойствами» Сирла, но тем не менее действует точно так же, как человек. Это философский зомби , как это сформулировано в философии разума . Это новое животное будет размножаться так же, как любой другой человек, и в конечном итоге этих зомби станет больше. Естественный отбор будет благоприятствовать зомби, поскольку их конструкция (мы могли бы предположить) немного проще. В конечном итоге люди вымрут. Поэтому, если Сирл прав, наиболее вероятно, что люди (какими мы их видим сегодня) на самом деле являются «зомби», которые тем не менее настаивают на том, что они сознательны. Невозможно узнать, все ли мы зомби или нет. Даже если мы все зомби, мы все равно будем верить, что мы не таковы. [111]
Некоторые философы утверждают, что сознание, как его описывает Серл, не существует. Дэниел Деннетт описывает сознание как « иллюзию пользователя ». [112]
Эту позицию иногда называют элиминативным материализмом : точка зрения, что сознание не является концепцией, которая может «наслаждаться редукцией» к строго механическому описанию, а скорее является концепцией, которая будет просто устранена, как только будет полностью понят способ работы материального мозга, точно так же, как концепция демона уже была устранена из науки, а не наслаждалась редукцией к строго механическому описанию. Другие ментальные свойства, такие как изначальная интенциональность (также называемая «смыслом», «содержанием» и «семантическим характером»), также обычно рассматриваются как особые свойства, связанные с убеждениями и другими пропозициональными установками. Элиминативный материализм утверждает, что пропозициональные установки, такие как убеждения и желания, среди других интенциональных ментальных состояний, которые имеют содержание, не существуют. Если элиминативный материализм является правильным научным описанием человеческого познания, то предположение аргумента китайской комнаты о том, что «разумы имеют ментальное содержание ( семантика )», должно быть отвергнуто. [113]
Сёрл не согласен с этим анализом и утверждает, что «изучение разума начинается с таких фактов, как то, что у людей есть убеждения, в то время как у термостатов, телефонов и счетных машин их нет... мы хотели бы узнать, что отличает разум от термостатов и печени». [74] Он считает очевидным, что мы можем обнаружить наличие сознания, и отклоняет эти ответы как не имеющие отношения к делу.
Маргарет Боден утверждала в своей статье «Побег из китайской комнаты», что даже если человек в комнате не понимает китайский язык, это не значит, что в комнате нет понимания. Человек в комнате, по крайней мере, понимает книгу правил, используемую для предоставления выходных ответов. [114]
Вывод Серла о том, что «человеческие психические явления [зависят] от реальных физико-химических свойств реальных человеческих мозгов» [26], иногда описывался как форма « углеродного шовинизма ». [115] Стивен Пинкер предположил, что ответом на этот вывод будет проведение мысленного эксперимента, противоположного «китайской комнате», в котором недоверие идет в другую сторону. [116] Он приводит в пример рассказ « Они сделаны из мяса» , в котором описывается инопланетная раса, состоящая из неких электронных существ, которые, обнаружив Землю, выражают недоверие тому, что мясной мозг людей может испытывать сознание и мыслить. [117]
Однако другие утверждают, что Серл не является «шовинистом углерода», поскольку он сказал: «Я не пытался показать, что только биологические системы, такие как наш мозг, могут мыслить. [...] Я считаю этот вопрос открытым для обсуждения». [118]
{{cite book}}
: CS1 maint: постскриптум ( ссылка )и Флориди, Лучано (2014), Четвертая революция: как инфосфера меняет человеческую реальность , Oxford University Press, ISBN 978-0-19-960672-6