stringtranslate.com

Китайская комната

Аргумент китайской комнаты утверждает, что цифровой компьютер, выполняющий программу, не может иметь « разума », « понимания » или « сознания », [а] независимо от того, насколько разумно или человекоподобно программа может заставить компьютер вести себя. Этот аргумент был представлен философом Джоном Сирлом в его статье «Сознание, мозг и программы», опубликованной в журнале Behavioral and Brain Sciences в 1980 году . [1] Подобные аргументы были представлены Готфридом Лейбницем (1714 г.), Анатолием Днепровым (1961 г.), Лоуренсом Дэвис (1974) и Нед Блок (1978). С тех пор версия Сирла широко обсуждалась. [2] Центральным элементом аргументации Сирла является мысленный эксперимент, известный как «Китайская комната» . [3]

Аргумент направлен против философских позиций функционализма и компьютерализма [4] , согласно которым разум можно рассматривать как систему обработки информации, действующую на формальных символах, и что для его присутствия достаточно моделирования данного психического состояния. В частности, этот аргумент призван опровергнуть позицию, которую Серл называет сильной гипотезой искусственного интеллекта : [b] «Правильно запрограммированный компьютер с правильными входами и выходами, таким образом, будет обладать разумом в точно таком же смысле, в каком разум есть у людей». [с]

Хотя изначально оно было представлено в качестве реакции на заявления исследователей искусственного интеллекта (ИИ), оно не является аргументом против целей основных исследований ИИ, поскольку не показывает предела «разумного» поведения, которое может проявлять машина. [5] Этот аргумент применим только к цифровым компьютерам, на которых выполняются программы, и не применим к машинам в целом. [6]

Мысленный эксперимент в китайской комнате

Мысленный эксперимент Сирла начинается с этой гипотетической предпосылки: предположим, что исследования искусственного интеллекта преуспели в создании компьютера, который ведет себя так, как если бы он понимал китайский язык . Он принимает китайские иероглифы в качестве входных данных и, следуя инструкциям компьютерной программы , создает другие китайские иероглифы, которые представляют в качестве выходных данных. Предположим, говорит Сирл, что этот компьютер выполняет свою задачу настолько убедительно, что легко проходит тест Тьюринга : он убеждает человека, говорящего по-китайски, в том, что программа сама является живым говорящим по-китайски. На все вопросы, которые задает человек, он дает соответствующие ответы, так что любой говорящий по-китайски будет убежден, что он разговаривает с другим человеком, говорящим по-китайски.

Вопрос, на который Сирл хочет ответить, заключается в следующем: «понимает» ли машина китайский язык в буквальном смысле ? Или это просто имитация способности понимать китайский язык? [7] [d] Сирл называет первую позицию «сильным ИИ», а вторую — «слабым ИИ». [э]

Затем Сирл предполагает, что он находится в закрытой комнате и имеет книгу с английской версией компьютерной программы, а также достаточное количество бумаги, карандашей, ластиков и шкафов для документов. Сирл мог получать китайские иероглифы через щель в двери, обрабатывать их в соответствии с инструкциями программы и выводить китайские иероглифы на выходе, не понимая никакого содержания китайского письма. Если бы компьютер прошел тест Тьюринга таким образом, то, говорит Сирл, он бы сделал то же самое, просто запустив программу вручную.

Сирл утверждает, что нет существенной разницы между ролями компьютера и им самим в эксперименте. Каждый просто шаг за шагом следует программе, создавая поведение, которое затем интерпретируется пользователем как демонстрация разумного разговора. Однако сам Сирл не смог понять разговора. («Я не говорю ни слова по-китайски», [10] указывает он.) Следовательно, утверждает он, следует, что компьютер также не сможет понять разговор.

Сирл утверждает, что без «понимания» (или « интенциональности ») мы не можем описать то, что делает машина, как «думание», и, поскольку она не думает, у нее нет «разума» в чем-либо похожем на нормальный смысл слова. слово. Поэтому он заключает, что гипотеза «сильного ИИ» ложна.

История

Готфрид Лейбниц в 1714 году выдвинул аналогичный аргумент против механизма (идея о том, что все, что составляет человека, в принципе можно объяснить в механических терминах. Другими словами, человек, включая его разум, представляет собой всего лишь очень сложную машину). . Лейбниц использовал мысленный эксперимент по расширению мозга до размеров мельницы . [11] Лейбницу было трудно представить, что «разум», способный к «восприятию», может быть построен с использованием только механических процессов. [ф]

Советский кибернетик Анатолий Днепров выдвинул по существу идентичный аргумент в 1961 году в форме рассказа « Игра ». В нем стадион людей действует как переключатели и ячейки памяти, реализующие программу перевода предложения на португальский язык, язык, которого никто из них не знает. [12] Игру организовал «Профессор Зарубин» для ответа на вопрос «Могут ли мыслить математические машины?» Говоря через Зарубина, Днепров пишет: «Единственный способ доказать, что машины могут думать, — это превратить себя в машину и изучить свой мыслительный процесс», и заключает, как и Серл: «Мы доказали, что даже самая совершенная симуляция машины мышление — это не сам процесс мышления».

В 1974 году Лоуренс Дэвис представил, как можно дублировать мозг с помощью телефонных линий и офисов, укомплектованных людьми, а в 1978 году Нед Блок представил, что все население Китая будет участвовать в таком моделировании мозга. Этот мысленный эксперимент называется « Китайский мозг» , также «Китайская нация» или «Китайский тренажерный зал». [13]

Джон Сирл в декабре 2005 года

Версия Сирла появилась в его статье 1980 года «Сознание, мозг и программы», опубликованной в журнале Behavioral and Brain Sciences . [1] В конечном итоге она стала «самой влиятельной целевой статьей журнала», [2] вызвав огромное количество комментариев и ответов в последующие десятилетия, и Сирл продолжал защищать и уточнять эту аргументацию во многих статьях, популярных статьях и книгах. Дэвид Коул пишет, что «аргумент китайской комнаты, вероятно, был наиболее широко обсуждаемым философским аргументом в когнитивной науке, появившимся за последние 25 лет». [14]

Большая часть дискуссии состоит из попыток его опровергнуть. «Подавляющее большинство», — отмечает редактор BBS Стеван Харнад , — « все еще считают, что аргумент о китайской комнате совершенно неправильный». [15] Огромный объем литературы, выросшей вокруг этой темы, вдохновил Пэта Хейса прокомментировать, что область когнитивной науки следует переопределить как «текущую исследовательскую программу, направленную на то, чтобы доказать ложность аргумента Сирла о китайской комнате». [16]

По словам Харнада, аргумент Сирла стал «чем-то вроде классики в когнитивной науке». [15] Варол Акман согласен и назвал оригинальную статью «образцом философской ясности и чистоты». [17]

Философия

Хотя аргумент «Китайской комнаты» изначально был представлен как реакция на заявления исследователей искусственного интеллекта , философы стали рассматривать его как важную часть философии разума . Это вызов функционализму и вычислительной теории разума , [h] и связан с такими вопросами, как проблема разума и тела , проблема других разумов , проблема обоснования символов и трудная проблема сознания . [а]

Сильный ИИ

Сирл определил философскую позицию, которую он называет «сильным ИИ»:

Таким образом, правильно запрограммированный компьютер с правильными входами и выходами будет обладать разумом точно в том же смысле, в котором разум есть у людей. [с]

Определение зависит от различия между симуляцией разума и реальным наличием разума. Сирл пишет, что «согласно «Сильному ИИ» правильная симуляция на самом деле является разумом. Согласно «Слабому ИИ» правильная симуляция — это модель разума». [8]

Это утверждение неявно содержится в некоторых заявлениях первых исследователей и аналитиков ИИ. Например, в 1955 году основатель искусственного интеллекта Герберт А. Саймон заявил, что «теперь в мире существуют машины, которые думают, учатся и создают». [24] Саймон вместе с Алленом Ньюэллом и Клиффом Шоу , после завершения первой программы «ИИ», « Теоретик логики », заявили, что они «решили почтенную проблему разума и тела , объяснив, как система, состоящая из материи, может иметь свойства ума ». [25] Джон Хаугеланд писал, что «ИИ хочет только подлинного предмета: машин с разумом в полном и буквальном смысле. Это не научная фантастика, а настоящая наука, основанная на теоретической концепции, столь же глубокой, сколь и смелой: а именно: мы, по сути, сами являемся компьютерами ». [26]

Сирл также приписывает сторонникам сильного ИИ следующие утверждения:

Сильный ИИ как вычислительный подход или функционализм

В более поздних презентациях аргумента о китайской комнате Сирл определил «сильный ИИ» как «компьютерный функционализм » (термин, который он приписывает Дэниелу Деннетту ). [4] [31] Функционализм — это позиция в современной философии разума , согласно которой мы можем определять психические явления (такие как убеждения, желания и восприятия), описывая их функции по отношению друг к другу и к внешнему миру. Согласно функционализму , поскольку компьютерная программа может точно представлять функциональные отношения как отношения между символами, компьютер может иметь ментальные явления, если он запускает правильную программу.

Стеван Харнад утверждает, что изображения сильного ИИ, предложенные Сирлом, можно переформулировать как «узнаваемые принципы вычислительной техники , позицию (в отличие от «сильного ИИ»), которой на самом деле придерживаются многие мыслители, и, следовательно, ее стоит опровергнуть». [32] Компьютерализм [k] — это позиция в философии разума, которая утверждает, что разум можно точно описать как систему обработки информации .

Каждое из следующих утверждений, по мнению Харнада, является «принципом» компьютерализма: [35]

Сильный ИИ против биологического натурализма

Сирл придерживается философской позиции, которую он называет « биологическим натурализмом »: сознание и понимание требуют наличия особых биологических механизмов, находящихся в мозге. Он пишет, что «мозг вызывает разум» [6] и что «реальные психические явления человека [зависят] от реальных физико-химических свойств реального человеческого мозга». [36] Сирл утверждает, что этот механизм (известный в нейробиологии как « нейронные корреляты сознания ») должен обладать некоторыми причинными силами, которые позволяют человеческому опыту сознания. [37] Вера Сирла в существование этих полномочий подверглась критике. [л]

Сирл не согласен с представлением о том, что машины могут обладать сознанием и пониманием, поскольку, как он пишет, «мы именно такие машины». [6] Сирл считает, что мозг, по сути, является машиной, но мозг порождает сознание и понимание с помощью особых механизмов. Если нейробиология способна изолировать механический процесс, порождающий сознание, то Сирл допускает возможность создания машин, обладающих сознанием и пониманием. Однако Сирл не верит, что сознание может возникнуть без специального оборудования.

Биологический натурализм подразумевает, что невозможно определить, происходит ли переживание сознания, просто исследуя, как функционирует система, поскольку важен специфический механизм мозга. Таким образом, биологический натурализм прямо противоположен как бихевиоризму , так и функционализму (включая «компьютерный функционализм» или «сильный ИИ»). [38] Биологический натурализм похож на теорию идентичности (позиция, согласно которой психические состояния «идентичны» неврологическим событиям или «состоят из них»); однако у Сирла есть конкретные технические возражения против теории идентичности. [39] [m] Биологический натурализм Сирла и сильный ИИ противостоят картезианскому дуализму , [38] классической идее о том, что мозг и разум состоят из разных «веществ». Действительно, Сирл обвиняет сильный ИИ в дуализме, написав, что «сильный ИИ имеет смысл только с учетом дуалистического предположения, что когда дело касается разума, мозг не имеет значения». [27]

Сознание

В первоначальной презентации Сирла подчеркивалось «понимание» — то есть психические состояния с тем, что философы называют « интенциональностью », — и не затрагивалось напрямую другие тесно связанные идеи, такие как «сознание». Однако в более поздних презентациях Сирл включил сознание в качестве реальной цели аргумента. [4]

Вычислительные модели сознания сами по себе недостаточны для существования сознания. Вычислительная модель сознания соотносится с сознанием так же, как вычислительная модель чего-либо соотносится с моделируемой областью. Никто не предполагает, что вычислительная модель ливней в Лондоне оставит нас всех мокрыми. Но они допускают ошибку, полагая, что вычислительная модель сознания каким-то образом сознательна. В обоих случаях это одна и та же ошибка. [40]

-  Джон Р. Сирл, Сознание и язык , с. 16

Дэвид Чалмерс пишет: «Совершенно очевидно, что в основе всего лежит сознание» китайской комнаты. [41]

Колин Макгинн утверждает, что «Китайская комната» убедительно доказывает, что трудная проблема сознания принципиально неразрешима. Чтобы внести ясность, спор идет не о том, может ли машина быть сознательной, а о том, можно ли показать, что она (или что-то еще) обладает сознанием. Ясно, что любой другой метод допроса обитателя китайской комнаты имеет в принципе те же трудности, что и обмен вопросами и ответами на китайском языке. Просто невозможно предугадать, обитает ли в комнате сознательная сила или какая-то хитрая симуляция. [42]

Сирл утверждает, что это верно только для наблюдателя за пределами комнаты. Весь смысл мысленного эксперимента состоит в том, чтобы поместить кого-нибудь в комнату, где он сможет непосредственно наблюдать за действиями сознания. Сирл утверждает, что со своей точки зрения в комнате он не видит ничего, что могло бы вызвать сознание, кроме него самого, и очевидно, что у него нет разума, способного говорить по-китайски. [ нужна цитата ]

Прикладная этика

Сидение в боевом информационном центре на борту военного корабля — предложенный как реальный аналог китайской комнаты.

Патрик Хью использовал аргумент китайской комнаты, чтобы вывести требования к системам военного командования и контроля , если они хотят сохранить моральную свободу командира . Он провел аналогию между командиром в их командном центре и человеком в Китайской комнате и проанализировал ее, читая понятия Аристотеля о «принуждении» и «невежестве» . Информация может быть «преобразована вниз» из значения в символы и ею можно символически манипулировать, но моральная свобода действий может быть подорвана, если произойдет неадекватное «преобразование вверх» в смысл. Хью привел примеры инцидента с авианосцем «Винсеннес» . [43]

Информатика

Аргумент о китайской комнате — это прежде всего аргумент в философии разума , и как крупные учёные-компьютерщики, так и исследователи искусственного интеллекта считают его нерелевантным для своих областей. [5] Однако для понимания аргумента необходимы несколько концепций, разработанных учеными-компьютерщиками, включая обработку символов , машины Тьюринга , полноту Тьюринга и тест Тьюринга .

Сильный ИИ против исследований ИИ

Аргументы Сирла обычно не считаются проблемой для исследований ИИ. Основная задача исследований искусственного интеллекта состоит только в создании полезных систем, которые действуют разумно, и не имеет значения, является ли интеллект «просто» симуляцией. Исследователи искусственного интеллекта Стюарт Рассел и Питер Норвиг написали в 2021 году: «Мы заинтересованы в программах, которые ведут себя разумно. Отдельные аспекты сознания — осознание, самосознание, внимание — могут быть запрограммированы и могут быть частью интеллектуальной машины. Проект по созданию машины, обладающей таким же сознанием, как и люди, — это не тот проект, на который мы готовы взяться». [5]

Сирл не согласен с тем, что исследования ИИ могут создать машины, способные к высокоинтеллектуальному поведению. Аргумент о китайской комнате оставляет открытой возможность создания цифровой машины, которая будет действовать более разумно, чем человек, но не будет обладать разумом или интенциональностью , как у мозга .

«Гипотезу сильного ИИ» Сирла не следует путать с «сильным ИИ», как его определил Рэй Курцвейл и другие футуристы, [44] [23] , которые используют этот термин для описания машинного интеллекта, который конкурирует или превосходит человеческий интеллект, то есть искусственный интеллект . общий интеллект , искусственный интеллект человеческого уровня или сверхинтеллект . Курцвейл имеет в виду прежде всего объем интеллекта , демонстрируемый машиной, тогда как аргумент Сирла не устанавливает этому предела. Сирл утверждает, что сверхразумная машина не обязательно будет обладать разумом и сознанием.

Тест Тьюринга

«Стандартная интерпретация» теста Тьюринга, в которой игроку C, допрашивающему, дается задача попытаться определить, какой игрок — A или B — является компьютером, а какой — человеком. Для вынесения решения следователь ограничивается использованием ответов на письменные вопросы. Изображение адаптировано из Saygin, et al. 2000. [45]

Китайская комната реализует версию теста Тьюринга . [46] Алан Тьюринг представил тест в 1950 году, чтобы помочь ответить на вопрос «могут ли машины думать?» В стандартной версии судья-человек разговаривает на естественном языке с человеком и машиной, предназначенной для достижения результатов, неотличимых от действий человека. Все участники отделены друг от друга. Если судья не может достоверно отличить машину от человека, говорят, что машина прошла испытание.

Затем Тьюринг рассмотрел каждое возможное возражение против предложения «машины могут думать» и обнаружил, что существуют простые и очевидные ответы, если вопрос демистифицирован таким образом. Однако он не собирался проводить тест для измерения наличия «сознания» или «понимания». Он не считал, что это имеет отношение к проблемам, которые он рассматривал. Он написал:

Я не хочу создавать впечатление, что, по моему мнению, в сознании нет никакой тайны. Например, существует некий парадокс, связанный с любой попыткой его локализации. Но я не думаю, что эти загадки обязательно нужно разгадать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье. [46]

Для Сирла, как философа, исследующего природу разума и сознания , это важные загадки. Китайская комната создана для того, чтобы показать, что теста Тьюринга недостаточно для обнаружения присутствия сознания, даже если комната может вести себя или функционировать так же, как сознательный разум.

Обработка символов

Китайская комната (и все современные компьютеры) манипулируют физическими объектами для проведения вычислений и моделирования. Исследователи искусственного интеллекта Аллен Ньюэлл и Герберт А. Саймон назвали этот тип машины системой физических символов . Это также эквивалентно формальным системам , используемым в области математической логики .

Сирл подчеркивает тот факт, что такого рода манипуляции с символами являются синтаксическими (заимствование термина из изучения грамматики ). Компьютер манипулирует символами, используя форму синтаксических правил , без какого-либо знания семантики символов (то есть их значения ).

Ньюэлл и Саймон предположили, что физическая система символов (такая как цифровой компьютер) обладает всеми необходимыми механизмами для «общего разумного действия», или, как его называют сегодня, общего искусственного интеллекта . Они сформулировали это как философскую позицию, гипотезу системы физических символов : «Система физических символов обладает необходимыми и достаточными средствами для общего разумного действия». [47] [48] Аргумент китайской комнаты не опровергает этого, поскольку он сформулирован в терминах «разумного действия», то есть внешнего поведения машины, а не наличия или отсутствия понимания, сознания и разума.

Программы искусственного интеллекта XXI века (такие как « глубокое обучение ») выполняют математические операции над огромными матрицами неопознанных чисел и мало похожи на символьную обработку, используемую программами искусственного интеллекта в то время, когда Сирл писал свою критику в 1980 году. Нильс Нильссон описывает такие системы, как они скорее «динамические», чем «символические». Нильссон отмечает, что это, по сути, оцифрованные представления динамических систем — отдельные числа не имеют определенной семантики, а вместо этого являются выборками или точками данных из динамического сигнала, и именно аппроксимируемый сигнал будет иметь семантику. Нильссон утверждает, что неразумно рассматривать эти сигналы как «обработку символов» в том же смысле, что и гипотезу о физических системах символов. [49]

Китайская комната и полнота по Тьюрингу

Китайская комната имеет дизайн, аналогичный дизайну современного компьютера. Он имеет архитектуру фон Неймана , которая состоит из программы (книги инструкций), некоторого объема памяти (бумаги и картотеки), центрального процессора , который следует инструкциям (человек), и средства записи символов в память (процессор). карандаш и ластик). Машина с такой конструкцией известна в теоретической информатике как « полная по Тьюрингу », поскольку она имеет необходимое оборудование для выполнения любых вычислений, которые может выполнить машина Тьюринга , и, следовательно, она способна выполнять пошаговое моделирование любая другая цифровая машина, при наличии достаточной памяти и времени. Алан Тьюринг пишет: «Все цифровые компьютеры в некотором смысле эквивалентны». [50] Широко распространенный тезис Чёрча-Тьюринга гласит, что любая функция, вычислимая с помощью эффективной процедуры, вычислима с помощью машины Тьюринга .

Полнота китайской комнаты по Тьюрингу подразумевает, что она может делать то же, что и любой другой цифровой компьютер (хотя и гораздо медленнее). Таким образом, если китайская комната не содержит или не может содержать разум, говорящий по-китайски, то никакой другой цифровой компьютер не может содержать разум. Некоторые ответы Сирлу начинаются с утверждения, что в описанной комнате не может быть разума, говорящего по-китайски. Аргументы этой формы, по мнению Стевана Харнада , являются «не опровержением (а, скорее, подтверждением)» [51] аргумента о китайской комнате, поскольку эти аргументы фактически подразумевают, что ни один цифровой компьютер не может обладать разумом. [29]

Некоторые критики, такие как Ханох Бен-Ями, утверждают, что китайская комната не может имитировать все возможности цифрового компьютера, например, способность определять текущее время. [52]

Полный аргумент

Сирл предложил более формальную версию аргумента, частью которого является «Китайская комната». Он представил первую версию в 1984 году. Представленная ниже версия датируется 1990 годом. [53] [n] Мысленный эксперимент в китайской комнате призван доказать пункт А3. [о]

Он начинает с трех аксиом:

(А1) «Программы формальны ( синтаксические )».
Программа использует синтаксис для управления символами и не обращает внимания на семантику символов. Он знает, где разместить символы и как их перемещать, но не знает, что они обозначают и что означают. Для программы символы — это такие же физические объекты, как и любые другие.
(А2) «Сознание имеет ментальное содержание ( семантику )».
В отличие от символов, используемых программой, наши мысли имеют значение: они представляют вещи, и мы знаем, что они представляют.
(A3) «Синтаксис сам по себе не является ни составляющим, ни достаточным для семантики».
Именно это и призван доказать мысленный эксперимент в китайской комнате: в китайской комнате есть синтаксис (потому что там находится человек, перемещающий символы). Китайская комната не имеет семантики (поскольку, по мнению Сирла, в комнате нет никого или ничего, кто понимал бы, что означают символы). Следовательно, наличия синтаксиса недостаточно для создания семантики.

Сирл утверждает, что это приводит непосредственно к такому выводу:

(C1) Программы не являются ни составляющими, ни достаточными для разума.
Это должно следовать без противоречий из первых трех: Программы не имеют семантики. В программах есть только синтаксис, а синтаксиса недостаточно для семантики. У каждого ума есть семантика. Следовательно, никакие программы не являются разумами.

Большая часть аргументов призвана показать, что искусственный интеллект никогда не сможет создать машину с разумом, написав программы, манипулирующие символами. Остальная часть аргумента касается другой проблемы. Запускается ли в человеческом мозге программа? Другими словами, верна ли вычислительная теория разума ? [h] Он начинает с аксиомы, которая призвана выразить основной современный научный консенсус относительно мозга и разума:

(A4) Мозг порождает разум.

Сирл утверждает, что мы можем «немедленно» и «тривиально» вывести [54], что:

(C2) Любая другая система, способная вызывать разум, должна была бы обладать причинными способностями (по крайней мере), эквивалентными возможностям мозга.
В мозгу должно быть что-то, что заставляет разум существовать. Науке еще предстоит точно определить, что это такое, но оно должно существовать, потому что существует разум. Сирл называет это «причинными силами». «Причинные силы» — это все, что мозг использует для создания разума. Если что-то еще может вызвать существование разума, оно должно обладать «эквивалентными причинными силами». «Эквивалентные причинные силы» — это все , что можно использовать для формирования разума.

И отсюда он делает дальнейшие выводы:

(C3) Любой артефакт, вызывающий психические явления, любой искусственный мозг, должен был бы быть в состоянии дублировать определенные причинные способности мозга, и он не мог бы сделать это, просто запустив формальную программу.
Это следует из C1 и C2: поскольку ни одна программа не может создать разум, а «эквивалентные причинные силы» создают разум, из этого следует, что программы не обладают «эквивалентными причинными силами».
(C4) Способ, которым человеческий мозг на самом деле производит психические явления, не может быть обусловлен исключительно запуском компьютерной программы.
Поскольку программы не обладают «эквивалентными причинными силами», «эквивалентные причинные силы» создают разум, а мозг производит разум, из этого следует, что мозг не использует программы для создания разума.

Опровержения аргументов Сирла принимают самые разные формы (см. ниже). Компьютеристы и функционалисты отвергают А3, утверждая, что «синтаксис» (как его описывает Сирл) может иметь «семантику», если синтаксис имеет правильную функциональную структуру. Элиминативные материалисты отвергают А2, утверждая, что разум на самом деле не имеет «семантики» — что мысли и другие психические явления по своей сути бессмысленны, но, тем не менее, функционируют так, как если бы они имели смысл.

Ответы

Ответы на аргумент Сирла можно классифицировать в соответствии с тем, что они якобы показывают: [p]

Некоторые аргументы (например, моделирование роботов и мозга) делятся на несколько категорий.

Системы и ответы виртуального разума: поиск разума

Эти ответы пытаются ответить на вопрос: поскольку мужчина в комнате не говорит по-китайски, где тот «ум», который говорит? Эти ответы затрагивают ключевые онтологические проблемы разума и тела и симуляции и реальности. Все ответы, идентифицирующие разум в комнате, являются версиями «ответа системы».

Ответ системы

В базовой версии ответа системы утверждается, что именно «вся система» понимает китайский язык. [59] [q] Хотя человек понимает только английский язык, когда он сочетается с программой, бумагой для заметок, карандашами и картотеками, они образуют систему, которая может понимать китайский язык. «Здесь понимание не приписывается простому индивидууму; оно скорее приписывается всей системе, частью которой он является», — объясняет Сирл. [30]
Сирл отмечает, что (в этой простой версии ответа) «система» представляет собой не что иное, как совокупность обычных физических объектов; он наделяет силой понимания и сознания «соединение этого человека и кусочков бумаги» [30], не прилагая никаких усилий для объяснения того, как эта куча предметов стала сознательным, мыслящим существом. Сирл утверждает, что ни один разумный человек не должен быть удовлетворен ответом, если только он не находится «во власти идеологии»; [30] Для того, чтобы этот ответ был хотя бы отдаленно правдоподобным, нужно принять как должное, что сознание может быть продуктом «системы» обработки информации и не требует ничего, напоминающего реальную биологию мозга.
Затем Серл отвечает, упрощая этот список физических объектов: он спрашивает, что произойдет, если человек запомнит правила и будет отслеживать все в своей голове? Тогда вся система состоит всего из одного объекта: самого человека. Сирл утверждает, что если человек не понимает китайского языка, то и система не понимает китайского языка, потому что теперь и «система», и «человек» описывают один и тот же объект. [30]
Критики ответа Сирла утверждают, что программа позволила этому человеку объединить два разума в одной голове. [ ВОЗ? ] Если мы предположим, что «разум» — это форма обработки информации, тогда теория вычислений может объяснить два вычисления, происходящие одновременно, а именно (1) вычисление универсальной программируемости (которое представляет собой функцию, реализуемую человеком и примечанием). получение материалов независимо от содержимого какой-либо конкретной программы) и (2) вычисление машины Тьюринга, описываемой программой (которое создается всем, включая конкретную программу). [61] Таким образом, теория вычислений формально объясняет открытую возможность того, что второе вычисление в Китайской комнате может повлечь за собой эквивалентное человеку семантическое понимание китайских входных данных. Основное внимание уделяется машине Тьюринга программы, а не человеку. [62] Однако, с точки зрения Сирла, этот аргумент является круговым. Спорный вопрос заключается в том, является ли сознание формой обработки информации, и этот ответ требует, чтобы мы сделали это предположение.

Более сложные версии ответа системы пытаются более точно определить, что такое «система», и различаются тем, как именно они ее описывают. Согласно этим ответам, [ кто? ] «разум, говорящий по-китайски», может представлять собой такие вещи, как: «программное обеспечение», «программа», «работающая программа», симуляция «нейронных коррелятов сознания», «функциональная система», «моделируемая программа». разум», « эмерджентное свойство» или « виртуальный разум» (описанный ниже).

Ответ виртуального разума

Марвин Мински предложил версию системного ответа, известную как «ответ виртуального разума». [r] Термин « виртуальный » используется в информатике для описания объекта, который кажется существующим «в» компьютере (или компьютерной сети) только потому, что программное обеспечение создает видимость его существования. Все объекты «внутри» компьютеров (включая файлы, папки и т. д.) являются «виртуальными», за исключением электронных компонентов компьютера. Точно так же, утверждает Мински , компьютер может содержать «разум», который является виртуальным в том же смысле, что и виртуальные машины , виртуальные сообщества и виртуальная реальность .
Чтобы прояснить разницу между ответом простой системы, приведенным выше, и ответом виртуального разума, Дэвид Коул отмечает, что в одной системе могут одновременно работать две симуляции: одна говорит по-китайски, а другая говорит по-корейски. Хотя существует только одна система, может быть несколько «виртуальных разумов», поэтому «система» не может быть «разумом». [66]
Сирл отвечает, что такой разум является, в лучшем случае, симуляцией , и пишет: «Никто не предполагает, что компьютерное моделирование пожара с пятью сигналами тревоги сожжет окрестности или что компьютерное моделирование ливня оставит нас всех промокшими». [67] Николас Фирн отвечает, что в некоторых вещах симуляция так же хороша, как и реальность. «Когда мы вызываем функцию карманного калькулятора на настольном компьютере, на экране появляется изображение карманного калькулятора. Мы не жалуемся, что «это не совсем калькулятор», потому что физические характеристики устройства не соответствуют действительности. иметь значение." [68] Вопрос в том, подобен ли человеческий разум карманному калькулятору, по существу состоящему из информации, где идеальная симуляция вещи является просто вещью? Или разум подобен ливню, вещи в мире, которая представляет собой нечто большее, чем просто его симуляцию, и не может быть полностью реализована с помощью компьютерной симуляции? На протяжении десятилетий вопрос моделирования заставлял исследователей ИИ и философов задуматься о том, является ли термин « синтетический интеллект » более подходящим, чем обычное описание такого интеллекта как «искусственного».

Эти ответы дают объяснение того, кто именно понимает китайский язык. Если кроме мужчины в комнате есть кто-то , кто понимает китайский язык, Серл не может утверждать, что (1) этот мужчина не понимает китайский язык, следовательно (2) ничто в комнате не понимает китайский язык. По мнению тех, кто дает этот ответ, это показывает, что аргумент Сирла не может доказать, что «сильный ИИ» является ложным. [с]

Однако эти ответы сами по себе не предоставляют никаких доказательств того, что сильный ИИ верен . Они не показывают, что система (или виртуальный разум) понимает китайский язык, за исключением гипотетической предпосылки, что она проходит тест Тьюринга . Сирл утверждает, что если мы хотим считать Сильный ИИ отдаленно правдоподобным, то Китайская комната является примером, требующим объяснения, и трудно или невозможно объяснить, как сознание могло бы «появиться» из комнаты или как система могла бы обладать сознанием. Как пишет Сирл, «ответ системы просто ставит вопрос, настаивая на том, что система должна понимать китайский язык» [30] и, таким образом, уклоняется от вопроса или безнадежно зацикливается.

Робот и ответы на семантику: в поисках смысла

Для человека в комнате символы — это просто бессмысленные «закорючки». Но если китайская комната действительно «понимает» то, что говорит, тогда символы должны откуда-то получить свое значение. Эти аргументы пытаются связать символы с вещами, которые они символизируют. Эти ответы касаются обеспокоенности Сирла по поводу интенциональности , обоснования символов и синтаксиса в сравнении с семантикой .

Ответ робота

Предположим, что вместо комнаты программу поместили в робота, который мог бродить и взаимодействовать с окружающей средой. Это позволило бы установить « причинную связь» между символами и вещами, которые они представляют. [70] [t] Ганс Моравец комментирует: «Если бы мы могли привить робота к программе рассуждения, нам больше не нужен был бы человек, который мог бы передавать смысл: он исходил бы из физического мира». [72] [ты]
Ответ Сирла состоит в том, чтобы предположить, что без ведома человека, находившегося в китайской комнате, некоторые входные сигналы поступали непосредственно с камеры, установленной на роботе, а некоторые выходные данные использовались для манипулирования руками и ногами робота. Тем не менее, человек в комнате по-прежнему просто следует правилам и не знает, что означают символы. Сирл пишет: «Он не видит того, что бросается в глаза роботу». [74] ( Подобный мысленный эксперимент см. в комнате Мэри .)

Производное значение

Некоторые отвечают, что комната, как ее описывает Сирл, связана с миром: через говорящих на китайском языке, с которыми она «разговаривает», и через программистов, которые спроектировали базу знаний в его картотеке. Символы, которыми манипулирует Сирл, уже имеют значение , но для него они просто не имеют значения . [75] [в]
Сирл говорит, что символы имеют только «производное» значение, подобное значению слов в книгах. Значение символов зависит от сознательного понимания говорящих по-китайски и программистов за пределами комнаты. Комната, как книга, не имеет собственного понимания. [ш]

Здравый смысл/контекстуальный ответ

Некоторые утверждали, что значения символов берут свое начало на обширном «фоне» здравого смысла , закодированном в программе и картотечных шкафах. Это обеспечило бы « контекст », который придал бы символам их значение. [73] [х]
Сирл согласен с тем, что такой фон существует, но не согласен с тем, что его можно встроить в программы. Хьюберт Дрейфус также раскритиковал идею о том, что «фон» может быть представлен символически. [78]

На каждое из этих предложений ответ Сирла один и тот же: сколько бы знаний ни было записано в программу и как бы программа ни была связана с миром, он все равно находится в комнате, манипулируя символами согласно правилам. Его действия синтаксичны , и это никогда не сможет объяснить ему, что означают символы. Сирл пишет: «Синтаксис недостаточен для семантики». [79] [й]

Однако для тех, кто признает, что действия Сирла имитируют разум, отдельный от его собственного, важным вопросом является не то, что символы означают для Сирла , а то, что они означают для виртуального разума. Хотя Сирл заперт в комнате, виртуальный разум — нет: он связан с внешним миром через говорящих по-китайски, с которыми разговаривает, через программистов, передавших ему мировые знания, а также через камеры и другие датчики, которые могут предоставить робототехники .

Моделирование мозга и ответы коннекционистов: редизайн комнаты

Все эти аргументы представляют собой версии ответа системы, которые идентифицируют определенный тип системы как важный; они идентифицируют некую специальную технологию, которая могла бы создать в машине сознательное понимание. (В приведенных выше ответах «робот» и «здравый смысл» также указывается, что определенный тип системы является важным.)

Ответ на симулятор мозга

Предположим, что программа детально смоделировала действие каждого нейрона мозга говорящего по-китайски. [81] [z] Это укрепляет интуицию о том, что не будет существенной разницы между работой программы и работой живого человеческого мозга.
Сирл отвечает, что такое моделирование не воспроизводит важные особенности мозга — его причинные и интенциональные состояния. Сирл непреклонен в том, что «человеческие психические явления [зависят] от реальных физико-химических свойств реального человеческого мозга». [27] Более того, он утверждает:

[Я] представляю, что вместо одноязычного человека в комнате, перетасовывающего символы, мы имеем человека, управляющего сложной системой водопроводных труб с соединяющими их клапанами. Когда мужчина получает китайские символы, он смотрит в программе, написанной на английском языке, какие клапаны ему нужно включать и выключать. Каждое водное соединение соответствует синапсу в китайском мозгу, и вся система устроена так, что после выполнения всех правильных включений, то есть после открытия всех правильных кранов, китайские ответы выскакивают в выходном конце серии. труб. Где же в этой системе понимание? Он принимает китайский язык в качестве входных данных, моделирует формальную структуру синапсов китайского мозга и выдает китайский язык в качестве выходного сигнала. Но этот человек определенно не понимает китайского языка, как и водопроводные трубы, и если мы склонны принять, как мне кажется, абсурдную точку зрения, которую каким-то образом понимает соединение человека и водопроводных труб, помните, что в принципе человек может усвоить формальную структуру водопроводных труб и проделать все «нейронные импульсы» в своем воображении. [83]

Два варианта ответа симулятора мозга — это « китайский мозг» и сценарий замены мозга.

Китайский мозг
Что, если мы попросим каждого гражданина Китая смоделировать один нейрон, используя телефонную систему для моделирования связей между аксонами и дендритами ? В этой версии кажется очевидным, что ни один человек не будет иметь никакого понимания того, что может говорить мозг. [84] [aa] Также очевидно, что эта система функционально эквивалентна мозгу, поэтому, если сознание является функцией, эта система будет сознательной.
Сценарий замены мозга
При этом нас просят представить, что инженеры изобрели крошечный компьютер, имитирующий действие отдельного нейрона. Что произойдет, если мы заменяем один нейрон за раз? Замена одного явно не изменит сознательное осознание. Замена их всех позволит создать цифровой компьютер, имитирующий мозг. Если Сирл прав, то сознательное осознание должно исчезнуть во время процедуры (либо постепенно, либо все сразу). Критики Сирла утверждают, что во время процедуры не было бы никакого смысла утверждать, что сознательное осознание заканчивается и начинается бездумное моделирование. [86] [ab] [ac] ( Похожий мысленный эксперимент см. в «Корабле Тесея» .)

Ответы коннекционистов

Это утверждение тесно связано с ответом на симулятор мозга и утверждает, что массово-параллельная коннекционистская архитектура будет способна к пониманию. [объявление] Современное глубокое обучение во многом параллельно и успешно демонстрирует интеллектуальное поведение во многих областях. Нильс Нильссон утверждает, что современный ИИ использует оцифрованные «динамические сигналы», а не «символы», которые использовались ИИ в 1980 году. [49] Здесь семантику будет иметь дискретный сигнал , а не отдельные числа, которыми манипулирует программа. . Это машина другого типа, отличная от той, которую визуализировал Сирл.

Комбинированный ответ

Этот ответ сочетает в себе ответ робота с ответом симуляции мозга, утверждая, что симуляция мозга, связанная с миром через тело робота, может иметь разум. [91]

Много особняков / подождите до следующего года, ответьте

Улучшенные технологии будущего позволят компьютерам понимать. [28] [ae] Сирл соглашается, что это возможно, но считает этот момент неуместным. Сирл согласен, что помимо мозга могут существовать и другие аппаратные средства, обладающие сознательным пониманием.

Эти аргументы (и ответы робота или здравого смысла) определяют некую специальную технологию, которая поможет создать сознательное понимание в машине. Их можно интерпретировать двояко: либо они утверждают, что (1) эта технология необходима для сознания, китайская комната не реализует или не может реализовать эту технологию и, следовательно, китайская комната не может пройти тест Тьюринга, либо (даже если бы и прошла) не имело бы сознательного понимания. Или они могут утверждать, что (2) легче увидеть, что китайская комната обладает разумом, если мы визуализируем эту технологию как используемую для ее создания.

В первом случае, когда требуются такие функции, как тело робота или коннекционистская архитектура, Сирл утверждает, что от сильного ИИ (в его понимании) отказались. [af] Китайская комната имеет все элементы полной машины Тьюринга и, таким образом, способна моделировать любые цифровые вычисления. Если комната Сирла не может пройти тест Тьюринга, то не существует другой цифровой технологии, способной пройти тест Тьюринга. Если комната Сирла может пройти тест Тьюринга, но при этом не имеет разума, то теста Тьюринга недостаточно, чтобы определить, есть ли у комнаты «разум». В любом случае, это отрицает ту или иную позицию, которую Сирл называет «сильным ИИ», доказывая его аргумент.

Аргументы в пользу мозга, в частности, отрицают сильный ИИ, если предполагают, что нет более простого способа описать разум, чем создать программу, столь же загадочную, как и мозг. Он пишет: «Я думал, что вся идея сильного ИИ заключается в том, что нам не нужно знать, как работает мозг, чтобы знать, как работает разум». [28] Если вычисления не дают объяснения человеческого разума, то, по мнению Сирла, сильный ИИ потерпел неудачу.

Другие критики считают, что комната, как ее описал Сирл, на самом деле обладает разумом, однако они утверждают, что его трудно увидеть — описание Сирла верно, но вводит в заблуждение. Перепроектировав комнату более реалистично, они надеются сделать это более очевидным. В данном случае эти аргументы используются как апелляция к интуиции (см. следующий раздел).

На самом деле, комнату можно с легкостью перепроектировать, чтобы ослабить нашу интуицию. Аргумент «Болван » Неда Блока [92] предполагает, что программу теоретически можно переписать в простую таблицу правил вида «если пользователь пишет S , ответить P и перейти к X». По крайней мере, в принципе, любую программу можно переписать (или « рефакторить ») в такую ​​форму, даже симуляцию мозга. [ag] В сценарии болвана все психическое состояние скрыто в букве X, которая представляет собой адрес памяти — число, связанное со следующим правилом. Трудно себе представить, что мгновение сознательного опыта можно уловить в одном большом количестве, но именно это утверждает «сильный ИИ». С другой стороны, такая таблица поиска была бы смехотворно большой (вплоть до физической невозможности), и поэтому состояния могли бы быть чрезвычайно конкретными.

Сирл утверждает, что независимо от того, написана ли программа или как бы машина ни была подключена к миру, разум моделируется простой пошаговой цифровой машиной (или машинами). Эти машины всегда такие же, как и люди в комнате: они ничего не понимают и не говорят по-китайски. Они просто манипулируют символами, не зная, что они означают. Сирл пишет: «Я могу иметь любую формальную программу, какую захотите, но я все равно ничего не понимаю». [10]

Скорость и сложность: взывает к интуиции

Следующие аргументы (и интуитивная интерпретация приведенных выше аргументов) не объясняют напрямую, как разум, говорящий по-китайски, мог существовать в комнате Сирла или как символы, которыми он манипулирует, могли стать значимыми. Однако, подвергая сомнению интуицию Сирла, они поддерживают другие позиции, такие как ответы системы и роботов. Эти аргументы, если они будут приняты, не позволяют Сирлу утверждать, что его вывод очевиден, поскольку подрывают интуицию, которой требует его уверенность.

Некоторые критики полагают, что аргументы Сирла полностью основаны на интуиции. Нед Блок пишет: «Сила аргумента Сирла зависит от интуиции, о которой некоторые сущности не думают». [93] Дэниел Деннетт описывает аргумент китайской комнаты как вводящий в заблуждение « насос интуиции » [94] и пишет: «Мысленный эксперимент Сирла незаконно зависит от вашего воображения слишком простого случая, не относящегося к делу случая, и получения «очевидного» вывода из это." [94]

Некоторые из приведенных выше аргументов также служат апелляцией к интуиции, особенно те, которые призваны создать более правдоподобную картину того, что в китайской комнате есть разум, который может включать в себя робота, здравый смысл, симуляцию мозга и коннекционистские ответы. Некоторые из приведенных выше ответов также затрагивают конкретную проблему сложности. В ответе коннекционистов подчеркивается, что работающая система искусственного интеллекта должна быть такой же сложной и взаимосвязанной, как человеческий мозг. В ответе на здравый смысл подчеркивается, что любая программа, прошедшая тест Тьюринга, должна быть «чрезвычайно гибкой, сложной и многоуровневой системой, наполненной «мировыми знаниями», мета-знаниями и мета-мета-знаниями», как объясняет Дэниел Деннетт . . [77]

Скорость и сложность ответов

Многие из этих критических замечаний подчеркивают скорость и сложность человеческого мозга, [ах] , который обрабатывает информацию со скоростью 100 миллиардов операций в секунду (по некоторым оценкам). [96] Некоторые критики отмечают, что человеку в комнате, вероятно, потребуются миллионы лет, чтобы ответить на простой вопрос, и ему потребуются «картотеки» астрономических размеров. [97] Это ставит под сомнение ясность интуиции Сирла.
Особенно яркая версия ответа на вопрос о скорости и сложности принадлежит Полу и Патриции Черчленд . Они предлагают аналогичный мысленный эксперимент: «Рассмотрим темную комнату, в которой находится человек, держащий стержень магнита или заряженный предмет. Если этот человек будет качать магнит вверх и вниз, то, согласно теории искусственной яркости (АЛ) Максвелла, это будет инициируют распространяющийся круг электромагнитных волн и, таким образом, будут светиться. Но, как все мы, кто играл с магнитами или заряженными шарами, хорошо знаем, их силы (или любые другие силы в этом отношении), даже когда они приведены в движение, не производят свечения при Невероятно, чтобы можно было создать настоящую яркость, просто перемещая силы!» [85] Черчленд считает, что проблема в том, что ему придется махать магнитом вверх и вниз примерно 450 триллионов раз в секунду, чтобы что-то увидеть. [98]
Стеван Харнад критично относится к скорости и сложности ответов, когда они выходят за рамки нашей интуиции. Он пишет: «Некоторые создали культ скорости и времени, утверждая, что при ускорении до нужной скорости вычислительное может совершить фазовый переход в ментальное. Должно быть ясно, что это не контраргумент, а просто ad hoc предположение ( как и мнение, что все это просто вопрос повышения до нужной степени «сложности».)» [99] [ai]

Сирл утверждает, что его критики также полагаются на интуицию, однако интуиция его оппонентов не имеет эмпирической основы. Он пишет, что для того, чтобы считать «ответ системы» хотя бы отдаленно правдоподобным, человек должен находиться «во власти идеологии». [30] Ответ системы имеет смысл (по мнению Сёрла) только в том случае, если предположить, что любая «система» может обладать сознанием просто потому, что она является системой с правильным поведением и функциональными частями. Это предположение, утверждает он, несостоятельно, учитывая наш опыт сознания.

Другие разумы и зомби: бессмысленность

В нескольких ответах утверждается, что аргумент Сирла неуместен, поскольку его предположения о разуме и сознании ошибочны. Сирл считает, что люди каждый день напрямую переживают свое сознание, интенциональность и природу разума, и что этот опыт сознания не подлежит сомнению. Он пишет, что мы должны «предполагать реальность и познаваемость психического». [102] В ответах ниже ставится вопрос, оправдан ли Сирл, используя свой собственный опыт сознания, чтобы определить, что это нечто большее, чем просто механическая обработка символов. В частности, ответ «другой разум» утверждает, что мы не можем использовать наш опыт сознания для ответа на вопросы о других разумах (даже о разуме компьютера), а эпифенома отвечает на вопрос, можем ли мы вообще выдвигать какие-либо аргументы о чем-то вроде сознания, которое не может По определению, может быть обнаружено любым экспериментом, и элиминативный материалистический ответ утверждает, что собственное личное сознание Серла не «существует» в том смысле, в котором, по мнению Серла, оно существует.

Другие умы отвечают

В «Ответе других разумов» указывается, что аргумент Сирла представляет собой версию проблемы других разумов , примененную к машинам. Мы не можем определить, совпадает ли субъективный опыт других людей с нашим собственным. Мы можем только изучить их поведение (то есть, задав им собственный тест Тьюринга ). Критики Сирла утверждают, что он предъявляет китайскую комнату к более высокому стандарту, чем мы бы придерживались к обычному человеку. [103] [адж]
Нильс Нильссон пишет: «Если программа ведет себя так, как будто она умножает, большинство из нас сказали бы, что она на самом деле умножает. Насколько я знаю, Сирл может вести себя только так, как если бы он глубоко размышлял об этих вещах. Но хотя я с ним и не согласен, его симуляция довольно хороша, поэтому я хочу отдать ему должное за реальную мысль». [105]
Алан Тьюринг предвосхитил линию аргументации Сирла (которую он назвал «Аргументом от сознания») в 1950 году и заставил другие умы ответить. [106] Он отметил, что люди никогда не принимают во внимание проблемы других умов, общаясь друг с другом. Он пишет, что «вместо того, чтобы постоянно спорить по этому поводу, обычно принято соблюдать вежливую условность, о которой все думают». [107] Тест Тьюринга просто распространяет это «вежливое соглашение» на машины. Он не намерен решать проблемы других разумов (машин или людей) и не считает, что нам это нужно. [ак]

Ответы, учитывая, что «сознание» Сирла необнаружимо.

Если мы примем описание интенциональности, сознания и разума, данное Сирлом, мы будем вынуждены признать, что сознание эпифеноменально : что оно «не отбрасывает тени», то есть не обнаруживается во внешнем мире. «Причинные свойства» Сирла не могут быть обнаружены никем за пределами разума, иначе Китайская комната не смогла бы пройти тест Тьюринга — люди снаружи могли бы сказать, что в комнате нет говорящего по-китайски, обнаружив их причинные свойства. Поскольку они не могут обнаружить причинные свойства, они не могут обнаружить существование ментального. Таким образом, сирловские «каузальные свойства» и само сознание необнаружимы, а все, что не может быть обнаружено, либо не существует, либо не имеет значения.
Майк Алдер называет это «Ответом пылающего лазерного меча Ньютона». Он утверждает, что вся эта аргументация несерьезна, потому что она неверификационистская : не только различие между симуляцией разума и нечетким определением разума, но и неуместно, потому что никакие эксперименты не были и даже не могут быть предложены для того, чтобы различать эти два понятия. [109]
Дэниел Деннетт приводит такую ​​иллюстрацию: предположим, что в результате какой-то мутации рождается человек, который не обладает «каузальными свойствами» Сёрла, но, тем не менее, действует точно так же, как человеческое существо. (Этот вид животных называется « зомби » в мысленных экспериментах в философии разума ). Это новое животное будет воспроизводиться так же, как и любой другой человек, и со временем таких зомби станет больше. Естественный отбор благоприятствовал бы зомби, поскольку их конструкция (как мы могли предположить) немного проще. В конце концов люди вымрут. Таким образом, если Сирл прав, то, скорее всего, люди (какими мы видим их сегодня) на самом деле являются «зомби», которые, тем не менее, настаивают на том, что обладают сознанием. Невозможно узнать, все мы зомби или нет. Даже если мы все зомби, мы все равно будем верить, что это не так. [110]

Элиминативный материалистический ответ

Некоторые философы утверждают, что сознания, как его описывает Серл, не существует. Дэниел Деннетт описывает сознание как « иллюзию пользователя ». [111]
Эту позицию иногда называют элиминативным материализмом : точка зрения, согласно которой сознание — это не концепция, которая может «допускать сведения» к строго механическому (то есть материальному) описанию, а, скорее, концепция, которая будет просто устранена , как только материальный мозг произведения полностью поняты, точно так же, как понятие демона уже устранено из науки, а не сведено к строго механическому описанию. Другие ментальные свойства, такие как исходная интенциональность (также называемая «значением», «содержанием» и «семантическим характером»), также обычно рассматриваются как особые свойства, связанные с убеждениями и другими пропозициональными установками. Элиминативный материализм утверждает, что пропозициональные установки, такие как убеждения и желания, среди других интенциональных психических состояний, имеющих содержание, не существуют. Если элиминативный материализм является правильным научным объяснением человеческого познания, то предположение аргумента китайской комнаты о том, что «сознание имеет ментальное содержание ( семантику )», должно быть отвергнуто. [112]

Сирл не согласен с этим анализом и утверждает, что «изучение разума начинается с таких фактов, как то, что у людей есть убеждения, а у термостатов, телефонов и счетных машин их нет… мы хотели знать, что отличает разум от термостатов». и печень». [74] Он считает очевидным, что мы можем обнаружить присутствие сознания, и отвергает эти ответы как не относящиеся к делу.

Другие ответы

Маргарет Боден в своей статье «Побег из китайской комнаты» утверждала, что даже если человек в комнате не понимает китайский язык, это не означает, что в комнате нет понимания. Человек в комнате, по крайней мере, понимает книгу правил, используемую для предоставления выходных ответов. [113]

В популярной культуре

Аргумент китайской комнаты является центральной концепцией романов Питера Уоттса «Слепое зрение » и (в меньшей степени) «Эхопраксия» . [114] Грег Иган кратко (и несколько ужасающе) иллюстрирует эту концепцию в своем рассказе 1990 года « Учимся быть собой» в своем сборнике «Аксиоматика» .

Это центральная тема видеоигры Zero Escape: Virtue's Last Reward , которая связана с повествованием игры. [115]

Похожий человек-компьютер представлен в романе Лю Цысиня «Задача трёх тел» , описанном Филипом Штайнером следующим образом: для выполнения различных логических схем, таких как логический элемент И и логический элемент ИЛИ». [116] [ал]

Смотрите также

Примечания

  1. ^ abc См. § Сознание, в котором обсуждается взаимосвязь между аргументом китайской комнаты и сознанием.
  2. ^ Не путать с общим искусственным интеллектом , который также иногда называют «сильным ИИ». См. § Исследование «Сильный ИИ» и «ИИ».
  3. ^ ab Эта версия взята из книги Сирла «Разум, язык и общество» [20] , а также цитируется в книге Дэниела Деннета « Объяснение сознания» . [21] Первоначальная формулировка Сирла гласила: «Правильно запрограммированный компьютер на самом деле является разумом в том смысле, что можно буквально сказать, что компьютеры с правильными программами понимают и имеют другие когнитивные состояния». [22] Сильный ИИ определяется аналогично Стюартом Расселом и Питером Норвигом : «слабый ИИ — машины идей могут действовать так, как если бы они были разумными — и сильный ИИ — утверждения, которые делают это, на самом деле являются сознательно мыслящими (а не просто имитация мышления)». [23]
  4. Сирл пишет, что «согласно «Сильному ИИ» правильная симуляция на самом деле является разумом. Согласно «Слабому ИИ», правильная симуляция — это модель разума». [8] Он также пишет: «С точки зрения сильного ИИ правильно запрограммированный компьютер не просто имитирует наличие разума; он буквально обладает разумом». [9]
  5. ^ Аб Сирл пишет: «Сторонники сильного ИИ утверждают, что в этой последовательности вопросов и ответов машина не только имитирует человеческие способности, но также (1) можно сказать, что машина буквально понимает историю и дает ответы на вопросы, и (2) то, что делает машина и ее программа, объясняет человеческую способность понимать историю и отвечать на вопросы о ней». [7]
  6. Обратите внимание, что Лейбниц возражал против «механической» теории разума (философской позиции, известной как механизм ). Сирл возражает против взгляда на разум, основанного на «обработке информации» (философская позиция, известная как « компьютерализм »). Сирл принимает механизм и отвергает вычислительность.
  7. Харнад редактировал BBS в те годы, когда был представлен и популяризирован аргумент о китайской комнате.
  8. ^ ab Стеван Харнад считает, что аргумент Сирла противоречит тезису, который «с тех пор стал называться «вычислением», согласно которому познание - это просто вычисление, следовательно, ментальные состояния - это просто вычислительные состояния». [18] Дэвид Коул соглашается, что «этот аргумент также имеет широкие последствия для функционалистских и вычислительных теорий смысла и разума». [19]
  9. Сирл считает, что «сильный ИИ имеет смысл только с учетом дуалистического предположения, что когда дело касается разума, мозг не имеет значения». [27] В другом месте он пишет: «Я думал, что вся идея сильного ИИ заключается в том, что нам не нужно знать, как работает мозг, чтобы знать, как работает разум». [28] Своей формулировкой эта позиция обязана Стевану Харнаду. [29]
  10. ^ «Один из спорных вопросов, — пишет Сирл, — это адекватность теста Тьюринга». [30]
  11. ^ Вычислительность связана с Джерри Фодором и Хилари Патнэмом , [33] и поддерживается Алленом Ньюэллом , [29], Зеноном Пилишиным [29] и Стивеном Пинкером , [34] среди других.
  12. ^ См. ответы Сирлу в разделе «Бессмысленность» ниже.
  13. ^ Ларри Хаузер пишет, что «биологический натурализм либо запутан (колеблется между теорией идентичности и дуализмом), либо это просто теория идентичности или дуализм». [38]
  14. Формулировки каждой аксиомы и вывода взяты из презентации Сирла в журнале Scientific American . [54] [55] (A1-3) и (C1) описаны как 1,2,3 и 4 у Дэвида Коула. [56]
  15. Пол и Патрисия Черчленд пишут, что мысленный эксперимент в китайской комнате призван «подкрепить аксиому 3». [57]
  16. ^ Дэвид Коул объединяет вторую и третью категории, а также четвертую и пятую. [58]
  17. Версии ответа системы принадлежат Неду Блоку , Джеку Коупленду , Дэниелу Деннетту , Джерри Фодору , Джону Хогеланду , Рэю Курцвейлу и Жоржу Рею , среди других. [60]
  18. ^ Ответ виртуального разума принадлежит Марвину Мински , [63] [64] Тиму Модлину , Дэвиду Чалмерсу и Дэвиду Коулу. [65]
  19. ^ Дэвид Коул пишет: «Исходя из интуиции, что в мысленном эксперименте CR он не поймет китайский язык, запустив программу, Сирл делает вывод, что не существует никакого понимания, созданного путем запуска программы. Очевидно, что этот вывод действителен или нет, включает метафизический вопрос о идентичности людей и умов. Если понимающий человек не тождественен оператору комнаты, то вывод необоснован». [69]
  20. ^ Эту должность занимают, среди прочих, Маргарет Боден , Тим Крейн , Дэниел Деннетт , Джерри Фодор , Стеван Харнад , Ганс Моравец и Жорж Рей . [71]
  21. ^ Дэвид Коул называет это «экстерналистским» пониманием смысла. [73]
  22. ^ Ответ производного значения связан с Дэниелом Деннетом и другими.
  23. ^ Сирл различает «внутреннюю» интенциональность и «производную» интенциональность. «Внутренняя» интенциональность предполагает «сознательное понимание», подобное человеческому разуму. Дэниел Деннетт не согласен с тем, что существует различие. Дэвид Коул пишет: «По мнению Деннета, производная интенциональность — это все, что есть». [76]
  24. ^ Дэвид Коул описывает это как «интерналистский» подход к значению. [73] Среди сторонников этой позиции Роджер Шанк , Дуг Ленат , Марвин Мински и (с оговорками) Дэниел Деннетт , который пишет: «Дело в том, что любая программа [которая прошла тест Тьюринга] должна была бы быть чрезвычайно гибкой, сложной, и многоуровневая система, наполненная «мировым знанием», мета-знанием и мета-мета-знанием». [77]
  25. Сирл также пишет: «Формальных символов самих по себе никогда не может быть достаточно для ментального содержания, потому что символы по определению не имеют значения (или интерпретации , или семантики), за исключением того, что кто-то вне системы придает им его». [80]
  26. ^ Ответ на симуляцию мозга дали Пол Черчленд , Патриция Черчленд и Рэй Курцвейл . [82]
  27. ^ Ранние версии этого аргумента были выдвинуты в 1974 году Лоуренсом Дэвисом и в 1978 году Недом Блоком . Версия Блока использовала рации и называлась «Китайский тренажерный зал». Пол и Патрисия Черчленд также описали этот сценарий. [85]
  28. Ранняя версия сценария замены мозга была выдвинута Кларком Глимуром в середине 70-х годов и затронута Зеноном Пилишиным в 1980 году. Яркую версию этого сценария представил Ганс Моравец [87] , и теперь он ассоциируется с Рэем Курцвейлом. Русская версия трансгуманизма .
  29. Сирл не рассматривает сценарий замены мозга как аргумент против CRA, однако в другом контексте Сирл рассматривает несколько возможных решений, включая возможность того, что «вы, к своему полному изумлению, обнаружите, что действительно теряете контроль над своим внешним поведением». Например, вы обнаруживаете, что, когда врачи проверяют ваше зрение, вы слышите, как они говорят: «Мы держим перед вами красный предмет; пожалуйста, скажите нам, что вы видите». Вам хочется закричать: "Я ничего не вижу. Я полностью ослепну". Но вы слышите свой голос, говорящий совершенно вне вашего контроля: «Я вижу перед собой красный объект». [...] [В]аш сознательный опыт постепенно сводится к нулю, в то время как ваше внешне наблюдаемое поведение остается прежним». [88]
  30. Коннекционистский ответ дан Энди Кларком и Рэем Курцвейлом , [89] , а также Полом и Патрисией Черчленд . [90]
  31. ^ Сирл (2009) использует название «Подождите, пока ответ в следующем году».
  32. Сирл пишет, что ответ робота «молчаливо признает, что познание — это не только вопрос формального манипулирования символами». [74] Стеван Харнад высказывает то же самое, написав: «Отрицание того, что [тест Тьюринга] является достаточно сильным тестом, или отрицание того, что компьютер может когда-либо его примут, то это всего лишь особый призыв попытаться спасти вычислительный подход, оговорив ad hoc (перед лицом CRA), что детали реализации все-таки имеют значение и что компьютерная реализация является «правильной» реализацией, в то время как реализация Сирла «неправильный» вид». [51]
  33. ^ То есть любая программа, работающая на машине с ограниченным объемом памяти.
  34. ^ Ответы о скорости и сложности даны Дэниелом Деннеттом , Тимом Модлином , Дэвидом Чалмерсом , Стивеном Пинкером , Полом Черчлендом , Патрицией Черчленд и другими. [95] Дэниел Деннетт указывает на сложность мировых знаний. [77]
  35. ^ Критики формы «фазового перехода» этого аргумента включают Стевана Харнада, Тима Модлина , Дэниела Деннета и Дэвида Коула. [95] Эта идея «фазового перехода» является версией сильного эмерджентизма (то, что Дэниел Деннетт высмеивает как «Ву-ву-эмерджентизм на Западном побережье» [100] ). Харнад обвиняет Черчленда и Патрицию Черчленд в поддержке сильного эмерджентизма. Рэй Курцвейл также придерживается определенной формы эмерджентизма. [101]
  36. Ответ «другие умы» был предложен Дэниелом Деннеттом , Рэем Курцвейлом и Гансом Моравецом , среди других. [104]
  37. Одна из причин, побудивших Тьюринга разработать тест Тьюринга, состоит в том, чтобы избежать именно тех философских проблем, которые интересуют Сирла. Он пишет: «Я не хочу создавать впечатление, будто в этом нет никакой тайны… [но] я не думайте, что эти загадки обязательно нужно разгадать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье». [108]
  38. ^ «Наконец, наиболее тщательно продуманная внутриигровая попытка решить проблему трех тел предпринята Фон Нейманом и Ньютоном, которые создают огромный человеко-компьютер, используя в качестве инструментов миллионы солдат Кинга (стр. 227–228). Эти солдаты берут роль входного и выходного сигнала, и им поручено выполнять различные логические схемы, такие как вентиль И и вентиль ИЛИ (стр. 229–230) 6. В конце концов показано, что огромная армия из 30 миллионов солдат выполняет эти логические схемы. , действующий как компьютер, созданный из людей (с. 234–235).С точки зрения визуального представления решения задачи трёх тел в физике этот раздел особенно значим, поскольку словарный запас внезапно смещается в сторону типичного компьютерный жаргон. Теперь есть «центральный процессор», «материнская плата» с «прошивающими компонентами» (с. 235), «модуль дифференциального исчисления» и длинный «расчет» [116] .

Цитаты

  1. ^ аб Сирл 1980.
  2. ^ аб Харнад 2001, с. 1.
  3. ^ Робертс 2016.
  4. ^ abc Сирл 1992, стр. 44.
  5. ^ abc Russell & Norvig 2021, с. 986.
  6. ^ abc Сирл 1980, стр. 11.
  7. ^ аб Сирл 1980, стр. 2.
  8. ^ аб Сирл 2009, с. 1.
  9. ^ Сирл 2004, с. 66.
  10. ^ аб Сирл 1980, стр. 3.
  11. ^ Коул 2004, 2.1; Лейбниц 1714, раздел 17.
  12. ^ "История русской китайской комнаты, предшествовавшая обсуждению Сирла 1980 года" . Центр исследований сознания . 15 июня 2018 г. Архивировано из оригинала 16 мая 2021 г. Проверено 9 января 2019 г.
  13. ^ Коул 2004, 2.3.
  14. ^ Коул 2004, с. 2; Престон и Бишоп, 2002 г.
  15. ^ аб Харнад 2001, с. 2.
  16. ^ Харнад 2001, с. 1; Коул 2004, с. 2
  17. ^ Акман 1998.
  18. ^ Харнад 2005, с. 1.
  19. ^ Коул 2004, с. 1.
  20. ^ Сирл 1999, стр. [ нужна страница ] .
  21. ^ Деннетт 1991, с. 435.
  22. ^ Сирл 1980, стр. 1.
  23. ^ ab Russell & Norvig 2021, стр. 2021. 981.
  24. ^ Цитируется по McCorduck 2004, с. 138.
  25. ^ Цитируется по Crevier 1993, стр. 46
  26. ^ Хаугеланд 1985, с. 2 (курсив его)
  27. ^ abc Сирл 1980, стр. 13.
  28. ^ abc Сирл 1980, стр. 8.
  29. ^ abcd Харнад 2001.
  30. ^ abcdefg Сирл 1980, стр. 6.
  31. ^ Сирл 2004, с. 45.
  32. ^ Харнад 2001, с. 3 (курсив его)
  33. ^ Хорст 2005, с. 1.
  34. ^ Пинкер 1997.
  35. ^ Харнад 2001, стр. 3–5.
  36. ^ Сирл 1990a, стр. 29.
  37. ^ Сирл 1990b.
  38. ^ abc Hauser 2006, с. 8.
  39. ^ Сирл 1992, гл. 5.
  40. ^ Сирл 2002.
  41. ^ Чалмерс 1996, с. 322.
  42. ^ Макгинн 2000.
  43. ^ Хью 2016.
  44. ^ Курцвейл 2005, с. 260.
  45. ^ Сайгин, Чичекли и Акман 2000.
  46. ^ аб Тьюринг 1950.
  47. ^ Ньюэлл и Саймон 1976, стр. 116.
  48. ^ Рассел и Норвиг 2021, с. 19.
  49. ^ Аб Нильссон 2007.
  50. ^ Тьюринг 1950, с. 442.
  51. ^ аб Харнад 2001, с. 14.
  52. ^ Бен-Ями 1993.
  53. ^ Сирл 1984; Сирл 1990а.
  54. ^ аб Сирл 1990a.
  55. ^ Хаузер 2006, с. 5.
  56. ^ Коул 2004, с. 5.
  57. ^ Черчленд и Черчленд 1990, с. 34.
  58. ^ Коул 2004, стр. 5–6.
  59. ^ Сирл 1980, стр. 5–6; Коул, 2004 г., стр. 6–7; Хаузер 2006, стр. 2–3; Деннетт 1991, с. 439; Ферн 2007, с. 44; Кревье 1993, с. 269.
  60. ^ Коул 2004, с. 6.
  61. ^ Йи 1993, с. 44, сноска 2.
  62. ^ Йи 1993, стр. 42–47.
  63. ^ Минский 1980, с. 440.
  64. ^ Коул 2004, с. 7.
  65. ^ Коул 2004, стр. 7–9.
  66. ^ Коул 2004, с. 8.
  67. ^ Сирл 1980, стр. 12.
  68. ^ Ферн 2007, с. 47.
  69. ^ Коул 2004, с. 21.
  70. ^ Сирл 1980, стр. 7; Коул, 2004 г., стр. 9–11; Хаузер 2006, с. 3; Ферн 2007, с. 44.
  71. ^ Коул 2004, с. 9.
  72. ^ Цитируется по Crevier 1993, стр. 272
  73. ^ abc Коул 2004, с. 18.
  74. ^ abc Сирл 1980, стр. 7.
  75. ^ Хаузер 2006, с. 11; Коул 2004, с. 19.
  76. ^ Коул 2004, с. 19.
  77. ^ abc Деннетт 1991, с. 438.
  78. ^ Дрейфус 1979, « Эпистемологическое предположение».
  79. ^ Сирл 1984.
  80. ^ Моцкин и Сирл 1989, с. 45.
  81. ^ Сирл 1980, стр. 7–8; Коул 2004, стр. 12–13; Хаузер 2006, стр. 3–4; Черчленд и Черчленд 1990.
  82. ^ Коул 2004, с. 12.
  83. ^ Сирл 1980, стр. [ нужна страница ] .
  84. ^ Коул 2004, с. 4; Хаузер 2006, с. 11.
  85. ^ ab Churchland & Churchland 1990.
  86. ^ Коул 2004, с. 20; Моравец 1988; Курцвейл 2005, с. 262; Кревье 1993, стр. 271 и 279.
  87. ^ Моравец 1988.
  88. ^ Сирл 1992.
  89. ^ Коул 2004, стр. 12 и 17.
  90. ^ Хаузер 2006, с. 7.
  91. ^ Сирл 1980, стр. 8–9; Хаузер 2006, с. 11.
  92. ^ Блок 1981.
  93. ^ Цитируется по Коулу 2004, с. 13.
  94. ^ аб Деннетт 1991, стр. 437–440.
  95. ^ аб Коул 2004, с. 14.
  96. ^ Кревье 1993, с. 269.
  97. ^ Коул 2004, стр. 14–15; Кревье, 1993, стр. 269–270; Пинкер 1997, с. 95.
  98. ^ Черчленд и Черчленд 1990; Коул 2004, с. 12; Кревье 1993, с. 270; Фирн 2007, стр. 45–46; Пинкер 1997, с. 94.
  99. ^ Харнад 2001, с. 7.
  100. ^ Кревье 1993, с. 275.
  101. ^ Курцвейл 2005.
  102. ^ Сирл 1980, стр. 10.
  103. ^ Сирл 1980, стр. 9; Коул 2004, с. 13; Хаузер 2006, стр. 4–5; Нильссон 1984.
  104. ^ Коул 2004, стр. 12–13.
  105. ^ Нильссон 1984.
  106. ^ Тьюринг 1950, стр. 11–12.
  107. ^ Тьюринг 1950, с. 11.
  108. ^ Тьюринг 1950, с. 12.
  109. ^ Олдер 2004.
  110. ^ Коул 2004, с. 22; Кревье 1993, с. 271; Харнад 2005, с. 4.
  111. ^ Деннетт 1991, [ необходима страница ] .
  112. ^ Рэмси 2022.
  113. ^ Маргарет А. Боден (1988). «Побег из китайской комнаты». В Джоне Хейле (ред.). Компьютерные модели разума . Издательство Кембриджского университета. ISBN 9780521248686.
  114. ^ Уитмарш 2016.
  115. ^ «Двухминутная игровая критика - Последняя награда Добродетели и Китайская комната» . 30 июля 2016 г. Архивировано из оригинала 9 июля 2021 г. Проверено 7 июля 2021 г.
  116. ^ аб Штайнер, 2022.

Рекомендации

Номера страниц выше относятся к стандартной распечатке статьи в формате PDF .
Номера страниц выше относятся к стандартной распечатке статьи в формате PDF .
Номера страниц выше относятся к стандартной распечатке статьи в формате PDF .
Номера страниц выше относятся к стандартной распечатке статьи в формате PDF .
Номера страниц выше относятся к стандартной распечатке статьи в формате PDF . См. также первоначальный проект Сирла.
Номера страниц выше относятся к стандартной распечатке статьи в формате PDF .
Номера страниц выше и содержание диаграмм относятся к распечатке статьи в формате Lyceum PDF .

дальнейшее чтение