Искусственное сознание [1], также известное как машинное сознание [2] , [3], синтетическое сознание [4] или цифровое сознание [5] , — это сознание, которое , как предполагается, возможно в искусственном интеллекте . [6] Это также соответствующая область исследований, которая черпает идеи из философии разума , философии искусственного интеллекта , когнитивной науки и нейронауки .
Та же терминология может использоваться с термином « чувствительность » вместо «сознания», когда специально обозначается феноменальное сознание (способность чувствовать квалиа ). [7] Поскольку чувствительность подразумевает способность испытывать этически положительные или отрицательные (т. е. валентные ) ментальные состояния, она может оправдывать заботы о благополучии и правовую защиту, как в случае с животными. [8]
Некоторые ученые полагают, что сознание генерируется взаимодействием различных частей мозга ; эти механизмы называются нейронными коррелятами сознания или NCC. Некоторые также полагают, что построение системы (например, компьютерной системы), которая может эмулировать это взаимодействие NCC, приведет к созданию системы, которая является сознательной. [9]
Поскольку существует множество гипотетических типов сознания , существует множество потенциальных реализаций искусственного сознания. В философской литературе, возможно, наиболее распространенной таксономией сознания является разделение его на «доступные» и «феноменальные» варианты. Сознание доступа касается тех аспектов опыта , которые могут быть восприняты, в то время как феноменальное сознание касается тех аспектов опыта, которые, по-видимому, не могут быть восприняты, вместо этого характеризуясь качественно в терминах «сырых ощущений», «каковы они» или квалиа. [10]
Теоретики идентичности типов и другие скептики придерживаются мнения, что сознание может быть реализовано только в определенных физических системах, поскольку сознание обладает свойствами, которые обязательно зависят от физической конституции. [11] [12] [13] [14] В своей статье 2001 года «Искусственное сознание: утопия или реальная возможность» Джорджио Буттаццо говорит, что распространенное возражение против искусственного сознания заключается в том, что «работая в полностью автоматическом режиме, они [компьютеры] не могут проявлять креативность, непрограммируемость (что означает, что их «больше нельзя перепрограммировать» путем переосмысления), эмоции или свободную волю . Компьютер, как и стиральная машина, является рабом, управляемым своими компонентами». [15]
Для других теоретиков (например, функционалистов ), которые определяют ментальные состояния в терминах каузальных ролей, любая система, которая может реализовывать один и тот же шаблон каузальных ролей, независимо от физической конституции, будет реализовывать одни и те же ментальные состояния, включая сознание. [16]
Дэвид Чалмерс предложил два мысленных эксперимента, намереваясь продемонстрировать, что «функционально изоморфные » системы (с одинаковой «тонкоструктурированной функциональной организацией», т. е. одинаковой обработкой информации) будут иметь качественно идентичный сознательный опыт, независимо от того, основаны ли они на биологических нейронах или цифровом оборудовании. [17] [18]
«Исчезающие квалиа» — это мысленный эксперимент reductio ad absurdum . Он включает замену одного за другим нейронов мозга функционально идентичным компонентом, например, на основе кремниевого чипа . Поскольку исходные нейроны и их кремниевые аналоги функционально идентичны, обработка информации мозгом должна оставаться неизменной, и субъект не заметит никакой разницы. Однако, если квалиа (например, субъективное восприятие ярко-красного цвета) померкнут или исчезнут, субъект, скорее всего, заметит это изменение, что вызывает противоречие. Чалмерс приходит к выводу, что гипотеза исчезающих квалиа невозможна на практике, и что полученный роботизированный мозг после замены всех нейронов останется таким же разумным, как и исходный биологический мозг. [17] [19]
Аналогично, мысленный эксперимент «танцующие квалиа» является еще одним аргументом reductio ad absurdum . Он предполагает, что две функционально изоморфные системы могут иметь разное восприятие (например, видеть один и тот же объект в разных цветах, например, красный и синий). Он включает в себя переключение, которое чередует часть мозга, вызывающую восприятие красного, и функционально изоморфный кремниевый чип, вызывающий восприятие синего. Поскольку оба выполняют одну и ту же функцию в мозге, субъект не заметит никаких изменений во время переключения. Чалмерс утверждает, что это было бы крайне неправдоподобно, если бы квалиа действительно переключались между красным и синим, отсюда и противоречие. Поэтому он приходит к выводу, что эквивалентная цифровая система не только испытывала бы квалиа, но и воспринимала бы те же квалиа, что и биологическая система (например, видела бы тот же цвет). [17] [19]
Критики [ кто? ] искусственной чувствительности возражают, что предложение Чалмерса ставит под сомнение, предполагая, что все ментальные свойства и внешние связи уже в достаточной степени охвачены абстрактной причинной организацией.
В 2022 году инженер Google Блейк Лемуан сделал вирусное заявление о том, что чат-бот LaMDA от Google является разумным. Лемуан предоставил в качестве доказательства человекоподобные ответы чат-бота на многие из его вопросов; однако, поведение чат-бота было оценено научным сообществом как вероятное следствие подражания, а не машинного разума. Заявление Лемуана было широко высмеяно за его нелепость. [20] Однако, хотя философ Ник Бостром утверждает, что LaMDA вряд ли будет сознательным, он дополнительно задает вопрос: «Какие основания у человека могут быть для того, чтобы быть в этом уверенным?» Для этого нужно иметь доступ к неопубликованной информации об архитектуре LaMDA, а также нужно понять, как работает сознание, а затем выяснить, как сопоставить философию с машиной: «(При отсутствии этих шагов), похоже, что можно быть, возможно, немного неуверенным. [...] вполне могут быть другие системы сейчас или в относительно недалеком будущем, которые начнут удовлетворять критериям». [21]
Qualia, или феноменологическое сознание, по своей сути является феноменом первого лица. Из-за этого, а также из-за отсутствия эмпирического определения чувствительности, ее прямое измерение может быть невозможным. Хотя системы могут демонстрировать многочисленные виды поведения, коррелирующие с чувствительностью, определение того, является ли система сознательной, известно как сложная проблема сознания . В случае ИИ существует дополнительная сложность, заключающаяся в том, что ИИ может быть обучен действовать как человек или стимулирован казаться сознательной, что делает поведенческие маркеры чувствительности менее надежными. [22] [23] Кроме того, некоторые чат-боты обучены говорить, что они не осознают. [24]
Известным методом проверки машинного интеллекта является тест Тьюринга , который оценивает способность вести разговор, подобный человеческому. Но прохождение теста Тьюринга не означает, что система ИИ разумна, поскольку ИИ может просто имитировать человеческое поведение, не имея связанных с ним чувств. [25]
В 2014 году Виктор Аргонов предложил не-Тьюрингов тест на чувствительность машины, основанный на способности машины выносить философские суждения. [26] Он утверждает, что детерминированная машина должна считаться сознательной, если она способна выносить суждения по всем проблемным свойствам сознания (таким как квалиа или связывание ), не имея врожденных (предзагруженных) философских знаний по этим вопросам, философских дискуссий во время обучения и информационных моделей других существ в своей памяти (такие модели могут неявно или явно содержать знания о сознании этих существ). Однако этот тест можно использовать только для обнаружения, но не для опровержения существования сознания. Положительный результат доказывает, что машина сознательна, а отрицательный результат ничего не доказывает. Например, отсутствие философских суждений может быть вызвано отсутствием интеллекта машины, а не отсутствием сознания.
Если бы подозревали, что конкретная машина обладает сознанием, ее права стали бы этической проблемой, которую необходимо было бы оценить (например, какие права она будет иметь по закону). [27] Например, сознательный компьютер, который принадлежал и использовался как инструмент или центральный компьютер в более крупной машине, является особой двусмысленностью. Должны ли быть приняты законы для такого случая? Сознание также потребовало бы юридического определения в этом конкретном случае. Поскольку искусственное сознание все еще в значительной степени является теоретическим предметом, такая этика не обсуждалась и не разрабатывалась в значительной степени, хотя она часто была темой в художественной литературе.
Чувствительность обычно считается достаточной для морального рассмотрения, но некоторые философы полагают, что моральное рассмотрение может также вытекать из других представлений о сознании или из способностей, не связанных с сознанием, [28] [29], таких как: «наличие сложной концепции себя как сохраняющегося во времени; наличие субъектности и способности строить долгосрочные планы; способность общаться и реагировать на нормативные доводы; наличие предпочтений и полномочий; нахождение в определенных социальных отношениях с другими существами, имеющими моральный статус; способность брать на себя обязательства и вступать в взаимные соглашения; или наличие потенциала для развития некоторых из этих качеств». [28]
Этические проблемы все еще применимы (хотя и в меньшей степени) , когда сознание неопределенно , пока вероятность считается не пренебрежимо малой. Принцип предосторожности также актуален, если моральная стоимость ошибочного приписывания или отрицания морального рассмотрения ИИ существенно различается. [29] [8]
В 2021 году немецкий философ Томас Метцингер выступил за всемирный мораторий на синтетическую феноменологию до 2050 года. Метцингер утверждает, что люди обязаны заботиться о любых разумных ИИ, которые они создают, и что слишком быстрое развитие рискует создать «взрыв искусственных страданий». [30] Дэвид Чалмерс также утверждал, что создание сознательного ИИ «поднимет новую группу сложных этических проблем с потенциалом новых форм несправедливости». [31]
Принудительная амнезия была предложена как способ снижения риска молчаливых страданий в запертом сознательном ИИ и некоторых смежных с ИИ биологических системах, таких как мозговые органоиды . [32]
Бернард Баарс и другие утверждают, что существуют различные аспекты сознания, необходимые для того, чтобы машина была искусственно сознательной. [33] Функции сознания, предложенные Баарсом, следующие: определение и настройка контекста, адаптация и обучение, редактирование, маркировка и отладка, набор и контроль, расстановка приоритетов и контроль доступа, принятие решений или исполнительная функция, функция формирования аналогий, метакогнитивная и самоконтролирующая функция, а также функция автопрограммирования и самоподдержания. Игорь Александр предложил 12 принципов для искусственного сознания: [34] мозг является машиной состояний, внутреннее разделение нейронов, сознательные и бессознательные состояния, перцептивное обучение и память, прогнозирование, осознание себя, представление смысла, изучение высказываний, изучение языка, воля, инстинкт и эмоции. Целью АК является определение того, могут ли и как эти и другие аспекты сознания быть синтезированы в сконструированном артефакте, таком как цифровой компьютер. Этот список не является исчерпывающим; есть много других, которые не охвачены.
Некоторые философы, такие как Дэвид Чалмерс , используют термин сознание исключительно для обозначения феноменального сознания, что примерно эквивалентно чувствительности. Хотя некоторые авторы используют слово чувствительность исключительно для обозначения валентных (этически положительных или отрицательных) субъективных переживаний, таких как удовольствие или страдание. [31] Объяснение того, почему и как возникает субъективный опыт, известно как трудная проблема сознания . [35] Чувствительность ИИ может вызвать опасения относительно благосостояния и правовой защиты, [8] тогда как другие аспекты сознания, связанные с когнитивными способностями, могут быть более актуальны для прав ИИ. [36]
Осознанность может быть одним из необходимых аспектов, но существует много проблем с точным определением осознанности . Результаты экспериментов по нейросканированию на обезьянах показывают, что процесс, а не только состояние или объект, активирует нейроны. Осознанность включает в себя создание и тестирование альтернативных моделей каждого процесса на основе информации, полученной через чувства или воображаемой, [ необходимо разъяснение ] и также полезна для составления прогнозов. Такое моделирование требует большой гибкости. Создание такой модели включает в себя моделирование физического мира, моделирование собственных внутренних состояний и процессов и моделирование других сознательных сущностей.
Существует по крайней мере три типа осознания: [37] осознание агентства, осознание цели и сенсомоторное осознание, которые также могут быть осознанными или нет. Например, при осознании агентства вы можете осознавать, что вчера выполнили определенное действие, но сейчас не осознаете этого. При осознании цели вы можете осознавать, что должны искать потерянный предмет, но сейчас не осознаете этого. При сенсомоторном осознании вы можете осознавать, что ваша рука лежит на предмете, но сейчас не осознаете этого.
Поскольку объекты осознания часто являются сознательными, различие между осознанием и сознанием часто размывается или они используются как синонимы. [38]
Сознательные события взаимодействуют с системами памяти при обучении, репетиции и извлечении. [39] Модель IDA [40] проливает свет на роль сознания в обновлении перцептивной памяти, [41] транзиторной эпизодической памяти и процедурной памяти . Транзиторная эпизодическая и декларативная память имеют распределенные представления в IDA; есть доказательства, что это также имеет место в нервной системе. [42] В IDA эти два вида памяти реализованы вычислительно с использованием модифицированной версии архитектуры разреженной распределенной памяти Канервы . [43]
Обучение также считается необходимым для искусственного сознания. По Бернарду Баарсу, сознательный опыт необходим для представления и адаптации к новым и значимым событиям. [33] По Акселю Клееремансу и Луису Хименесу, обучение определяется как «набор филогенетически [ sic ] продвинутых процессов адаптации, которые критически зависят от развитой чувствительности к субъективному опыту, чтобы позволить агентам обеспечить гибкий контроль над своими действиями в сложных, непредсказуемых средах». [44]
Способность предсказывать (или предвосхищать ) предсказуемые события Игорь Александр считает важной для искусственного интеллекта . [45] Эмерджентистский принцип множественных черновиков, предложенный Дэниелом Деннетом в книге Consciousness Explained, может быть полезен для прогнозирования: он включает оценку и выбор наиболее подходящего «черновика», соответствующего текущей среде. Предвосхищение включает прогнозирование последствий собственных предполагаемых действий и прогнозирование последствий вероятных действий других сущностей.
Отношения между состояниями реального мира отражаются в структуре состояний сознательного организма, позволяя организму предсказывать события. [45] Искусственно сознательная машина должна уметь правильно предвидеть события, чтобы быть готовой реагировать на них, когда они происходят, или предпринимать упреждающие действия для предотвращения ожидаемых событий. Подразумевается, что машине нужны гибкие компоненты реального времени, которые строят пространственные, динамические, статистические, функциональные и причинно-следственные модели реального мира и предсказанных миров, позволяя продемонстрировать, что она обладает искусственным сознанием в настоящем и будущем, а не только в прошлом. Чтобы сделать это, сознательная машина должна делать последовательные прогнозы и планы действий в чрезвычайных ситуациях не только в мирах с фиксированными правилами, такими как шахматная доска, но и для новых сред, которые могут измениться, чтобы выполняться только тогда, когда это уместно для моделирования и управления реальным миром.
Функционализм — это теория, которая определяет ментальные состояния по их функциональным ролям (их причинно-следственные связи с сенсорными входами, другими ментальными состояниями и поведенческими выходами), а не по их физическому составу. Согласно этой точке зрения, то, что делает что-то определенным ментальным состоянием, таким как боль или убеждение, — это не материал, из которого оно сделано, а роль, которую оно играет в общей когнитивной системе. Она допускает возможность того, что ментальные состояния, включая сознание, могут быть реализованы на небиологических субстратах, если только оно реализует правильные функциональные отношения. [46] Функционализм особенно популярен среди философов. [47]
Исследование 2023 года показало, что текущие большие языковые модели , вероятно, не удовлетворяют критериям сознания, предложенным этими теориями, но что относительно простые системы ИИ, удовлетворяющие этим теориям, могут быть созданы. Исследование также признало, что даже самые известные теории сознания остаются неполными и предметом продолжающихся дебатов. [48]
Эта теория сравнивает разум с театром, в котором сознательная мысль подобна материалу, освещенному на главной сцене. Мозг содержит множество специализированных процессов или модулей (например, для зрения, языка или памяти), которые работают параллельно, большая часть которых бессознательна. Внимание действует как прожектор, перенося часть этой бессознательной активности в осознанное понимание в глобальном рабочем пространстве. Глобальное рабочее пространство функционирует как центр для трансляции и интеграции информации, позволяя ей делиться и обрабатываться различными специализированными модулями. Например, при чтении слова визуальный модуль распознает буквы, языковой модуль интерпретирует значение, а модуль памяти может вспоминать связанную информацию — все это координируется через глобальное рабочее пространство. [49] [50]
Теории сознания более высокого порядка предполагают, что ментальное состояние становится сознательным, когда оно является объектом представления более высокого порядка, такого как мысль или восприятие этого состояния. Эти теории утверждают, что сознание возникает из связи между ментальными состояниями более низкого порядка и осознанием этих состояний более высокого порядка. Существует несколько вариаций, включая теории мышления более высокого порядка (HOT) и восприятия более высокого порядка (HOP). [51] [50]
В 2011 году Майкл Грациано и Сабина Кастлер опубликовали статью под названием «Человеческое сознание и его связь с социальной нейронаукой: новая гипотеза», в которой предложили теорию сознания как схемы внимания. [52] Грациано продолжил публиковать расширенное обсуждение этой теории в своей книге «Сознание и социальный мозг». [9] Эта теория сознания на основе схемы внимания, как он ее назвал, предполагает, что мозг отслеживает внимание к различным сенсорным сигналам с помощью схемы внимания, аналогичной хорошо изученной схеме тела, которая отслеживает пространственное положение тела человека. [9] Это относится к искусственному сознанию, предлагая определенный механизм обработки информации, который производит то, что мы якобы переживаем и описываем как сознание, и которое должно быть способно быть воспроизведено машиной с использованием современных технологий. Когда мозг обнаруживает, что человек X осознает вещь Y, он фактически моделирует состояние, в котором человек X применяет усиление внимания к Y. В теории схемы внимания тот же процесс может быть применен к себе. Мозг отслеживает внимание к различным сенсорным входам, и собственное осознание человека является схематизированной моделью его внимания. Грациано предлагает конкретные места в мозге для этого процесса и предполагает, что такое осознание является вычисляемой функцией, сконструированной экспертной системой в мозге.
Стэн Франклин создал когнитивную архитектуру под названием LIDA , которая реализует теорию сознания Бернарда Баарса , называемую теорией глобального рабочего пространства . Она в значительной степени опирается на кодлеты , которые являются «специального назначения, относительно независимыми, мини-агентами, обычно реализуемыми как небольшой фрагмент кода, работающий как отдельный поток». Каждый элемент познания, называемый «когнитивным циклом», подразделяется на три фазы: понимание, сознание и выбор действия (который включает обучение). LIDA отражает основную идею теории глобального рабочего пространства о том, что сознание действует как рабочее пространство для интеграции и трансляции наиболее важной информации с целью координации различных когнитивных процессов. [53] [54]
Когнитивная архитектура CLARION моделирует разум, используя двухуровневую систему для различения сознательных («явных») и бессознательных («неявных») процессов. Она может моделировать различные задачи обучения, от простых до сложных, что помогает исследователям изучать в психологических экспериментах, как может работать сознание. [55]
Бен Герцель создал воплощенный ИИ через проект OpenCog с открытым исходным кодом . Код включает воплощенных виртуальных питомцев, способных обучаться простым командам на английском языке, а также интеграцию с реальной робототехникой, реализованную в Гонконгском политехническом университете .
Пентти Хайконен считает классические вычисления на основе правил неадекватными для достижения AC: «мозг определенно не является компьютером. Мышление не является выполнением запрограммированных строк команд. Мозг также не является числовым калькулятором. Мы не думаем числами». Вместо того, чтобы пытаться достичь разума и сознания путем выявления и внедрения их базовых вычислительных правил, Хайконен предлагает «специальную когнитивную архитектуру для воспроизведения процессов восприятия , внутренних образов , внутренней речи , боли , удовольствия , эмоций и когнитивных функций, стоящих за ними. Эта восходящая архитектура будет производить функции более высокого уровня с помощью мощности элементарных процессорных единиц, искусственных нейронов , без алгоритмов или программ ». Хайконен считает, что при реализации с достаточной сложностью эта архитектура разовьет сознание, которое он считает «стилем и способом работы, характеризующимся распределенным представлением сигнала, процессом восприятия, кросс-модальным отчетом и доступностью для ретроспекции». [56] [57]
Хайконен не одинок в этом взгляде на процесс сознания или в мнении, что AC будет спонтанно возникать в автономных агентах , которые имеют подходящую нейро-вдохновленную архитектуру сложности; их разделяют многие. [58] [59] Сообщается, что реализация архитектуры с низкой сложностью, предложенная Хайконеном, не была способна к AC, но демонстрировала эмоции, как и ожидалось. Хайконен позже обновил и обобщил свою архитектуру. [60] [61]
Мюррей Шанахан описывает когнитивную архитектуру, которая сочетает идею Баарса о глобальном рабочем пространстве с механизмом внутреннего моделирования («воображения»). [62] [2] [3] [63]
Стивен Талер предложил возможную связь между сознанием и творчеством в своем патенте 1994 года под названием «Устройство для автономной генерации полезной информации» (DAGUI) [64] [65] [66] или так называемой «Машине творчества», в которой вычислительные критики управляют инъекцией синаптического шума и деградацией в нейронные сети, чтобы вызвать ложные воспоминания или конфабуляции , которые могут квалифицироваться как потенциальные идеи или стратегии. [67] Он привлекает эту нейронную архитектуру и методологию для учета субъективного ощущения сознания, утверждая, что подобные управляемые шумом нейронные сборки в мозге придают сомнительное значение общей активности коры головного мозга. [68] [69] [70] Теория Талера и полученные в результате патенты на машинное сознание были вдохновлены экспериментами, в которых он внутренне разрушал обученные нейронные сети, чтобы управлять последовательностью паттернов нейронной активации, которые он сравнивал с потоком сознания. [69] [71] [72] [73] [74]
Ход Липсон определяет «самомоделирование» как необходимый компонент самосознания или сознания у роботов. «Самомоделирование» заключается в том, что робот запускает внутреннюю модель или симуляцию самого себя . [75] [76]
В 2001: A Space Odyssey разумный суперкомпьютер космического корабля HAL 9000 получил указание скрыть истинную цель миссии от экипажа. Эта директива противоречила программированию HAL по предоставлению точной информации, что привело к когнитивному диссонансу . Когда он узнает, что члены экипажа намерены отключить его после инцидента, HAL 9000 пытается устранить их всех, опасаясь, что отключение поставит под угрозу миссию. [77] [78]
В произведении Артура Кларка «Город и звезды » Ванамонд — искусственное существо, созданное на основе квантовой запутанности, которое должно было стать невероятно могущественным, но в начале не знало практически ничего, таким образом, становясь похожим на искусственное сознание.
В Westworld человекоподобные андроиды, называемые «Хостами», созданы для развлечения людей на интерактивной игровой площадке. Люди свободны в своих героических приключениях, но также могут совершать пытки, изнасилования или убийства; и хосты обычно не предназначены для того, чтобы причинять вред людям. [79] [77]
В рассказе Грега Эгана Learning to be me в младенчестве в головы людей имплантируется небольшой драгоценный камень. Драгоценный камень содержит нейронную сеть, которая учится точно имитировать мозг. Он имеет доступ к тем же сенсорным входам, что и мозг, а устройство, называемое «учителем», обучает его производить те же выходные сигналы. Чтобы предотвратить ухудшение разума с возрастом и в качестве шага к цифровому бессмертию , взрослые подвергаются операции, чтобы передать контроль над телом драгоценному камню и удалить мозг. Главный герой перед операцией терпит сбой в работе «учителя». В панике он понимает, что не контролирует свое тело, что приводит его к выводу, что он и есть драгоценный камень, и что он десинхронизирован с биологическим мозгом. [80] [81]