stringtranslate.com

Искусственное сознание

Искусственное сознание [1], также известное как машинное сознание [2] , [3], синтетическое сознание [4] или цифровое сознание [5] , — это сознание, которое , как предполагается, возможно в искусственном интеллекте . [6] Это также соответствующая область исследований, которая черпает идеи из философии разума , философии искусственного интеллекта , когнитивной науки и нейронауки .

Та же терминология может использоваться с термином « чувствительность » вместо «сознания», когда специально обозначается феноменальное сознание (способность чувствовать квалиа ). [7] Поскольку чувствительность подразумевает способность испытывать этически положительные или отрицательные (т. е. валентные ) ментальные состояния, она может оправдывать заботы о благополучии и правовую защиту, как в случае с животными. [8]

Некоторые ученые полагают, что сознание генерируется взаимодействием различных частей мозга ; эти механизмы называются нейронными коррелятами сознания или NCC. Некоторые также полагают, что построение системы (например, компьютерной системы), которая может эмулировать это взаимодействие NCC, приведет к созданию системы, которая является сознательной. [9]

Философские взгляды

Поскольку существует множество гипотетических типов сознания , существует множество потенциальных реализаций искусственного сознания. В философской литературе, возможно, наиболее распространенной таксономией сознания является разделение его на «доступные» и «феноменальные» варианты. Сознание доступа касается тех аспектов опыта , которые могут быть восприняты, в то время как феноменальное сознание касается тех аспектов опыта, которые, по-видимому, не могут быть восприняты, вместо этого характеризуясь качественно в терминах «сырых ощущений», «каковы они» или квалиа. [10]

Дискуссия о правдоподобности

Теоретики идентичности типов и другие скептики придерживаются мнения, что сознание может быть реализовано только в определенных физических системах, поскольку сознание обладает свойствами, которые обязательно зависят от физической конституции. [11] [12] [13] [14] В своей статье 2001 года «Искусственное сознание: утопия или реальная возможность» Джорджио Буттаццо говорит, что распространенное возражение против искусственного сознания заключается в том, что «работая в полностью автоматическом режиме, они [компьютеры] не могут проявлять креативность, непрограммируемость (что означает, что их «больше нельзя перепрограммировать» путем переосмысления), эмоции или свободную волю . Компьютер, как и стиральная машина, является рабом, управляемым своими компонентами». [15]

Для других теоретиков (например, функционалистов ), которые определяют ментальные состояния в терминах каузальных ролей, любая система, которая может реализовывать один и тот же шаблон каузальных ролей, независимо от физической конституции, будет реализовывать одни и те же ментальные состояния, включая сознание. [16]

Мысленные эксперименты

Дэвид Чалмерс предложил два мысленных эксперимента, намереваясь продемонстрировать, что «функционально изоморфные » системы (с одинаковой «тонкоструктурированной функциональной организацией», т. е. одинаковой обработкой информации) будут иметь качественно идентичный сознательный опыт, независимо от того, основаны ли они на биологических нейронах или цифровом оборудовании. [17] [18]

«Исчезающие квалиа» — это мысленный эксперимент reductio ad absurdum . Он включает замену одного за другим нейронов мозга функционально идентичным компонентом, например, на основе кремниевого чипа . Поскольку исходные нейроны и их кремниевые аналоги функционально идентичны, обработка информации мозгом должна оставаться неизменной, и субъект не заметит никакой разницы. Однако, если квалиа (например, субъективное восприятие ярко-красного цвета) померкнут или исчезнут, субъект, скорее всего, заметит это изменение, что вызывает противоречие. Чалмерс приходит к выводу, что гипотеза исчезающих квалиа невозможна на практике, и что полученный роботизированный мозг после замены всех нейронов останется таким же разумным, как и исходный биологический мозг. [17] [19]

Аналогично, мысленный эксперимент «танцующие квалиа» является еще одним аргументом reductio ad absurdum . Он предполагает, что две функционально изоморфные системы могут иметь разное восприятие (например, видеть один и тот же объект в разных цветах, например, красный и синий). Он включает в себя переключение, которое чередует часть мозга, вызывающую восприятие красного, и функционально изоморфный кремниевый чип, вызывающий восприятие синего. Поскольку оба выполняют одну и ту же функцию в мозге, субъект не заметит никаких изменений во время переключения. Чалмерс утверждает, что это было бы крайне неправдоподобно, если бы квалиа действительно переключались между красным и синим, отсюда и противоречие. Поэтому он приходит к выводу, что эквивалентная цифровая система не только испытывала бы квалиа, но и воспринимала бы те же квалиа, что и биологическая система (например, видела бы тот же цвет). [17] [19]

Критики [ кто? ] искусственной чувствительности возражают, что предложение Чалмерса ставит под сомнение, предполагая, что все ментальные свойства и внешние связи уже в достаточной степени охвачены абстрактной причинной организацией.

Споры

В 2022 году инженер Google Блейк Лемуан сделал вирусное заявление о том, что чат-бот LaMDA от Google является разумным. Лемуан предоставил в качестве доказательства человекоподобные ответы чат-бота на многие из его вопросов; однако, поведение чат-бота было оценено научным сообществом как вероятное следствие подражания, а не машинного разума. Заявление Лемуана было широко высмеяно за его нелепость. [20] Однако, хотя философ Ник Бостром утверждает, что LaMDA вряд ли будет сознательным, он дополнительно задает вопрос: «Какие основания у человека могут быть для того, чтобы быть в этом уверенным?» Для этого нужно иметь доступ к неопубликованной информации об архитектуре LaMDA, а также нужно понять, как работает сознание, а затем выяснить, как сопоставить философию с машиной: «(При отсутствии этих шагов), похоже, что можно быть, возможно, немного неуверенным.  [...] вполне могут быть другие системы сейчас или в относительно недалеком будущем, которые начнут удовлетворять критериям». [21]

Тестирование

Qualia, или феноменологическое сознание, по своей сути является феноменом первого лица. Из-за этого, а также из-за отсутствия эмпирического определения чувствительности, ее прямое измерение может быть невозможным. Хотя системы могут демонстрировать многочисленные виды поведения, коррелирующие с чувствительностью, определение того, является ли система сознательной, известно как сложная проблема сознания . В случае ИИ существует дополнительная сложность, заключающаяся в том, что ИИ может быть обучен действовать как человек или стимулирован казаться сознательной, что делает поведенческие маркеры чувствительности менее надежными. [22] [23] Кроме того, некоторые чат-боты обучены говорить, что они не осознают. [24]

Известным методом проверки машинного интеллекта является тест Тьюринга , который оценивает способность вести разговор, подобный человеческому. Но прохождение теста Тьюринга не означает, что система ИИ разумна, поскольку ИИ может просто имитировать человеческое поведение, не имея связанных с ним чувств. [25]

В 2014 году Виктор Аргонов предложил не-Тьюрингов тест на чувствительность машины, основанный на способности машины выносить философские суждения. [26] Он утверждает, что детерминированная машина должна считаться сознательной, если она способна выносить суждения по всем проблемным свойствам сознания (таким как квалиа или связывание ), не имея врожденных (предзагруженных) философских знаний по этим вопросам, философских дискуссий во время обучения и информационных моделей других существ в своей памяти (такие модели могут неявно или явно содержать знания о сознании этих существ). Однако этот тест можно использовать только для обнаружения, но не для опровержения существования сознания. Положительный результат доказывает, что машина сознательна, а отрицательный результат ничего не доказывает. Например, отсутствие философских суждений может быть вызвано отсутствием интеллекта машины, а не отсутствием сознания.

Этика

Если бы подозревали, что конкретная машина обладает сознанием, ее права стали бы этической проблемой, которую необходимо было бы оценить (например, какие права она будет иметь по закону). [27] Например, сознательный компьютер, который принадлежал и использовался как инструмент или центральный компьютер в более крупной машине, является особой двусмысленностью. Должны ли быть приняты законы для такого случая? Сознание также потребовало бы юридического определения в этом конкретном случае. Поскольку искусственное сознание все еще в значительной степени является теоретическим предметом, такая этика не обсуждалась и не разрабатывалась в значительной степени, хотя она часто была темой в художественной литературе.

Чувствительность обычно считается достаточной для морального рассмотрения, но некоторые философы полагают, что моральное рассмотрение может также вытекать из других представлений о сознании или из способностей, не связанных с сознанием, [28] [29], таких как: «наличие сложной концепции себя как сохраняющегося во времени; наличие субъектности и способности строить долгосрочные планы; способность общаться и реагировать на нормативные доводы; наличие предпочтений и полномочий; нахождение в определенных социальных отношениях с другими существами, имеющими моральный статус; способность брать на себя обязательства и вступать в взаимные соглашения; или наличие потенциала для развития некоторых из этих качеств». [28]

Этические проблемы все еще применимы (хотя и в меньшей степени) , когда сознание неопределенно , пока вероятность считается не пренебрежимо малой. Принцип предосторожности также актуален, если моральная стоимость ошибочного приписывания или отрицания морального рассмотрения ИИ существенно различается. [29] [8]

В 2021 году немецкий философ Томас Метцингер выступил за всемирный мораторий на синтетическую феноменологию до 2050 года. Метцингер утверждает, что люди обязаны заботиться о любых разумных ИИ, которые они создают, и что слишком быстрое развитие рискует создать «взрыв искусственных страданий». [30] Дэвид Чалмерс также утверждал, что создание сознательного ИИ «поднимет новую группу сложных этических проблем с потенциалом новых форм несправедливости». [31]

Принудительная амнезия была предложена как способ снижения риска молчаливых страданий в запертом сознательном ИИ и некоторых смежных с ИИ биологических системах, таких как мозговые органоиды . [32]

Аспекты сознания

Бернард Баарс и другие утверждают, что существуют различные аспекты сознания, необходимые для того, чтобы машина была искусственно сознательной. [33] Функции сознания, предложенные Баарсом, следующие: определение и настройка контекста, адаптация и обучение, редактирование, маркировка и отладка, набор и контроль, расстановка приоритетов и контроль доступа, принятие решений или исполнительная функция, функция формирования аналогий, метакогнитивная и самоконтролирующая функция, а также функция автопрограммирования и самоподдержания. Игорь Александр предложил 12 принципов для искусственного сознания: [34] мозг является машиной состояний, внутреннее разделение нейронов, сознательные и бессознательные состояния, перцептивное обучение и память, прогнозирование, осознание себя, представление смысла, изучение высказываний, изучение языка, воля, инстинкт и эмоции. Целью АК является определение того, могут ли и как эти и другие аспекты сознания быть синтезированы в сконструированном артефакте, таком как цифровой компьютер. Этот список не является исчерпывающим; есть много других, которые не охвачены.

Субъективный опыт

Некоторые философы, такие как Дэвид Чалмерс , используют термин сознание исключительно для обозначения феноменального сознания, что примерно эквивалентно чувствительности. Хотя некоторые авторы используют слово чувствительность исключительно для обозначения валентных (этически положительных или отрицательных) субъективных переживаний, таких как удовольствие или страдание. [31] Объяснение того, почему и как возникает субъективный опыт, известно как трудная проблема сознания . [35] Чувствительность ИИ может вызвать опасения относительно благосостояния и правовой защиты, [8] тогда как другие аспекты сознания, связанные с когнитивными способностями, могут быть более актуальны для прав ИИ. [36]

Осведомленность

Осознанность может быть одним из необходимых аспектов, но существует много проблем с точным определением осознанности . Результаты экспериментов по нейросканированию на обезьянах показывают, что процесс, а не только состояние или объект, активирует нейроны. Осознанность включает в себя создание и тестирование альтернативных моделей каждого процесса на основе информации, полученной через чувства или воображаемой, [ необходимо разъяснение ] и также полезна для составления прогнозов. Такое моделирование требует большой гибкости. Создание такой модели включает в себя моделирование физического мира, моделирование собственных внутренних состояний и процессов и моделирование других сознательных сущностей.

Существует по крайней мере три типа осознания: [37] осознание агентства, осознание цели и сенсомоторное осознание, которые также могут быть осознанными или нет. Например, при осознании агентства вы можете осознавать, что вчера выполнили определенное действие, но сейчас не осознаете этого. При осознании цели вы можете осознавать, что должны искать потерянный предмет, но сейчас не осознаете этого. При сенсомоторном осознании вы можете осознавать, что ваша рука лежит на предмете, но сейчас не осознаете этого.

Поскольку объекты осознания часто являются сознательными, различие между осознанием и сознанием часто размывается или они используются как синонимы. [38]

Память

Сознательные события взаимодействуют с системами памяти при обучении, репетиции и извлечении. [39] Модель IDA [40] проливает свет на роль сознания в обновлении перцептивной памяти, [41] транзиторной эпизодической памяти и процедурной памяти . Транзиторная эпизодическая и декларативная память имеют распределенные представления в IDA; есть доказательства, что это также имеет место в нервной системе. [42] В IDA эти два вида памяти реализованы вычислительно с использованием модифицированной версии архитектуры разреженной распределенной памяти Канервы . [43]

Обучение

Обучение также считается необходимым для искусственного сознания. По Бернарду Баарсу, сознательный опыт необходим для представления и адаптации к новым и значимым событиям. [33] По Акселю Клееремансу и Луису Хименесу, обучение определяется как «набор филогенетически [ sic ] продвинутых процессов адаптации, которые критически зависят от развитой чувствительности к субъективному опыту, чтобы позволить агентам обеспечить гибкий контроль над своими действиями в сложных, непредсказуемых средах». [44]

Ожидание

Способность предсказывать (или предвосхищать ) предсказуемые события Игорь Александр считает важной для искусственного интеллекта . [45] Эмерджентистский принцип множественных черновиков, предложенный Дэниелом Деннетом в книге Consciousness Explained, может быть полезен для прогнозирования: он включает оценку и выбор наиболее подходящего «черновика», соответствующего текущей среде. Предвосхищение включает прогнозирование последствий собственных предполагаемых действий и прогнозирование последствий вероятных действий других сущностей.

Отношения между состояниями реального мира отражаются в структуре состояний сознательного организма, позволяя организму предсказывать события. [45] Искусственно сознательная машина должна уметь правильно предвидеть события, чтобы быть готовой реагировать на них, когда они происходят, или предпринимать упреждающие действия для предотвращения ожидаемых событий. Подразумевается, что машине нужны гибкие компоненты реального времени, которые строят пространственные, динамические, статистические, функциональные и причинно-следственные модели реального мира и предсказанных миров, позволяя продемонстрировать, что она обладает искусственным сознанием в настоящем и будущем, а не только в прошлом. Чтобы сделать это, сознательная машина должна делать последовательные прогнозы и планы действий в чрезвычайных ситуациях не только в мирах с фиксированными правилами, такими как шахматная доска, но и для новых сред, которые могут измениться, чтобы выполняться только тогда, когда это уместно для моделирования и управления реальным миром.

Функционалистские теории сознания

Функционализм — это теория, которая определяет ментальные состояния по их функциональным ролям (их причинно-следственные связи с сенсорными входами, другими ментальными состояниями и поведенческими выходами), а не по их физическому составу. Согласно этой точке зрения, то, что делает что-то определенным ментальным состоянием, таким как боль или убеждение, — это не материал, из которого оно сделано, а роль, которую оно играет в общей когнитивной системе. Она допускает возможность того, что ментальные состояния, включая сознание, могут быть реализованы на небиологических субстратах, если только оно реализует правильные функциональные отношения. [46] Функционализм особенно популярен среди философов. [47]

Исследование 2023 года показало, что текущие большие языковые модели , вероятно, не удовлетворяют критериям сознания, предложенным этими теориями, но что относительно простые системы ИИ, удовлетворяющие этим теориям, могут быть созданы. Исследование также признало, что даже самые известные теории сознания остаются неполными и предметом продолжающихся дебатов. [48]

Теория глобального рабочего пространства

Эта теория сравнивает разум с театром, в котором сознательная мысль подобна материалу, освещенному на главной сцене. Мозг содержит множество специализированных процессов или модулей (например, для зрения, языка или памяти), которые работают параллельно, большая часть которых бессознательна. Внимание действует как прожектор, перенося часть этой бессознательной активности в осознанное понимание в глобальном рабочем пространстве. Глобальное рабочее пространство функционирует как центр для трансляции и интеграции информации, позволяя ей делиться и обрабатываться различными специализированными модулями. Например, при чтении слова визуальный модуль распознает буквы, языковой модуль интерпретирует значение, а модуль памяти может вспоминать связанную информацию — все это координируется через глобальное рабочее пространство. [49] [50]

Теории сознания более высокого порядка

Теории сознания более высокого порядка предполагают, что ментальное состояние становится сознательным, когда оно является объектом представления более высокого порядка, такого как мысль или восприятие этого состояния. Эти теории утверждают, что сознание возникает из связи между ментальными состояниями более низкого порядка и осознанием этих состояний более высокого порядка. Существует несколько вариаций, включая теории мышления более высокого порядка (HOT) и восприятия более высокого порядка (HOP). [51] [50]

Теория схемы внимания

В 2011 году Майкл Грациано и Сабина Кастлер опубликовали статью под названием «Человеческое сознание и его связь с социальной нейронаукой: новая гипотеза», в которой предложили теорию сознания как схемы внимания. [52] Грациано продолжил публиковать расширенное обсуждение этой теории в своей книге «Сознание и социальный мозг». [9] Эта теория сознания на основе схемы внимания, как он ее назвал, предполагает, что мозг отслеживает внимание к различным сенсорным сигналам с помощью схемы внимания, аналогичной хорошо изученной схеме тела, которая отслеживает пространственное положение тела человека. [9] Это относится к искусственному сознанию, предлагая определенный механизм обработки информации, который производит то, что мы якобы переживаем и описываем как сознание, и которое должно быть способно быть воспроизведено машиной с использованием современных технологий. Когда мозг обнаруживает, что человек X осознает вещь Y, он фактически моделирует состояние, в котором человек X применяет усиление внимания к Y. В теории схемы внимания тот же процесс может быть применен к себе. Мозг отслеживает внимание к различным сенсорным входам, и собственное осознание человека является схематизированной моделью его внимания. Грациано предлагает конкретные места в мозге для этого процесса и предполагает, что такое осознание является вычисляемой функцией, сконструированной экспертной системой в мозге.

Предложения по внедрению

Символический или гибридный

Обучение интеллектуальному агенту распределения

Стэн Франклин создал когнитивную архитектуру под названием LIDA , которая реализует теорию сознания Бернарда Баарса , называемую теорией глобального рабочего пространства . Она в значительной степени опирается на кодлеты , которые являются «специального назначения, относительно независимыми, мини-агентами, обычно реализуемыми как небольшой фрагмент кода, работающий как отдельный поток». Каждый элемент познания, называемый «когнитивным циклом», подразделяется на три фазы: понимание, сознание и выбор действия (который включает обучение). LIDA отражает основную идею теории глобального рабочего пространства о том, что сознание действует как рабочее пространство для интеграции и трансляции наиболее важной информации с целью координации различных когнитивных процессов. [53] [54]

Когнитивная архитектура CLARION

Когнитивная архитектура CLARION моделирует разум, используя двухуровневую систему для различения сознательных («явных») и бессознательных («неявных») процессов. Она может моделировать различные задачи обучения, от простых до сложных, что помогает исследователям изучать в психологических экспериментах, как может работать сознание. [55]

OpenCog

Бен Герцель создал воплощенный ИИ через проект OpenCog с открытым исходным кодом . Код включает воплощенных виртуальных питомцев, способных обучаться простым командам на английском языке, а также интеграцию с реальной робототехникой, реализованную в Гонконгском политехническом университете .

Коннекционист

Когнитивная архитектура Хайконена

Пентти Хайконен считает классические вычисления на основе правил неадекватными для достижения AC: «мозг определенно не является компьютером. Мышление не является выполнением запрограммированных строк команд. Мозг также не является числовым калькулятором. Мы не думаем числами». Вместо того, чтобы пытаться достичь разума и сознания путем выявления и внедрения их базовых вычислительных правил, Хайконен предлагает «специальную когнитивную архитектуру для воспроизведения процессов восприятия , внутренних образов , внутренней речи , боли , удовольствия , эмоций и когнитивных функций, стоящих за ними. Эта восходящая архитектура будет производить функции более высокого уровня с помощью мощности элементарных процессорных единиц, искусственных нейронов , без алгоритмов или программ ». Хайконен считает, что при реализации с достаточной сложностью эта архитектура разовьет сознание, которое он считает «стилем и способом работы, характеризующимся распределенным представлением сигнала, процессом восприятия, кросс-модальным отчетом и доступностью для ретроспекции». [56] [57]

Хайконен не одинок в этом взгляде на процесс сознания или в мнении, что AC будет спонтанно возникать в автономных агентах , которые имеют подходящую нейро-вдохновленную архитектуру сложности; их разделяют многие. [58] [59] Сообщается, что реализация архитектуры с низкой сложностью, предложенная Хайконеном, не была способна к AC, но демонстрировала эмоции, как и ожидалось. Хайконен позже обновил и обобщил свою архитектуру. [60] [61]

Когнитивная архитектура Шанахана

Мюррей Шанахан описывает когнитивную архитектуру, которая сочетает идею Баарса о глобальном рабочем пространстве с механизмом внутреннего моделирования («воображения»). [62] [2] [3] [63]

Машина Творчества

Стивен Талер предложил возможную связь между сознанием и творчеством в своем патенте 1994 года под названием «Устройство для автономной генерации полезной информации» (DAGUI) [64] [65] [66] или так называемой «Машине творчества», в которой вычислительные критики управляют инъекцией синаптического шума и деградацией в нейронные сети, чтобы вызвать ложные воспоминания или конфабуляции , которые могут квалифицироваться как потенциальные идеи или стратегии. [67] Он привлекает эту нейронную архитектуру и методологию для учета субъективного ощущения сознания, утверждая, что подобные управляемые шумом нейронные сборки в мозге придают сомнительное значение общей активности коры головного мозга. [68] [69] [70] Теория Талера и полученные в результате патенты на машинное сознание были вдохновлены экспериментами, в которых он внутренне разрушал обученные нейронные сети, чтобы управлять последовательностью паттернов нейронной активации, которые он сравнивал с потоком сознания. [69] [71] [72] [73] [74]

«Самомоделирование»

Ход Липсон определяет «самомоделирование» как необходимый компонент самосознания или сознания у роботов. «Самомоделирование» заключается в том, что робот запускает внутреннюю модель или симуляцию самого себя . [75] [76]

В художественной литературе

В 2001: A Space Odyssey разумный суперкомпьютер космического корабля HAL 9000 получил указание скрыть истинную цель миссии от экипажа. Эта директива противоречила программированию HAL по предоставлению точной информации, что привело к когнитивному диссонансу . Когда он узнает, что члены экипажа намерены отключить его после инцидента, HAL 9000 пытается устранить их всех, опасаясь, что отключение поставит под угрозу миссию. [77] [78]

В произведении Артура Кларка «Город и звезды » Ванамонд — искусственное существо, созданное на основе квантовой запутанности, которое должно было стать невероятно могущественным, но в начале не знало практически ничего, таким образом, становясь похожим на искусственное сознание.

В Westworld человекоподобные андроиды, называемые «Хостами», созданы для развлечения людей на интерактивной игровой площадке. Люди свободны в своих героических приключениях, но также могут совершать пытки, изнасилования или убийства; и хосты обычно не предназначены для того, чтобы причинять вред людям. [79] [77]

В рассказе Грега Эгана Learning to be me в младенчестве в головы людей имплантируется небольшой драгоценный камень. Драгоценный камень содержит нейронную сеть, которая учится точно имитировать мозг. Он имеет доступ к тем же сенсорным входам, что и мозг, а устройство, называемое «учителем», обучает его производить те же выходные сигналы. Чтобы предотвратить ухудшение разума с возрастом и в качестве шага к цифровому бессмертию , взрослые подвергаются операции, чтобы передать контроль над телом драгоценному камню и удалить мозг. Главный герой перед операцией терпит сбой в работе «учителя». В панике он понимает, что не контролирует свое тело, что приводит его к выводу, что он и есть драгоценный камень, и что он десинхронизирован с биологическим мозгом. [80] [81]

Смотрите также

Ссылки

Цитаты

  1. ^ Талер, С.Л. (1998). «Развивающийся интеллект и его критический взгляд на нас». Журнал исследований клинической смерти . 17 (1): 21–29. doi :10.1023/A:1022990118714. S2CID  49573301.
  2. ^ ab Gamez 2008.
  3. ^ ab Reggia 2013.
  4. ^ Смит, Дэвид Харрис; Скиллачи, Гвидо (2021). «Построить робота с искусственным сознанием? С чего начать? Междисциплинарный диалог о разработке и реализации синтетической модели сознания». Frontiers in Psychology . 12 : 530560. doi : 10.3389 /fpsyg.2021.530560 . ISSN  1664-1078. PMC 8096926. PMID  33967869. 
  5. ^ Элвидж, Джим (2018). Цифровое сознание: преобразующее видение. John Hunt Publishing Limited. ISBN 978-1-78535-760-2. Архивировано из оригинала 2023-07-30 . Получено 2023-06-28 .
  6. ^ Крисли, Рон (октябрь 2008 г.). «Философские основы искусственного сознания». Искусственный интеллект в медицине . 44 (2): 119–137. doi :10.1016/j.artmed.2008.07.011. PMID  18818062.
  7. ^ "Терминология искусственной чувствительности". Sentience Institute . Архивировано из оригинала 2024-09-25 . Получено 2023-08-19 .
  8. ^ abc Кейтман, Брайан (2023-07-24). «ИИ должен бояться людей». TIME . Архивировано из оригинала 2024-09-25 . Получено 2024-09-05 .
  9. ^ abc Грациано 2013.
  10. ^ Блок, Нед (2010). «О путанице в отношении функции сознания». Поведенческие и мозговые науки . 18 (2): 227–247. doi :10.1017/S0140525X00038188. ISSN  1469-1825. S2CID  146168066. Архивировано из оригинала 25.09.2024 . Получено 22.06.2023 .
  11. ^ Блок, Нед (1978). «Проблемы функционализма». Исследования Миннесоты по философии науки : 261–325.
  12. ^ Бикл, Джон (2003). Философия и нейронаука. Дордрехт: Springer Netherlands. doi :10.1007/978-94-010-0237-0. ISBN 978-1-4020-1302-7. Архивировано из оригинала 2024-09-25 . Получено 2023-06-24 .
  13. ^ Шлагель, Р. Х. (1999). «Почему не искусственное сознание или мысль?». Minds and Machines . 9 (1): 3–28. doi :10.1023/a:1008374714117. S2CID  28845966.
  14. ^ Searle, JR (1980). "Minds, brains, and programs" (PDF) . Behavioral and Brain Sciences . 3 (3): 417–457. doi :10.1017/s0140525x00005756. S2CID  55303721. Архивировано (PDF) из оригинала 2019-03-17 . Получено 2019-01-28 .
  15. ^ Буттаццо, Г. (2001). «Искусственное сознание: утопия или реальная возможность?». Компьютер . 34 (7): 24–30. doi :10.1109/2.933500. Архивировано из оригинала 25.09.2024 . Получено 31.07.2024 .
  16. ^ Патнэм, Хилари (1967). Природа ментальных состояний в Capitan and Merrill (ред.) Art, Mind and Religion . Издательство Питтсбургского университета.
  17. ^ abc Чалмерс, Дэвид (1995). «Отсутствующие квалиа, угасающие квалиа, танцующие квалиа». Сознательный опыт .
  18. ^ Дэвид Дж. Чалмерс (2011). "Вычислительная основа для изучения познания" (PDF) . Журнал когнитивной науки . 12 (4): 325–359. doi :10.17791/JCS.2011.12.4.325. S2CID  248401010. Архивировано (PDF) из оригинала 2023-11-23 . Получено 2023-06-24 .
  19. ^ ab "Введение в проблемы сознания ИИ". The Gradient . 2023-09-30 . Получено 2024-10-05 .
  20. ^ «„Я, на самом деле, человек“: может ли искусственный интеллект когда-либо быть разумным?». The Guardian . 14 августа 2022 г. Архивировано из оригинала 25 сентября 2024 г. Получено 5 января 2023 г.
  21. Лейт, Сэм (7 июля 2022 г.). «Ник Бостром: как мы можем быть уверены, что машина не обладает сознанием?». The Spectator . Архивировано из оригинала 5 января 2023 г. . Получено 5 января 2023 г. .
  22. ^ Велис, Карисса (14.04.2016). «Проблема определения того, является ли ИИ разумным». Slate . ISSN  1091-2339 . Получено 05.10.2024 .
  23. ^ Бирч, Джонатан (июль 2024 г.). «Большие языковые модели и проблема игр». Грань чувствительности. Oxford University Press.
  24. ^ Агуэра и Аркас, Блез; Норвиг, Питер (10 октября 2023 г.). «Общий искусственный интеллект уже здесь». Ноэма .
  25. ^ Кирк-Джаннини, Кэмерон Доменико; Голдштейн, Саймон (16.10.2023). «ИИ как никогда близок к прохождению теста Тьюринга на «интеллект». Что произойдет, когда он это сделает?». The Conversation . Архивировано из оригинала 25.09.2024 . Получено 18.08.2024 .
  26. ^ Виктор Аргонов (2014). «Экспериментальные методы решения проблемы разума и тела: подход феноменального суждения». Журнал разума и поведения . 35 : 51–70. Архивировано из оригинала 20 октября 2016 г. Получено 06 декабря 2016 г.
  27. ^ «Должны ли роботы с искусственным интеллектом иметь моральные или юридические права?». The Wall Street Journal . 10 апреля 2023 г.
  28. ^ ab Bostrom, Nick (2024). Глубокая утопия: жизнь и смысл в решенном мире . Вашингтон, округ Колумбия: Ideapress Publishing. стр. 82. ISBN 978-1-64687-164-3.
  29. ^ ab Sebo, Jeff; Long, Robert (11 декабря 2023 г.). «Моральное рассмотрение систем ИИ к 2030 году» (PDF) . ИИ и этика . doi :10.1007/s43681-023-00379-1.
  30. ^ Метцингер, Томас (2021). «Искусственное страдание: аргумент в пользу глобального моратория на синтетическую феноменологию». Журнал искусственного интеллекта и сознания . 08 : 43–66. doi : 10.1142/S270507852150003X . S2CID  233176465.
  31. ^ ab Chalmers, David J. (9 августа 2023 г.). «Может ли большая языковая модель быть сознательной?». Boston Review .
  32. ^ Ткаченко, Егор (2024). «Позиция: Принудительная амнезия как способ смягчения потенциального риска молчаливых страданий в сознательном ИИ». Труды 41-й Международной конференции по машинному обучению . PMLR. Архивировано из оригинала 2024-06-10 . Получено 2024-06-11 .
  33. ^ ab Baars 1995.
  34. ^ Александр, Игорь (1995). «Искусственное нейросознание — обновление». В Мира, Хосе; Сандовал, Франциско (ред.). От естественных к искусственным нейронным вычислениям . Конспект лекций по информатике. Том 930. Берлин, Гейдельберг: Springer. С. 566–583. doi :10.1007/3-540-59497-3_224. ISBN 978-3-540-49288-7. Архивировано из оригинала 2024-09-25 . Получено 2023-06-22 .
  35. ^ Сет, Анил. "Сознание". New Scientist . Архивировано из оригинала 2024-09-14 . Получено 2024-09-05 .
  36. ^ Носта, Джон (18 декабря 2023 г.). «Должен ли искусственный интеллект иметь права?». Psychology Today . Архивировано из оригинала 2024-09-25 . Получено 2024-09-05 .
  37. Жоэль Пруст в книге «Нейронные корреляты сознания» , Томас Метцингер, 2000, Массачусетский технологический институт, страницы 307–324.
  38. ^ Кристоф Кох, Поиски сознания , 2004, стр. 2 сноска 2
  39. ^ Тулвинг, Э. 1985. Память и сознание. Канадская психология 26:1–12
  40. ^ Франклин, Стэн и др. «Роль сознания в памяти». Мозг, разум и медиа 1.1 (2005): 38.
  41. ^ Франклин, Стэн. «Перцептивная память и обучение: распознавание, категоризация и соотнесение». Труды весеннего симпозиума по робототехнике AAAI, 2005.
  42. ^ Шастри, Л. 2002. Эпизодическая память и кортико-гиппокампальные взаимодействия. Тенденции в когнитивных науках
  43. ^ Канерва, Пентти. Разреженная распределенная память. Массачусетский технологический институт, 1988.
  44. ^ "Неявное обучение и сознание: эмпирический, философский и вычислительный консенсус в процессе создания". Routledge & CRC Press . Архивировано из оригинала 2023-06-22 . Получено 2023-06-22 .
  45. ^ ab Александр 1995
  46. ^ "Функционализм". Стэнфордская энциклопедия философии . Архивировано из оригинала 2021-04-18 . Получено 2024-09-08 .
  47. ^ «Результаты опроса | Сознание: теория идентичности, панпсихизм, элиминативизм, дуализм или функционализм?». PhilPapers . 2020.
  48. ^ Батлин, Патрик; Лонг, Роберт; Элмознино, Эрик; Бенджио, Йошуа; Бирч, Джонатан; Констант, Аксель; Дин, Джордж; Флеминг, Стивен М.; Фрит, Крис; Цзи, Сюй; Канаи, Рёта; Кляйн, Колин; Линдси, Грейс; Мишель, Маттиас; Мудрик, Лиад; Питерс, Меган АК; Швицгебель, Эрик; Саймон, Джонатан; ВанРуллен, Руфин (2023). «Сознание в искусственном интеллекте: идеи из науки о сознании». arXiv : 2308.08708 [cs.AI].
  49. ^ Баарс, Бернард Дж. (1988). Когнитивная теория сознания. Cambridge University Press. стр. 345. ISBN 0521427436. Архивировано из оригинала 2024-09-25 . Получено 2024-09-05 .
  50. ^ ab Travers, Mark (11 октября 2023 г.). «Отказываемся ли мы от самой популярной теории сознания?». Psychology Today . Архивировано из оригинала 25.09.2024 . Получено 05.09.2024 .
  51. ^ "Теории сознания высшего порядка". Стэнфордская энциклопедия философии . 15 августа 2011 г. Архивировано из оригинала 14 мая 2008 г. Получено 31 августа 2014 г.
  52. ^ Грациано, Майкл (1 января 2011 г.). «Человеческое сознание и его связь с социальной нейронаукой: новая гипотеза». Cognitive Neuroscience . 2 (2): 98–113. doi :10.1080/17588928.2011.565121. PMC 3223025 . PMID  22121395. 
  53. ^ Франклин, Стэн (январь 2003 г.). «IDA: Сознательный артефакт?». Журнал исследований сознания . Архивировано из оригинала 2020-07-03 . Получено 2024-08-25 .
  54. ^ J. Baars, Bernard; Franklin, Stan (2009). «Сознание вычислительно: модель Лиды теории глобального рабочего пространства». Международный журнал машинного сознания . 01 : 23–32. doi :10.1142/S1793843009000050.
  55. ^ (Вс 2002)
  56. ^ Хайконен, Пентти О. (2003). Когнитивный подход к сознательным машинам . Эксетер: Издательство Academic. ISBN 978-0-907845-42-3.
  57. ^ "Архитектура Пентти Хайконена для сознательных машин – Рауль Аррабалес Морено". 2019-09-08. Архивировано из оригинала 2024-09-25 . Получено 2023-06-24 .
  58. ^ Freeman, Walter J. (2000). Как мозги принимают решения . Карты разума. Нью-Йорк Чичестер, Западный Суссекс: Columbia University Press. ISBN 978-0-231-12008-1.
  59. ^ Cotterill, Rodney MJ (2003). «CyberChild — имитационный испытательный стенд для исследований сознания». Journal of Consciousness Studies . 10 (4–5): 31–45. ISSN  1355-8250. Архивировано из оригинала 25.09.2024 . Получено 22.06.2023 .
  60. ^ Хайконен, Пентти О.; Хайконен, Пентти Олави Антеро (2012). Сознание и разум робота . Серия о машинном сознании. Сингапур: World Scientific. ISBN 978-981-4407-15-1.
  61. ^ Haikonen, Pentti O. (2019). Сознание и разумность робота . Серия о машинном сознании (2-е изд.). Singapore Hackensack, NJ London: World Scientific. ISBN 978-981-12-0504-0.
  62. ^ Шанахан, Мюррей (2006). «Когнитивная архитектура, которая сочетает внутреннюю симуляцию с глобальным рабочим пространством». Сознание и познание . 15 (2): 433–449. doi :10.1016/j.concog.2005.11.005. ISSN  1053-8100. PMID  16384715. S2CID  5437155. Архивировано из оригинала 2023-02-10 . Получено 2023-06-24 .
  63. ^ Хайконен, Пентти О.; Хайконен, Пентти Олави Антеро (2012). «глава 20». Сознание и разум робота . Серия о машинном сознании. Сингапур: World Scientific. ISBN 978-981-4407-15-1.
  64. ^ Талер, С.Л., «Устройство для автономной генерации полезной информации»
  65. ^ Marupaka, N.; Lyer, L.; Minai, A. (2012). «Связность и мышление: влияние структуры семантической сети на нейродинамическую модель мышления» (PDF) . Neural Networks . 32 : 147–158. doi :10.1016/j.neunet.2012.02.004. PMID  22397950. Архивировано из оригинала (PDF) 2016-12-19 . Получено 2015-05-22 .
  66. ^ Роке Р. и Баррейра А. (2011). «O Paradigma da «Máquina de Criatividade» ea Geração de Novidades em um Espaço Conceitual», 3-й Международный семинар по искусственному познанию – SICA 2011 – FEEC – UNICAMP.
  67. ^ Минати, Джанфранко; Витиелло, Джузеппе (2006). «Машины, делающие ошибки». Системность возникновения: исследования и разработки . стр. 67–78. doi :10.1007/0-387-28898-8_4. ISBN 978-0-387-28899-4.
  68. ^ Талер, С.Л. (2013) Парадигма машины творчества, Энциклопедия творчества, изобретений, инноваций и предпринимательства. Архивировано 29 апреля 2016 г. в Wayback Machine , (ред.) Э.Г. Караянис, Springer Science+Business Media
  69. ^ ab Thaler, SL (2011). «Машина творчества: противостояние аргументу сознания», Информационный бюллетень APA по философии и компьютерам
  70. ^ Талер, СЛ (2014). «Синаптическое возмущение и сознание». Int. J. Mach. Conscious . 6 (2): 75–107. doi :10.1142/S1793843014400137.
  71. ^ Талер, СЛ (1995).«Виртуальные входные явления» в смерти простого ассоциатора образов». Нейронные сети . 8 (1): 55–65. doi :10.1016/0893-6080(94)00065-t.
  72. ^ Талер, СЛ (1995). Смерть мысленного существа, Журнал исследований околосмертных состояний , 13(3), весна 1995 г.
  73. ^ Талер, С.Л. (1996). Является ли нейронный хаос источником потока сознания? В трудах Всемирного конгресса по нейронным сетям (WCNN'96), Лоуренс Эрлбаум, Мавах, Нью-Джерси.
  74. ^ Mayer, HA (2004). Модульный нейроконтроллер для творческих мобильных автономных роботов, обучающихся по временной разнице Архивировано 2015-07-08 на Wayback Machine , Systems, Man and Cybernetics, 2004 IEEE International Conference (Volume:6)
  75. ^ Павлус, Джон (11 июля 2019 г.). «Интересно, что такое сознание? Спросите у самоосознающих машин». Журнал Quanta . Архивировано из оригинала 17.01.2021 . Получено 06.01.2021 .
  76. ^ Бонгард, Джош, Виктор Зыков и Ход Липсон. «Устойчивые машины посредством непрерывного самомоделирования». Science 314.5802 (2006): 1118–1121.
  77. ^ ab Wodinsky, Shoshana (2022-06-18). "11 лучших (и худших) разумных роботов из научной фантастики". Gizmodo . Архивировано из оригинала 2023-11-13 . Получено 2024-08-17 .
  78. ^ Соколовски, Рэйчел (2024-05-01). "Star Gazing". Scotsman Guide . Архивировано из оригинала 2024-08-17 . Получено 2024-08-17 .
  79. ^ Блум, Пол; Харрис, Сэм (2018-04-23). ​​«Мнение | Это «Мир Дикого Запада». Что плохого в жестокости к роботам?». The New York Times . ISSN  0362-4331. Архивировано из оригинала 2024-08-17 . Получено 2024-08-17 .
  80. Эган, Грег (июль 1990 г.). Учимся быть собой . TTA Press.
  81. ^ Шах, Салик (2020-04-08). «Почему Грег Иган — следующая суперзвезда научной фантастики». Reactor . Архивировано из оригинала 2024-05-16 . Получено 2024-08-17 .

Библиография

Дальнейшее чтение

Внешние ссылки