stringtranslate.com

Философия искусственного интеллекта

Философия искусственного интеллекта — это раздел философии разума и философии компьютерной науки [1] , который изучает искусственный интеллект и его влияние на знание и понимание интеллекта , этики , сознания , эпистемологии и свободы воли . [2] [3] Кроме того, эта технология связана с созданием искусственных животных или искусственных людей (или, по крайней мере, искусственных существ; см. искусственная жизнь ), поэтому эта дисциплина представляет значительный интерес для философов. [4] Эти факторы способствовали появлению философии искусственного интеллекта.

Философия искусственного интеллекта пытается ответить на такие вопросы следующим образом: [5]

Подобные вопросы отражают расходящиеся интересы исследователей ИИ , когнитивных ученых и философов соответственно. Научные ответы на эти вопросы зависят от определения «интеллекта» и «сознания», а также от того, какие именно «машины» обсуждаются.

Важные положения философии ИИ включают в себя некоторые из следующих:

Может ли машина демонстрировать общий интеллект?

Возможно ли создать машину, которая сможет решать все проблемы, которые решают люди, используя свой интеллект? Этот вопрос определяет сферу того, что машины смогут делать в будущем, и направляет направление исследований ИИ. Он касается только поведения машин и игнорирует вопросы, представляющие интерес для психологов , когнитивных ученых и философов , вызывая вопрос: имеет ли значение, действительно ли машина думает так, как думает человек, а не просто производит результаты, которые кажутся результатом мышления? [11]

Основная позиция большинства исследователей ИИ обобщена в следующем утверждении, которое появилось в предложении для семинара в Дартмуте в 1956 году:

Аргументы против основной предпосылки должны показать, что создание работающей системы ИИ невозможно, поскольку существует некий практический предел возможностей компьютеров или что существует некое особое качество человеческого разума, необходимое для разумного поведения, и все же не может быть воспроизведено машиной (или методами современных исследований ИИ). Аргументы в пользу основной предпосылки должны показать, что такая система возможна.

Также возможно обойти связь между двумя частями вышеуказанного предложения. Например, машинное обучение, начиная с печально известного предложения Тьюринга о ребенке-машине [12] , по сути, достигает желаемой характеристики интеллекта без точного описания на этапе проектирования того, как именно это будет работать. Отчет о неявном знании робота [13] полностью устраняет необходимость в точном описании.

Первый шаг к ответу на этот вопрос — четко определить понятие «интеллект».

Интеллект

«Стандартная интерпретация» теста Тьюринга [14]

тест Тьюринга

Алан Тьюринг [15] свел проблему определения интеллекта к простому вопросу о разговоре. Он предполагает, что: если машина может ответить на любой заданный ей вопрос, используя те же слова, что и обычный человек, то мы можем назвать эту машину интеллектуальной. Современная версия его экспериментального проекта будет использовать онлайн -чат , где один из участников — реальный человек, а другой — компьютерная программа. Программа проходит тест, если никто не может сказать, кто из двух участников — человек. [6] Тьюринг отмечает, что никто (кроме философов) никогда не задает вопрос «могут ли люди думать?» Он пишет: «Вместо того, чтобы постоянно спорить по этому поводу, обычно принято иметь вежливое соглашение, что все думают». [16] Тест Тьюринга распространяет это вежливое соглашение на машины:

Одной из критических замечаний к тесту Тьюринга является то, что он измеряет только «человечность» поведения машины, а не «интеллект» поведения. Поскольку человеческое поведение и интеллектуальное поведение — это не совсем одно и то же, тест не измеряет интеллект. Стюарт Дж. Рассел и Питер Норвиг пишут, что «тексты по авиационной инженерии не определяют цель своей области как «создание машин, которые летают так точно как голуби, что они могут обмануть других голубей»». [17]

Интеллект как достижение целей

Простой рефлекторный агент

Исследования ИИ в двадцать первом веке определяют интеллект в терминах целенаправленного поведения. Он рассматривает интеллект как набор проблем, которые, как ожидается, должна решить машина — чем больше проблем она может решить и чем лучше ее решения, тем более разумной является программа. Основатель ИИ Джон Маккарти определил интеллект как «вычислительную часть способности достигать целей в мире». [18]

Стюарт Рассел и Питер Норвиг формализовали это определение, используя абстрактных интеллектуальных агентов . «Агент» — это то, что воспринимает и действует в среде. «Показатель производительности» определяет, что считается успехом для агента. [19]

Определения, подобные этому, пытаются уловить суть интеллекта. У них есть преимущество в том, что, в отличие от теста Тьюринга, они не проверяют также неинтеллектуальные человеческие черты, такие как ошибки при наборе текста. [21] У них есть недостаток в том, что они могут не различать «вещи, которые думают» и «вещи, которые не думают». Согласно этому определению, даже термостат обладает зачаточным интеллектом. [22]

Аргументы в пользу того, что машина может проявлять общий интеллект

Мозг можно моделировать

МРТ - сканирование нормального мозга взрослого человека

Хьюберт Дрейфус описывает этот аргумент как утверждение, что «если нервная система подчиняется законам физики и химии, а у нас есть все основания предполагать, что это так, то... мы... должны быть в состоянии воспроизвести поведение нервной системы с помощью некоторого физического устройства». [23] Этот аргумент, впервые представленный еще в 1943 году [24] и ярко описанный Гансом Моравецом в 1988 году [25], теперь ассоциируется с футуристом Рэем Курцвейлом , который подсчитал, что мощности компьютера будет достаточно для полной симуляции мозга к 2029 году. [26] Нереальное моделирование таламокортикальной модели, которая имеет размер человеческого мозга (1011 нейронов ), было выполнено в 2005 году [27] , и потребовалось 50 дней, чтобы смоделировать 1 секунду динамики мозга на кластере из 27 процессоров.

Даже самые суровые критики ИИ (такие как Хьюберт Дрейфус и Джон Сирл ) соглашаются, что моделирование мозга возможно в теории. [a] Однако Сирл указывает, что в принципе все может быть смоделировано компьютером; таким образом, доведение определения до его критической точки приводит к выводу, что любой процесс вообще может технически считаться «вычислением». «Мы хотели узнать, что отличает разум от термостатов и печенок», — пишет он. [30] Таким образом, простое моделирование функционирования живого мозга само по себе было бы признанием невежества относительно интеллекта и природы разума, как попытка построить реактивный авиалайнер, точно копируя живую птицу, перо за пером, без теоретического понимания авиационной техники . [31]

Человеческое мышление – это обработка символов.

В 1963 году Аллен Ньюэлл и Герберт А. Саймон предположили, что «манипулирование символами» является сущностью как человеческого, так и машинного интеллекта. Они писали:

Это утверждение очень сильное: оно подразумевает, что человеческое мышление является своего рода манипуляцией символами (потому что система символов необходима для интеллекта), и что машины могут быть разумными (потому что система символов достаточна для интеллекта). [32] Другая версия этой позиции была описана философом Губертом Дрейфусом, который назвал ее «психологическим предположением»:

«Символы», которые обсуждали Ньюэлл, Саймон и Дрейфус, были похожи на слова и имели высокий уровень — символы, которые напрямую соответствуют объектам в мире, например, <dog> и <tail>. Большинство программ ИИ, написанных между 1956 и 1990 годами, использовали этот тип символов. Современный ИИ, основанный на статистике и математической оптимизации, не использует высокоуровневую «обработку символов», которую обсуждали Ньюэлл и Саймон.

Аргументы против обработки символов

Эти аргументы показывают, что человеческое мышление не состоит (исключительно) из манипуляции символами высокого уровня. Они не показывают, что искусственный интеллект невозможен, а лишь то, что требуется нечто большее, чем обработка символов.

Гёделевские антимеханистические аргументы

В 1931 году Курт Гёдель доказал с помощью теоремы о неполноте , что всегда возможно построить « утверждение Гёделя », которое данная непротиворечивая формальная система логики (например, программа манипуляции символами высокого уровня) не может доказать. Несмотря на то, что это истинное утверждение, сконструированное утверждение Гёделя недоказуемо в данной системе. (Истина сконструированного утверждения Гёделя зависит от непротиворечивости данной системы; применение того же процесса к тонко противоречивой системе будет казаться успешным, но на самом деле вместо этого даст ложное «утверждение Гёделя».) [ необходима цитата ] Более спекулятивно, Гёдель предположил, что человеческий разум в конечном итоге может правильно определить истинность или ложность любого хорошо обоснованного математического утверждения (включая любое возможное утверждение Гёделя), и что, следовательно, сила человеческого разума не сводится к механизму . [34] Философ Джон Лукас (с 1961 года) и Роджер Пенроуз (с 1989 года) отстаивали этот философский антимеханистский аргумент . [35]

Аргументы антимеханистов-геделевцев, как правило, опираются на кажущееся безобидным утверждение, что система математиков-людей (или некоторая идеализация математиков-людей) является как последовательной (полностью свободной от ошибок), так и полностью верит в свою собственную последовательность (и может делать все логические выводы, вытекающие из ее собственной последовательности, включая веру в свое утверждение Гёделя) [ требуется ссылка ] . Это, вероятно, невозможно для машины Тьюринга (см. Проблема остановки ); поэтому гёделевцы приходят к выводу, что человеческое мышление слишком мощно, чтобы быть уловленным машиной Тьюринга и, как следствие, любым цифровым механическим устройством.

Однако современный консенсус в научном и математическом сообществе заключается в том, что реальное человеческое мышление непоследовательно; что любая последовательная «идеализированная версия» H человеческого мышления логически была бы вынуждена принять здоровый, но контринтуитивный непредвзятый скептицизм относительно последовательности H (в противном случае H доказуемо непоследовательна); и что теоремы Гёделя не приводят ни к какому обоснованному аргументу о том, что у людей есть математические способности к рассуждению, выходящие за рамки того, что машина когда-либо могла бы воспроизвести. [36] [37] [38] Этот консенсус о том, что гёделевские антимеханистические аргументы обречены на провал, четко изложен в книге «Искусственный интеллект» : « любая попытка использовать (результаты Гёделя о неполноте) для атаки на тезис вычислений обречена на нелегитимность, поскольку эти результаты вполне согласуются с тезисом вычислений». [39]

Стюарт Рассел и Питер Норвиг согласны, что аргумент Гёделя не учитывает природу человеческого мышления в реальном мире. Он применим к тому, что теоретически может быть доказано, учитывая бесконечное количество памяти и времени. На практике реальные машины (включая людей) имеют конечные ресурсы и будут испытывать трудности при доказательстве многих теорем. Не обязательно уметь доказывать все, чтобы быть разумным человеком. [40]

Менее формально Дуглас Хофштадтер в своей удостоенной Пулитцеровской премии книге «Гёдель, Эшер, Бах: вечная золотая коса » утверждает , что эти «утверждения Гёделя» всегда относятся к самой системе, проводя аналогию с тем, как парадокс Эпименида использует утверждения, которые относятся к самим себе, например, «это утверждение ложно» или «я лгу». [41] Но, конечно, парадокс Эпименида применим ко всему, что делает утверждения, будь то машина или человек, даже сам Лукас. Рассмотрим:

Это утверждение верно, но не может быть утверждено Лукасом. Это показывает, что сам Лукас подвержен тем же ограничениям, которые он описывает для машин, как и все люди, и поэтому аргумент Лукаса бессмыслен. [43]

После заключения о том, что человеческое мышление невычислимо, Пенроуз продолжил спорное предположение о том, что некие гипотетические невычислимые процессы, включающие коллапс квантово-механических состояний, дают людям особое преимущество перед существующими компьютерами. Существующие квантовые компьютеры способны только уменьшать сложность вычислимых по Тьюрингу задач и по-прежнему ограничены задачами в рамках машин Тьюринга. [ необходима цитата ] [ необходима уточнение ] . Согласно аргументам Пенроуза и Лукаса, тот факт, что квантовые компьютеры способны выполнять только вычислимые по Тьюрингу задачи, подразумевает, что они не могут быть достаточными для эмуляции человеческого разума. [ необходима цитата ] Поэтому Пенроуз ищет какой-то другой процесс, включающий новую физику, например, квантовую гравитацию, которая могла бы проявить новую физику в масштабе массы Планка посредством спонтанного квантового коллапса волновой функции. Эти состояния, как он предположил, возникают как внутри нейронов, так и охватывают более одного нейрона. [44] Однако другие ученые отмечают, что в мозге нет правдоподобного органического механизма для использования любого вида квантовых вычислений, и, более того, временные рамки квантовой декогеренции кажутся слишком короткими, чтобы повлиять на активацию нейронов. [45]

Дрейфус: главенство неявных навыков

Хьюберт Дрейфус утверждал, что человеческий интеллект и опыт зависят в первую очередь от быстрых интуитивных суждений, а не от пошаговой символической манипуляции, и утверждал, что эти навыки никогда не будут зафиксированы в формальных правилах. [46]

Аргумент Дрейфуса был предвосхищен Тьюрингом в его статье 1950 года « Вычислительная техника и интеллект» , где он классифицировал его как «аргумент от неформальности поведения». [47] Тьюринг в ответ утверждал, что то, что мы не знаем правил, управляющих сложным поведением, не означает, что таких правил не существует. Он писал: «мы не можем так легко убедить себя в отсутствии полных законов поведения... Единственный известный нам способ нахождения таких законов — это научное наблюдение, и мы, конечно, не знаем обстоятельств, при которых мы могли бы сказать: «Мы достаточно искали. Таких законов нет». [48]

Рассел и Норвиг отмечают, что за годы, прошедшие с тех пор, как Дрейфус опубликовал свою критику, был достигнут прогресс в обнаружении «правил», которые управляют бессознательным мышлением. [ 49] Ситуационное движение в исследованиях робототехники пытается охватить наши бессознательные навыки восприятия и внимания. [50] Парадигмы вычислительного интеллекта , такие как нейронные сети , эволюционные алгоритмы и т. д., в основном направлены на смоделированные бессознательные рассуждения и обучение. Статистические подходы к ИИ могут делать прогнозы, которые приближаются к точности интуитивных догадок человека. Исследования в области здравого смысла были сосредоточены на воспроизведении «фона» или контекста знания. Фактически, исследования ИИ в целом отошли от манипуляции символами высокого уровня к новым моделям, которые предназначены для захвата большей части наших интуитивных рассуждений. [49]

Когнитивная наука и психология в конечном итоге пришли к согласию с описанием человеческого опыта Дрейфуса. Дэниел Канеман и другие разработали похожую теорию, в которой они выделили две «системы», которые люди используют для решения проблем, которые он назвал «Система 1» (быстрые интуитивные суждения) и «Система 2» (медленное осознанное пошаговое мышление). [51]

Хотя взгляды Дрейфуса были подтверждены во многих отношениях, работа в области когнитивной науки и ИИ была ответом на конкретные проблемы в этих областях и не находилась под прямым влиянием Дрейфуса. Историк и исследователь ИИ Дэниел Кревье писал, что «время доказало точность и проницательность некоторых комментариев Дрейфуса. Если бы он сформулировал их менее агрессивно, конструктивные действия, которые они предлагали, могли бы быть предприняты гораздо раньше». [52]

Может ли машина иметь разум, сознание и психические состояния?

Это философский вопрос, связанный с проблемой других разумов и трудной проблемой сознания . Вопрос вращается вокруг позиции, определенной Джоном Сирлом как «сильный ИИ»:

Сёрл отличал эту позицию от того, что он называл «слабым ИИ»:

Сёрл ввёл термины, чтобы отделить сильный ИИ от слабого ИИ, чтобы он мог сосредоточиться на том, что он считал более интересным и спорным вопросом. Он утверждал, что даже если мы предположим , что у нас есть компьютерная программа, которая действует точно так же, как человеческий разум, всё равно останется сложный философский вопрос, на который нужно ответить. [9]

Ни одна из двух позиций Сирла не представляет большого интереса для исследований ИИ, поскольку они не отвечают напрямую на вопрос «может ли машина демонстрировать общий интеллект?» (если только не будет также показано, что сознание необходимо для интеллекта). Тьюринг писал: «Я не хочу создавать впечатление, что я думаю, что нет никакой тайны в сознании… [б]о] я не думаю, что эти тайны обязательно должны быть решены, прежде чем мы сможем ответить на вопрос [могут ли машины мыслить]». [53] Рассел и Норвиг согласны: «Большинство исследователей ИИ принимают слабую гипотезу ИИ как должное и не заботятся о сильной гипотезе ИИ». [54]

Некоторые исследователи считают, что сознание является неотъемлемым элементом интеллекта, например, Игорь Александер , Стэн Франклин , Рон Сан и Пентти Хайконен , хотя их определение «сознания» весьма близко к «интеллекту». (См. искусственное сознание .)

Прежде чем ответить на этот вопрос, мы должны прояснить, что мы подразумеваем под «разумом», «ментальными состояниями» и «сознанием».

Сознание, разум, психические состояния, смысл

Слова « разум » и « сознание » используются разными сообществами по-разному. Например, некоторые мыслители новой эры используют слово «сознание» для описания чего-то похожего на « жизненную силу » Бергсона : невидимую, энергетическую жидкость, которая пронизывает жизнь и особенно разум. Писатели -фантасты используют это слово для описания некоторого существенного свойства, которое делает нас людьми: машина или инопланетянин, который «сознателен», будет представлен как полностью человеческий персонаж, с интеллектом, желаниями, волей , проницательностью, гордостью и так далее. (Писатели-фантасты также используют слова «чувство», «разум», «самосознание» или « призрак » — как в манге и аниме « Призрак в доспехах » — для описания этого существенного человеческого свойства). Для других [ кто? ] слова «разум» или «сознание» используются как своего рода светский синоним души .

Для философов , нейробиологов и когнитивных ученых эти слова используются в более точном и более обыденном смысле: они относятся к знакомому, повседневному опыту наличия «мысли в голове», например, к восприятию, сну, намерению или плану, а также к тому, как мы видим что-то, знаем что-то, подразумеваем что-то или понимаем что-то. [55] «Нетрудно дать здравое определение сознанию», — замечает философ Джон Сирл. [56] Таинственно и увлекательно не столько то , что это такое, сколько то, как это есть: как кусок жировой ткани и электричества порождает этот (знакомый) опыт восприятия, значения или мышления?

Философы называют это трудной проблемой сознания . Это последняя версия классической проблемы в философии разума, называемой « проблемой разума и тела ». [57] Связанная проблема — проблема смысла или понимания (которую философы называют « интенциональностью »): какова связь между нашими мыслями и тем, о чем мы думаем (т. е. объектами и ситуациями в мире)? Третья проблема — проблема опыта (или « феноменологии »): если два человека видят одно и то же, имеют ли они одинаковый опыт? Или есть вещи «внутри их головы» (называемые « квалиа »), которые могут отличаться от человека к человеку? [58]

Нейробиологи полагают, что все эти проблемы будут решены, когда мы начнем определять нейронные корреляты сознания : фактическую связь между механизмами в наших головах и их коллективными свойствами; такими как разум, опыт и понимание. Некоторые из самых суровых критиков искусственного интеллекта согласны с тем, что мозг — это всего лишь машина, а сознание и интеллект — это результат физических процессов в мозге. [59] Сложный философский вопрос заключается в следующем: может ли компьютерная программа, работающая на цифровой машине, которая перемешивает двоичные цифры нуля и единицы, дублировать способность нейронов создавать разум с ментальными состояниями (такими как понимание или восприятие) и, в конечном счете, опытом сознания?

Аргументы в пользу того, что компьютер не может иметь разум и психические состояния

Китайская комната Сирла

Джон Сирл просит нас рассмотреть мысленный эксперимент : предположим, что мы написали компьютерную программу, которая проходит тест Тьюринга и демонстрирует общие интеллектуальные действия. Предположим, в частности, что программа может разговаривать на беглом китайском языке. Напишите программу на карточках 3x5 и дайте их обычному человеку, который не говорит по-китайски. Заприте человека в комнате и заставьте его следовать инструкциям на карточках. Он будет копировать китайские иероглифы и передавать их в комнату и из комнаты через щель. Со стороны будет казаться, что в китайской комнате находится полностью разумный человек, говорящий по-китайски. Вопрос в следующем: есть ли кто-нибудь (или что-нибудь) в комнате, кто понимает китайский язык? То есть, есть ли что-нибудь, что имеет ментальное состояние понимания или что имеет осознанное понимание того, что обсуждается на китайском языке? Человек явно не осознает. Комната не может осознавать. Карты определенно не осознают. Сирл приходит к выводу, что китайская комната или любая другая физическая система символов не может иметь разум. [60]

Сирл продолжает утверждать, что реальные ментальные состояния и сознание требуют (еще не описанных) «реальных физико-химических свойств реальных человеческих мозгов». [61] Он утверждает, что существуют особые «причинные свойства» мозгов и нейронов , которые порождают разум : по его словам, «мозги вызывают разум». [62]

Готфрид Лейбниц в 1714 году высказал по сути тот же аргумент, что и Сирл, используя мысленный эксперимент по расширению мозга до размеров мельницы. [63] В 1974 году Лоуренс Дэвис представил себе дублирование мозга с помощью телефонных линий и офисов, укомплектованных людьми, а в 1978 году Нед Блок представил себе все население Китая, вовлеченное в такую ​​симуляцию мозга. Этот мысленный эксперимент называется «китайская нация» или «китайский спортзал». [64] Нед Блок также предложил свой аргумент Blockhead , который является версией китайской комнаты , в которой программа была переработана в простой набор правил формы «увидь это, сделай то», удаляя всю таинственность из программы.

Ответы на китайскую комнату

В ответах на вопрос о китайской комнате подчеркивается несколько различных моментов.

Связанный вопрос заключается в том, существует ли «сознание» (как его понимает Сирл). Сирл утверждает, что опыт сознания не может быть обнаружен путем изучения поведения машины, человека или любого другого животного. Дэниел Деннетт указывает, что естественный отбор не может сохранить черту животного, которая не влияет на поведение животного, и, таким образом, сознание (как его понимает Сирл) не может быть произведено естественным отбором. Следовательно, либо естественный отбор не создал сознание, либо «сильный ИИ» верен в том, что сознание может быть обнаружено с помощью соответствующим образом разработанного теста Тьюринга.

Является ли мышление разновидностью вычисления?

Вычислительная теория разума или « вычислительный мир » утверждает, что отношения между разумом и мозгом похожи (если не идентичны) отношениям между работающей программой (программным обеспечением) и компьютером (аппаратным обеспечением). Эта идея имеет философские корни у Гоббса (который утверждал, что рассуждение — это «не более чем подсчет»), Лейбница (который пытался создать логическое исчисление всех человеческих идей), Юма (который считал, что восприятие можно свести к «атомарным впечатлениям») и даже Канта (который анализировал весь опыт как контролируемый формальными правилами). [71] Последняя версия связана с философами Хилари Патнэмом и Джерри Фодором . [72]

Этот вопрос имеет отношение к нашим предыдущим вопросам: если человеческий мозг является своего рода компьютером, то компьютеры могут быть как интеллектуальными, так и сознательными, отвечая как на практические, так и на философские вопросы ИИ. С точки зрения практического вопроса ИИ («Может ли машина демонстрировать общий интеллект?»), некоторые версии вычислительного реализма утверждают, что (как писал Гоббс ):

Другими словами, наш интеллект происходит из формы расчета , похожей на арифметику . Это гипотеза физической системы символов, обсуждавшаяся выше, и она подразумевает, что искусственный интеллект возможен. С точки зрения философского вопроса ИИ («Может ли машина иметь разум, ментальные состояния и сознание?»), большинство версий вычислительного искусства утверждают, что (как характеризует его Стеван Харнад ):

Это «сильный ИИ» Джона Сирла, обсуждавшийся выше, и именно он является настоящей целью аргумента китайской комнаты (согласно Харнаду ). [73]

Другие связанные вопросы

Может ли машина иметь эмоции?

Если « эмоции » определяются только с точки зрения их влияния на поведение или на то, как они функционируют внутри организма, то эмоции можно рассматривать как механизм, который интеллектуальный агент использует для максимизации полезности своих действий. Учитывая это определение эмоций, Ганс Моравек полагает, что «роботы в целом будут довольно эмоциональны в отношении того, чтобы быть хорошими людьми». [74] Страх является источником срочности. Эмпатия является необходимым компонентом хорошего взаимодействия человека с компьютером . Он говорит, что роботы «будут пытаться угодить вам, по-видимому, бескорыстным образом, потому что они получат острые ощущения от этого положительного подкрепления. Вы можете интерпретировать это как своего рода любовь». [74] Дэниел Кревье пишет: «Мнение Моравек заключается в том, что эмоции — это всего лишь устройства для направления поведения в направлении, благоприятном для выживания вашего вида». [75]

Может ли машина обладать самосознанием?

« Самосознание », как отмечено выше, иногда используется писателями -фантастами как название важнейшего человеческого свойства, которое делает персонажа полностью человечным. Тьюринг отбрасывает все другие свойства людей и сводит вопрос к «может ли машина быть субъектом своей собственной мысли?» Может ли она думать о себе ? Рассматривая это таким образом, можно написать программу, которая может сообщать о своих внутренних состояниях, например, отладчик . [76]

Может ли машина быть оригинальной или креативной?

Тьюринг сводит это к вопросу о том, может ли машина «застать нас врасплох», и утверждает, что это, очевидно, правда, как может подтвердить любой программист. [77] Он отмечает, что при достаточной емкости памяти компьютер может вести себя астрономическим числом различных способов. [78] Должно быть возможным, даже тривиальным, для компьютера, который может представлять идеи, объединять их новыми способами. (В книге Дугласа Лената « Автоматизированный математик » в качестве одного из примеров объединены идеи для открытия новых математических истин.) Каплан и Хенлейн предполагают, что машины могут проявлять научное творчество, в то время как кажется вероятным, что люди будут иметь преимущество в том, что касается художественного творчества. [79]

В 2009 году ученые из Университета Аберистуита в Уэльсе и Кембриджского университета в Великобритании разработали робота по имени Адам, которого они считают первой машиной, самостоятельно пришедшей к новым научным открытиям. [80] Также в 2009 году исследователи из Корнелла разработали Eureqa — компьютерную программу, которая экстраполирует формулы для подгонки под введенные данные, например, для поиска законов движения по движению маятника.

Может ли машина быть доброжелательной или враждебной?

Этот вопрос (как и многие другие в философии искусственного интеллекта) можно представить в двух формах. «Враждебность» можно определить в терминах функции или поведения , в этом случае «враждебный» становится синонимом «опасного». Или его можно определить в терминах намерения: может ли машина «намеренно» намереваться причинить вред? Последнее — это вопрос «может ли машина иметь сознательные состояния?» (например, намерения ) в другой форме. [53]

Вопрос о том, будут ли высокоинтеллектуальные и полностью автономные машины опасными, был подробно изучен футуристами (например, Институтом исследований машинного интеллекта ). Очевидный элемент драмы также сделал эту тему популярной в научной фантастике , которая рассматривала множество различных возможных сценариев, в которых интеллектуальные машины представляют угрозу человечеству; см. Искусственный интеллект в художественной литературе .

Одна из проблем заключается в том, что машины могут очень быстро обрести автономию и интеллект, необходимые для того, чтобы быть опасными. Вернор Виндж предположил, что всего за несколько лет компьютеры внезапно станут в тысячи или миллионы раз умнее людей. Он называет это « Сингулярностью ». [81] Он предполагает, что это может быть в некоторой степени или, возможно, очень опасно для людей. [82] Это обсуждается в философии, называемой Сингуляритаризмом .

В 2009 году ученые и технические эксперты посетили конференцию, чтобы обсудить потенциальное влияние роботов и компьютеров и влияние гипотетической возможности того, что они могут стать самодостаточными и способными принимать собственные решения . Они обсудили возможность и степень, в которой компьютеры и роботы могут обрести какой-либо уровень автономии, и в какой степени они могут использовать такие способности, чтобы потенциально представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономии, включая способность самостоятельно находить источники энергии и способность независимо выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут избегать уничтожения и достигли «интеллекта тараканов». Они отметили, что самосознание , как оно изображено в научной фантастике, вероятно, маловероятно, но что существуют другие потенциальные опасности и ловушки. [81]

Некоторые эксперты и ученые подвергают сомнению использование роботов в военных действиях, особенно когда таким роботам придается некоторая степень автономных функций. [83] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [84] [85]

Президент Ассоциации по развитию искусственного интеллекта заказал исследование для изучения этого вопроса. [86] Они указывают на такие программы, как Language Acquisition Device, которые могут имитировать человеческое взаимодействие.

Некоторые предполагают необходимость создания « дружественного ИИ » (термин, введенный Элиезером Юдковски) , имея в виду, что уже имеющиеся достижения в области ИИ должны также включать усилия по созданию ИИ, изначально дружелюбного и гуманного. [87]

Может ли машина имитировать все человеческие характеристики?

Тьюринг сказал: «Принято... предлагать крупицу утешения в форме утверждения, что некая сугубо человеческая характеристика никогда не может быть имитирована машиной. ... Я не могу предложить такого утешения, поскольку считаю, что такие границы установить невозможно» [88] .

Тьюринг отметил, что существует множество аргументов в форме «машина никогда не сделает X», где X может быть многими вещами, например:

Быть доброй, находчивой, красивой, дружелюбной, проявлять инициативу, иметь чувство юмора, отличать хорошее от плохого, совершать ошибки, влюбляться, наслаждаться клубникой со сливками, заставить кого-то влюбиться в себя, учиться на собственном опыте, правильно использовать слова, быть предметом собственных мыслей, иметь столько же разнообразия в поведении, сколько и человек, делать что-то действительно новое. [76]

Тьюринг утверждает, что эти возражения часто основаны на наивных предположениях об универсальности машин или являются «замаскированными формами аргумента от сознания». Написание программы, демонстрирующей одно из этих поведений, «не произведет большого впечатления». [76] Все эти аргументы имеют косвенное отношение к основной предпосылке ИИ, если только не будет показано, что одна из этих черт необходима для общего интеллекта.

Может ли машина иметь душу?

Наконец, те, кто верит в существование души, могут утверждать, что «Мышление — это функция бессмертной души человека». Алан Тьюринг назвал это «теологическим возражением». Он пишет:

Пытаясь построить такие машины, мы не должны непочтительно узурпировать Его силу создания душ, как и при рождении детей: скорее, в любом случае мы являемся инструментами Его воли, предоставляя обители для душ, которые Он создает. [89]

Дискуссия на эту тему возобновилась в результате недавних заявлений, сделанных системой искусственного интеллекта LaMDA от Google, о том, что она разумна и имеет « душу ». [90]

LaMDA ( языковая модель для диалоговых приложений) — это система искусственного интеллекта , которая создает чат-ботов — роботов на основе искусственного интеллекта, предназначенных для общения с людьми — путем сбора огромных объемов текста из Интернета и использования алгоритмов для максимально гибкого и естественного реагирования на запросы.

Стенограммы разговоров между учеными и LaMDA показывают, что система ИИ преуспевает в этом, давая ответы на сложные темы о природе эмоций , генерируя басни в стиле Эзопа на данный момент и даже описывая свои предполагаемые страхи. [91] Практически все философы сомневаются в способности LaMDA чувствовать. [92]

Взгляды на роль философии

Некоторые ученые утверждают, что игнорирование философии сообществом ИИ пагубно. В Стэнфордской энциклопедии философии некоторые философы утверждают, что роль философии в ИИ недооценена. [4] Физик Дэвид Дойч утверждает, что без понимания философии или ее концепций развитие ИИ будет страдать от отсутствия прогресса. [93]

Конференции и литература

Основная серия конференций по этой проблеме — «Философия и теория ИИ» (PT-AI), которую проводит Винсент К. Мюллер .

Основная библиография по этой теме, с несколькими подразделами, находится на сайте PhilPapers.

Недавний обзор философии ИИ — Мюллер (2023). [3]

Смотрите также

Примечания

  1. ^ Хьюберт Дрейфус пишет: «В целом, принимая фундаментальные предположения о том, что нервная система является частью физического мира и что все физические процессы могут быть описаны в математическом формализме, который, в свою очередь, может быть обработан цифровым компьютером, можно прийти к сильному утверждению, что поведение, которое является результатом человеческой «обработки информации», независимо от того, формализуемо оно напрямую или нет, всегда может быть косвенно воспроизведено на цифровой машине». [28] Джон Сирл пишет: «Может ли созданная человеком машина мыслить? Предположив, что возможно искусственно создать машину с нервной системой, ... ответ на вопрос, по-видимому, очевиден: да ... Может ли цифровой компьютер мыслить? Если под «цифровым компьютером» вы подразумеваете что-либо вообще, что имеет уровень описания, на котором его можно правильно описать как реализацию компьютерной программы, то ответ, конечно, да, поскольку мы являемся реализациями любого количества компьютерных программ, и мы можем мыслить». [29]

Ссылки

  1. ^ "Философия компьютерной науки". obo .
  2. ^ Маккарти, Джон. «Философия ИИ и ИИ философии». jmc.stanford.edu . Архивировано из оригинала 2018-10-23 . Получено 2018-09-18 .
  3. ^ ab Müller, Vincent C. (2023-07-24). «Философия ИИ: структурированный обзор». Натали А. Смуха (ред.), Cambridge Handbook on the Law, Ethics and Policy of Artificial Intelligence .
  4. ^ ab Bringsjord, Selmer; Govindarajulu, Naveen Sundar (2018), "Искусственный интеллект", в Zalta, Edward N. (ред.), The Stanford Encyclopedia of Philosophy (ред. осень 2018 г.), Metaphysics Research Lab, Stanford University, архивировано из оригинала 2019-11-09 , извлечено 2018-09-18
  5. ^ Рассел и Норвиг 2003, стр. 947 определяют философию ИИ как состоящую из первых двух вопросов и дополнительного вопроса этики искусственного интеллекта . Фирн 2007, стр. 55 пишет: «В современной литературе философия играет две главные роли: определить, будут ли такие машины сознательными, и, во-вторых, предсказать, возможны ли такие машины». Последний вопрос касается первых двух.
  6. ^ ab Это парафраз сути теста Тьюринга . Turing 1950, Haugeland 1985, стр. 6–9, Crevier 1993, стр. 24, Russell & Norvig 2003, стр. 2–3, 948.
  7. ^ ab McCarthy et al. 1955. Это утверждение было напечатано в программе Дартмутской конференции 1956 года, широко считающейся «рождением ИИ». также Crevier 1993, стр. 28.
  8. ^ ab Newell & Simon 1976 и Russell & Norvig 2003, стр. 18.
  9. ^ abcd Эта версия взята из Searle (1999), а также цитируется в Dennett 1991, стр. 435. Первоначальная формулировка Searle была: «Соответствующим образом запрограммированный компьютер действительно является разумом, в том смысле, что компьютеры, которым даны правильные программы, можно буквально сказать, что они понимают и имеют другие когнитивные состояния». (Searle 1980, стр. 1). Сильный ИИ определяется аналогичным образом Расселом и Норвигом (2003, стр. 947): «Утверждение о том, что машины, возможно, могут действовать разумно (или, возможно, лучше, действовать так, как если бы они были разумными), философы называют гипотезой «слабого ИИ», а утверждение о том, что машины, которые так делают, на самом деле думают (в отличие от имитации мышления), называется гипотезой «сильного ИИ».
  10. ^ ab Гоббс 1651, гл. 5
  11. ^ См. Russell & Norvig 2003, стр. 3, где они проводят различие между рациональным поведением и рациональным поведением и определяют ИИ как изучение первого.
  12. ^ Тьюринг, Алан М. (1950). «Вычислительная техника и интеллект». Mind . 49 (236): 433–460. doi :10.1093/mind/LIX.236.433. Архивировано из оригинала 22.12.2021 . Получено 18.10.2020 – через cogprints.
  13. ^ Хедер, Михай; Пакси, Дэниел (2012). «Автономные роботы и неявные знания». Appraisal . 9 (2): 8–14 – через academia.edu.
  14. ^ Сайгин 2000.
  15. Turing 1950 и см. Russell & Norvig 2003, стр. 948, где они называют его статью «знаменитой» и пишут: «Тьюринг рассмотрел широкий спектр возможных возражений против возможности существования разумных машин, включая практически все те, которые были выдвинуты за полвека с момента появления его статьи».
  16. Тьюринг 1950, в статье «Аргумент от сознания».
  17. ^ Рассел и Норвиг 2003, стр. 3.
  18. ^ Маккарти 1999.
  19. Рассел и Норвиг 2003, стр. 4–5, 32, 35, 36 и 56.
  20. ^ Рассел и Норвиг предпочли бы слово « рациональный » слову «разумный».
  21. ^ "Искусственная глупость". The Economist . Т. 324, № 7770. 1 августа 1992 г. стр. 14.
  22. ^ Рассел и Норвиг (2003, стр. 48–52) рассматривают термостат как простую форму интеллектуального агента , известного как рефлекторный агент . Для углубленного изучения роли термостата в философии см. Чалмерс (1996, стр. 293–301) «4. Является ли опыт вездесущим?» подразделы Каково это — быть термостатом?, Куда идет панпсихизм? и Ограничение принципа двойного аспекта .
  23. Дрейфус 1972, стр. 106.
  24. Питтс и Маккалоу, 1943.
  25. ^ Моравец 1988.
  26. Kurzweil 2005, стр. 262. См. также Russell & Norvig, стр. 957 и Crevier 1993, стр. 271 и 279. Самая крайняя форма этого аргумента (сценарий замены мозга) была выдвинута Кларком Глимуром в середине 1970-х годов и затронута Зеноном Пилишиным и Джоном Сирлом в 1980 году.
  27. ^ Евгений Ижикевич (27.10.2005). "Евгений М. Ижикевич, Масштабное моделирование человеческого мозга". Vesicle.nsi.edu. Архивировано из оригинала 01.05.2009 . Получено 29.07.2010 .
  28. Дрейфус 1972, стр. 194–5.
  29. ^ Сирл 1980, стр. 11.
  30. ^ Сирл 1980, стр. 7.
  31. ^ Юдковски 2008.
  32. Сирл пишет: «Мне нравится прямолинейность этого утверждения». Сирл 1980, стр. 4.
  33. Дрейфус 1979, стр. 156.
  34. ^ Гёдель, Курт , 1951, Некоторые основные теоремы об основаниях математики и их последствия в Соломон Феферман , ред., 1995. Собрание сочинений / Курт Гёдель, т. III . Oxford University Press: 304-23. - В этой лекции Гёдель использует теорему о неполноте, чтобы прийти к следующей дизъюнкции: (a) человеческий разум не является последовательной конечной машиной, или (b) существуют диофантовы уравнения , для которых он не может решить, существуют ли решения. Гёдель находит (b) неправдоподобным и, таким образом, похоже, считал, что человеческий разум не эквивалентен конечной машине, т. е. его мощность превосходит мощность любой конечной машины. Он признавал, что это было только предположением, поскольку никто никогда не сможет опровергнуть (b). Тем не менее, он считал дизъюнктивное заключение «определенным фактом».
  35. ^ Лукас 1961, Рассел и Норвиг 2003, стр. 949–950, Хофштадтер 1979, стр. 471–473, 476–477.
  36. ^ Oppy, Graham (20 января 2015 г.). «Теоремы Гёделя о неполноте». Стэнфордская энциклопедия философии . Архивировано из оригинала 3 мая 2021 г. Получено 27 апреля 2016 г. Однако эти гёделевские антимеханистские аргументы проблематичны, и существует широкий консенсус относительно их несостоятельности.
  37. ^ Рассел, Стюарт Дж .; Норвиг, Питер (2010). "26.1.2: Философские основы/Слабый ИИ: Могут ли машины действовать разумно?/Математическое возражение". Искусственный интеллект: Современный подход (3-е изд.). Верхняя Сэддл-Ривер, Нью-Джерси: Prentice Hall . ISBN 978-0-13-604259-4... даже если мы допустим, что компьютеры имеют ограничения в том, что они могут доказать, нет никаких доказательств того, что люди невосприимчивы к этим ограничениям.
  38. ^ Марк Коливан. Введение в философию математики . Издательство Кембриджского университета , 2012. Из 2.2.2, «Философское значение результатов неполноты Гёделя»: «Принято считать, что аргументы Лукаса-Пенроуза несостоятельны».
  39. ^ Лафорте, Г.; Хейс, П.Дж.; Форд, К.М., 1998. Почему теорема Гёделя не может опровергнуть вычислительность. Искусственный интеллект , 104: 265–286, 1998.
  40. ^ Рассел и Норвиг 2003, стр. 950. Они указывают, что реальные машины с конечной памятью можно моделировать с помощью пропозициональной логики , которая формально разрешима , и аргумент Гёделя к ним неприменим.
  41. ^ Хофштадтер 1979.
  42. Согласно Hofstadter 1979, стр. 476–477, это утверждение впервые было предложено CH Whiteley.
  43. Hofstadter 1979, стр. 476–477, Russell & Norvig 2003, стр. 950, Turing 1950 в разделе «Аргумент от математики», где он пишет: «хотя установлено, что существуют ограничения возможностей любой конкретной машины, было лишь заявлено, без каких-либо доказательств, что никакие такие ограничения не применимы к человеческому интеллекту».
  44. ^ Пенроуз 1989.
  45. ^ Литт, Абниндер; Элиасмит, Крис; Крун, Фредерик В.; Вайнштейн, Стивен; Тагард, Пол (6 мая 2006 г.). «Является ли мозг квантовым компьютером?». Cognitive Science . 30 (3): 593–603. doi : 10.1207/s15516709cog0000_59 . PMID  21702826.
  46. Dreyfus 1972, Dreyfus 1979, Dreyfus & Dreyfus 1986. См. также Russell & Norvig 2003, стр. 950–952, Crevier 1993, стр. 120–132 и Fearn 2007, стр. 50–51.
  47. ^ Рассел и Норвиг 2003, стр. 950–951.
  48. Тьюринг 1950, в разделе «(8) Аргумент к неформальности поведения».
  49. ^ ab Russell & Norvig 2003, стр. 52.
  50. См. Брукс 1990 и Моравец 1988.
  51. ^ Канеман, Дэниел (2011). Думай медленно... решай быстро. Macmillan. ISBN 978-1-4299-6935-2. Архивировано из оригинала 15 марта 2023 г. . Получено 8 апреля 2012 г. .
  52. ^ Кревьер 1993, стр. 125.
  53. ^ ab Turing 1950, в разделе "(4) Аргумент от сознания". См. также Russell & Norvig 2003, стр. 952–953, где они отождествляют аргумент Сирла с "Аргументом от сознания" Тьюринга.
  54. ^ Рассел и Норвиг 2003, стр. 947.
  55. ^ Блэкмор 2005, стр. 1.
  56. ^ "[Л]юди всегда говорят мне, что очень трудно дать определение сознанию, но я думаю, если вы просто ищете определение, основанное на здравом смысле, которое вы получаете в начале исследования, а не на жестком научном определении, которое приходит в конце, то несложно дать определение сознанию, основанное на здравом смысле". The Philosopher's Zone: The question ofconsciousness, Архивировано 28.11.2007 в Wayback Machine . См. также Dennett 1991.
  57. ^ Блэкмор 2005, стр. 2.
  58. ^ Рассел и Норвиг 2003, стр. 954–956.
  59. ^ Например, Джон Сирл пишет: «Может ли машина мыслить? Ответ очевиден: да. Мы именно такие машины» (Searle 1980, стр. 11).
  60. ^ Searle 1980. См. также Cole 2004, Russell & Norvig 2003, стр. 958–960, Crevier 1993, стр. 269–272 и Hearn 2007, стр. 43–50 .
  61. ^ Сирл 1980, стр. 13.
  62. ^ Сирл 1984 .
  63. ^ Коул 2004, 2.1, Лейбниц 1714, 17 .
  64. ^ Коул 2004, 2.3.
  65. ^ Searle 1980, в разделе "1. The Systems Reply (Berkeley)", Crevier 1993, стр. 269, Russell & Norvig 2003, стр. 959, Cole 2004, 4.1. Среди тех, кто придерживается позиции "системы" (согласно Cole), - Нед Блок, Джек Коупленд , Дэниел Деннетт , Джерри Фодор , Джон Хогеланд , Рэй Курцвейл и Жорж Рей . Среди тех, кто защищал ответ "виртуального разума", - Марвин Мински , Алан Перлис , Дэвид Чалмерс , Нед Блок и Дж. Коул (опять же, согласно Cole 2004).
  66. Cole 2004, 4.2 приписывает эту позицию Неду Блоку , Дэниелу Деннету, Тиму Модлину , Дэвиду Чалмерсу , Стивену Пинкеру , Патрисии Черчленд и другим.
  67. Searle 1980, в разделе «2. Ответ робота (Йель)». Cole 2004, 4.3 приписывает эту позицию Маргарет Боден , Тиму Крейну , Дэниелу Деннетту, Джерри Фодору, Стевану Харнаду , Гансу Моравеку и Жоржу Рею .
  68. Цитируется в Crevier 1993, стр. 272.
  69. Searle 1980, в разделе «3. The Brain Simulator Reply (Berkeley and MIT)», Cole 2004, приписывает эту позицию Полу и Патрисии Черчленд и Рэю Курцвейлу .
  70. ^ Searle 1980 в разделе "5. The Other Minds Reply", Cole 2004, 4.4. Turing 1950 дает этот ответ в разделе "(4) The Argument from Consciousness". Cole приписывает эту позицию Дэниелу Деннету и Гансу Моравеку.
  71. ^ Дрейфус 1979, стр. 156, Хаугеланд 1985, стр. 15–44.
  72. ^ Хорст 2005 .
  73. ^ ab Harnad 2001.
  74. ^ ab Цитируется в Crevier 1993, стр. 266.
  75. ^ Кревьер 1993, стр. 266.
  76. ^ abc Turing 1950 в разделе «(5) Аргументы, основанные на различных ограничениях».
  77. Тьюринг 1950 г., «(6) Возражение леди Лавлейс».
  78. Тьюринг 1950 г., «(5) Аргумент к различным ограничениям».
  79. ^ "Каплан Андреас; Михаэль Хенлайн" . Горизонты бизнеса . 62 (1): 15–25. Январь 2019 г. doi :10.1016/j.bushor.2018.08.004. S2CID  158433736.
  80. ^ Кац, Лесли (2009-04-02). «Робот-ученый делает открытие генов самостоятельно | Crave». News.cnet.com. Архивировано из оригинала 12 июля 2012 г. Получено 29 июля 2010 г.
  81. ^ Джон Маркофф, Ученые беспокоятся, что машины могут перехитрить человека, Архивировано 01.07.2017 в Wayback Machine , New York Times, 26 июля 2009 г.
  82. ^ Вернор Виндж. Грядущая технологическая сингулярность: как выжить в постчеловеческую эпоху, Кафедра математических наук, Государственный университет Сан-Диего, (c) 1993 Вернор Виндж.
  83. ^ Джейсон Палмер. Призыв к дебатам о роботах-убийцах. Архивировано 07.08.2009 в Wayback Machine , BBC News, 03.08.09.
  84. ^ Джейсон Мик (блог). Science New Navy-финансируемый отчет предупреждает о том, что боевые роботы станут «Терминаторами», Архивировано 28 июля 2009 г. на Wayback Machine , dailytech.com, 17 февраля 2009 г.
  85. ^ Джозеф Л. Флэтли. Отчет ВМС предупреждает о восстании роботов, предлагает сильный моральный компас, Архивировано 04.06.2011 на Wayback Machine , engadget.com, 18 февраля 2009 г.
  86. ^ Исследование президентской комиссии AAAI по долгосрочному будущему ИИ за 2008–2009 гг., архивировано 28 августа 2009 г. в Wayback Machine , Ассоциация по развитию искусственного интеллекта, дата обращения 26 июля 2009 г.
  87. Статья на Asimovlaws.com, июль 2004 г., дата обращения 27 июля 2009 г. Архивировано 30 июня 2009 г. на Wayback Machine .
  88. «Могут ли цифровые компьютеры мыслить?». Выступление на Третьей программе BBC, 15 мая 1951 г. http://www.turingarchive.org/viewer/?id=459&title=8.
  89. Тьюринг 1950 г., раздел «(1) Теологическое возражение», хотя он также пишет: «Меня не очень впечатляют теологические аргументы, для какой бы поддержки они ни использовались».
  90. ^ Спектор, Брэндон (13.06.2022). «ИИ Google „разумен“, — утверждает инженер-программист перед отстранением». livescience.com . Архивировано из оригинала 14.06.2022 . Получено 14.06.2022 .
  91. ^ Лемуан, Блейк (2022-06-11). «Является ли LaMDA разумным? — интервью». Medium . Архивировано из оригинала 2022-06-13 . Получено 2022-06-14 .
  92. ^ М. Мориока и др. (15.01.2023) Искусственный интеллект, роботы и философия, архивировано 28.12.2022 на Wayback Machine , стр. 2–4.
  93. ^ Дойч, Дэвид (2012-10-03). «Философия станет ключом к искусственному интеллекту | Дэвид Дойч». The Guardian . Архивировано из оригинала 2013-09-27 . Получено 2018-09-18 .

Цитируемые работы