Философия искусственного интеллекта — это раздел философии разума и философии компьютерной науки [1] , который изучает искусственный интеллект и его влияние на знание и понимание интеллекта , этики , сознания , эпистемологии и свободы воли . [2] [3] Кроме того, эта технология связана с созданием искусственных животных или искусственных людей (или, по крайней мере, искусственных существ; см. искусственная жизнь ), поэтому эта дисциплина представляет значительный интерес для философов. [4] Эти факторы способствовали появлению философии искусственного интеллекта.
Философия искусственного интеллекта пытается ответить на такие вопросы следующим образом: [5]
Подобные вопросы отражают расходящиеся интересы исследователей ИИ , когнитивных ученых и философов соответственно. Научные ответы на эти вопросы зависят от определения «интеллекта» и «сознания», а также от того, какие именно «машины» обсуждаются.
Важные положения философии ИИ включают в себя некоторые из следующих:
Возможно ли создать машину, которая сможет решать все проблемы, которые решают люди, используя свой интеллект? Этот вопрос определяет сферу того, что машины смогут делать в будущем, и направляет направление исследований ИИ. Он касается только поведения машин и игнорирует вопросы, представляющие интерес для психологов , когнитивных ученых и философов , вызывая вопрос: имеет ли значение, действительно ли машина думает так, как думает человек, а не просто производит результаты, которые кажутся результатом мышления? [11]
Основная позиция большинства исследователей ИИ обобщена в следующем утверждении, которое появилось в предложении для семинара в Дартмуте в 1956 году:
Аргументы против основной предпосылки должны показать, что создание работающей системы ИИ невозможно, поскольку существует некий практический предел возможностей компьютеров или что существует некое особое качество человеческого разума, необходимое для разумного поведения, и все же не может быть воспроизведено машиной (или методами современных исследований ИИ). Аргументы в пользу основной предпосылки должны показать, что такая система возможна.
Также возможно обойти связь между двумя частями вышеуказанного предложения. Например, машинное обучение, начиная с печально известного предложения Тьюринга о ребенке-машине [12] , по сути, достигает желаемой характеристики интеллекта без точного описания на этапе проектирования того, как именно это будет работать. Отчет о неявном знании робота [13] полностью устраняет необходимость в точном описании.
Первый шаг к ответу на этот вопрос — четко определить понятие «интеллект».
Алан Тьюринг [15] свел проблему определения интеллекта к простому вопросу о разговоре. Он предполагает, что: если машина может ответить на любой заданный ей вопрос, используя те же слова, что и обычный человек, то мы можем назвать эту машину интеллектуальной. Современная версия его экспериментального проекта будет использовать онлайн -чат , где один из участников — реальный человек, а другой — компьютерная программа. Программа проходит тест, если никто не может сказать, кто из двух участников — человек. [6] Тьюринг отмечает, что никто (кроме философов) никогда не задает вопрос «могут ли люди думать?» Он пишет: «Вместо того, чтобы постоянно спорить по этому поводу, обычно принято иметь вежливое соглашение, что все думают». [16] Тест Тьюринга распространяет это вежливое соглашение на машины:
Одной из критических замечаний к тесту Тьюринга является то, что он измеряет только «человечность» поведения машины, а не «интеллект» поведения. Поскольку человеческое поведение и интеллектуальное поведение — это не совсем одно и то же, тест не измеряет интеллект. Стюарт Дж. Рассел и Питер Норвиг пишут, что «тексты по авиационной инженерии не определяют цель своей области как «создание машин, которые летают так точно как голуби, что они могут обмануть других голубей»». [17]
Исследования ИИ в двадцать первом веке определяют интеллект в терминах целенаправленного поведения. Он рассматривает интеллект как набор проблем, которые, как ожидается, должна решить машина — чем больше проблем она может решить и чем лучше ее решения, тем более разумной является программа. Основатель ИИ Джон Маккарти определил интеллект как «вычислительную часть способности достигать целей в мире». [18]
Стюарт Рассел и Питер Норвиг формализовали это определение, используя абстрактных интеллектуальных агентов . «Агент» — это то, что воспринимает и действует в среде. «Показатель производительности» определяет, что считается успехом для агента. [19]
Определения, подобные этому, пытаются уловить суть интеллекта. У них есть преимущество в том, что, в отличие от теста Тьюринга, они не проверяют также неинтеллектуальные человеческие черты, такие как ошибки при наборе текста. [21] У них есть недостаток в том, что они могут не различать «вещи, которые думают» и «вещи, которые не думают». Согласно этому определению, даже термостат обладает зачаточным интеллектом. [22]
Хьюберт Дрейфус описывает этот аргумент как утверждение, что «если нервная система подчиняется законам физики и химии, а у нас есть все основания предполагать, что это так, то... мы... должны быть в состоянии воспроизвести поведение нервной системы с помощью некоторого физического устройства». [23] Этот аргумент, впервые представленный еще в 1943 году [24] и ярко описанный Гансом Моравецом в 1988 году [25], теперь ассоциируется с футуристом Рэем Курцвейлом , который подсчитал, что мощности компьютера будет достаточно для полной симуляции мозга к 2029 году. [26] Нереальное моделирование таламокортикальной модели, которая имеет размер человеческого мозга (1011 нейронов ), было выполнено в 2005 году [27] , и потребовалось 50 дней, чтобы смоделировать 1 секунду динамики мозга на кластере из 27 процессоров.
Даже самые суровые критики ИИ (такие как Хьюберт Дрейфус и Джон Сирл ) соглашаются, что моделирование мозга возможно в теории. [a] Однако Сирл указывает, что в принципе все может быть смоделировано компьютером; таким образом, доведение определения до его критической точки приводит к выводу, что любой процесс вообще может технически считаться «вычислением». «Мы хотели узнать, что отличает разум от термостатов и печенок», — пишет он. [30] Таким образом, простое моделирование функционирования живого мозга само по себе было бы признанием невежества относительно интеллекта и природы разума, как попытка построить реактивный авиалайнер, точно копируя живую птицу, перо за пером, без теоретического понимания авиационной техники . [31]
В 1963 году Аллен Ньюэлл и Герберт А. Саймон предположили, что «манипулирование символами» является сущностью как человеческого, так и машинного интеллекта. Они писали:
Это утверждение очень сильное: оно подразумевает, что человеческое мышление является своего рода манипуляцией символами (потому что система символов необходима для интеллекта), и что машины могут быть разумными (потому что система символов достаточна для интеллекта). [32] Другая версия этой позиции была описана философом Губертом Дрейфусом, который назвал ее «психологическим предположением»:
«Символы», которые обсуждали Ньюэлл, Саймон и Дрейфус, были похожи на слова и имели высокий уровень — символы, которые напрямую соответствуют объектам в мире, например, <dog> и <tail>. Большинство программ ИИ, написанных между 1956 и 1990 годами, использовали этот тип символов. Современный ИИ, основанный на статистике и математической оптимизации, не использует высокоуровневую «обработку символов», которую обсуждали Ньюэлл и Саймон.
Эти аргументы показывают, что человеческое мышление не состоит (исключительно) из манипуляции символами высокого уровня. Они не показывают, что искусственный интеллект невозможен, а лишь то, что требуется нечто большее, чем обработка символов.
В 1931 году Курт Гёдель доказал с помощью теоремы о неполноте , что всегда возможно построить « утверждение Гёделя », которое данная непротиворечивая формальная система логики (например, программа манипуляции символами высокого уровня) не может доказать. Несмотря на то, что это истинное утверждение, сконструированное утверждение Гёделя недоказуемо в данной системе. (Истина сконструированного утверждения Гёделя зависит от непротиворечивости данной системы; применение того же процесса к тонко противоречивой системе будет казаться успешным, но на самом деле вместо этого даст ложное «утверждение Гёделя».) [ необходима цитата ] Более спекулятивно, Гёдель предположил, что человеческий разум в конечном итоге может правильно определить истинность или ложность любого хорошо обоснованного математического утверждения (включая любое возможное утверждение Гёделя), и что, следовательно, сила человеческого разума не сводится к механизму . [34] Философ Джон Лукас (с 1961 года) и Роджер Пенроуз (с 1989 года) отстаивали этот философский антимеханистский аргумент . [35]
Аргументы антимеханистов-геделевцев, как правило, опираются на кажущееся безобидным утверждение, что система математиков-людей (или некоторая идеализация математиков-людей) является как последовательной (полностью свободной от ошибок), так и полностью верит в свою собственную последовательность (и может делать все логические выводы, вытекающие из ее собственной последовательности, включая веру в свое утверждение Гёделя) [ требуется ссылка ] . Это, вероятно, невозможно для машины Тьюринга (см. Проблема остановки ); поэтому гёделевцы приходят к выводу, что человеческое мышление слишком мощно, чтобы быть уловленным машиной Тьюринга и, как следствие, любым цифровым механическим устройством.
Однако современный консенсус в научном и математическом сообществе заключается в том, что реальное человеческое мышление непоследовательно; что любая последовательная «идеализированная версия» H человеческого мышления логически была бы вынуждена принять здоровый, но контринтуитивный непредвзятый скептицизм относительно последовательности H (в противном случае H доказуемо непоследовательна); и что теоремы Гёделя не приводят ни к какому обоснованному аргументу о том, что у людей есть математические способности к рассуждению, выходящие за рамки того, что машина когда-либо могла бы воспроизвести. [36] [37] [38] Этот консенсус о том, что гёделевские антимеханистические аргументы обречены на провал, четко изложен в книге «Искусственный интеллект» : « любая попытка использовать (результаты Гёделя о неполноте) для атаки на тезис вычислений обречена на нелегитимность, поскольку эти результаты вполне согласуются с тезисом вычислений». [39]
Стюарт Рассел и Питер Норвиг согласны, что аргумент Гёделя не учитывает природу человеческого мышления в реальном мире. Он применим к тому, что теоретически может быть доказано, учитывая бесконечное количество памяти и времени. На практике реальные машины (включая людей) имеют конечные ресурсы и будут испытывать трудности при доказательстве многих теорем. Не обязательно уметь доказывать все, чтобы быть разумным человеком. [40]
Менее формально Дуглас Хофштадтер в своей удостоенной Пулитцеровской премии книге «Гёдель, Эшер, Бах: вечная золотая коса » утверждает , что эти «утверждения Гёделя» всегда относятся к самой системе, проводя аналогию с тем, как парадокс Эпименида использует утверждения, которые относятся к самим себе, например, «это утверждение ложно» или «я лгу». [41] Но, конечно, парадокс Эпименида применим ко всему, что делает утверждения, будь то машина или человек, даже сам Лукас. Рассмотрим:
Это утверждение верно, но не может быть утверждено Лукасом. Это показывает, что сам Лукас подвержен тем же ограничениям, которые он описывает для машин, как и все люди, и поэтому аргумент Лукаса бессмыслен. [43]
После заключения о том, что человеческое мышление невычислимо, Пенроуз продолжил спорное предположение о том, что некие гипотетические невычислимые процессы, включающие коллапс квантово-механических состояний, дают людям особое преимущество перед существующими компьютерами. Существующие квантовые компьютеры способны только уменьшать сложность вычислимых по Тьюрингу задач и по-прежнему ограничены задачами в рамках машин Тьюринга. [ необходима цитата ] [ необходима уточнение ] . Согласно аргументам Пенроуза и Лукаса, тот факт, что квантовые компьютеры способны выполнять только вычислимые по Тьюрингу задачи, подразумевает, что они не могут быть достаточными для эмуляции человеческого разума. [ необходима цитата ] Поэтому Пенроуз ищет какой-то другой процесс, включающий новую физику, например, квантовую гравитацию, которая могла бы проявить новую физику в масштабе массы Планка посредством спонтанного квантового коллапса волновой функции. Эти состояния, как он предположил, возникают как внутри нейронов, так и охватывают более одного нейрона. [44] Однако другие ученые отмечают, что в мозге нет правдоподобного органического механизма для использования любого вида квантовых вычислений, и, более того, временные рамки квантовой декогеренции кажутся слишком короткими, чтобы повлиять на активацию нейронов. [45]
Хьюберт Дрейфус утверждал, что человеческий интеллект и опыт зависят в первую очередь от быстрых интуитивных суждений, а не от пошаговой символической манипуляции, и утверждал, что эти навыки никогда не будут зафиксированы в формальных правилах. [46]
Аргумент Дрейфуса был предвосхищен Тьюрингом в его статье 1950 года « Вычислительная техника и интеллект» , где он классифицировал его как «аргумент от неформальности поведения». [47] Тьюринг в ответ утверждал, что то, что мы не знаем правил, управляющих сложным поведением, не означает, что таких правил не существует. Он писал: «мы не можем так легко убедить себя в отсутствии полных законов поведения... Единственный известный нам способ нахождения таких законов — это научное наблюдение, и мы, конечно, не знаем обстоятельств, при которых мы могли бы сказать: «Мы достаточно искали. Таких законов нет». [48]
Рассел и Норвиг отмечают, что за годы, прошедшие с тех пор, как Дрейфус опубликовал свою критику, был достигнут прогресс в обнаружении «правил», которые управляют бессознательным мышлением. [ 49] Ситуационное движение в исследованиях робототехники пытается охватить наши бессознательные навыки восприятия и внимания. [50] Парадигмы вычислительного интеллекта , такие как нейронные сети , эволюционные алгоритмы и т. д., в основном направлены на смоделированные бессознательные рассуждения и обучение. Статистические подходы к ИИ могут делать прогнозы, которые приближаются к точности интуитивных догадок человека. Исследования в области здравого смысла были сосредоточены на воспроизведении «фона» или контекста знания. Фактически, исследования ИИ в целом отошли от манипуляции символами высокого уровня к новым моделям, которые предназначены для захвата большей части наших интуитивных рассуждений. [49]
Когнитивная наука и психология в конечном итоге пришли к согласию с описанием человеческого опыта Дрейфуса. Дэниел Канеман и другие разработали похожую теорию, в которой они выделили две «системы», которые люди используют для решения проблем, которые он назвал «Система 1» (быстрые интуитивные суждения) и «Система 2» (медленное осознанное пошаговое мышление). [51]
Хотя взгляды Дрейфуса были подтверждены во многих отношениях, работа в области когнитивной науки и ИИ была ответом на конкретные проблемы в этих областях и не находилась под прямым влиянием Дрейфуса. Историк и исследователь ИИ Дэниел Кревье писал, что «время доказало точность и проницательность некоторых комментариев Дрейфуса. Если бы он сформулировал их менее агрессивно, конструктивные действия, которые они предлагали, могли бы быть предприняты гораздо раньше». [52]
Это философский вопрос, связанный с проблемой других разумов и трудной проблемой сознания . Вопрос вращается вокруг позиции, определенной Джоном Сирлом как «сильный ИИ»:
Сёрл отличал эту позицию от того, что он называл «слабым ИИ»:
Сёрл ввёл термины, чтобы отделить сильный ИИ от слабого ИИ, чтобы он мог сосредоточиться на том, что он считал более интересным и спорным вопросом. Он утверждал, что даже если мы предположим , что у нас есть компьютерная программа, которая действует точно так же, как человеческий разум, всё равно останется сложный философский вопрос, на который нужно ответить. [9]
Ни одна из двух позиций Сирла не представляет большого интереса для исследований ИИ, поскольку они не отвечают напрямую на вопрос «может ли машина демонстрировать общий интеллект?» (если только не будет также показано, что сознание необходимо для интеллекта). Тьюринг писал: «Я не хочу создавать впечатление, что я думаю, что нет никакой тайны в сознании… [б]о] я не думаю, что эти тайны обязательно должны быть решены, прежде чем мы сможем ответить на вопрос [могут ли машины мыслить]». [53] Рассел и Норвиг согласны: «Большинство исследователей ИИ принимают слабую гипотезу ИИ как должное и не заботятся о сильной гипотезе ИИ». [54]
Некоторые исследователи считают, что сознание является неотъемлемым элементом интеллекта, например, Игорь Александер , Стэн Франклин , Рон Сан и Пентти Хайконен , хотя их определение «сознания» весьма близко к «интеллекту». (См. искусственное сознание .)
Прежде чем ответить на этот вопрос, мы должны прояснить, что мы подразумеваем под «разумом», «ментальными состояниями» и «сознанием».
Слова « разум » и « сознание » используются разными сообществами по-разному. Например, некоторые мыслители новой эры используют слово «сознание» для описания чего-то похожего на « жизненную силу » Бергсона : невидимую, энергетическую жидкость, которая пронизывает жизнь и особенно разум. Писатели -фантасты используют это слово для описания некоторого существенного свойства, которое делает нас людьми: машина или инопланетянин, который «сознателен», будет представлен как полностью человеческий персонаж, с интеллектом, желаниями, волей , проницательностью, гордостью и так далее. (Писатели-фантасты также используют слова «чувство», «разум», «самосознание» или « призрак » — как в манге и аниме « Призрак в доспехах » — для описания этого существенного человеческого свойства). Для других [ кто? ] слова «разум» или «сознание» используются как своего рода светский синоним души .
Для философов , нейробиологов и когнитивных ученых эти слова используются в более точном и более обыденном смысле: они относятся к знакомому, повседневному опыту наличия «мысли в голове», например, к восприятию, сну, намерению или плану, а также к тому, как мы видим что-то, знаем что-то, подразумеваем что-то или понимаем что-то. [55] «Нетрудно дать здравое определение сознанию», — замечает философ Джон Сирл. [56] Таинственно и увлекательно не столько то , что это такое, сколько то, как это есть: как кусок жировой ткани и электричества порождает этот (знакомый) опыт восприятия, значения или мышления?
Философы называют это трудной проблемой сознания . Это последняя версия классической проблемы в философии разума, называемой « проблемой разума и тела ». [57] Связанная проблема — проблема смысла или понимания (которую философы называют « интенциональностью »): какова связь между нашими мыслями и тем, о чем мы думаем (т. е. объектами и ситуациями в мире)? Третья проблема — проблема опыта (или « феноменологии »): если два человека видят одно и то же, имеют ли они одинаковый опыт? Или есть вещи «внутри их головы» (называемые « квалиа »), которые могут отличаться от человека к человеку? [58]
Нейробиологи полагают, что все эти проблемы будут решены, когда мы начнем определять нейронные корреляты сознания : фактическую связь между механизмами в наших головах и их коллективными свойствами; такими как разум, опыт и понимание. Некоторые из самых суровых критиков искусственного интеллекта согласны с тем, что мозг — это всего лишь машина, а сознание и интеллект — это результат физических процессов в мозге. [59] Сложный философский вопрос заключается в следующем: может ли компьютерная программа, работающая на цифровой машине, которая перемешивает двоичные цифры нуля и единицы, дублировать способность нейронов создавать разум с ментальными состояниями (такими как понимание или восприятие) и, в конечном счете, опытом сознания?
Джон Сирл просит нас рассмотреть мысленный эксперимент : предположим, что мы написали компьютерную программу, которая проходит тест Тьюринга и демонстрирует общие интеллектуальные действия. Предположим, в частности, что программа может разговаривать на беглом китайском языке. Напишите программу на карточках 3x5 и дайте их обычному человеку, который не говорит по-китайски. Заприте человека в комнате и заставьте его следовать инструкциям на карточках. Он будет копировать китайские иероглифы и передавать их в комнату и из комнаты через щель. Со стороны будет казаться, что в китайской комнате находится полностью разумный человек, говорящий по-китайски. Вопрос в следующем: есть ли кто-нибудь (или что-нибудь) в комнате, кто понимает китайский язык? То есть, есть ли что-нибудь, что имеет ментальное состояние понимания или что имеет осознанное понимание того, что обсуждается на китайском языке? Человек явно не осознает. Комната не может осознавать. Карты определенно не осознают. Сирл приходит к выводу, что китайская комната или любая другая физическая система символов не может иметь разум. [60]
Сирл продолжает утверждать, что реальные ментальные состояния и сознание требуют (еще не описанных) «реальных физико-химических свойств реальных человеческих мозгов». [61] Он утверждает, что существуют особые «причинные свойства» мозгов и нейронов , которые порождают разум : по его словам, «мозги вызывают разум». [62]
Готфрид Лейбниц в 1714 году высказал по сути тот же аргумент, что и Сирл, используя мысленный эксперимент по расширению мозга до размеров мельницы. [63] В 1974 году Лоуренс Дэвис представил себе дублирование мозга с помощью телефонных линий и офисов, укомплектованных людьми, а в 1978 году Нед Блок представил себе все население Китая, вовлеченное в такую симуляцию мозга. Этот мысленный эксперимент называется «китайская нация» или «китайский спортзал». [64] Нед Блок также предложил свой аргумент Blockhead , который является версией китайской комнаты , в которой программа была переработана в простой набор правил формы «увидь это, сделай то», удаляя всю таинственность из программы.
В ответах на вопрос о китайской комнате подчеркивается несколько различных моментов.
Вычислительная теория разума или « вычислительный мир » утверждает, что отношения между разумом и мозгом похожи (если не идентичны) отношениям между работающей программой (программным обеспечением) и компьютером (аппаратным обеспечением). Эта идея имеет философские корни у Гоббса (который утверждал, что рассуждение — это «не более чем подсчет»), Лейбница (который пытался создать логическое исчисление всех человеческих идей), Юма (который считал, что восприятие можно свести к «атомарным впечатлениям») и даже Канта (который анализировал весь опыт как контролируемый формальными правилами). [71] Последняя версия связана с философами Хилари Патнэмом и Джерри Фодором . [72]
Этот вопрос имеет отношение к нашим предыдущим вопросам: если человеческий мозг является своего рода компьютером, то компьютеры могут быть как интеллектуальными, так и сознательными, отвечая как на практические, так и на философские вопросы ИИ. С точки зрения практического вопроса ИИ («Может ли машина демонстрировать общий интеллект?»), некоторые версии вычислительного реализма утверждают, что (как писал Гоббс ):
Другими словами, наш интеллект происходит из формы расчета , похожей на арифметику . Это гипотеза физической системы символов, обсуждавшаяся выше, и она подразумевает, что искусственный интеллект возможен. С точки зрения философского вопроса ИИ («Может ли машина иметь разум, ментальные состояния и сознание?»), большинство версий вычислительного искусства утверждают, что (как характеризует его Стеван Харнад ):
Это «сильный ИИ» Джона Сирла, обсуждавшийся выше, и именно он является настоящей целью аргумента китайской комнаты (согласно Харнаду ). [73]
Если « эмоции » определяются только с точки зрения их влияния на поведение или на то, как они функционируют внутри организма, то эмоции можно рассматривать как механизм, который интеллектуальный агент использует для максимизации полезности своих действий. Учитывая это определение эмоций, Ганс Моравек полагает, что «роботы в целом будут довольно эмоциональны в отношении того, чтобы быть хорошими людьми». [74] Страх является источником срочности. Эмпатия является необходимым компонентом хорошего взаимодействия человека с компьютером . Он говорит, что роботы «будут пытаться угодить вам, по-видимому, бескорыстным образом, потому что они получат острые ощущения от этого положительного подкрепления. Вы можете интерпретировать это как своего рода любовь». [74] Дэниел Кревье пишет: «Мнение Моравек заключается в том, что эмоции — это всего лишь устройства для направления поведения в направлении, благоприятном для выживания вашего вида». [75]
« Самосознание », как отмечено выше, иногда используется писателями -фантастами как название важнейшего человеческого свойства, которое делает персонажа полностью человечным. Тьюринг отбрасывает все другие свойства людей и сводит вопрос к «может ли машина быть субъектом своей собственной мысли?» Может ли она думать о себе ? Рассматривая это таким образом, можно написать программу, которая может сообщать о своих внутренних состояниях, например, отладчик . [76]
Тьюринг сводит это к вопросу о том, может ли машина «застать нас врасплох», и утверждает, что это, очевидно, правда, как может подтвердить любой программист. [77] Он отмечает, что при достаточной емкости памяти компьютер может вести себя астрономическим числом различных способов. [78] Должно быть возможным, даже тривиальным, для компьютера, который может представлять идеи, объединять их новыми способами. (В книге Дугласа Лената « Автоматизированный математик » в качестве одного из примеров объединены идеи для открытия новых математических истин.) Каплан и Хенлейн предполагают, что машины могут проявлять научное творчество, в то время как кажется вероятным, что люди будут иметь преимущество в том, что касается художественного творчества. [79]
В 2009 году ученые из Университета Аберистуита в Уэльсе и Кембриджского университета в Великобритании разработали робота по имени Адам, которого они считают первой машиной, самостоятельно пришедшей к новым научным открытиям. [80] Также в 2009 году исследователи из Корнелла разработали Eureqa — компьютерную программу, которая экстраполирует формулы для подгонки под введенные данные, например, для поиска законов движения по движению маятника.
Этот вопрос (как и многие другие в философии искусственного интеллекта) можно представить в двух формах. «Враждебность» можно определить в терминах функции или поведения , в этом случае «враждебный» становится синонимом «опасного». Или его можно определить в терминах намерения: может ли машина «намеренно» намереваться причинить вред? Последнее — это вопрос «может ли машина иметь сознательные состояния?» (например, намерения ) в другой форме. [53]
Вопрос о том, будут ли высокоинтеллектуальные и полностью автономные машины опасными, был подробно изучен футуристами (например, Институтом исследований машинного интеллекта ). Очевидный элемент драмы также сделал эту тему популярной в научной фантастике , которая рассматривала множество различных возможных сценариев, в которых интеллектуальные машины представляют угрозу человечеству; см. Искусственный интеллект в художественной литературе .
Одна из проблем заключается в том, что машины могут очень быстро обрести автономию и интеллект, необходимые для того, чтобы быть опасными. Вернор Виндж предположил, что всего за несколько лет компьютеры внезапно станут в тысячи или миллионы раз умнее людей. Он называет это « Сингулярностью ». [81] Он предполагает, что это может быть в некоторой степени или, возможно, очень опасно для людей. [82] Это обсуждается в философии, называемой Сингуляритаризмом .
В 2009 году ученые и технические эксперты посетили конференцию, чтобы обсудить потенциальное влияние роботов и компьютеров и влияние гипотетической возможности того, что они могут стать самодостаточными и способными принимать собственные решения . Они обсудили возможность и степень, в которой компьютеры и роботы могут обрести какой-либо уровень автономии, и в какой степени они могут использовать такие способности, чтобы потенциально представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономии, включая способность самостоятельно находить источники энергии и способность независимо выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут избегать уничтожения и достигли «интеллекта тараканов». Они отметили, что самосознание , как оно изображено в научной фантастике, вероятно, маловероятно, но что существуют другие потенциальные опасности и ловушки. [81]
Некоторые эксперты и ученые подвергают сомнению использование роботов в военных действиях, особенно когда таким роботам придается некоторая степень автономных функций. [83] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [84] [85]
Президент Ассоциации по развитию искусственного интеллекта заказал исследование для изучения этого вопроса. [86] Они указывают на такие программы, как Language Acquisition Device, которые могут имитировать человеческое взаимодействие.
Некоторые предполагают необходимость создания « дружественного ИИ » (термин, введенный Элиезером Юдковски) , имея в виду, что уже имеющиеся достижения в области ИИ должны также включать усилия по созданию ИИ, изначально дружелюбного и гуманного. [87]
Тьюринг сказал: «Принято... предлагать крупицу утешения в форме утверждения, что некая сугубо человеческая характеристика никогда не может быть имитирована машиной. ... Я не могу предложить такого утешения, поскольку считаю, что такие границы установить невозможно» [88] .
Тьюринг отметил, что существует множество аргументов в форме «машина никогда не сделает X», где X может быть многими вещами, например:
Быть доброй, находчивой, красивой, дружелюбной, проявлять инициативу, иметь чувство юмора, отличать хорошее от плохого, совершать ошибки, влюбляться, наслаждаться клубникой со сливками, заставить кого-то влюбиться в себя, учиться на собственном опыте, правильно использовать слова, быть предметом собственных мыслей, иметь столько же разнообразия в поведении, сколько и человек, делать что-то действительно новое. [76]
Тьюринг утверждает, что эти возражения часто основаны на наивных предположениях об универсальности машин или являются «замаскированными формами аргумента от сознания». Написание программы, демонстрирующей одно из этих поведений, «не произведет большого впечатления». [76] Все эти аргументы имеют косвенное отношение к основной предпосылке ИИ, если только не будет показано, что одна из этих черт необходима для общего интеллекта.
Наконец, те, кто верит в существование души, могут утверждать, что «Мышление — это функция бессмертной души человека». Алан Тьюринг назвал это «теологическим возражением». Он пишет:
Пытаясь построить такие машины, мы не должны непочтительно узурпировать Его силу создания душ, как и при рождении детей: скорее, в любом случае мы являемся инструментами Его воли, предоставляя обители для душ, которые Он создает. [89]
Дискуссия на эту тему возобновилась в результате недавних заявлений, сделанных системой искусственного интеллекта LaMDA от Google, о том, что она разумна и имеет « душу ». [90]
LaMDA ( языковая модель для диалоговых приложений) — это система искусственного интеллекта , которая создает чат-ботов — роботов на основе искусственного интеллекта, предназначенных для общения с людьми — путем сбора огромных объемов текста из Интернета и использования алгоритмов для максимально гибкого и естественного реагирования на запросы.
Стенограммы разговоров между учеными и LaMDA показывают, что система ИИ преуспевает в этом, давая ответы на сложные темы о природе эмоций , генерируя басни в стиле Эзопа на данный момент и даже описывая свои предполагаемые страхи. [91] Практически все философы сомневаются в способности LaMDA чувствовать. [92]
Некоторые ученые утверждают, что игнорирование философии сообществом ИИ пагубно. В Стэнфордской энциклопедии философии некоторые философы утверждают, что роль философии в ИИ недооценена. [4] Физик Дэвид Дойч утверждает, что без понимания философии или ее концепций развитие ИИ будет страдать от отсутствия прогресса. [93]
Основная серия конференций по этой проблеме — «Философия и теория ИИ» (PT-AI), которую проводит Винсент К. Мюллер .
Основная библиография по этой теме, с несколькими подразделами, находится на сайте PhilPapers.
Недавний обзор философии ИИ — Мюллер (2023). [3]
эти гёделевские антимеханистские аргументы проблематичны, и существует широкий консенсус относительно их несостоятельности.
даже если мы допустим, что компьютеры имеют ограничения в том, что они могут доказать, нет никаких доказательств того, что люди невосприимчивы к этим ограничениям.