stringtranslate.com

Искусственный интеллект

Искусственный интеллект общего назначения ( AGI ) — это тип искусственного интеллекта (ИИ), который соответствует или превосходит человеческие когнитивные способности в широком спектре когнитивных задач. Это контрастирует с узким ИИ , который ограничен конкретными задачами. [1] [2] AGI считается одним из определений сильного ИИ . [3]

Создание AGI является основной целью исследований в области ИИ и таких компаний, как OpenAI [4] и Meta . [5] Опрос 2020 года выявил 72 активных проекта исследований и разработок AGI в 37 странах. [6]

Сроки достижения AGI остаются предметом постоянных дебатов среди исследователей и экспертов. По состоянию на 2024 год некоторые утверждают, что это может быть возможно через годы или десятилетия; другие утверждают, что это может занять столетие или больше. [7] [8] Меньшинство считает, что это может никогда не быть достигнуто, [7] а другое меньшинство считает, что это уже существует. [9] Известный исследователь ИИ Джеффри Хинтон выразил обеспокоенность быстрым прогрессом в направлении AGI, предположив, что это может быть достигнуто раньше, чем многие ожидают. [10]

Ведутся споры о точном определении AGI, а также о том, являются ли современные большие языковые модели (LLM), такие как GPT-4, ранними формами AGI. [11] AGI является распространенной темой в научной фантастике и исследованиях будущего . [12] [13]

Существуют разногласия по поводу того, представляет ли ИИ экзистенциальный риск . [14] [15] [16] Многие эксперты по ИИ заявляют , что снижение риска вымирания человечества, вызванного ИИ, должно быть глобальным приоритетом. [17] [18] Другие считают, что развитие ИИ слишком отдалено, чтобы представлять такой риск. [19] [20]

Терминология

AGI также известен как сильный ИИ, [21] [22] полный ИИ, [23] ИИ человеческого уровня, [24] или общее интеллектуальное действие. [25] Однако некоторые академические источники резервируют термин «сильный ИИ» для компьютерных программ, которые испытывают чувствительность или сознание . [a] Напротив, слабый ИИ (или узкий ИИ) способен решать одну конкретную задачу, но не обладает общими когнитивными способностями. [26] [22] Некоторые академические источники используют термин «слабый ИИ» для более широкого обозначения любых программ, которые не испытывают сознание и не имеют разума в том же смысле, что и люди. [a]

Связанные концепции включают искусственный суперинтеллект и преобразующий ИИ. Искусственный суперинтеллект (ИСИ) — это гипотетический тип ИИ, который превосходит человеческий интеллект, [27] в то время как понятие преобразующего ИИ относится к ИИ, оказывающему большое влияние на общество, например, аналогично сельскохозяйственной или промышленной революции. [28]

Структура для классификации AGI по уровням была предложена в 2023 году исследователями Google DeepMind . Они определяют пять уровней AGI: зарождающийся, компетентный, экспертный, виртуозный и сверхчеловеческий. Например, компетентный AGI определяется как ИИ, который превосходит 50% квалифицированных взрослых в широком спектре нефизических задач, а сверхчеловеческий AGI определяется аналогичным образом, но с порогом 100%. Они считают большие языковые модели, такие как ChatGPT или LLaMA 2, примерами зарождающегося AGI. [29]

Характеристики

Были предложены различные популярные определения интеллекта . Одним из ведущих предложений является тест Тьюринга . Однако существуют и другие известные определения, и некоторые исследователи не согласны с более популярными подходами. [b]

Черты интеллекта

Однако исследователи в целом считают, что интеллект необходим для выполнения всех следующих действий: [31]

Многие междисциплинарные подходы (например, когнитивная наука , вычислительный интеллект и принятие решений ) рассматривают дополнительные черты, такие как воображение (способность формировать новые ментальные образы и концепции) [32] и автономность . [33]

Существуют компьютерные системы, которые демонстрируют многие из этих возможностей (например, см. вычислительное творчество , автоматизированное рассуждение , система поддержки принятия решений , робот , эволюционные вычисления , интеллектуальный агент ). Ведутся споры о том, обладают ли ими в достаточной степени современные системы ИИ.

Физические черты

Другие возможности считаются желательными в интеллектуальных системах, поскольку они могут влиять на интеллект или помогать в его выражении. К ним относятся: [34]

Это включает в себя способность обнаруживать опасность и реагировать на нее . [35]

Тесты на человеческий уровень AGI

Было рассмотрено несколько тестов, призванных подтвердить AGI на уровне человека, в том числе: [36] [37]

Тест Тьюринга ( Тьюринг )
Тест Тьюринга предоставляет доказательства интеллекта человеческого уровня, но может игнорировать нечеловеческое интеллектуальное поведение или наказывать за него, в зависимости от настройки теста и того, кто является судьями (предполагается, что это человек, но это может и не быть таковым) [38]
Предложенный Аланом Тьюрингом в его статье 1950 года «Вычислительная техника и интеллект», этот тест включает в себя человека-судью, участвующего в разговорах на естественном языке как с человеком, так и с машиной, предназначенной для генерации ответов, подобных человеческим. Машина проходит тест, если она может убедить судью, что она человек, в значительной части времени. Тьюринг предложил это как практическую меру машинного интеллекта, сосредоточившись на способности производить ответы, подобные человеческим, а не на внутренней работе машины. [39]
Тьюринг описал тест следующим образом:

Идея теста заключается в том, что машина должна попытаться притвориться человеком, отвечая на задаваемые ей вопросы, и она пройдет тест только в том случае, если притворство будет достаточно убедительным. Значительная часть присяжных, которые не должны быть экспертами в машинах, должны быть введены в заблуждение притворством. [40]

В 2014 году чат-бот по имени Юджин Густман , созданный для имитации 13-летнего украинского мальчика, как сообщается, прошел тест Тьюринга, убедив 33% судей в том, что он человек. Однако это заявление было встречено со значительным скептицизмом со стороны сообщества исследователей ИИ, которые поставили под сомнение реализацию теста и его значимость для AGI. [41] [42]
Тест для студентов колледжа роботов ( Гёрцель )
Машина поступает в университет, посещает и сдает те же курсы, что и люди, и получает степень. Теперь LLM могут сдавать экзамены на получение университетской степени, даже не посещая занятия. [43]
Тест на трудоустройство ( Нильссон )
Машина выполняет экономически важную работу по крайней мере так же хорошо, как и человек на той же работе. ИИ теперь заменяют людей во многих ролях, таких разнообразных, как фастфуд и маркетинг. [44]
Тест Икеа ( Маркус )
Также известен как тест мебели в плоской упаковке. ИИ просматривает детали и инструкции по упаковке товара Ikea, а затем управляет роботом для правильной сборки мебели. [45]
Кофейный тест ( Возняк )
Для того, чтобы войти в среднестатистический американский дом и разобраться, как приготовить кофе, нужна машина: найти кофемашину, найти кофе, добавить воды, найти кружку и сварить кофе, нажав на соответствующие кнопки. [46] Это еще не завершено.
Современный тест Тьюринга ( Сулейман )
Модели искусственного интеллекта дается 100 000 долларов, и она должна получить 1 миллион долларов. [47] [48]

AI-полные проблемы

Проблема неформально называется «ИИ-полной» или «ИИ-сложной», если считается, что для ее решения потребуется внедрение ИИ, поскольку решение выходит за рамки возможностей специализированного алгоритма. [49]

Существует множество проблем, для решения которых, как предполагалось, требуется общий интеллект, а также люди. Примерами служат компьютерное зрение , понимание естественного языка и работа с неожиданными обстоятельствами при решении любой реальной проблемы. [50] Даже такая конкретная задача, как перевод, требует, чтобы машина читала и писала на обоих языках, следовала аргументации автора (разум), понимала контекст (знание) и точно воспроизводила исходное намерение автора ( социальный интеллект ). Все эти проблемы необходимо решать одновременно, чтобы достичь производительности машины на уровне человека.

Однако многие из этих задач теперь могут быть выполнены современными большими языковыми моделями. Согласно индексу ИИ Стэнфордского университета 2024 года, ИИ достиг человеческого уровня производительности по многим показателям для понимания прочитанного и визуального мышления. [51]

История

Классический ИИ

Современные исследования ИИ начались в середине 1950-х годов. [52] Первое поколение исследователей ИИ было убеждено, что искусственный интеллект общего назначения возможен и что он появится всего через несколько десятилетий. [53] Пионер ИИ Герберт А. Саймон писал в 1965 году: «машины будут способны в течение двадцати лет выполнять любую работу, которую может выполнить человек». [54]

Их предсказания вдохновили Стэнли Кубрика и Артура Кларка на создание персонажа HAL 9000 , который воплощал то, что исследователи ИИ считали возможным создать к 2001 году. Пионер ИИ Марвин Мински был консультантом [55] проекта по созданию HAL 9000 настолько реалистичным, насколько это было возможно в соответствии с консенсусными прогнозами того времени. В 1967 году он сказал: «В течение одного поколения... проблема создания «искусственного интеллекта» будет в значительной степени решена». [56]

Несколько классических проектов ИИ , такие как проект Cyc Дуга Лената ( начатый в 1984 году) и проект Soar Аллена Ньюэлла , были направлены на создание ОИИ.

Однако в начале 1970-х годов стало очевидно, что исследователи сильно недооценили сложность проекта. Финансирующие организации стали относиться к AGI скептически и оказывали на исследователей все большее давление, требуя создания полезного «прикладного ИИ». [c] В начале 1980-х годов японский проект «Компьютер пятого поколения» возродил интерес к AGI, установив десятилетний график, который включал такие цели AGI, как «поддерживать непринужденную беседу». [60] В ответ на это и на успех экспертных систем и промышленность, и правительство влили деньги в эту область. [58] [61] Однако доверие к ИИ резко рухнуло в конце 1980-х годов, и цели проекта «Компьютер пятого поколения» так и не были достигнуты. [62] Во второй раз за 20 лет исследователи ИИ, предсказавшие скорое достижение AGI, ошиблись. К 1990-м годам исследователи ИИ имели репутацию дающих пустые обещания. Они стали неохотно делать прогнозы вообще [d] и избегали упоминаний об искусственном интеллекте «человеческого уровня», опасаясь прослыть «мечтателями с дикими глазами». [64]

Узкие исследования ИИ

В 1990-х и начале 21-го века основной ИИ достиг коммерческого успеха и академической респектабельности, сосредоточившись на конкретных подзадачах, где ИИ может давать проверяемые результаты и коммерческие приложения, такие как алгоритмы распознавания речи и рекомендаций . [65] Эти «прикладные ИИ» системы в настоящее время широко используются во всей технологической отрасли, и исследования в этом ключе в значительной степени финансируются как в академических кругах, так и в промышленности. По состоянию на 2018 год развитие в этой области считалось новой тенденцией, и ожидалось, что зрелая стадия будет достигнута более чем через 10 лет. [66]

На рубеже веков многие основные исследователи ИИ [67] надеялись, что сильный ИИ может быть разработан путем объединения программ, решающих различные подзадачи. Ганс Моравек писал в 1988 году:

Я уверен, что этот путь снизу вверх к искусственному интеллекту однажды встретится с традиционным путем сверху вниз более чем на полпути, готовый предоставить реальную компетентность и знание здравого смысла , которые были так удручающе неуловимы в программах рассуждений. Полностью интеллектуальные машины появятся, когда метафорический золотой шип будет вбит, объединяя эти два усилия. [67]

Однако даже в то время это оспаривалось. Например, Стеван Харнад из Принстонского университета завершил свою статью 1990 года о гипотезе обоснования символа следующим образом:

Ожидание часто высказывалось, что подходы «сверху вниз» (символические) к моделированию познания каким-то образом встретятся с подходами «снизу вверх» (сенсорными) где-то посередине. Если обоснованные соображения в этой статье верны, то это ожидание безнадежно модульно и на самом деле существует только один жизнеспособный путь от смысла к символам: снизу вверх. Свободно плавающий символический уровень, такой как уровень программного обеспечения компьютера, никогда не будет достигнут этим путем (или наоборот) – и неясно, почему мы вообще должны пытаться достичь такого уровня, поскольку кажется, что достижение этого уровня будет просто равносильно выкорчевыванию наших символов из их внутренних значений (тем самым просто сводя нас к функциональному эквиваленту программируемого компьютера). [68]

Современные исследования в области общего искусственного интеллекта

Термин «искусственный общий интеллект» был использован еще в 1997 году Марком Губрудом [69] при обсуждении последствий полностью автоматизированного военного производства и операций. Математический формализм AGI был предложен Маркусом Хаттером в 2000 году. Названный AIXI , предлагаемый агент AGI максимизирует «способность удовлетворять целям в широком диапазоне сред». [70] Этот тип AGI, характеризующийся способностью максимизировать математическое определение интеллекта, а не демонстрировать человекоподобное поведение, [71] также назывался универсальным искусственным интеллектом. [72]

Термин AGI был повторно введен и популяризирован Шейном Леггом и Беном Герцелем около 2002 года. [73] Исследовательская деятельность AGI в 2006 году была описана Пэй Ваном и Беном Герцелем [74] как «подготовка публикаций и предварительных результатов». Первая летняя школа по AGI была организована в Сямыне, Китай, в 2009 году [75] Лабораторией искусственного мозга и OpenCog Сямыньского университета. Первый университетский курс был прочитан в 2010 [76] и 2011 [77] в Пловдивском университете, Болгария, Тодором Арнаудовым. Массачусетский технологический институт представил курс по AGI в 2018 году, организованный Лексом Фридманом и с участием ряда приглашенных лекторов.

По состоянию на 2023 год небольшое количество компьютерных ученых активно занимаются исследованиями AGI, и многие из них вносят вклад в серию конференций AGI . Однако все больше исследователей интересуются открытым обучением, [78] [79], которое представляет собой идею предоставления ИИ возможности непрерывно учиться и вводить новшества, как это делают люди.

Осуществимость

По состоянию на 2023 год разработка и потенциальное достижение Искусственного Общего Интеллекта (AGI) остаются предметом интенсивных дебатов в сообществе ИИ. В то время как традиционный консенсус считал, что AGI является отдаленной целью, недавние достижения привели некоторых исследователей и отраслевых деятелей к утверждению, что ранние формы AGI, возможно, уже существуют. [80] Пионер ИИ Герберт А. Саймон предположил в 1965 году, что «машины будут способны в течение двадцати лет выполнять любую работу, которую может выполнить человек». Это предсказание не сбылось. Соучредитель Microsoft Пол Аллен считал, что такой интеллект маловероятен в 21 веке, поскольку для этого потребуются «непредсказуемые и принципиально непредсказуемые прорывы» и «научно глубокое понимание познания». [81] В своей статье в The Guardian робототехник Алан Уинфилд утверждал, что пропасть между современными вычислениями и искусственным интеллектом человеческого уровня так же широка, как пропасть между текущими космическими полетами и практическими космическими полетами со скоростью, превышающей скорость света. [82]

Еще одной проблемой является отсутствие ясности в определении того, что подразумевает интеллект . Требуется ли для него сознание? Должен ли он демонстрировать способность ставить цели, а также добиваться их? Является ли это чисто вопросом масштаба, так что если размеры модели увеличатся достаточно, то появится интеллект? Требуются ли такие возможности, как планирование, рассуждение и причинно-следственное понимание? Требует ли интеллект явного копирования мозга и его конкретных способностей? Требуются ли для него эмоции? [83]

Большинство исследователей ИИ считают, что сильный ИИ может быть достигнут в будущем, но некоторые мыслители, такие как Хьюберт Дрейфус и Роджер Пенроуз , отрицают возможность достижения сильного ИИ. [84] [85] Джон Маккарти входит в число тех, кто считает, что ИИ человеческого уровня будет достигнут, но что нынешний уровень прогресса таков, что дату невозможно точно предсказать. [86] Мнения экспертов по ИИ о возможности создания ИИ то растут, то падают. Четыре опроса, проведенных в 2012 и 2013 годах, показали, что медианная оценка среди экспертов того, когда они были бы на 50% уверены в появлении ИИ, составляла 2040–2050 годы, в зависимости от опроса, при этом среднее значение составило 2081 год. Из экспертов 16,5% ответили «никогда», когда им задали тот же вопрос, но с уверенностью 90%. [87] [88] Дополнительные соображения о текущем прогрессе ИИ можно найти выше Тесты для подтверждения ИИ человеческого уровня.

В отчете Стюарта Армстронга и Кая Соталы из Исследовательского института машинного интеллекта говорится, что «за 60-летний период наблюдается сильная предвзятость в отношении прогнозирования появления ИИ человеческого уровня в течение 15–25 лет с момента, когда был сделан прогноз». Они проанализировали 95 прогнозов, сделанных в период с 1950 по 2012 год, относительно того, когда появится ИИ человеческого уровня. [89]

В 2023 году исследователи Microsoft опубликовали подробную оценку GPT-4 . Они пришли к выводу: «Учитывая широту и глубину возможностей GPT-4, мы считаем, что ее можно обоснованно рассматривать как раннюю (но все еще неполную) версию системы искусственного интеллекта общего назначения (AGI)». [90] Другое исследование, проведенное в 2023 году, сообщило, что GPT-4 превосходит 99% людей в тестах Торренса на творческое мышление . [91] [92]

Блез Агуэра-и-Аркас и Питер Норвиг писали в 2023 году, что значительный уровень общего интеллекта уже достигнут с помощью пограничных моделей . Они писали, что нежелание придерживаться этой точки зрения обусловлено четырьмя основными причинами: «здоровый скептицизм в отношении метрик для AGI», «идеологическая приверженность альтернативным теориям или методам ИИ», «преданность человеческой (или биологической) исключительности» или «озабоченность экономическими последствиями AGI». [93]

2023 год также ознаменовался появлением крупных мультимодальных моделей (крупных языковых моделей, способных обрабатывать или генерировать множественные модальности , такие как текст, аудио и изображения). [94]

В 2024 году OpenAI выпустила o1-preview , первую из серии моделей, которые «тратят больше времени на размышления, прежде чем ответить». По словам Миры Мурати , эта способность думать, прежде чем ответить, представляет собой новую, дополнительную парадигму. Она улучшает выходные данные модели, тратя больше вычислительной мощности при генерации ответа, тогда как парадигма масштабирования модели улучшает выходные данные, увеличивая размер модели, обучающие данные и вычислительную мощность обучения. [95] [96]

Временные рамки

ИИ превзошел людей по ряду показателей понимания языка и визуального восприятия. [97] По состоянию на 2023 год базовым моделям все еще не хватает продвинутых возможностей рассуждения и планирования, но ожидается быстрый прогресс. [98]

Прогресс в области искусственного интеллекта исторически проходил через периоды быстрого прогресса, разделенные периодами, когда прогресс, казалось, останавливался. [84] Завершением каждого перерыва были фундаментальные достижения в области аппаратного обеспечения, программного обеспечения или того и другого, чтобы создать пространство для дальнейшего прогресса. [84] [99] [100] Например, компьютерное оборудование, имевшееся в двадцатом веке, было недостаточно для реализации глубокого обучения, которое требует большого количества центральных процессоров с поддержкой графических процессоров . [101]

В предисловии к своей книге 2006 года [102] Герцель говорит, что оценки времени, необходимого для создания по-настоящему гибкого ИИ, варьируются от 10 лет до более чем столетия. По состоянию на 2007 год консенсус в сообществе исследователей ИИ, по-видимому, заключался в том, что временная шкала, обсуждаемая Рэем Курцвейлом в 2005 году в книге «Сингулярность близка» [103] (т. е. между 2015 и 2045 годами), была правдоподобной. [104] Основные исследователи ИИ высказали широкий спектр мнений о том, будет ли прогресс таким быстрым. Метаанализ 95 таких мнений, проведенный в 2012 году, выявил предвзятость в отношении предсказания того, что начало ИИ произойдет в течение 16–26 лет как для современных, так и для исторических прогнозов. Эта статья подверглась критике за то, как она классифицировала мнения как экспертные или неэкспертные. [105]

В 2012 году Алекс Крижевский , Илья Суцкевер и Джеффри Хинтон разработали нейронную сеть под названием AlexNet , которая выиграла соревнование ImageNet с показателем ошибок в топ-5 тестов 15,3%, что значительно лучше показателя второго лучшего участника 26,3% (традиционный подход использовал взвешенную сумму оценок из разных предопределенных классификаторов). [106] AlexNet считалась первопроходцем в современной волне глубокого обучения . [106]

В 2017 году исследователи Фэн Лю, Юн Ши и Ин Лю провели тесты интеллекта на общедоступных и свободно доступных слабых ИИ, таких как Google AI, Siri от Apple и других. Максимально эти ИИ достигли значения IQ около 47, что примерно соответствует шестилетнему ребенку в первом классе. Взрослый человек достигает в среднем около 100. Аналогичные тесты проводились в 2014 году, и максимальный показатель IQ достиг 27. [107] [108]

В 2020 году OpenAI разработала GPT-3 , языковую модель, способную выполнять множество разнообразных задач без специальной подготовки. По словам Гари Гроссмана в статье VentureBeat , хотя и существует консенсус относительно того, что GPT-3 не является примером AGI, некоторые считают ее слишком продвинутой, чтобы ее можно было классифицировать как узкую систему ИИ. [109]

В том же году Джейсон Рорер использовал свою учетную запись GPT-3 для разработки чат-бота и предоставил платформу для разработки чат-ботов под названием «Проект Декабрь». OpenAI запросил внести изменения в чат-бот для соответствия их правилам безопасности; Рорер отключил Проект Декабрь от API GPT-3. [110]

В 2022 году DeepMind разработала Gato — систему «общего назначения», способную выполнять более 600 различных задач. [111]

В 2023 году Microsoft Research опубликовала исследование ранней версии GPT-4 от OpenAI , утверждая, что она продемонстрировала более общий интеллект, чем предыдущие модели ИИ, и продемонстрировала производительность человеческого уровня в задачах, охватывающих несколько областей, таких как математика, кодирование и юриспруденция. Это исследование вызвало дискуссию о том, можно ли считать GPT-4 ранней, неполной версией искусственного общего интеллекта, подчеркнув необходимость дальнейшего изучения и оценки таких систем. [112]

В 2023 году исследователь искусственного интеллекта Джеффри Хинтон заявил, что: [113]

Идея, что эта штука действительно может стать умнее людей – несколько человек верили в это, [...]. Но большинство людей считали, что это очень далеко. И я думал, что это очень далеко. Я думал, что это произойдет через 30-50 лет или даже дольше. Очевидно, я больше так не думаю.

В мае 2023 года Демис Хассабис аналогичным образом заявил, что «прогресс за последние несколько лет был просто невероятным», и что он не видит причин, по которым он замедлится, ожидая появления AGI в течение десятилетия или даже нескольких лет. [114] В марте 2024 года генеральный директор Nvidia Дженсен Хуанг заявил, что ожидает, что в течение пяти лет ИИ сможет пройти любой тест, по крайней мере, так же хорошо, как люди. [115] В июне 2024 года исследователь ИИ Леопольд Ашенбреннер, бывший сотрудник OpenAI , оценил появление AGI к 2027 году как «поразительно правдоподобное». [116]

Эмуляция всего мозга

В то время как разработка моделей- трансформеров , таких как ChatGPT, считается наиболее перспективным путем к AGI, [117] [118] эмуляция всего мозга может служить альтернативным подходом. При моделировании всего мозга модель мозга создается путем сканирования и детального картирования биологического мозга, а затем копирования и моделирования его на компьютерной системе или другом вычислительном устройстве. Имитационная модель должна быть достаточно точной по отношению к оригиналу, чтобы вести себя практически так же, как и исходный мозг. [119] Эмуляция всего мозга — это тип моделирования мозга , который обсуждается в вычислительной нейронауке и нейроинформатике , а также в медицинских исследовательских целях. Он обсуждался в исследованиях искусственного интеллекта [104] как подход к сильному ИИ. Технологии нейровизуализации , которые могли бы обеспечить необходимое детальное понимание, быстро совершенствуются, и футурист Рэй Курцвейл в книге «Сингулярность близка » [103] предсказывает, что карта достаточного качества станет доступной в масштабе времени, аналогичном вычислительной мощности, необходимой для ее эмуляции.

Предварительные оценки

Оценки того, сколько вычислительной мощности необходимо для эмуляции человеческого мозга на разных уровнях (от Рэя Курцвейла, Андерса Сандберга и Ника Бострома ), а также самый быстрый суперкомпьютер из TOP500, нанесенный на карту по годам. Обратите внимание на логарифмическую шкалу и экспоненциальную линию тренда, которая предполагает, что вычислительная мощность удваивается каждые 1,1 года. Курцвейл считает, что загрузка разума будет возможна при нейронном моделировании, в то время как отчет Сандберга и Бострома менее определен относительно того, где возникает сознание . [120]

Для низкоуровневого моделирования мозга потребовался бы очень мощный кластер компьютеров или графических процессоров, учитывая огромное количество синапсов в человеческом мозге . Каждый из 10 11 (сто миллиардов) нейронов имеет в среднем 7000 синаптических связей (синапсов) с другими нейронами. Мозг трехлетнего ребенка имеет около 10 15 синапсов (1 квадриллион). Это число уменьшается с возрастом, стабилизируясь к взрослому возрасту. Оценки варьируются для взрослого человека, в пределах от 10 14 до 5×10 14 синапсов (от 100 до 500 триллионов). [121] Оценка вычислительной мощности мозга, основанная на простой модели переключения для активности нейронов, составляет около 10 14 (100 триллионов) синаптических обновлений в секунду ( SUPS ). [122]

В 1997 году Курцвейл рассмотрел различные оценки необходимого оборудования для достижения производительности человеческого мозга и принял цифру 1016 вычислений в секунду (cps). [e] (Для сравнения, если бы «вычисление» было эквивалентно одной « операции с плавающей точкой » — мера, используемая для оценки современных суперкомпьютеров — то 1016 « вычислений» были бы эквивалентны 10 петафлопс , достигнутым в 2011 году , в то время как 1018 было достигнуто в 2022 году .) Он использовал эту цифру, чтобы предсказать, что необходимое оборудование будет доступно где-то между 2015 и 2025 годами, если экспоненциальный рост вычислительной мощности компьютеров на момент написания статьи продолжится.

Текущие исследования

Проект «Человеческий мозг» , финансируемая ЕС инициатива, действующая с 2013 по 2023 год, разработала особенно подробный и общедоступный атлас человеческого мозга. [125] В 2023 году исследователи из Университета Дьюка провели сканирование мозга мыши с высоким разрешением. [126] Ожидается, что суперкомпьютер с вычислительными возможностями, аналогичными человеческому мозгу, появится в апреле 2024 года. Названный «DeepSouth», он сможет выполнять 228 триллионов синаптических операций в секунду. [127]

Критика подходов, основанных на моделировании

Модель искусственного нейрона, принятая Курцвейлом и используемая во многих современных реализациях искусственных нейронных сетей , проста по сравнению с биологическими нейронами . Моделирование мозга, вероятно, должно было бы охватывать детальное клеточное поведение биологических нейронов , в настоящее время понимаемое только в общих чертах. Накладные расходы, вызванные полным моделированием биологических, химических и физических деталей поведения нейронов (особенно в молекулярном масштабе), потребовали бы вычислительных мощностей на несколько порядков больше, чем оценка Курцвейла. Кроме того, оценки не учитывают глиальные клетки , которые, как известно, играют роль в когнитивных процессах. [128]

Фундаментальная критика подхода с использованием симуляции мозга исходит из теории воплощенного познания , которая утверждает, что человеческое воплощение является существенным аспектом человеческого интеллекта и необходимо для обоснования смысла. [129] [126] Если эта теория верна, любая полностью функциональная модель мозга должна будет охватывать больше, чем просто нейроны (например, роботизированное тело). Герцель [104] предлагает виртуальное воплощение (как в метавселенных, таких как Second Life ) в качестве варианта, но неизвестно, будет ли этого достаточно.

Философская перспектива

«Сильный ИИ» в определении философии

В 1980 году философ Джон Сирл ввел термин «сильный ИИ» как часть своего аргумента о китайской комнате . [130] Он предложил провести различие между двумя гипотезами об искусственном интеллекте: [f]

Первый он назвал «сильным», потому что он делает более сильное утверждение: он предполагает, что с машиной произошло что-то особенное, что выходит за рамки тех способностей, которые мы можем проверить. Поведение машины со «слабым ИИ» было бы в точности идентично поведению машины со «сильным ИИ», но последняя также имела бы субъективный сознательный опыт. Такое использование также распространено в академических исследованиях ИИ и учебниках. [131]

В отличие от Сирла и основного ИИ, некоторые футуристы, такие как Рэй Курцвейл, используют термин «сильный ИИ» для обозначения «человеческого уровня искусственного интеллекта общего назначения». [103] Это не то же самое, что сильный ИИ Сирла , если только не предположить, что сознание необходимо для человеческого уровня ИИ. Академические философы, такие как Сирл, не верят, что это так, и для большинства исследователей искусственного интеллекта этот вопрос выходит за рамки. [132]

Основной ИИ больше всего интересует, как ведет себя программа . [133] По словам Рассела и Норвига , «пока программа работает, им все равно, называете ли вы ее реальной или симуляцией». [132] Если программа может вести себя так, как будто у нее есть разум, то нет необходимости знать, есть ли у нее на самом деле разум — в самом деле, не было бы способа узнать. Для исследований ИИ «слабая гипотеза ИИ» Сирла эквивалентна утверждению «возможен общий искусственный интеллект». Таким образом, по словам Рассела и Норвига, «большинство исследователей ИИ принимают слабую гипотезу ИИ как должное и не заботятся о сильной гипотезе ИИ». [132] Таким образом, для академических исследований ИИ «сильный ИИ» и «AGI» — это две разные вещи.

Сознание

Взаимосвязь между общим искусственным интеллектом (AGI) и сознанием является предметом продолжающихся философских дебатов, особенно между точками зрения материализма и идеализма .

Материалисты, особенно сторонники теории тождества разума и мозга , утверждают, что сознание идентично мозговым процессам. Согласно этой точке зрения, сознание возникает из сложных нейробиологических процессов, и если искусственная система воспроизводит функциональную организацию человеческого мозга, она по своей сути станет сознательной. [134] [135] [136]

Советские философы-материалисты также считали, что сознание является продуктом материальных процессов в мозге. Например, работа Ивана Павлова об условных рефлексах продемонстрировала, что психические процессы можно объяснить с помощью физиологических механизмов. [137] [138] Согласно материализму, интеллект и сознание неразделимы, поскольку оба возникают из физических взаимодействий в мозге. [139]

Поэтому, если искусственная система достигнет уровня сложности и организации, схожего с человеческим мозгом, она будет проявлять сознание как возникающее свойство. [140] [141]

Идеалисты , напротив, считают, что сознание является фундаментальным и не может быть полностью объяснено только физическими процессами. Они предполагают, что даже если бы AGI мог имитировать человеческий интеллект, он не обладал бы истинным сознанием, если бы не разделял нефизическую сущность, составляющую сознательный опыт. Согласно идеализму, интеллект не влечет за собой автоматически сознание. [142] [143]

Сознание может иметь различные значения, и некоторые его аспекты играют важную роль в научной фантастике и этике искусственного интеллекта:

Эти черты имеют моральное измерение. Чувствительность ИИ может вызвать опасения относительно благополучия и правовой защиты, как и у животных. [148] Другие аспекты сознания, связанные с когнитивными способностями, также имеют отношение к концепции прав ИИ. [149] Выяснение того, как интегрировать продвинутый ИИ с существующими правовыми и социальными рамками, является актуальной проблемой. [150]

Преимущества

AGI может иметь широкий спектр применений. Если его направить на такие цели, AGI может помочь смягчить различные проблемы в мире, такие как голод, бедность и проблемы со здоровьем. [151]

AGI может повысить производительность и эффективность большинства рабочих мест. Например, в здравоохранении AGI может ускорить медицинские исследования, особенно в области борьбы с раком. [152] Он может заботиться о пожилых людях, [153] и демократизировать доступ к быстрой, высококачественной медицинской диагностике. Он может предложить веселое, дешевое и персонализированное образование. [153] Практически любую работу, которая приносит пользу обществу, если она выполняется хорошо, рано или поздно, вероятно, будет предпочтительнее оставить AGI. Необходимость работать, чтобы выжить, может устареть, если произведенное богатство будет правильно перераспределено . [153] [154] Это также поднимает вопрос о месте людей в радикально автоматизированном обществе.

AGI также может помочь принимать рациональные решения, а также предвидеть и предотвращать катастрофы. Он также может помочь извлечь выгоду из потенциально катастрофических технологий, таких как нанотехнологии или климатическая инженерия , избегая при этом связанных с ними рисков. [155] Если основная цель AGI — предотвратить экзистенциальные катастрофы, такие как вымирание человечества (что может быть сложно, если гипотеза уязвимого мира окажется верной), [156] он может принять меры по радикальному снижению рисков [155] , минимизируя при этом влияние этих мер на качество нашей жизни.

Риски

Экзистенциальные риски

AGI может представлять собой несколько типов экзистенциального риска , которые представляют собой риски, угрожающие «преждевременным вымиранием разумной жизни, возникшей на Земле, или постоянным и радикальным разрушением ее потенциала для желаемого будущего развития». [157] Риск вымирания человечества из-за AGI был темой многих дебатов, но также существует вероятность того, что развитие AGI приведет к постоянно испорченному будущему. В частности, его можно использовать для распространения и сохранения набора ценностей того, кто его разрабатывает. Если у человечества все еще есть моральные слепые пятна, подобные рабству в прошлом, AGI может необратимо закрепить их, предотвращая моральный прогресс . [158] Кроме того, AGI может способствовать массовому надзору и индоктринации, что может быть использовано для создания стабильного репрессивного всемирного тоталитарного режима. [159] [160] Существует также риск для самих машин. Если в будущем будут массово создаваться машины, обладающие чувствами или иным образом заслуживающие морального рассмотрения, то вступление на цивилизационный путь, который на неопределенный срок пренебрегает их благополучием и интересами, может стать экзистенциальной катастрофой. [161] [162] Рассматривая то, насколько ИИ может улучшить будущее человечества и помочь снизить другие экзистенциальные риски, Тоби Орд называет эти экзистенциальные риски «аргументом в пользу того, чтобы действовать с должной осторожностью», а не «отказываться от ИИ». [159]

Риск потери контроля и вымирания человечества

Тезис о том, что ИИ представляет экзистенциальный риск для людей и что этот риск требует большего внимания, является спорным, но был поддержан в 2023 году многими общественными деятелями, исследователями ИИ и руководителями компаний, занимающихся ИИ, такими как Илон Маск , Билл Гейтс , Джеффри Хинтон , Йошуа Бенджио , Демис Хассабис и Сэм Альтман . [163] [164]

В 2014 году Стивен Хокинг раскритиковал широко распространенное равнодушие:

Итак, сталкиваясь с возможным будущим неисчислимых выгод и рисков, эксперты наверняка делают все возможное, чтобы обеспечить наилучший результат, верно? Неправильно. Если бы превосходящая инопланетная цивилизация послала нам сообщение, говорящее: «Мы прибудем через несколько десятилетий», мы бы просто ответили: «Хорошо, позвоните нам, когда прибудете — мы оставим свет включенным?» Вероятно, нет — но это примерно то, что происходит с ИИ. [165]

Потенциальную судьбу человечества иногда сравнивали с судьбой горилл, которым угрожает деятельность человека. Сравнение утверждает, что более высокий уровень интеллекта позволил человечеству доминировать над гориллами, которые теперь уязвимы в таких аспектах, которые они не могли предвидеть. В результате горилла стала вымирающим видом, не из-за злого умысла, а просто как сопутствующий ущерб от деятельности человека. [166]

Скептик Ян Лекун считает, что у ИИ не будет желания доминировать над человечеством, и что нам следует быть осторожными, чтобы не антропоморфизировать их и не интерпретировать их намерения так, как мы бы это делали для людей. Он сказал, что люди не будут «достаточно умны, чтобы проектировать сверхразумные машины, но при этом будут смехотворно глупы до такой степени, чтобы ставить им идиотские цели без каких-либо гарантий». [167] С другой стороны, концепция инструментальной конвергенции предполагает, что почти какими бы ни были их цели, у разумных агентов будут причины попытаться выжить и получить больше власти в качестве промежуточных шагов к достижению этих целей. И что для этого не требуется иметь эмоции. [168]

Многие ученые, обеспокоенные экзистенциальным риском, выступают за проведение дополнительных исследований в области решения « проблемы контроля », чтобы ответить на вопрос: какие типы мер безопасности, алгоритмов или архитектур могут реализовать программисты, чтобы максимизировать вероятность того, что их рекурсивно улучшающийся ИИ продолжит вести себя дружелюбно , а не разрушительно, после того как достигнет уровня сверхинтеллекта? [169] [170] Решение проблемы контроля осложняется гонкой вооружений ИИ (которая может привести к гонке на грани снижения мер безопасности, чтобы выпустить продукцию раньше конкурентов) [171] и использованием ИИ в системах оружия. [172]

Тезис о том, что ИИ может представлять экзистенциальный риск, также имеет противников. Скептики обычно говорят, что ИИ маловероятен в краткосрочной перспективе, или что опасения по поводу ИИ отвлекают от других вопросов, связанных с текущим ИИ. [173] Бывший король мошенничества Google Шуман Гошемаджумдер считает, что для многих людей за пределами технологической отрасли существующие чат-боты и LLM уже воспринимаются как ИИ, что приводит к дальнейшему непониманию и страху. [174]

Скептики иногда заявляют, что этот тезис является крипторелигиозным, с иррациональной верой в возможность сверхразума, заменяющей иррациональную веру во всемогущего Бога. [175] Некоторые исследователи полагают, что коммуникационные кампании по экзистенциальному риску ИИ, проводимые определенными группами ИИ (такими как OpenAI, Anthropic, DeepMind и Conjecture), могут быть попыткой регуляторного захвата и раздувания интереса к их продуктам. [176] [177]

В 2023 году генеральные директора Google DeepMind, OpenAI и Anthropic, а также другие лидеры отрасли и исследователи опубликовали совместное заявление, в котором утверждалось, что «Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война». [164]

Массовая безработица

Исследователи из OpenAI подсчитали, что «80% рабочей силы США могут столкнуться с тем, что введение LLM повлияет как минимум на 10% рабочих задач, в то время как около 19% работников могут столкнуться с тем, что повлияет как минимум на 50% своих задач». [178] [179] Они считают, что наиболее уязвимыми являются офисные работники, например, математики, бухгалтеры или веб-дизайнеры. [179] AGI может обладать большей автономностью, способностью принимать решения, взаимодействовать с другими компьютерными инструментами, а также управлять роботизированными телами.

По словам Стивена Хокинга, влияние автоматизации на качество жизни будет зависеть от того, как будет перераспределено богатство: [154]

Каждый может наслаждаться жизнью роскошного досуга, если машинное богатство будет разделено, или большинство людей могут оказаться в нищете, если владельцы машин успешно пролоббируют перераспределение богатства. Пока что тенденция, похоже, направлена ​​на второй вариант, поскольку технологии приводят к постоянно растущему неравенству

Илон Маск считает, что автоматизация общества потребует от правительств принятия всеобщего базового дохода . [180]

Смотрите также

Примечания

  1. ^ ab См. ниже происхождение термина «сильный ИИ», а также академическое определение « сильного ИИ » и «слабого ИИ» в статье «Китайская комната» .
  2. ^ Основатель ИИ Джон Маккарти пишет: «Мы пока не можем в целом охарактеризовать, какие виды вычислительных процедур мы хотим назвать интеллектуальными». [30] (Обсуждение некоторых определений интеллекта, используемых исследователями искусственного интеллекта , см. в разделе «Философия искусственного интеллекта ».)
  3. ^ Отчет Лайтхилла конкретно критиковал «грандиозные цели» ИИ и привел к сворачиванию исследований ИИ в Англии. [57] В США DARPA решила финансировать только «ориентированные на выполнение миссии прямые исследования, а не базовые ненаправленные исследования». [58] [59]
  4. ^ Как пишет основатель ИИ Джон Маккарти , «для остальных работников ИИ было бы большим облегчением, если бы изобретатели новых общих формализмов выразили свои надежды в более сдержанной форме, чем это иногда имело место». [63]
  5. ^ В "Mind Children" [123] используется 10 15 cps. Совсем недавно, в 1997 году, [124] Моравек утверждал, что 10 8 MIPS, что примерно соответствует 10 14 cps. Моравек говорит в терминах MIPS, а не "cps", что является нестандартным термином, введенным Курцвейлом.
  6. ^ Как определено в стандартном учебнике по ИИ: «Утверждение о том, что машины могут действовать разумно (или, возможно, лучше сказать, действовать так, как если бы они были разумными), философы называют гипотезой «слабого ИИ», а утверждение о том, что машины, которые так делают, на самом деле мыслят (а не имитируют мышление), называют гипотезой «сильного ИИ». [122]
  7. ^ Алан Тьюринг высказал эту точку зрения в 1950 году. [39]

Ссылки

  1. ^ Кришна, Шри (9 февраля 2023 г.). «Что такое искусственный узкий интеллект (ANI)?». VentureBeat . Получено 1 марта 2024 г. ANI предназначен для выполнения одной задачи.
  2. ^ Эртель, Вольфганг (2018). Введение в искусственный интеллект . Springer. стр. 12. ISBN 978-3-3195-8487-4Системы искусственного узкого интеллекта специализируются в одной области.
  3. ^ Хаугеланд, Джон (1989). Искусственный интеллект: Сама идея . MIT Press. ISBN 978-0-2625-8095-3. Сильный ИИ утверждает, что машины можно заставить мыслить на уровне человека.
  4. ^ "OpenAI Charter". OpenAI . Получено 6 апреля 2023 г. Наша миссия — обеспечить, чтобы искусственный интеллект приносил пользу всему человечеству.
  5. ^ Хит, Алекс (18 января 2024 г.). «Новая цель Марка Цукерберга — создание общего искусственного интеллекта». The Verge . Получено 13 июня 2024 г. Наша цель — создать ИИ, превосходящий человеческий уровень во всех человеческих чувствах.
  6. ^ Баум, Сет Д. (2020). Обзор проектов искусственного интеллекта общего назначения для этики, риска и политики (PDF) (Отчет). Институт глобального катастрофического риска . Получено 13 января 2022 г. Мы выявили 72 проекта исследований и разработок в области искусственного интеллекта.
  7. ^ ab "Хронология развития ИИ: чего ожидают эксперты в области искусственного интеллекта от будущего?". Our World in Data . Получено 6 апреля 2023 г.
  8. ^ Грейс, Катя; Сальватье, Джон; Дефо, Аллан; Чжан, Баобао; Эванс, Оуайн (2018). «Когда ИИ превзойдет человеческие возможности? Данные экспертов по ИИ». arXiv : 1705.08807 [cs.AI]. Эксперты оценивают вероятность появления ИИ к 2050 году в 50%.
  9. ^ Агуэра и Аркас, Блейз (10 октября 2023 г.). «Искусственный общий интеллект уже здесь». Ноэма . Я считаю, что мы уже находимся в присутствии ИИОН.
  10. ^ «Пионер ИИ Джеффри Хинтон покидает Google и предупреждает о грядущей опасности». The New York Times . 1 мая 2023 г. Получено 2 мая 2023 г. Трудно понять, как можно помешать злоумышленникам использовать его в плохих целях.
  11. ^ Бубек, Себастьен; Чандрасекаран, Варун; Элдан, Ронен; Герке, Йоханнес; Хорвиц, Эрик (2023). «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4». Препринт arXiv . arXiv : 2303.12712 . GPT-4 демонстрирует искры AGI.
  12. ^ Батлер, Октавия Э. (1993). Притча о сеятеле . Grand Central Publishing. ISBN 978-0-4466-7550-5. Все, к чему ты прикасаешься, меняется. Все, что ты меняешь, меняет тебя.
  13. ^ Виндж, Вернор (1992). Огонь над бездной . Tor Books. ISBN 978-0-8125-1528-2. Сингулярность приближается.
  14. ^ Морозов, Евгений (30 июня 2023 г.). «Истинная угроза искусственного интеллекта». The New York Times . Реальная угроза — это не сам ИИ, а то, как мы его применяем.
  15. ^ «Впечатлены искусственным интеллектом? Эксперты говорят, что следующим появится ОИИ, и у него есть «экзистенциальные» риски». ABC News . 23 марта 2023 г. . Получено 6 апреля 2023 г. ОИИ может представлять экзистенциальные риски для человечества.
  16. ^ Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии . Oxford University Press. ISBN 978-0-1996-7811-2. Первый сверхразум станет последним изобретением, которое предстоит сделать человечеству.
  17. ^ Руз, Кевин (30 мая 2023 г.). «ИИ несет «риск вымирания», предупреждают лидеры отрасли». The New York Times . Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом.
  18. ^ "Заявление о риске ИИ". Центр безопасности ИИ . Получено 1 марта 2024 г. Эксперты по ИИ предупреждают о риске вымирания из-за ИИ.
  19. ^ Митчелл, Мелани (30 мая 2023 г.). «Стоит ли серьезно относиться к сценариям конца света от ИИ?». The New York Times . Мы далеки от создания машин, которые смогут превзойти нас в общих чертах.
  20. ^ ЛеКун, Янн (июнь 2023 г.). «ИИ не представляет экзистенциального риска». Medium . Нет причин бояться ИИ как экзистенциальной угрозы.
  21. ^ Курцвейл 2005, стр. 260.
  22. ^ ab Kurzweil, Ray (5 августа 2005 г.), «Long Live AI», Forbes , архивировано из оригинала 14 августа 2005 г.: Курцвейл описывает сильный ИИ как «машинный интеллект с полным спектром человеческого интеллекта».
  23. ^ "Эпоха искусственного интеллекта: Джордж Джон на TEDxLondonBusinessSchool 2013". Архивировано из оригинала 26 февраля 2014 года . Получено 22 февраля 2014 года .
  24. ^ «Хронология развития ИИ: чего ожидают эксперты в области искусственного интеллекта от будущего?». Our World in Data . Получено 6 апреля 2023 г.
  25. ^ Ньюэлл и Саймон 1976, Этот термин они используют для обозначения интеллекта «человеческого уровня» в гипотезе физической символьной системы .
  26. ^ "Открытый университет сильного и слабого ИИ". Архивировано из оригинала 25 сентября 2009 года . Получено 8 октября 2007 года .
  27. ^ "Что такое искусственный суперинтеллект (ИСИ)? | Определение от TechTarget". Enterprise AI . Получено 8 октября 2023 г. .
  28. ^ «Искусственный интеллект преобразует наш мир — мы все должны убедиться, что все идет хорошо». Наш мир в данных . Получено 8 октября 2023 г.
  29. ^ Диксон, Бен (16 ноября 2023 г.). «Вот насколько мы далеки от достижения AGI, согласно DeepMind». VentureBeat .
  30. ^ Маккарти, Джон (2007a). «Основные вопросы». Стэнфордский университет . Архивировано из оригинала 26 октября 2007 года . Получено 6 декабря 2007 года .
  31. ^ Этот список интеллектуальных черт основан на темах, рассматриваемых в основных учебниках по искусственному интеллекту, в том числе: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 и Nilsson 1998.
  32. ^ Джонсон 1987
  33. ^ де Чармс, Р. (1968). Личная причинность. Нью-Йорк: Academic Press.
  34. ^ Пфайфер, Р. и Бонгард Дж. К., Как тело формирует наш образ мышления: новый взгляд на интеллект (The MIT Press, 2007). ISBN 0-2621-6239-3 
  35. ^ Уайт, RW (1959). «Мотивация переосмыслена: концепция компетентности». Psychological Review . 66 (5): 297–333. doi :10.1037/h0040934. PMID  13844397. S2CID  37385966.
  36. ^ Мюльхаузер, Люк (11 августа 2013 г.). «Что такое AGI?». Исследовательский институт машинного интеллекта. Архивировано из оригинала 25 апреля 2014 г. Получено 1 мая 2014 г.
  37. ^ "Что такое искусственный интеллект общего назначения (AGI)? | 4 теста для обеспечения искусственного интеллекта общего назначения". Talky Blog . 13 июля 2019 г. Архивировано из оригинала 17 июля 2019 г. Получено 17 июля 2019 г.
  38. ^ Кирк-Джаннини, Кэмерон Доменико; Голдштейн, Саймон (16 октября 2023 г.). «ИИ как никогда близок к прохождению теста Тьюринга на «интеллект». Что произойдет, когда он это сделает?». The Conversation . Получено 22 сентября 2024 г.
  39. ^ Тьюринг 1950.
  40. ^ Тьюринг, Алан (1952). Б. Джек Коупленд (ред.). Можно ли сказать, что автоматические вычислительные машины думают? Оксфорд: Oxford University Press. С. 487–506. ISBN 978-0-1982-5079-1.
  41. ^ «Юджин Густман — настоящий мальчик — так говорит тест Тьюринга». The Guardian . 9 июня 2014 г. ISSN  0261-3077 . Получено 3 марта 2024 г.
  42. ^ «Ученые спорят, прошел ли компьютер «Юджин Густман» тест Тьюринга». BBC News . 9 июня 2014 г. Получено 3 марта 2024 г.
  43. ^ Варанаси, Лакшми (21 марта 2023 г.). «Модели ИИ, такие как ChatGPT и GPT-4, успешно сдают все — от экзамена на адвоката до AP Biology. Вот список сложных экзаменов, которые сдали обе версии ИИ». Business Insider . Получено 30 мая 2023 г.
  44. ^ Нейсмит, Кейлеб (7 февраля 2023 г.). «6 профессий, которые искусственный интеллект уже заменяет, и как инвесторы могут извлечь из этого выгоду» . Получено 30 мая 2023 г.
  45. ^ Тёрк, Виктория (28 января 2015 г.). «План замены теста Тьюринга на «Олимпиаду Тьюринга». Vice . Получено 3 марта 2024 г.
  46. ^ Гопани, Ави (25 мая 2022 г.). «Тест Тьюринга ненадежен. Схема Винограда устарела. Кофе — вот ответ». Журнал Analytics India . Получено 3 марта 2024 г.
  47. ^ Бхаймия, Сауда (20 июня 2023 г.). «Соучредитель DeepMind предложил протестировать способность чат-бота на основе искусственного интеллекта превращать 100 000 долларов в 1 миллион долларов для измерения человеческого интеллекта». Business Insider . Получено 3 марта 2024 г.
  48. ^ Сулейман, Мустафа (14 июля 2023 г.). «Мустафа Сулейман: Мой новый тест Тьюринга покажет, может ли ИИ заработать 1 миллион долларов». MIT Technology Review . Получено 3 марта 2024 г.
  49. ^ Шапиро, Стюарт К. (1992). «Искусственный интеллект» (PDF) . В Стюарт К. Шапиро (ред.). Энциклопедия искусственного интеллекта (второе изд.). Нью-Йорк: John Wiley. стр. 54–57. Архивировано (PDF) из оригинала 1 февраля 2016 г.(Раздел 4 посвящен «Задачам, выполняемым с помощью ИИ».)
  50. ^ Ямпольский, Роман В. (2012). Xin-She Yang (ред.). "Тест Тьюринга как определяющая черта полноты ИИ" (PDF) . Искусственный интеллект, эволюционные вычисления и метаэвристика (AIECM) : 3–17. Архивировано (PDF) из оригинала 22 мая 2013 г.
  51. ^ "Индекс ИИ: состояние ИИ в 13 диаграммах". Стэнфордский университет, ориентированный на человека искусственный интеллект . 15 апреля 2024 г. Получено 27 мая 2024 г.
  52. ^ Кревьер 1993, стр. 48–50
  53. ^ Каплан, Андреас (2022). «Искусственный интеллект, бизнес и цивилизация — наша судьба, созданная машинами». Архивировано из оригинала 6 мая 2022 года . Получено 12 марта 2022 года .
  54. Саймон 1965, стр. 96, цитируется в Кревье 1993, стр. 109
  55. ^ "Ученый на съемочной площадке: интервью с Марвином Мински". Архивировано из оригинала 16 июля 2012 года . Получено 5 апреля 2008 года .
  56. Марвин Мински Дарраху (1970), цитируется в Кревье (1993, стр. 109).
  57. ^ Лайтхилл 1973; Хау 1994
  58. ^ ab NRC 1999, «Переход к прикладным исследованиям увеличивает инвестиции».
  59. Crevier 1993, стр. 115–117; Russell & Norvig 2003, стр. 21–22.
  60. Crevier 1993, стр. 211, Russell & Norvig 2003, стр. 24 и см. также Feigenbaum & McCorduck 1983
  61. Crevier 1993, стр. 161–162, 197–203, 240; Russell & Norvig 2003, стр. 25.
  62. ^ Кревьер 1993, стр. 209–212
  63. ^ Маккарти, Джон (2000). «Ответ Лайтхиллу». Стэнфордский университет. Архивировано из оригинала 30 сентября 2008 года . Получено 29 сентября 2007 года .
  64. ^ Маркофф, Джон (14 октября 2005 г.). «За искусственным интеллектом — эскадрон ярких настоящих людей». The New York Times . Архивировано из оригинала 2 февраля 2023 г. . Получено 18 февраля 2017 г. . На пике популярности некоторые специалисты по информатике и инженеры-программисты избегали термина «искусственный интеллект», опасаясь, что их сочтут мечтателями с дикими глазами.
  65. ^ Рассел и Норвиг 2003, стр. 25–26
  66. ^ "Тенденции в цикле ажиотажа в развивающихся технологиях". Отчеты Gartner. Архивировано из оригинала 22 мая 2019 г. Получено 7 мая 2019 г.
  67. ^ ab Moravec 1988, стр. 20
  68. ^ Харнад, С. (1990). «Проблема заземления символов». Physica D. 42 ( 1–3): 335–346. arXiv : cs/9906002 . Bibcode : 1990PhyD...42..335H. doi : 10.1016/0167-2789(90)90087-6. S2CID  3204300.
  69. ^ Губруд 1997
  70. ^ Хаттер, Маркус (2005). Универсальный искусственный интеллект: последовательные решения, основанные на алгоритмической вероятности. Тексты по теоретической информатике, серия EATCS. ​​Springer. doi : 10.1007/b138233. ISBN 978-3-5402-6877-2. S2CID  33352850. Архивировано из оригинала 19 июля 2022 г. . Получено 19 июля 2022 г. .
  71. ^ Легг, Шейн (2008). Машинный сверхразум (PDF) (диссертация). Университет Лугано. Архивировано (PDF) из оригинала 15 июня 2022 года . Получено 19 июля 2022 года .
  72. ^ Герцель, Бен (2014). Общий искусственный интеллект. Конспекты лекций по информатике. Том. 8598. Журнал общего искусственного интеллекта. дои : 10.1007/978-3-319-09274-4. ISBN 978-3-3190-9273-7. S2CID  8387410.
  73. ^ "Кто придумал термин "AGI"?". goertzel.org . Архивировано из оригинала 28 декабря 2018 года . Получено 28 декабря 2018 года ., через Life 3.0 : «Термин «AGI» был популяризирован... Шейном Леггом, Марком Губрудом и Беном Герцелем»
  74. ^ Ван и Герцель 2007
  75. ^ "Первая международная летняя школа по общему искусственному интеллекту, Основная летняя школа: 22 июня – 3 июля 2009 г., OpenCog Lab: 6-9 июля 2009 г.". Архивировано из оригинала 28 сентября 2020 г. Получено 11 мая 2020 г.
  76. ^ «Избираеми дисциплини 2009/2010 – пролетен триместър» [Курсы по выбору 2009/2010 – весенний триместр]. Факультет по математике и информатике [Факультет математики и информатики] (на болгарском языке). Архивировано из оригинала 26 июля 2020 года . Проверено 11 мая 2020 г.
  77. ^ «Избираеми дисциплини 2010/2011 – зимний триместър» [Курсы по выбору 2010/2011 – зимний триместр]. Факультет по математике и информатике [Факультет математики и информатики] (на болгарском языке). Архивировано из оригинала 26 июля 2020 года . Проверено 11 мая 2020 г.
  78. ^ Шевлин, Генри; Волд, Карина; Кросби, Мэтью; Халина, Марта (4 октября 2019 г.). «Пределы машинного интеллекта: несмотря на прогресс в области машинного интеллекта, искусственный общий интеллект по-прежнему остается серьезной проблемой». EMBO Reports . 20 (10): e49177. doi :10.15252/embr.201949177. ISSN  1469-221X. PMC 6776890. PMID 31531926  . 
  79. ^ Бубек, Себастьян; Чандрасекаран, Варун; Эльдан, Ронен; Герке, Йоханнес; Хорвиц, Эрик; Камар, Эдже; Ли, Питер; Ли, Инь Тат; Ли, Юаньчжи; Лундберг, Скотт; Нори, Харша; Паланги, Хамид; Рибейро, Марко Тулио; Чжан, И (27 марта 2023 г.). «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4». arXiv : 2303.12712 [cs.CL].
  80. ^ «Исследователи Microsoft утверждают, что GPT-4 демонстрирует «искры» AGI». Futurism . 23 марта 2023 г. . Получено 13 декабря 2023 г. .
  81. ^ Аллен, Пол; Гривз, Марк (12 октября 2011 г.). «Сингулярность не близка». MIT Technology Review . Получено 17 сентября 2014 г.
  82. ^ Уинфилд, Алан. «Искусственный интеллект не превратится в чудовище Франкенштейна». The Guardian . Архивировано из оригинала 17 сентября 2014 года . Получено 17 сентября 2014 года .
  83. ^ Дин, Джордж (2022). «Машины, которые чувствуют и думают: роль аффективных чувств и умственных действий в (искусственном) общем интеллекте». Искусственная жизнь . 28 (3): 289–309. doi :10.1162/artl_a_00368. ISSN  1064-5462. PMID  35881678. S2CID  251069071.
  84. ^ abc Clocksin 2003.
  85. ^ Фьелланд, Рагнар (17 июня 2020 г.). «Почему общий искусственный интеллект не будет реализован». Humanities and Social Sciences Communications . 7 (1): 1–9. doi : 10.1057/s41599-020-0494-4 . hdl : 11250/2726984 . ISSN  2662-9992. S2CID  219710554.
  86. ^ Маккарти 2007b.
  87. ^ Хатчадурян, Раффи (23 ноября 2015 г.). «Изобретение Судного дня: принесет ли нам искусственный интеллект утопию или разрушение?». The New Yorker . Архивировано из оригинала 28 января 2016 г. Получено 7 февраля 2016 г.
  88. ^ Мюллер, В. К. и Бостром, Н. (2016). Будущий прогресс в области искусственного интеллекта: обзор мнений экспертов. В «Фундаментальных вопросах искусственного интеллекта» (стр. 555–572). Springer, Cham.
  89. ^ Армстронг, Стюарт и Кай Сотала. 2012. «Как мы предсказываем ИИ — или не можем». В Beyond AI: Artificial Dreams , под редакцией Яна Ромпортля, Павла Ирцинга, Евы Зацковой, Михала Полака и Радека Шустера, 52–75. Пльзень: Университет Западной Богемии
  90. ^ «Microsoft теперь заявляет, что GPT-4 демонстрирует «искры» общего интеллекта». 24 марта 2023 г.
  91. ^ Шимек, Кэри (6 июля 2023 г.). «ИИ превосходит людей в тесте на креативность». Neuroscience News . Получено 20 октября 2023 г.
  92. ^ Гузик, Эрик Э.; Бирдж, Кристиан; Джильд, Кристиан (1 декабря 2023 г.). «Оригинальность машин: ИИ проходит тест Торренса». Журнал творчества . 33 (3): 100065. doi : 10.1016/j.yjoc.2023.100065 . ISSN  2713-3745. S2CID  261087185.
  93. ^ Аркас, Блез Агуэра и (10 октября 2023 г.). «Общий искусственный интеллект уже здесь». Ноэма .
  94. ^ Зия, Техсин (8 января 2024 г.). «Открытие крупных мультимодальных моделей: формирование ландшафта языковых моделей в 2024 году». Unite.ai . Получено 26 мая 2024 г. .
  95. ^ "Представляем OpenAI o1-preview". OpenAI . 12 сентября 2024 г.
  96. ^ Найт, Уилл. «OpenAI анонсирует новую модель ИИ под кодовым названием Strawberry, которая решает сложные проблемы шаг за шагом». Wired . ISSN  1059-1028 . Получено 17 сентября 2024 г. .
  97. ^ «Индекс ИИ: состояние ИИ в 13 диаграммах». hai.stanford.edu . 15 апреля 2024 г. Получено 7 июня 2024 г.
  98. ^ "Искусственный интеллект следующего поколения: OpenAI и скачок Meta к рассуждающим машинам". Unite.ai . 19 апреля 2024 г. Получено 7 июня 2024 г.
  99. ^ Джеймс, Алекс П. (2022). «Почему, что и как в разработке чипов искусственного интеллекта общего назначения». IEEE Transactions on Cognitive and Developmental Systems . 14 (2): 333–347. arXiv : 2012.06338 . doi : 10.1109/TCDS.2021.3069871. ISSN  2379-8920. S2CID  228376556. Архивировано из оригинала 28 августа 2022 г. Получено 28 августа 2022 г.
  100. ^ Пей, Цзин; Дэн, Лей; Сонг, Сен; Чжао, Минго; Чжан, Юхуэй; Ву, Шуан; Ван, Гуанруй; Цзоу, Чжэ; Ву, Чжэньчжи; Он, Вэй; Чен, Фэн; Дэн, Нин; Ву, Си; Ван, Ю; Ву, Юцзе (2019). «На пути к общему искусственному интеллекту с гибридной архитектурой чипов Tianjic». Природа . 572 (7767): 106–111. Бибкод : 2019Natur.572..106P. дои : 10.1038/s41586-019-1424-8. ISSN  1476-4687. PMID  31367028. S2CID  199056116. Архивировано из оригинала 29 августа 2022 г. Получено 29 августа 2022 г.
  101. ^ Пандей, Мохит; Фернандес, Майкл; Джентиле, Франческо; Исаев, Александр; Тропша, Александр; Стерн, Авраам К.; Черкасов, Артем (март 2022 г.). «Трансформационная роль вычислений на графических процессорах и глубокого обучения в разработке лекарств». Nature Machine Intelligence . 4 (3): 211–221. doi : 10.1038/s42256-022-00463-x . ISSN  2522-5839. S2CID  252081559.
  102. ^ Герцель и Пенначин 2006.
  103. ^ abc (Курцвейл 2005, стр. 260)
  104. ^ abc Герцель 2007.
  105. ^ Грейс, Катя (2016). «Ошибка в Armstrong and Sotala 2012». AI Impacts (блог). Архивировано из оригинала 4 декабря 2020 года . Получено 24 августа 2020 года .
  106. ↑ Аб Бутц, Мартин В. (1 марта 2021 г.). «На пути к сильному ИИ». КИ – Künstliche Intelligenz . 35 (1): 91–101. дои : 10.1007/s13218-021-00705-x . ISSN  1610-1987. S2CID  256065190.
  107. ^ Лю, Фэн; Ши, Юн; Лю, Ин (2017). «Коэффициент интеллекта и уровень интеллекта искусственного интеллекта». Annals of Data Science . 4 (2): 179–191. arXiv : 1709.10242 . doi : 10.1007/s40745-017-0109-0. S2CID  37900130.
  108. ^ Brien, Jörn (5 октября 2017 г.). "Google-KI doppelt so schlau wie Siri" [ИИ Google в два раза умнее Siri, но шестилетний ребенок превосходит обоих] (на немецком языке). Архивировано из оригинала 3 января 2019 г. . Получено 2 января 2019 г. .
  109. ^ Гроссман, Гэри (3 сентября 2020 г.). «Мы входим в сумеречную зону ИИ между узким и общим ИИ». VentureBeat . Архивировано из оригинала 4 сентября 2020 г. . Получено 5 сентября 2020 г. . Конечно, есть и те, кто утверждает, что мы уже видим ранний пример системы AGI в недавно анонсированной нейронной сети обработки естественного языка (NLP) GPT-3. ... Так является ли GPT-3 первым примером системы AGI? Это спорно, но консенсус заключается в том, что это не AGI. ... Если ничего другого, GPT-3 говорит нам, что существует золотая середина между узким и общим ИИ.
  110. ^ Куах, Катянна. «Разработчик создал чат-бота на основе искусственного интеллекта с использованием GPT-3, который помог мужчине снова поговорить со своей покойной невестой. OpenAI отключил его». The Register. Архивировано из оригинала 16 октября 2021 г. Получено 16 октября 2021 г.
  111. Wiggers, Kyle (13 мая 2022 г.), «Новый ИИ DeepMind может выполнять более 600 задач: от игр до управления роботами», TechCrunch , заархивировано из оригинала 16 июня 2022 г. , извлечено 12 июня 2022 г.
  112. ^ Бубек, Себастьян; Чандрасекаран, Варун; Эльдан, Ронен; Герке, Йоханнес; Хорвиц, Эрик; Камар, Эдже; Ли, Питер; Ли, Инь Тат; Ли, Юаньчжи; Лундберг, Скотт; Нори, Харша; Паланги, Хамид; Рибейро, Марко Тулио; Чжан, И (22 марта 2023 г.). «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4». arXiv : 2303.12712 [cs.CL].
  113. ^ Метц, Кейд (1 мая 2023 г.). «Крестный отец ИИ покидает Google и предупреждает о надвигающейся опасности». The New York Times . ISSN  0362-4331 . Получено 7 июня 2023 г. .
  114. ^ Боув, Тристан. «ИИ может соперничать с человеческим интеллектом «всего за несколько лет», — заявил генеральный директор главной исследовательской лаборатории Google в области ИИ». Fortune . Получено 4 сентября 2024 г.
  115. ^ Неллис, Стивен (2 марта 2024 г.). «Генеральный директор Nvidia заявил, что ИИ может пройти испытания на людях через пять лет». Reuters .
  116. ^ Ашенбреннер, Леопольд. «СИТУАЦИОННАЯ ОСВЕДОМЛЕННОСТЬ, десятилетие вперед».
  117. ^ Салливан, Марк (18 октября 2023 г.). «Почему все, кажется, не согласны с определением Искусственного Общего Интеллекта». Fast Company .
  118. ^ Носта, Джон (5 января 2024 г.). «Ускоряющийся путь к искусственному интеллекту общего назначения». Psychology Today . Получено 30 марта 2024 г.
  119. ^ Хики, Алекс. «Эмуляция всего мозга: гигантский шаг для нейронауки». Tech Brew . Получено 8 ноября 2023 г.
  120. ^ Сандберг и Бострём 2008.
  121. ^ Драхман 2005.
  122. ^ ab Рассел и Норвиг 2003.
  123. ^ Моравец 1988, стр. 61.
  124. ^ Моравец 1998.
  125. ^ Холмгаард Мерш, Амалия (15 сентября 2023 г.). «Десятилетний европейский исследовательский проект картирует человеческий мозг». euractiv .
  126. ^ ab Thornton, Angela (26 июня 2023 г.). «Как загрузка наших умов в компьютер может стать возможной». The Conversation . Получено 8 ноября 2023 г.
  127. ^ Вичинанца, Доменико (18 декабря 2023 г.). «Новый суперкомпьютер призван максимально точно имитировать человеческий мозг — он может помочь раскрыть секреты разума и продвинуть ИИ». The Conversation . Получено 29 марта 2024 г.
  128. ^ Сваминатан, Никхил (январь–февраль 2011 г.). «Глия — другие клетки мозга». Discover . Архивировано из оригинала 8 февраля 2014 г. . Получено 24 января 2014 г. .
  129. ^ де Вега, Гленберг и Грэссер 2008. Широкий спектр взглядов в современных исследованиях, все из которых требуют обоснования в той или иной степени.
  130. ^ Сирл 1980
  131. ^ Например:
    • Рассел и Норвиг 2003,
    • Словарь психологии издательства Оксфордского университета. Архивировано 3 декабря 2007 г. на Wayback Machine (цитируется в "Encyclopedia.com"),
    • Энциклопедия когнитивной науки Массачусетского технологического института. Архивировано 19 июля 2008 г. на Wayback Machine (цитируется в "AITopics"),
    • Позволят ли биологические компьютеры машинам с искусственным интеллектом стать личностями? Архивировано 13 мая 2008 г. в Wayback Machine Энтони Тонген
  132. ^ abc Рассел и Норвиг 2003, стр. 947.
  133. ^ хотя см. раздел «Объясняемый искусственный интеллект» для любопытства по этой теме о том, почему программа ведет себя именно так, а не иначе.
  134. ^ Смарт, Дж. Дж. К. (1959). Ощущения и мозговые процессы. The Philosophical Review , 68(2), 141–156. doi:10.2307/2182164.
  135. ^ Place, UT (1956). Является ли сознание мозговым процессом? British Journal of Psychology , 47(1), 44–50. doi:10.1111/j.2044-8295.1956.tb00560.x.
  136. ^ Черчленд, П. М. (1981). Элиминативный материализм и пропозициональные установки. Журнал философии , 78(2), 67–90. doi:10.2307/2025900.
  137. ^ Павлов, И. П. (1927). Условные рефлексы . Oxford University Press.
  138. ^ Сеченов, И. М. (1863). Рефлексы головного мозга . МТИ Пресс.
  139. ^ Выготский, Л.С. (1986). Мысль и язык . MIT Press. ISBN 978-0262720106.
  140. ^ Деннетт, Д.К. (1991). Объяснение сознания . Little, Brown and Company. ISBN 978-0316180665.
  141. ^ Reggia, JA (2013). Рост машинного сознания: изучение сознания с помощью вычислительных моделей. Neural Networks , 44, 112–131. doi:10.1016/j.neunet.2013.03.011.
  142. ^ Чалмерс 1996.
  143. ^ Searle, JR (1980). Minds, brain, and programs. Поведенческие и мозговые науки , 3(3), 417–424. doi:10.1017/S0140525X00005756.
  144. ^ Чалмерс, Дэвид Дж. (9 августа 2023 г.). «Может ли большая языковая модель быть сознательной?». Boston Review .
  145. ^ Сет, Анил. «Сознание». New Scientist . Получено 5 сентября 2024 г.
  146. ^ Нагель 1974.
  147. ^ «Инженер Google, который думает, что искусственный интеллект компании ожил». The Washington Post . 11 июня 2022 г. Получено 12 июня 2023 г.
  148. ^ Кейтман, Брайан (24 июля 2023 г.). «ИИ должен бояться людей». TIME . Получено 5 сентября 2024 г. .
  149. ^ Носта, Джон (18 декабря 2023 г.). «Должен ли искусственный интеллект иметь права?». Psychology Today . Получено 5 сентября 2024 г.
  150. ^ Акст, Дэниел (10 апреля 2023 г.). «Должны ли роботы с искусственным интеллектом иметь моральные или юридические права?». The Wall Street Journal .
  151. ^ «Искусственный общий интеллект — перевешивают ли затраты выгоды?». 23 августа 2021 г. Получено 7 июня 2023 г.
  152. ^ «Как мы можем извлечь выгоду из развития общего искусственного интеллекта (AGI) – Unite.AI». www.unite.ai . 7 апреля 2020 г. . Получено 7 июня 2023 г. .
  153. ^ abc Talty, Jules; Julien, Stephan. «Как будет выглядеть наше общество, когда искусственный интеллект будет повсюду?». Smithsonian Magazine . Получено 7 июня 2023 г.
  154. ^ ab Stevenson, Matt (8 октября 2015 г.). «Ответы на вопросы Стивена Хокинга уже здесь!». Wired . ISSN  1059-1028 . Получено 8 июня 2023 г. .
  155. ^ ab Bostrom, Nick (2017). "§ Предпочтительный порядок прибытия". Суперинтеллект: пути, опасности, стратегии (перепечатано с исправлениями 2017 г.). Оксфорд, Великобритания; Нью-Йорк, Нью-Йорк, США: Oxford University Press. ISBN 978-0-1996-7811-2.
  156. ^ Пайпер, Келси (19 ноября 2018 г.). «Как технологический прогресс делает более вероятным, чем когда-либо, что люди уничтожат себя». Vox . Получено 8 июня 2023 г. .
  157. ^ Доэрти, Бен (17 мая 2018 г.). «Изменение климата — это «экзистенциальный риск безопасности» для Австралии, говорится в расследовании Сената». The Guardian . ISSN  0261-3077 . Получено 16 июля 2023 г. .
  158. ^ Макаскилл, Уильям (2022). Чем мы обязаны будущему . Нью-Йорк, Нью-Йорк: Basic Books. ISBN 978-1-5416-1862-6.
  159. ^ ab Ord, Toby (2020). «Глава 5: Будущие риски, несогласованный искусственный интеллект». Пропасть: экзистенциальный риск и будущее человечества . Bloomsbury Publishing. ISBN 978-1-5266-0021-9.
  160. ^ Аль-Сибаи, Нур (13 февраля 2022 г.). «Главный научный сотрудник OpenAI заявляет, что продвинутый ИИ уже может быть сознательным». Футуризм . Получено 24 декабря 2023 г.
  161. ^ Самуэльссон, Пол Конрад (2019). «Искусственное сознание: наш величайший этический вызов». Philosophy Now . Получено 23 декабря 2023 г.
  162. ^ Кейтман, Брайан (24 июля 2023 г.). «ИИ должен бояться людей». TIME . Получено 23 декабря 2023 г. .
  163. ^ Руз, Кевин (30 мая 2023 г.). «ИИ создает «риск вымирания», лидеры отрасли предупреждают». The New York Times . ISSN  0362-4331 . Получено 24 декабря 2023 г. .
  164. ^ ab «Заявление о риске ИИ». Центр безопасности ИИ . 30 мая 2023 г. Получено 8 июня 2023 г.
  165. ^ "Стивен Хокинг: «Трансцендентность» рассматривает последствия искусственного интеллекта, но достаточно ли мы серьезно относимся к ИИ?". The Independent (Великобритания) . Архивировано из оригинала 25 сентября 2015 года . Получено 3 декабря 2014 года .
  166. ^ Хергер, Марио. «Проблема гориллы – Enterprise Garage» . Получено 7 июня 2023 г.
  167. ^ "Увлекательные дебаты на Facebook между Яном Лекуном, Стюартом Расселом и Йошуа Бенджио о рисках сильного ИИ". Увлекательные дебаты на Facebook между Яном Лекуном, Стюартом Расселом и Йошуа Бенджио о рисках сильного ИИ (на французском) . Получено 8 июня 2023 г.
  168. ^ «Искусственный интеллект погубит человеческую расу в течение следующих 100 лет?». HuffPost . 22 августа 2014 г. Получено 8 июня 2023 г.
  169. ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск AGI: опрос». Физика Скрипта . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  170. ^ Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии (первое издание). Oxford University Press. ISBN 978-0-1996-7811-2.
  171. ^ Чоу, Эндрю Р.; Перриго, Билли (16 февраля 2023 г.). «Гонка вооружений ИИ началась. Начинайте беспокоиться». TIME . Получено 24 декабря 2023 г.
  172. ^ Тетлоу, Джемма (12 января 2017 г.). «Гонка вооружений ИИ рискует выйти из-под контроля, предупреждает отчет» . Financial Times . Архивировано из оригинала 11 апреля 2022 г. Получено 24 декабря 2023 г.
  173. ^ Милмо, Дэн; Стейси, Киран (25 сентября 2023 г.). «Эксперты расходятся во мнениях относительно угрозы, но искусственный интеллект нельзя игнорировать». The Guardian . ISSN  0261-3077 . Получено 24 декабря 2023 г. .
  174. ^ «Человечество, безопасность и ИИ, о боже! (совместно с Яном Бреммером и Шуманом Гоземаджумдером)». CAFE . 20 июля 2023 г. . Получено 15 сентября 2023 г. .
  175. Хамблин, Джеймс (9 мая 2014 г.). «Но что бы для меня значил конец человечества?». The Atlantic . Архивировано из оригинала 4 июня 2014 г. Получено 12 декабря 2015 г.
  176. ^ Титкомб, Джеймс (30 октября 2023 г.). «Большие технологические компании нагнетают страхи по поводу ИИ, предупреждают ученые». The Telegraph . Получено 7 декабря 2023 г.
  177. ^ Дэвидсон, Джон (30 октября 2023 г.). «Основатель Google Brain утверждает, что крупные технологические компании лгут об опасности исчезновения ИИ» . Australian Financial Review . Архивировано из оригинала 7 декабря 2023 г. . Получено 7 декабря 2023 г.
  178. ^ Элунду, Тайна; Мэннинг, Сэм; Мишкин, Памела; Рок, Дэниел (17 марта 2023 г.). «GPT — это GPT: ранний взгляд на потенциал воздействия больших языковых моделей на рынок труда». OpenAI . Получено 7 июня 2023 г.
  179. ^ ab Hurst, Luke (23 марта 2023 г.). «OpenAI утверждает, что 80% работников могут столкнуться с влиянием ИИ на свои рабочие места. Это рабочие места, которые затронуты больше всего». euronews . Получено 8 июня 2023 г.
  180. ^ Шеффи, Айелет (20 августа 2021 г.). «Илон Маск говорит, что нам нужен всеобщий базовый доход, потому что «в будущем физическая работа станет выбором»» . Business Insider . Архивировано из оригинала 9 июля 2023 г. . Получено 8 июня 2023 г.

Источники

Дальнейшее чтение

Внешние ссылки