stringtranslate.com

Общий искусственный интеллект

Общий искусственный интеллект ( AGI ) — это гипотетический тип интеллектуального агента [1] , который, если его реализовать, сможет научиться выполнять любую интеллектуальную задачу, которую могут выполнить люди или животные. [2] [3] Альтернативно, AGI определяется как автономная система, которая превосходит человеческие возможности в большинстве экономически ценных задач. [4] [ сомнительно ] Создание AGI является основной целью некоторых исследований искусственного интеллекта и таких компаний, как OpenAI , [5] DeepMind и Anthropic . ОИИ — распространенная тема в научной фантастике и исследованиях будущего .

Сроки развития AGI остаются предметом постоянных дискуссий среди исследователей и экспертов. По состоянию на 2023 год некоторые [ кто? ] утверждают, что это может стать возможным через годы или десятилетия; другие утверждают, что это может занять столетие или больше; и меньшинство полагает, что этого никогда не удастся достичь. [6] Ведутся споры о точном определении AGI и о том, являются ли современные модели больших языков (LLM), такие как GPT-4 , ранними, неполными формами AGI. [7]

Существуют разногласия по поводу того, что ИИИ может представлять угрозу человечеству; [1] например, OpenAI рассматривает это как экзистенциальный риск , в то время как другие считают, что развитие AGI слишком отдаленно, чтобы представлять риск. [8] [6] [9]

Исследование 2020 года выявило 72 активных проекта исследований и разработок AGI в 37 странах. [10]

Терминология

AGI также известен как сильный ИИ, [11] [12] полный ИИ, [13] ИИ человеческого уровня [6] или общие интеллектуальные действия. [14] Однако некоторые академические источники оставляют термин «сильный ИИ» для компьютерных программ, обладающих разумом или сознанием . [a] Напротив, слабый ИИ (или узкий ИИ) способен решить одну конкретную задачу, но ему не хватает общих когнитивных способностей. [15] [12] Некоторые академические источники используют термин «слабый ИИ» для более широкого обозначения любых программ, которые не обладают ни сознанием, ни разумом в том же смысле, что и люди. [а]

Связанные концепции включают искусственный сверхинтеллект и преобразующий ИИ. Искусственный сверхинтеллект (ИСИ) — это гипотетический тип ОИИ, который в целом гораздо более разумен, чем люди. [16] Идея преобразующего ИИ связана с тем, что ИИ оказывает большое влияние на общество, например, подобно сельскохозяйственной революции. [17]

Характеристики

Были предложены различные критерии интеллекта (наиболее известный из которых — тест Тьюринга ), но ни одно определение не получило широкого признания. [б]

Характеристики интеллекта

Однако исследователи обычно считают, что интеллект необходим для выполнения всего следующего: [19]

Многие междисциплинарные подходы (например, когнитивная наука , вычислительный интеллект и принятие решений ) учитывают дополнительные черты, такие как воображение (способность формировать новые мысленные образы и концепции) [20] и автономия . [21]

Существуют компьютерные системы, которые демонстрируют многие из этих возможностей (например, см. вычислительное творчество , автоматизированное рассуждение , систему поддержки принятия решений , робот , эволюционные вычисления , интеллектуальный агент ). Однако нет единого мнения о том, что современные системы ИИ обладают ими в достаточной степени.

Физические характеристики

Другие возможности считаются желательными в интеллектуальных системах, поскольку они могут повлиять на интеллект или помочь в его выражении. К ним относятся: [22]

Это включает в себя способность обнаруживать опасность и реагировать на нее . [23]

Тесты на AGI человеческого уровня

Было рассмотрено несколько тестов, предназначенных для подтверждения AGI на человеческом уровне, в том числе: [24] [25]

Тест Тьюринга ( Тьюринг )
Машина и человек невидимо общаются со вторым человеком, который должен оценить, кто из двух является машиной, которая проходит тест, если она может обмануть оценщика значительную часть времени. Примечание. Тьюринг не предписывает, что следует квалифицировать как интеллект, а только то, что знание того, что это машина, должно дисквалифицировать его. В 2014 году ИИ Юджина Густмана, по оценкам Тьюринга, убедил 30% судей в том, что он был человеком.
Тест для студентов колледжа роботов ( Гёрцель )
Машина поступает в университет, посещает и проходит те же курсы, что и люди, и получает степень. Магистр права теперь может сдавать экзамены на получение университетской степени, даже не посещая занятия. [26]
Тест на трудоустройство ( Нильссон )
Машина выполняет экономически важную работу по крайней мере так же хорошо, как люди, выполняющие ту же работу. Сегодня ИИ заменяют людей во многих сферах, таких как фаст-фуд и маркетинг. [27]
Тест Ikea ( Маркус )
Также известен как «Тест плоской мебели». ИИ просматривает детали и инструкции плоской упаковки Ikea, а затем управляет роботом, который правильно собирает мебель.
Кофейный тест ( Возняк )
Чтобы войти в среднестатистический американский дом и понять, как приготовить кофе, необходима машина: найдите кофемашину, найдите кофе, добавьте воды, найдите кружку и заварите кофе, нажимая соответствующие кнопки. Это еще не завершено.

AI-полные проблемы

Существует множество проблем, для решения которых может потребоваться общий интеллект так же хорошо, как это делают люди. Например, даже такие простые задачи, как машинный перевод , требуют, чтобы машина читала и писала на обоих языках (НЛП), следовала аргументам автора (причине), знала, о чем идет речь (знания), и точно воспроизводила оригинал автора. намерение (социальный интеллект). Все эти проблемы необходимо решить одновременно, чтобы достичь производительности машины на уровне человека.

Проблема неофициально называется «ИИ-полной» или «ИИ-сложной», если считается, что для ее решения потребуется реализация сильного ИИ, поскольку решение выходит за рамки возможностей целевого алгоритма. [28]

Предполагается, что проблемы, связанные с искусственным интеллектом, включают общее компьютерное зрение , понимание естественного языка и умение справляться с непредвиденными обстоятельствами при решении любой реальной проблемы. [29]

Проблемы, связанные с искусственным интеллектом, не могут быть решены только с помощью современных компьютерных технологий и требуют человеческих вычислений . Это ограничение может быть полезно для проверки присутствия людей, как это и делается CAPTCHA ; и для компьютерной безопасности для отражения атак грубой силы . [30] [31]

История

Классический ИИ

Современные исследования искусственного интеллекта начались в середине 1950-х годов. [32] Первое поколение исследователей ИИ было убеждено, что общий искусственный интеллект возможен и что он появится всего через несколько десятилетий. [33] Пионер искусственного интеллекта Герберт А. Саймон писал в 1965 году: «Через двадцать лет машины будут способны выполнять любую работу, которую может выполнить человек». [34]

Их предсказания послужили источником вдохновения для Стэнли Кубрика и персонажа Артура Кларка HAL 9000 , который воплотил в себе то, что, по мнению исследователей ИИ, они могли создать к 2001 году. Пионер ИИ Марвин Мински был консультантом [35] в проекте создания HAL 9000. настолько реалистичным, насколько это возможно, в соответствии с общепринятыми прогнозами того времени. В 1967 году он сказал: «Через одно поколение... проблема создания «искусственного интеллекта» будет существенно решена». [36]

Несколько классических проектов искусственного интеллекта , такие как проект Cyc Дуга Лената ( который начался в 1984 году) и проект Soar Аллена Ньюэлла , были направлены на AGI.

Однако в начале 1970-х годов стало очевидно, что исследователи сильно недооценили сложность проекта. Финансирующие агентства стали скептически относиться к ОИИ и заставили исследователей создавать полезный «прикладной ИИ». [c] В начале 1980-х годов японский проект «Компьютер пятого поколения» возродил интерес к ОИИ, установив десятилетний график, включающий такие цели ОИИ, как «поддерживать непринужденный разговор». [40] В ответ на это, а также на успех экспертных систем , как промышленность, так и правительство вложили деньги в эту область. [38] [41] Однако в конце 1980-х годов доверие к ИИ резко рухнуло, и цели проекта «Компьютер пятого поколения» так и не были достигнуты. [42] Второй раз за 20 лет исследователи ИИ, предсказавшие скорое достижение ОИИ, ошиблись. К 1990-м годам исследователи искусственного интеллекта имели репутацию людей, дающих тщетные обещания. Они вообще стали неохотно делать прогнозы [d] и избегали упоминаний об искусственном интеллекте «человеческого уровня», опасаясь, что их назовут «мечтателями с дикими глазами». [44]

Узкие исследования ИИ

В 1990-х и начале 21-го века основной ИИ достиг коммерческого успеха и академической респектабельности, сосредоточившись на конкретных подзадачах, где ИИ может давать проверяемые результаты и коммерческие приложения, такие как распознавание речи и алгоритмы рекомендаций . [45] Эти «прикладные системы искусственного интеллекта» сейчас широко используются в технологической отрасли, и исследования в этом направлении широко финансируются как в научных кругах, так и в промышленности. По состоянию на 2018 год развитие в этой области считалось новой тенденцией, и ожидалось, что зрелая стадия будет достигнута более чем через 10 лет. [46]

На рубеже веков многие ведущие исследователи ИИ [47] надеялись, что сильный ИИ можно будет разработать путем объединения программ, решающих различные подзадачи. Ганс Моравец писал в 1988 году:

Я уверен, что этот восходящий путь к искусственному интеллекту однажды встретит традиционный нисходящий путь более чем наполовину, готовый обеспечить реальную компетентность и знания здравого смысла , которые были так удручающе неуловимы в программах рассуждения. Полностью интеллектуальные машины появятся, когда метафорический золотой шип будет приведен в движение, объединяя эти два усилия. [47]

Однако даже в то время это оспаривалось. Например, Стеван Харнад из Принстонского университета завершил свою статью 1990 года о гипотезе обоснования символов следующими словами:

Часто высказывалось ожидание, что «нисходящий» (символический) подход к моделированию познания каким-то образом встретится с «восходящим» (сенсорным) подходом где-то посередине. Если основные соображения, изложенные в этой статье, верны, то это ожидание безнадежно модульно, и на самом деле существует только один реальный путь от смысла к символам: с нуля. Свободно плавающий символический уровень, такой как уровень программного обеспечения компьютера, никогда не будет достигнут этим путем (или наоборот). равносильно вырыванию наших символов из их внутреннего значения (тем самым мы просто сводим себя к функциональному эквиваленту программируемого компьютера). [48]

Современные исследования общего искусственного интеллекта

Термин «искусственный общий интеллект» был использован еще в 1997 году Марком Губрудом [49] при обсуждении последствий полностью автоматизированного военного производства и операций. Математический формализм AGI был предложен Маркусом Хаттером в 2000 году. Предлагаемый агент AIXI, названный AIXI , максимизирует «способность достигать целей в широком диапазоне сред». [50] Этот тип ОИИ, характеризующийся способностью максимизировать математическое определение интеллекта, а не демонстрировать человеческое поведение, [51] также назывался универсальным искусственным интеллектом. [52]

Термин AGI был повторно введен и популяризирован Шейном Леггом и Беном Герцелем примерно в 2002 году. [53] Исследовательская деятельность AGI в 2006 году была описана Пей Вангом и Беном Герцелем [54] как «производство публикаций и предварительных результатов». Первая летняя школа по AGI была организована в Сямыне, Китай, в 2009 году [55] Лабораторией искусственного мозга Сямэньского университета и OpenCog. Первый университетский курс был прочитан в 2010 [56] и 2011 [57] в Пловдивском университете, Болгария, Тодором Арнаудовым. В 2018 году MIT представил курс по AGI, организованный Лексом Фридманом и с участием ряда приглашенных лекторов.

По состоянию на 2023 год небольшое количество ученых-компьютерщиков активно занимаются исследованиями AGI, и многие из них участвуют в серии конференций AGI . Однако все больше исследователей интересуются открытым обучением, [3] [58] которое заключается в том, чтобы позволить ИИ постоянно учиться и внедрять инновации, как это делают люди. Хотя большинство открытых учебных работ по-прежнему выполняется в Minecraft , [19] [22] [50] его применение может быть распространено на робототехнику и естественные науки.

Технико-экономическое обоснование

По состоянию на 2023 год полные формы ОИИ остаются спекулятивными. [59] [60] Ни одна система, отвечающая общепринятым критериям AGI, еще не была продемонстрирована. Мнения о том, появится ли общий искусственный интеллект и когда он появится, расходятся. Пионер искусственного интеллекта Герберт А. Саймон в 1965 году предположил, что «через двадцать лет машины будут способны выполнять любую работу, которую может выполнить человек». Это предсказание не сбылось. Соучредитель Microsoft Пол Аллен считал, что такой интеллект маловероятен в 21 веке, поскольку он потребует «непредвиденных и принципиально непредсказуемых прорывов» и «научно глубокого понимания познания». [61] В своей статье в The Guardian робототехник Алан Уинфилд заявил, что пропасть между современными компьютерами и искусственным интеллектом человеческого уровня так же широка, как пропасть между нынешними космическими полетами и практическими космическими полетами со скоростью, превышающей скорость света. [62]

Большинство исследователей ИИ верят, что сильный ИИ может быть создан в будущем, но некоторые мыслители, такие как Хьюберт Дрейфус и Роджер Пенроуз , отрицают возможность создания сильного ИИ. [63] [64] Джон Маккарти принадлежит к числу тех, кто верит, что ИИ человеческого уровня будет создан, но нынешний уровень прогресса таков, что дату невозможно точно предсказать. [65] Мнения экспертов ИИ о возможности развития и упадка AGI. Четыре опроса, проведенные в 2012 и 2013 годах, показали, что средняя оценка экспертов того времени, когда они будут на 50% уверены в появлении AGI, составляет от 2040 до 2050 года, в зависимости от опроса, со средним значением 2081. Из экспертов 16,5% ответили: « никогда», когда ему задали тот же вопрос, но с уверенностью 90%. [66] [67] Дальнейшие текущие соображения по поводу прогресса ОИИ можно найти выше. Тесты для подтверждения ОИИ на человеческом уровне.

В докладе Стюарта Армстронга и Кая Соталы из Научно-исследовательского института машинного интеллекта обнаружено, что «в течение 60-летнего периода существует сильная предвзятость в отношении прогнозирования появления искусственного интеллекта человеческого уровня через 15–25 лет с момента появления искусственного интеллекта». предсказание было сделано». Они проанализировали 95 прогнозов, сделанных в период с 1950 по 2012 год, о том, когда появится ИИ человеческого уровня. [68]

В 2023 году исследователи Microsoft опубликовали подробную оценку GPT-4 . Они пришли к выводу: «Учитывая широту и глубину возможностей GPT-4, мы считаем, что его можно разумно рассматривать как раннюю (но все еще неполную) версию системы общего искусственного интеллекта (AGI)». [69] Другое исследование, проведенное в 2023 году, показало, что GPT-4 превосходит 99% людей по тестам Торранса на творческое мышление . [70] [71]

Сроки

Во введении к своей книге 2006 года [72] Герцель говорит, что оценки времени, необходимого для создания действительно гибкого ОИИ, варьируются от 10 лет до более чем столетия. По состоянию на 2007 год исследовательское сообщество AGI, казалось, пришло к единому мнению, что временной график, обсуждаемый Рэем Курцвейлом в 2005 году в книге «Сингулярность близка» [73] (т.е. между 2015 и 2045 годами), был правдоподобным. [74] Ведущие исследователи ИИ высказали самые разные мнения о том, будет ли прогресс таким быстрым. Метаанализ 95 таких мнений, проведенный в 2012 году, выявил предвзятость в предсказании того, что начало ОГИ произойдет в течение 16–26 лет как для современных, так и для исторических прогнозов. Эту статью критиковали за то, как в ней мнения классифицируются на экспертные и неэкспертные. [75]

В 2012 году Алекс Крижевский , Илья Суцкевер и Джеффри Хинтон разработали нейронную сеть под названием AlexNet , которая выиграла конкурс ImageNet с коэффициентом ошибок теста в топ-5, равным 15,3%, что значительно лучше, чем показатель второго лучшего входа в 26,3% ( традиционный подход использовал взвешенную сумму баллов из разных заранее определенных классификаторов). [76] AlexNet считался первооткрывателем нынешней волны глубокого обучения . [76]

В 2017 году исследователи Фэн Лю, Юн Ши и Ин Лю провели тесты на интеллект общедоступных и свободно доступных слабых ИИ, таких как Google AI, Siri от Apple и других. В максимуме эти ИИ достигли значения IQ около 47, что примерно соответствует шестилетнему ребенку в первом классе. У взрослого человека в среднем их около 100. Подобные тесты были проведены в 2014 году, при этом показатель IQ достиг максимального значения 27. [77] [78]

В 2020 году OpenAI разработала GPT-3 — языковую модель, способную выполнять множество разнообразных задач без специального обучения. По словам Гэри Гроссмана в статье VentureBeat , хотя существует консенсус в отношении того, что GPT-3 не является примером AGI, некоторые считают его слишком продвинутым, чтобы его можно было классифицировать как узкую систему искусственного интеллекта. [79]

В том же году Джейсон Рорер использовал свою учетную запись GPT-3 для разработки чат-бота и предоставил платформу для разработки чат-ботов под названием «Проект Декабрь». OpenAI попросила внести изменения в чат-бот, чтобы он соответствовал их правилам безопасности; Рорер отключил проект «Декабрь» от API GPT-3. [80]

В 2022 году DeepMind разработала Gato — систему «общего назначения», способную выполнять более 600 различных задач. [81]

В 2023 году компания Microsoft Research опубликовала исследование ранней версии GPT-4 OpenAI , утверждая, что она демонстрирует более общий интеллект, чем предыдущие модели ИИ, и демонстрирует производительность на человеческом уровне в задачах, охватывающих несколько областей, таких как математика, программирование и право. Это исследование вызвало дискуссию о том, можно ли считать GPT-4 ранней, неполной версией общего искусственного интеллекта, подчеркнув необходимость дальнейшего изучения и оценки таких систем. [82]

В 2023 году исследователь искусственного интеллекта Джеффри Хинтон заявил, что: [83]

Идея о том, что эта штука действительно может стать умнее людей – некоторые в это верили, [...]. Но большинство людей думали, что это далеко. И я думал, что это далеко. Я думал, что это произойдет через 30–50 лет или даже дольше. Очевидно, я больше так не думаю.

Моделирование мозга

Эмуляция всего мозга

Одним из возможных подходов к достижению ОИИ является эмуляция всего мозга : модель мозга создается путем сканирования и детального картирования биологического мозга, а затем ее копирования и моделирования в компьютерной системе или другом вычислительном устройстве. Имитационная модель должна быть достаточно точной оригиналу, чтобы вести себя практически так же, как исходный мозг . [84] Эмуляция всего мозга обсуждается в вычислительной нейробиологии и нейроинформатике в контексте моделирования мозга в медицинских исследовательских целях. Это обсуждалось в исследованиях искусственного интеллекта [74] как подход к сильному ИИ. Технологии нейровизуализации , которые могли бы обеспечить необходимое детальное понимание, быстро совершенствуются, и футуролог Рэй Курцвейл в книге « Сингулярность близка» [73] предсказывает, что карта достаточного качества станет доступной в сроки, аналогичные вычислительной мощности, необходимой для ее имитации.

Ранние оценки

Оценки того, какая вычислительная мощность необходима для эмуляции человеческого мозга на различных уровнях (от Рэя Курцвейла, Андерса Сандберга и Ника Бострома ), а также самого быстрого суперкомпьютера из TOP500 , составленного по годам. Обратите внимание на логарифмический масштаб и экспоненциальную линию тренда, которая предполагает, что вычислительная мощность удваивается каждые 1,1 года. Курцвейл считает, что загрузка разума будет возможна при нейронном моделировании, в то время как в отчете Сэндберга и Бострома нет уверенности в том, где возникает сознание . [85]

Для низкоуровневого моделирования мозга потребуется очень мощный кластер компьютеров или графических процессоров, учитывая огромное количество синапсов в человеческом мозге . Каждый из 10 11 (сто миллиардов) нейронов имеет в среднем 7000 синаптических связей (синапсов) с другими нейронами. Мозг трехлетнего ребенка имеет около 10 15 синапсов (1 квадриллион). Это число снижается с возрастом и стабилизируется к взрослому возрасту. Оценки варьируются для взрослого человека: от 10 14 до 5×10 14 синапсов (от 100 до 500 триллионов). [86] Оценка вычислительной мощности мозга, основанная на простой модели переключения активности нейронов, составляет около 10 14 (100 триллионов) синаптических обновлений в секунду ( SUPS ). [87]

В 1997 году Курцвейл рассмотрел различные оценки аппаратного обеспечения, необходимого для работы человеческого мозга, и принял цифру 10 16 вычислений в секунду (cps). [e] (Для сравнения, если бы «вычисление» было эквивалентно одной « операции с плавающей запятой » – мерой, используемой для оценки современных суперкомпьютеров – то 10 16 «вычислений» были бы эквивалентны 10 петафлопс , достигнутым в 2011 году , в то время как 10 18 было достигнуто в 2022 году .) Он использовал эту цифру, чтобы предсказать, что необходимое оборудование будет доступно где-то между 2015 и 2025 годами, если экспоненциальный рост мощности компьютеров на момент написания статьи продолжится.

Текущее исследование

Некоторые исследовательские проекты исследуют моделирование мозга с использованием более сложных нейронных моделей, реализованных на традиционных вычислительных архитектурах. В 2005 году в рамках проекта « Система искусственного интеллекта» было реализовано моделирование «мозга» (с 10–11 нейронами) не в реальном времени. На кластере из 27 процессоров потребовалось 50 дней, чтобы смоделировать 1 секунду модели. [90] В проекте Blue Brain в 2006 году использовалась одна из самых быстрых суперкомпьютерных архитектур, платформа IBM Blue Gene , для создания в реальном времени симуляции одного неокортикального столбца крысы , состоящего примерно из 10 000 нейронов и 10 8 синапсов. [91 ] долгосрочная цель — построить детальную функциональную симуляцию физиологических процессов в человеческом мозге: «Построить человеческий мозг не невозможно, и мы сможем сделать это за 10 лет», — Генри Маркрам , директор проекта Blue Brain Project. — заявил в 2009 году на конференции TED в Оксфорде. [92] Нейрокремниевые интерфейсы были предложены в качестве альтернативной стратегии реализации, которая может лучше масштабироваться. [93]

Ганс Моравец обратился к вышеупомянутым аргументам («мозг сложнее», «нейроны необходимо моделировать более детально») в своей статье 1997 года «Когда компьютерное оборудование будет соответствовать человеческому мозгу?». [89] Он измерил способность существующего программного обеспечения моделировать функциональность нервной ткани, в частности сетчатки. Его результаты [ уточняют ] не зависят ни от количества глиальных клеток, ни от того, какие виды обработки нейронов где осуществляют.

Фактическая сложность моделирования биологических нейронов была исследована в проекте OpenWorm , целью которого было полное моделирование червя, нейронная сеть которого имеет только 302 нейрона (из общего числа около 1000 клеток). Нейронная сеть животного была хорошо задокументирована еще до начала проекта. Однако, хотя поначалу задача казалась простой, модели, основанные на универсальной нейронной сети, не работали. В настоящее время [ возможно , устарело по состоянию на апрель 2023 года ] усилия сосредоточены на точной эмуляции биологических нейронов (частично на молекулярном уровне), но результат пока нельзя назвать полным успехом.

В 2023 году исследователи провели сканирование мозга мыши в высоком разрешении. [94]

Критика подходов, основанных на моделировании

Модель искусственного нейрона , предложенная Курцвейлом и используемая во многих современных реализациях искусственных нейронных сетей , проста по сравнению с биологическими нейронами . Моделирование мозга, вероятно, должно будет отразить детальное клеточное поведение биологических нейронов , которое в настоящее время понимается лишь в общих чертах. Накладные расходы, связанные с полным моделированием биологических, химических и физических деталей поведения нейронов (особенно в молекулярном масштабе), потребуют вычислительных мощностей, на несколько порядков превышающих оценку Курцвейла. Кроме того, оценки не учитывают глиальные клетки , которые, как известно, играют роль в когнитивных процессах. [95]

Фундаментальная критика подхода с использованием моделирования мозга исходит из теории воплощенного познания , которая утверждает, что человеческое воплощение является важным аспектом человеческого интеллекта и необходимо для обоснования смысла. [96] [94] Если эта теория верна, любая полнофункциональная модель мозга должна будет охватывать не только нейроны (например, роботизированное тело). Герцель [74] предлагает виртуальное воплощение (как в метавселенных вроде «Второй жизни ») в качестве варианта, но неизвестно, будет ли этого достаточно.

Философская перспектива

«Сильный ИИ» по определению в философии

В 1980 году философ Джон Сирл ввел термин «сильный ИИ» в рамках своего аргумента о китайской комнате . [97] Он хотел провести различие между двумя разными гипотезами об искусственном интеллекте: [f]

Первый он назвал «сильным», потому что он содержит более сильное утверждение: он предполагает, что с машиной произошло что-то особенное, выходящее за рамки тех способностей, которые мы можем проверить. Поведение машины «слабого ИИ» было бы точно идентично поведению машины «сильного ИИ», но последняя также имела бы субъективный сознательный опыт. Такое использование также распространено в академических исследованиях и учебниках по искусственному интеллекту. [98]

В отличие от Сирла и основного ИИ, некоторые футуристы, такие как Рэй Курцвейл, используют термин «сильный ИИ» для обозначения «общего искусственного интеллекта человеческого уровня». [73] Это не то же самое, что сильный ИИ Сирла , если только не предполагается, что сознание необходимо для AGI человеческого уровня. Академические философы, такие как Сирл, не верят в это, и для большинства исследователей искусственного интеллекта этот вопрос выходит за рамки. [99]

Обычный ИИ больше всего интересуется тем, как ведет себя программа . [100] По словам Рассела и Норвига , «пока программа работает, им все равно, называете ли вы ее реальной или симуляцией». [99] Если программа может вести себя так, как будто у нее есть разум, то нет необходимости знать, есть ли у нее разум на самом деле – на самом деле, не было бы никакого способа узнать это. Для исследований ИИ «гипотеза слабого ИИ» Сирла эквивалентна утверждению «искусственный общий интеллект возможен». Таким образом, по словам Рассела и Норвига, «большинство исследователей ИИ принимают слабую гипотезу ИИ как нечто само собой разумеющееся и не заботятся о сильной гипотезе ИИ». [99] Таким образом, для академических исследований ИИ «Сильный ИИ» и «ИИО» — это две разные вещи.

Сознание, самосознание, чувствительность

Другие аспекты человеческого разума, помимо интеллекта, имеют отношение к концепции AGI или «сильного ИИ», и они играют важную роль в научной фантастике и этике искусственного интеллекта :

Эти черты имеют моральное измерение, поскольку машина с такой формой «сильного ИИ» может иметь права, аналогичные правам животных, не являющихся людьми . Была проведена предварительная работа по интеграции сильного ИИ в существующие правовые и социальные рамки с упором на правовое положение и права «сильного» ИИ. [103]

Еще предстоит показать, необходимо ли « искусственное сознание » для ОИИ. Однако многие исследователи AGI считают исследования, изучающие возможности реализации сознания, жизненно важными. [104]

Билл Джой , среди прочих, утверждает, что машина с такими характеристиками может представлять угрозу человеческой жизни или достоинству. [105]

Проблемы исследования

Прогресс в области искусственного интеллекта исторически переживал периоды быстрого прогресса, сменяющиеся периодами, когда прогресс, казалось, останавливался. [63] Каждому перерыву завершились фундаментальные достижения в области аппаратного и программного обеспечения или того и другого, создавшие пространство для дальнейшего прогресса. [63] [106] [107] Например, компьютерное оборудование, доступное в двадцатом веке, было недостаточно для реализации глубокого обучения, которое требует большого количества процессоров с поддержкой графического процессора . [108]

Еще одной проблемой является отсутствие ясности в определении того, что влечет за собой интеллект . Требуется ли для этого сознание? Должен ли он демонстрировать способность ставить цели и достигать их? Является ли это просто вопросом масштаба, так что если размеры модели достаточно увеличатся, появится интеллект? Требуются ли такие возможности, как планирование, рассуждение и причинно-следственная связь? Требует ли интеллект явного копирования мозга и его конкретных способностей? Требуются ли эмоции? [109]

Преимущества

AGI может иметь множество применений. Если AGI ориентирован на такие цели, он может помочь смягчить различные проблемы в мире, такие как голод, бедность и проблемы со здоровьем. [110]

AGI может повысить производительность и эффективность большинства рабочих мест. Например, в сфере общественного здравоохранения ОИИ может ускорить медицинские исследования, особенно в области борьбы с раком. [111] Это могло бы позаботиться о пожилых людях, [112] и демократизировать доступ к быстрой и качественной медицинской диагностике. Оно могло бы предложить веселое, дешевое и персонализированное образование. [112] Практически любую работу, приносящую пользу обществу, если она выполняется хорошо, вероятно, рано или поздно будет предпочтительнее оставить ее ОИИ. Необходимость работать, чтобы выжить, может устареть, если произведенное богатство будет правильно перераспределено. [112] [113] Это также поднимает вопрос о месте человека в радикально автоматизированном обществе.

ОИИ также может помочь принимать рациональные решения, а также предвидеть и предотвращать катастрофы. Это также могло бы помочь воспользоваться преимуществами потенциально катастрофических технологий, таких как нанотехнологии или климатическая инженерия , избегая при этом связанных с ними рисков. [114] Если основной целью ОИИ является предотвращение экзистенциальных катастроф, таких как вымирание человечества (что может оказаться затруднительным, если гипотеза уязвимого мира окажется верной), [115] он может принять меры для радикального снижения рисков [114] в то время как минимизировать влияние этих мер на качество нашей жизни.

Риски

Экзистенциальные риски

ОИИ может представлять собой несколько типов экзистенциального риска , которые представляют собой риски, которые угрожают «преждевременному исчезновению разумной жизни, зародившейся на Земле, или постоянным и радикальным разрушением ее потенциала для желаемого будущего развития». [116] Риск вымирания человечества из-за ОИИ был темой многих дебатов, но существует также вероятность того, что развитие ОИИ приведет к постоянно испорченному будущему. Примечательно, что его можно использовать для распространения и сохранения набора ценностей того, кто его разрабатывает. Если у человечества все еще есть моральные «слепые пятна», подобные рабству в прошлом, ОИИ может необратимо укрепить его, препятствуя моральному прогрессу . [117] Кроме того, AGI может способствовать массовой слежке и идеологической обработке, которые могут быть использованы для создания стабильного репрессивного мирового тоталитарного режима. [118] [119] Существует также риск для самих машин. Если в будущем будут массово созданы машины, которые разумны или иным образом достойны морального внимания, вступление на цивилизационный путь, который на неопределенный срок игнорирует их благополучие и интересы, может стать экзистенциальной катастрофой. [120] [121] Учитывая, насколько ОИИ может улучшить будущее человечества и помочь снизить другие экзистенциальные риски, Тоби Орд называет эти экзистенциальные риски «аргументом в пользу того, чтобы действовать с должной осторожностью», а не в пользу «отказа от ИИ». [118]

Риск потери контроля и исчезновения человечества

Тезис о том, что ИИ представляет экзистенциальный риск для людей и что этот риск требует большего внимания, является спорным, но был поддержан в 2023 году многими общественными деятелями, исследователями ИИ и руководителями компаний, занимающихся ИИ, такими как Илон Маск , Билл Гейтс , Джеффри Хинтон , Йошуа Бенджио , Демис Хассабис и Сэм Альтман . [122] [123]

В 2014 году Стивен Хокинг раскритиковал повсеместное безразличие:

Итак, сталкиваясь с возможным будущим, полным неисчислимых выгод и рисков, эксперты наверняка делают все возможное, чтобы обеспечить наилучший результат, не так ли? Неправильный. Если бы высшая инопланетная цивилизация отправила нам сообщение: «Мы прибудем через несколько десятилетий», ответили бы мы просто: «Хорошо, позвоните нам, когда доберетесь сюда, мы оставим свет включенным?» Вероятно, нет, но именно это более или менее происходит с ИИ. [124]

Потенциальную судьбу человечества иногда сравнивают с судьбой горилл, которой угрожает деятельность человека. В сравнении говорится, что более высокий интеллект позволил человечеству доминировать над гориллами, которые теперь уязвимы так, как они не могли ожидать. В результате горилла стала вымирающим видом не по злому умыслу, а просто в результате побочного ущерба от деятельности человека. [125]

Скептик Ян ЛеКун считает, что у ИИИ не будет желания доминировать над человечеством, и что мы должны быть осторожны, чтобы не антропоморфизировать их и не интерпретировать их намерения так, как мы это сделали бы в отношении людей. Он сказал, что люди не будут «достаточно умны, чтобы создавать сверхразумные машины, но при этом будут настолько глупы, что будут ставить перед ними идиотские цели без каких-либо гарантий». [126] С другой стороны, концепция инструментальной конвергенции предполагает, что почти каковы бы ни были цели, у интеллектуальных агентов будут причины попытаться выжить и приобрести больше власти в качестве промежуточных шагов к достижению этих целей. И что для этого не нужно иметь эмоции. [127]

Многие учёные, обеспокоенные экзистенциальным риском, выступают за проведение дополнительных исследований по решению «проблемы контроля », чтобы ответить на вопрос: какие типы защитных мер, алгоритмов или архитектур могут реализовать программисты, чтобы максимизировать вероятность того, что их рекурсивно улучшающийся ИИ продолжит вести себя хорошо? дружественным , а не разрушительным образом после того, как он достигнет сверхразума ? [128] [129] Решение проблемы контроля осложняется гонкой вооружений ИИ (которая может привести к гонке за соблюдением техники безопасности с целью выпуска продукции раньше конкурентов), [130] и использованием ИИ в системах вооружения . [131]

У тезиса о том, что ИИ может представлять экзистенциальный риск, есть и противники. Скептики обычно говорят, что создание искусственного интеллекта маловероятно в краткосрочной перспективе или что опасения по поводу искусственного интеллекта отвлекают от других проблем, связанных с текущим искусственным интеллектом. [132] Бывший руководитель Google по борьбе с мошенничеством Шуман Госемаджумдер считает, что для многих людей за пределами технологической отрасли существующие чат-боты и LLM уже воспринимаются как AGI, что приводит к дальнейшему непониманию и страху. [133]

Скептики иногда обвиняют этот тезис в крипторелигиозности, поскольку иррациональная вера в возможность сверхразума заменяет иррациональную веру во всемогущего Бога. [134] Некоторые исследователи полагают, что коммуникационные кампании по поводу экзистенциального риска ИИ, проводимые некоторыми группами ИИ (такими как OpenAI, Anthropic, DeepMind и Conjecture), могут быть попыткой захвата регулирующих органов и повышения интереса к их продуктам. [135] [136]

В 2023 году генеральные директора Google DeepMind, OpenAI и Anthropic, а также другие лидеры отрасли и исследователи опубликовали совместное заявление, в котором утверждалось, что «снижение риска исчезновения ИИ должно быть глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война." [123]

Массовая безработица

Исследователи из OpenAI подсчитали, что «введение LLM может повлиять на 80% рабочей силы США, по крайней мере, на 10% их рабочих задач, в то время как около 19% работников могут увидеть, что это повлияет как минимум на 50% их задач». [137] [138] Они считают, что наиболее уязвимыми являются офисные работники, например, математики, бухгалтеры или веб-дизайнеры. [138] AGI мог бы иметь большую автономность, способность принимать решения, взаимодействовать с другими компьютерными инструментами, а также управлять роботизированными телами.

По мнению Стивена Хокинга, влияние автоматизации на качество жизни будет зависеть от того, как будет перераспределяться богатство: [113]

Каждый может наслаждаться жизнью, наполненной роскошью и досугом, если богатство, созданное машинами, будет делиться, или большинство людей могут оказаться в ужасной бедности, если владельцы машин успешно лоббируют перераспределение богатства. Пока что наблюдается тенденция ко второму варианту, поскольку технологии ведут к постоянно растущему неравенству.

Илон Маск считает, что автоматизация общества потребует от правительств принятия универсального базового дохода . [139]

Смотрите также

Примечания

  1. ^ ab Происхождение термина «сильный ИИ» см. ниже, а академическое определение « сильного ИИ » и слабого ИИ см. в статье «Китайская комната» .
  2. ^ Основатель искусственного интеллекта Джон Маккарти пишет: «Мы пока не можем в общих чертах охарактеризовать, какие виды вычислительных процедур мы хотим назвать интеллектуальными». [18] (Обсуждение некоторых определений интеллекта, используемых исследователями искусственного интеллекта , см. в разделе «Философия искусственного интеллекта ».)
  3. В отчете Лайтхилла особо критиковались «грандиозные цели» ИИ и возглавлялся свертывание исследований ИИ в Англии. [37] В США DARPA решило финансировать только «целевые прямые исследования, а не фундаментальные ненаправленные исследования». [38] [39]
  4. Как пишет основатель ИИ Джон Маккарти, «для остальных работников ИИ было бы большим облегчением, если бы изобретатели новых общих формализмов выразили свои надежды в более осторожной форме, чем это иногда бывало». [43]
  5. ^ В «Mind Children» [88] используется 10 15 cps. Совсем недавно, в 1997 году, [89] Моравец приводил доводы в пользу 10 8 MIPS, что примерно соответствует 10 14 cps. Моравец говорит с точки зрения MIPS, а не «cps», который является нестандартным термином, введенным Курцвейлом.
  6. ^ Как определено в стандартном учебнике по искусственному интеллекту: «Утверждение о том, что машины могут действовать разумно (или, возможно, лучше, действовать так, как если бы они были разумными), философы называют гипотезой «слабого искусственного интеллекта», а утверждение, что машины, которые делают это, на самом деле думают (в отличие от симуляции мышления), называется гипотезой «сильного ИИ». [87]
  7. ^ Алан Тьюринг высказал это мнение в 1950 году. [102]

Рекомендации

  1. ↑ Аб Морозов, Евгений (30 июня 2023 г.). «Истинная угроза искусственного интеллекта». Нью-Йорк Таймс . Архивировано из оригинала 30 июня 2023 года . Проверено 30 июня 2023 г.
  2. Ходсон, Хэл (1 марта 2019 г.). «DeepMind и Google: битва за контроль над искусственным интеллектом». 1843 год . Архивировано из оригинала 7 июля 2020 года . Проверено 7 июля 2020 г. AGI означает «Общий искусственный интеллект», гипотетическую компьютерную программу...
  3. ^ аб Шевлин, Генри; Вольд, Карина; Кросби, Мэтью; Галина, Марта (4 октября 2019 г.). «Ограничения машинного интеллекта: несмотря на прогресс в области машинного интеллекта, общий искусственный интеллект по-прежнему остается серьезной проблемой». Отчеты ЭМБО . 20 (10): e49177. doi : 10.15252/эмбр.201949177. ISSN  1469-221X. ПМК 6776890 . ПМИД  31531926. 
  4. Салливан, Марк (18 октября 2023 г.). «Почему все, кажется, не согласны с определением общего искусственного интеллекта». Компания Фаст .
  5. ^ «Устав OpenAI». openai.com . Проверено 6 апреля 2023 г.
  6. ^ abc «Сроки развития искусственного интеллекта: чего эксперты в области искусственного интеллекта ожидают от будущего?». Наш мир в данных . Проверено 6 апреля 2023 г.
  7. ^ «Исследователи Microsoft утверждают, что GPT-4 демонстрирует «искры» AGI» . Футуризм . Проверено 13 декабря 2023 г.
  8. ^ «Впечатлены искусственным интеллектом? Эксперты говорят, что следующим будет AGI, и он несет в себе «экзистенциальные» риски» . Новости АВС . 23 марта 2023 г. Проверено 6 апреля 2023 г.
  9. ^ «Общий искусственный интеллект: мы близки и есть ли смысл вообще пытаться?». Обзор технологий Массачусетского технологического института . Проверено 6 апреля 2023 г.
  10. ^ Баум, Сет, Обзор проектов общего искусственного интеллекта для этики, рисков и политики (PDF) , Рабочий документ 20 Глобального института катастрофических рисков, заархивировано (PDF) из оригинала 14 ноября 2021 г. , получено 13 января 2022 г.
  11. ^ Курцвейл 2005, с. 260.
  12. ^ Аб Курцвейл, Рэй (5 августа 2005 г.), «Да здравствует искусственный интеллект», Forbes , заархивировано из оригинала 14 августа 2005 г.: Курцвейл описывает сильный ИИ как «машинный интеллект с полным спектром человеческого интеллекта».
  13. ^ «Эпоха искусственного интеллекта: Джордж Джон на TEDxLondonBusinessSchool 2013» . Архивировано из оригинала 26 февраля 2014 года . Проверено 22 февраля 2014 г.
  14. ^ Ньюэлл и Саймон 1976. Это термин, который они используют для обозначения интеллекта «человеческого уровня» в гипотезе системы физических символов .
  15. ^ «Открытый университет сильного и слабого искусственного интеллекта». Архивировано из оригинала 25 сентября 2009 года . Проверено 8 октября 2007 г.
  16. ^ «Что такое искусственный сверхинтеллект (ASI)? | Определение от TechTarget» . Корпоративный ИИ . Проверено 8 октября 2023 г.
  17. ^ «Искусственный интеллект меняет наш мир – мы все должны убедиться, что все идет хорошо». Наш мир в данных . Проверено 8 октября 2023 г.
  18. ^ Маккарти, Джон (2007a). «Основные вопросы». Стэндфордский Университет . Архивировано из оригинала 26 октября 2007 года . Проверено 6 декабря 2007 г.
  19. ^ ab Этот список интеллектуальных качеств основан на темах, охватываемых основными учебниками по искусственному интеллекту, в том числе: Рассел и Норвиг 2003, Люгер и Стабблфилд 2004, Пул, Макворт и Гебель 1998 и Нильссон 1998.
  20. ^ Джонсон 1987
  21. ^ де Чармс, Р. (1968). Личная причинно-следственная связь. Нью-Йорк: Академическая пресса.
  22. ^ Аб Пфайфер, Р. и Бонгард Дж. К., Как тело формирует наше мышление: новый взгляд на интеллект (MIT Press, 2007). ISBN 0-262-16239-3 
  23. ^ Уайт, RW (1959). «Переосмысленная мотивация: концепция компетентности». Психологический обзор . 66 (5): 297–333. дои : 10.1037/h0040934. PMID  13844397. S2CID  37385966.
  24. Мюльхаузер, Люк (11 августа 2013 г.). «Что такое АГИ?». Научно-исследовательский институт машинного интеллекта. Архивировано из оригинала 25 апреля 2014 года . Проверено 1 мая 2014 г.
  25. ^ «Что такое общий искусственный интеллект (AGI)? | 4 теста для обеспечения общего искусственного интеллекта» . Разговорный блог . 13 июля 2019 года. Архивировано из оригинала 17 июля 2019 года . Проверено 17 июля 2019 г.
  26. Варанаси, Лакшми (21 марта 2023 г.). «Модели ИИ, такие как ChatGPT и GPT-4, сдают все, от экзамена на адвоката до AP Biology. Вот список сложных экзаменов, которые сдали обе версии ИИ». Бизнес-инсайдер . Проверено 30 мая 2023 г.
  27. Нейсмит, Калеб (7 февраля 2023 г.). «6 рабочих мест, которые искусственный интеллект уже заменяет, и как инвесторы могут на этом заработать» . Проверено 30 мая 2023 г.
  28. ^ Шапиро, Стюарт К. (1992). «Искусственный интеллект» (PDF) . В Стюарте К. Шапиро (ред.). Энциклопедия искусственного интеллекта (второе изд.). Нью-Йорк: Джон Уайли. стр. 54–57. Архивировано (PDF) из оригинала 1 февраля 2016 г.(Раздел 4 посвящен «Заданиям, выполняемым ИИ».)
  29. ^ Ямпольский, Роман В. (2012). Синь-Ше Ян (ред.). «Тест Тьюринга как определяющая черта полноты ИИ» (PDF) . Искусственный интеллект, эволюционные вычисления и метаэвристика (AIECM) : 3–17. Архивировано (PDF) из оригинала 22 мая 2013 г.
  30. ^ Луис фон Ан, Мануэль Блюм, Николас Хоппер и Джон Лэнгфорд. CAPTCHA: использование сложных задач искусственного интеллекта для обеспечения безопасности. Архивировано 4 марта 2016 г. на Wayback Machine . В Proceedings of Eurocrypt , Vol. 2656 (2003), стр. 294–311.
  31. Бергмайр, Ричард (7 января 2006 г.). «Стеганография естественного языка и «полный ИИ» примитив безопасности». CiteSeer . CiteSeerX 10.1.1.105.129 . 
  32. ^ Кревье 1993, стр. 48–50.
  33. ^ Каплан, Андреас (2022). «Искусственный интеллект, бизнес и цивилизация – наша судьба, созданная машинами». Архивировано из оригинала 6 мая 2022 года . Проверено 12 марта 2022 г.
  34. ^ Саймон 1965, с. 96, цитируется по Crevier 1993, p. 109
  35. ^ «Ученый на съемочной площадке: Интервью с Марвином Мински». Архивировано из оригинала 16 июля 2012 года . Проверено 5 апреля 2008 г.
  36. ^ Марвин Мински — Дарраху (1970), цитируется по Crevier (1993, стр. 109).
  37. ^ Лайтхилл 1973; Хау, 1994 г.
  38. ^ ab NRC 1999, «Переход к прикладным исследованиям увеличивает инвестиции».
  39. ^ Кревье 1993, стр. 115–117; Рассел и Норвиг 2003, стр. 21–22.
  40. ^ Кревье 1993, с. 211, Рассел и Норвиг 2003, с. 24, а также см. Feigenbaum & McCorduck 1983.
  41. ^ Кревье 1993, стр. 161–162, 197–203, 240; Рассел и Норвиг 2003, с. 25.
  42. ^ Кревье 1993, стр. 209–212.
  43. ^ Маккарти, Джон (2000). «Ответ Лайтхиллу». Стэндфордский Университет. Архивировано из оригинала 30 сентября 2008 года . Проверено 29 сентября 2007 г.
  44. Маркофф, Джон (14 октября 2005 г.). «За искусственным интеллектом стоит отряд ярких реальных людей». Нью-Йорк Таймс . Архивировано из оригинала 2 февраля 2023 года . Проверено 18 февраля 2017 г. В период его низкого развития некоторые ученые-компьютерщики и инженеры-программисты избегали термина «искусственный интеллект», опасаясь, что их сочтут мечтателями с безумными глазами.
  45. ^ Рассел и Норвиг 2003, стр. 25–26.
  46. ^ «Тенденции в новом цикле технологического хайпа». Отчеты Гартнер. Архивировано из оригинала 22 мая 2019 года . Проверено 7 мая 2019 г.
  47. ^ аб Моравец 1988, с. 20
  48. ^ Харнад, С. (1990). «Проблема заземления символов». Физика Д. 42 (1–3): 335–346. arXiv : cs/9906002 . Бибкод : 1990PhyD...42..335H. дои : 10.1016/0167-2789(90)90087-6. S2CID  3204300.
  49. ^ Губруд 1997 г.
  50. ^ аб Хаттер, Маркус (2005). Универсальный искусственный интеллект: последовательные решения на основе алгоритмической вероятности. Тексты по теоретической информатике, серия EATCS. Спрингер. дои : 10.1007/b138233. ISBN 978-3-540-26877-2. S2CID  33352850. Архивировано из оригинала 19 июля 2022 года . Проверено 19 июля 2022 г.
  51. ^ Легг, Шейн (2008). Машинный сверхразум (PDF) (Диссертация). Университет Лугано. Архивировано (PDF) из оригинала 15 июня 2022 года . Проверено 19 июля 2022 г.
  52. ^ Герцель, Бен (2014). Общий искусственный интеллект. Конспекты лекций по информатике. Том. 8598. Журнал общего искусственного интеллекта. дои : 10.1007/978-3-319-09274-4. ISBN 978-3-319-09273-7. S2CID  8387410.
  53. ^ «Кто придумал термин «AGI»?». goertzel.org . Архивировано из оригинала 28 декабря 2018 года . Проверено 28 декабря 2018 г., через Life 3.0 : «Термин «AGI» популяризировали… Шейн Легг, Марк Губруд и Бен Герцель»
  54. ^ Ван и Герцель, 2007 г.
  55. ^ «Первая международная летняя школа по общему искусственному интеллекту, Основная летняя школа: 22 июня - 3 июля 2009 г., OpenCog Lab: 6-9 июля 2009 г.» . Архивировано из оригинала 28 сентября 2020 года . Проверено 11 мая 2020 г.
  56. ^ «Избираеми дисциплини 2009/2010 – пролетен триместър» [Курсы по выбору 2009/2010 – весенний триместр]. Факультет по математика и информатика [Факультет математики и информатики] (на болгарском языке). Архивировано из оригинала 26 июля 2020 года . Проверено 11 мая 2020 г.
  57. ^ «Избираеми дисциплини 2010/2011 – зимний триместър» [Курсы по выбору 2010/2011 – зимний триместр]. Факультет по математика и информатика [Факультет математики и информатики] (на болгарском языке). Архивировано из оригинала 26 июля 2020 года . Проверено 11 мая 2020 г.
  58. ^ Бубек, Себастьян; Чандрасекаран, Варун; Эльдан, Ронен; Герке, Йоханнес; Хорвиц, Эрик; Камар, Эдже; Ли, Питер; Ли, Инь Тат; Ли, Юаньчжи; Лундберг, Скотт; Нори, Харша; Паланги, Хамид; Рибейро, Марко Тулио; Чжан, И (27 марта 2023 г.). «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4». arXiv : 2303.12712 [cs.CL].
  59. Буше, Филип (март 2019 г.). «Заключительные замечания». Как работает искусственный интеллект (PDF) (Отчет). Европейская парламентская исследовательская служба. Архивировано (PDF) из оригинала 3 марта 2020 г. Проверено 3 марта 2020 г. Сегодняшний ИИ является мощным и полезным, но он по-прежнему далек от предполагаемых AGI или ASI.
  60. ^ itu.int: Beyond Mad?: Гонка за общим искусственным интеллектом. Архивировано 9 ноября 2020 года в Wayback Machine : «AGI представляет собой уровень силы, который на сегодняшний день прочно остается в сфере спекулятивной фантастики». 2 февраля 2018 г., получено 3 марта 2020 г.
  61. ^ Аллен, Пол; Гривз, Марк (12 октября 2011 г.). «Сингулярность не рядом». Обзор технологий Массачусетского технологического института . Проверено 17 сентября 2014 г.
  62. ^ Уинфилд, Алан. «Искусственный интеллект не превратится в монстра Франкенштейна». Хранитель . Архивировано из оригинала 17 сентября 2014 года . Проверено 17 сентября 2014 г.
  63. ^ abc Clocks в 2003.
  64. Фьелланд, Рагнар (17 июня 2020 г.). «Почему не будет реализован общий искусственный интеллект». Гуманитарные и социальные науки. Коммуникации . 7 (1): 1–9. дои : 10.1057/s41599-020-0494-4 . hdl : 11250/2726984 . ISSN  2662-9992. S2CID  219710554.
  65. ^ Маккарти 2007.
  66. Хачадурян, Раффи (23 ноября 2015 г.). «Изобретение Судного дня: принесет ли искусственный интеллект нам утопию или разрушение?». Житель Нью-Йорка . Архивировано из оригинала 28 января 2016 года . Проверено 7 февраля 2016 г.
  67. ^ Мюллер, В.К., и Бостром, Н. (2016). Будущий прогресс в области искусственного интеллекта: обзор мнений экспертов. В книге «Фундаментальные вопросы искусственного интеллекта» (с. 555–572). Спрингер, Чам.
  68. ^ Армстронг, Стюарт и Кай Сотала. 2012. «Как мы предсказываем появление ИИ — или не можем». В книге Beyond AI: Artificial Dreams под редакцией Яна Ромпортла, Павла Ирсинга, Евы Зачковой, Михала Полака и Радека Шустера, 52–75. Пльзень: Западночешский университет
  69. ^ «Microsoft теперь утверждает, что GPT-4 демонстрирует «искры» общего интеллекта» . 24 марта 2023 г.
  70. Шимек, Кэри (6 июля 2023 г.). «ИИ превосходит людей в тесте на креативность». Новости неврологии . Проверено 20 октября 2023 г.
  71. ^ Гузик, Эрик Э.; Бирдж, Кристиан; Гильде, Кристиан (1 декабря 2023 г.). «Оригинальность машин: ИИ проходит тест Торранса». Журнал творчества . 33 (3): 100065. doi : 10.1016/j.yjoc.2023.100065 . ISSN  2713-3745. S2CID  261087185.
  72. ^ Герцель и Пенначин 2006.
  73. ^ abc (Курцвейл 2005, стр. 260)
  74. ^ abc Герцель 2007.
  75. ^ Грейс, Катя (2016). «Ошибка в Армстронге и Сотале 2012». Влияние ИИ (блог). Архивировано из оригинала 4 декабря 2020 года . Проверено 24 августа 2020 г.
  76. ↑ Аб Бутц, Мартин В. (1 марта 2021 г.). «На пути к сильному ИИ». КИ – Künstliche Intelligenz . 35 (1): 91–101. дои : 10.1007/s13218-021-00705-x . ISSN  1610-1987. S2CID  256065190.
  77. ^ Лю, Фэн; Ши, Юн; Лю, Ин (2017). «Коэффициент интеллекта и уровень интеллекта искусственного интеллекта». Анналы науки о данных . 4 (2): 179–191. arXiv : 1709.10242 . дои : 10.1007/s40745-017-0109-0. S2CID  37900130.
  78. Бриен, Йорн (5 октября 2017 г.). «Google-KI doppelt so schlau wie Siri» [ИИ Google в два раза умнее Siri, но шестилетний ребенок превосходит обоих] (на немецком языке). Архивировано из оригинала 3 января 2019 года . Проверено 2 января 2019 г.
  79. Гроссман, Гэри (3 сентября 2020 г.). «Мы вступаем в сумеречную зону ИИ между узким и общим ИИ». ВенчурБит . Архивировано из оригинала 4 сентября 2020 года . Проверено 5 сентября 2020 г. Конечно, есть и те, кто утверждает, что мы уже видим ранний пример системы AGI в недавно анонсированной нейронной сети обработки естественного языка (NLP) GPT-3. ...Так является ли GPT-3 первым примером системы AGI? Это спорный вопрос, но все сходятся во мнении, что это не ОИИ. ... По крайней мере, GPT-3 говорит нам, что существует золотая середина между узким и общим ИИ.
  80. ^ Куах, Катянна. «Разработчик создал чат-бота с искусственным интеллектом, используя GPT-3, который помог мужчине снова поговорить со своей покойной невестой. OpenAI закрыла его». Регистр. Архивировано из оригинала 16 октября 2021 года . Проверено 16 октября 2021 г.
  81. Виггерс, Кайл (13 мая 2022 г.), «Новый ИИ DeepMind может выполнять более 600 задач, от игр до управления роботами», TechCrunch , заархивировано из оригинала 16 июня 2022 г. , получено 12 июня 2022 г.
  82. ^ Бубек, Себастьян; Чандрасекаран, Варун; Эльдан, Ронен; Герке, Йоханнес; Хорвиц, Эрик; Камар, Эдже; Ли, Питер; Ли, Инь Тат; Ли, Юаньчжи; Лундберг, Скотт; Нори, Харша; Паланги, Хамид; Рибейро, Марко Тулио; Чжан, И (22 марта 2023 г.). «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4». arXiv : 2303.12712 [cs.CL].
  83. Мец, Кейд (1 мая 2023 г.). «Крестный отец искусственного интеллекта покидает Google и предупреждает о грядущей опасности» . Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 7 июня 2023 г.
  84. ^ Хикки, Алекс. «Эмуляция всего мозга: гигантский шаг для нейронауки». Техническое пиво . Проверено 8 ноября 2023 г.
  85. ^ Сандберг и Бострем 2008.
  86. ^ Драхман 2005.
  87. ^ аб Рассел и Норвиг 2003.
  88. ^ Моравец 1988, с. 61.
  89. ^ Аб Моравец 1998.
  90. ^ Ижикевич, Евгений М.; Эдельман, Джеральд М. (4 марта 2008 г.). «Крупномасштабная модель таламокортикальных систем млекопитающих» (PDF) . ПНАС . 105 (9): 3593–3598. Бибкод : 2008PNAS..105.3593I. дои : 10.1073/pnas.0712231105 . ПМК 2265160 . PMID  18292226. Архивировано из оригинала (PDF) 12 июня 2009 года . Проверено 23 июня 2015 г. 
  91. ^ «Основные этапы проекта». Синий мозг . Проверено 11 августа 2008 г.
  92. ^ «Искусственный мозг через 10 лет» . Новости BBC . 22 июля 2009 г. Архивировано из оригинала 26 июля 2017 г. Проверено 25 июля 2009 г.
  93. Новости Университета Калгари. Архивировано 18 августа 2009 г. в Wayback Machine , новости NBC News. Архивировано 4 июля 2017 г. в Wayback Machine.
  94. ↑ Аб Торнтон, Анджела (26 июня 2023 г.). «Как может стать возможной загрузка нашего разума в компьютер». Разговор . Проверено 8 ноября 2023 г.
  95. ^ Сваминатан, Нихил (январь – февраль 2011 г.). «Глия — другие клетки мозга». Обнаружить . Архивировано из оригинала 8 февраля 2014 года . Проверено 24 января 2014 г.
  96. ^ де Вега, Гленберг и Граессер, 2008. Широкий спектр взглядов в текущих исследованиях, каждая из которых требует определенного обоснования.
  97. ^ Сирл 1980
  98. ^ Например:
    • Рассел и Норвиг 2003,
    • Психологический словарь издательства Оксфордского университета. Архивировано 3 декабря 2007 г. в Wayback Machine (цитируется по «Encyclepedia.com»),
    • Энциклопедия когнитивных наук Массачусетского технологического института. Архивировано 19 июля 2008 г. в Wayback Machine (цитата по "AITopics").
    • Помогут ли биологические компьютеры машинам с искусственным интеллектом стать людьми? Архивировано 13 мая 2008 года в Wayback Machine Энтони Тонгена.
  99. ^ abc Рассел и Норвиг 2003, стр. 947.
  100. ^ хотя см. «Объяснимый искусственный интеллект» для любопытства в этой области, почему программа ведет себя именно так.
  101. ^ Нагель 1974.
  102. ^ Тьюринг 1950.
  103. ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск AGI: опрос». Физика Скрипта . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  104. ^ Юдковский 2006.
  105. ^ Джой, Билл (апрель 2000 г.). «Почему будущее не нуждается в нас». Проводной .
  106. ^ Джеймс, Алекс П. (2022). «Почему, что и как разрабатывать чипы общего искусственного интеллекта». Транзакции IEEE в когнитивных системах и системах развития . 14 (2): 333–347. arXiv : 2012.06338 . дои : 10.1109/TCDS.2021.3069871. ISSN  2379-8920. S2CID  228376556. Архивировано из оригинала 28 августа 2022 года . Проверено 28 августа 2022 г.
  107. ^ Пей, Цзин; Дэн, Лей; Сонг, Сен; Чжао, Минго; Чжан, Юхуэй; Ву, Шуан; Ван, Гуанруй; Цзоу, Чжэ; Ву, Чжэньчжи; Он, Вэй; Чен, Фэн; Дэн, Нин; Ву, Си; Ван, Ю; Ву, Юцзе (2019). «На пути к общему искусственному интеллекту с гибридной архитектурой чипов Tianjic». Природа . 572 (7767): 106–111. Бибкод : 2019Natur.572..106P. дои : 10.1038/s41586-019-1424-8. ISSN  1476-4687. PMID  31367028. S2CID  199056116. Архивировано из оригинала 29 августа 2022 года . Проверено 29 августа 2022 г.
  108. ^ Панди, Мохит; Фернандес, Майкл; Джентиле, Франческо; Исаев Александр; Тропша, Александр; Стерн, Авраам К.; Черкасов, Артем (март 2022 г.). «Преобразующая роль вычислений на графических процессорах и глубокого обучения в открытии лекарств». Природный машинный интеллект . 4 (3): 211–221. дои : 10.1038/s42256-022-00463-x . ISSN  2522-5839. S2CID  252081559.
  109. ^ Дин, Джордж (2022). «Машины, которые чувствуют и думают: роль аффективных чувств и умственных действий в (искусственном) общем интеллекте». Искусственная жизнь . 28 (3): 289–309. дои : 10.1162/artl_a_00368. ISSN  1064-5462. PMID  35881678. S2CID  251069071.
  110. ^ «Общий искусственный интеллект - перевешивают ли затраты выгоды?». 23 августа 2021 г. Проверено 7 июня 2023 г.
  111. ^ «Как мы можем получить выгоду от развития общего искусственного интеллекта (AGI) - Unite.AI» . www.unite.ai . Проверено 7 июня 2023 г.
  112. ^ abc Талти, Жюль; Жюльен, Стефан. «Как будет выглядеть наше общество, когда искусственный интеллект будет повсюду?». Смитсоновский журнал . Проверено 7 июня 2023 г.
  113. ^ Аб Стивенсон, Мэтт (8 октября 2015 г.). «Ответы на АМА Стивена Хокинга здесь!». Проводной . ISSN  1059-1028 . Проверено 8 июня 2023 г.
  114. ^ Аб Бостром, Ник (2017). «§ Предпочтительный порядок прибытия». Суперинтеллект: пути, опасности, стратегии (перепечатано с исправлениями в 2017 г.). Оксфорд, Великобритания; Нью-Йорк, Нью-Йорк, США: Издательство Оксфордского университета. ISBN 978-0-19-967811-2.
  115. Пайпер, Келси (19 ноября 2018 г.). «Как технологический прогресс делает вероятность того, что люди уничтожат самих себя, более чем когда-либо». Вокс . Проверено 8 июня 2023 г.
  116. Доэрти, Бен (17 мая 2018 г.). «Изменение климата представляет собой« экзистенциальную угрозу безопасности »Австралии, говорится в запросе Сената». Хранитель . ISSN  0261-3077 . Проверено 16 июля 2023 г.
  117. ^ МакАскилл, Уильям (2022). Чему мы обязаны будущему . Нью-Йорк, штат Нью-Йорк: Основные книги. ISBN 978-1-5416-1862-6.
  118. ^ аб Орд, Тоби (2020). «Глава 5: Будущие риски, несогласованный искусственный интеллект». Пропасть: экзистенциальный риск и будущее человечества . Издательство Блумсбери. ISBN 978-1-5266-0021-9.
  119. Аль-Сибай, Нур (13 февраля 2022 г.). «Главный научный сотрудник OpenAI говорит, что продвинутый искусственный интеллект уже может быть сознательным» . Футуризм . Проверено 24 декабря 2023 г.
  120. ^ Самуэльссон, Пол Конрад (2019). «Искусственное сознание: наша величайшая этическая проблема». Философия сейчас . Проверено 23 декабря 2023 г.
  121. ^ Кейтман, Брайан (24 июля 2023 г.). «ИИ должен бояться людей». ВРЕМЯ . Проверено 23 декабря 2023 г.
  122. Руз, Кевин (30 мая 2023 г.). «ИИ представляет собой« риск исчезновения », предупреждают лидеры отрасли» . Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 24 декабря 2023 г.
  123. ^ ab «Заявление о риске ИИ». Центр безопасности искусственного интеллекта . 30 мая 2023 г. Проверено 8 июня 2023 г.
  124. ^ «Стивен Хокинг:« Трансцендентность рассматривает последствия искусственного интеллекта - но воспринимаем ли мы ИИ достаточно серьезно?» «Индепендент» (Великобритания) . Архивировано из оригинала 25 сентября 2015 года . Проверено 3 декабря 2014 г.
  125. ^ Хергер, Марио. «Проблема горилл – гараж предприятия» . Проверено 7 июня 2023 г.
  126. ^ «Увлекательные дебаты в Facebook между Яном ЛеКуном, Стюартом Расселом и Йошуа Бенджио о рисках сильного ИИ». Увлекательные дебаты в Facebook между Яном ЛеКуном, Стюартом Расселом и Йошуа Бенджио о рисках, связанных с сильным ИИ (на французском языке) . Проверено 8 июня 2023 г.
  127. ^ «Обрекает ли искусственный интеллект человеческую расу в течение следующих 100 лет?» ХаффПост . 22 августа 2014 года . Проверено 8 июня 2023 г.
  128. ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск AGI: опрос». Физика Скрипта . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  129. ^ Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии (первое изд.). Издательство Оксфордского университета. ISBN 978-0199678112.
  130. ^ Чоу, Эндрю Р.; Перриго, Билли (16 февраля 2023 г.). «Гонка вооружений в области искусственного интеллекта началась. Начинайте беспокоиться». ВРЕМЯ . Проверено 24 декабря 2023 г.
  131. Тетлоу, Джемма (12 января 2017 г.). «Гонка вооружений в области искусственного интеллекта рискует выйти из-под контроля, предупреждается в докладе». www.ft.com . Проверено 24 декабря 2023 г.
  132. ^ Милмо, Дэн; Стейси, Киран (25 сентября 2023 г.). «Эксперты расходятся во мнениях по поводу исходящей угрозы, но искусственный интеллект нельзя игнорировать». Хранитель . ISSN  0261-3077 . Проверено 24 декабря 2023 г.
  133. ^ «Человечество, безопасность и искусственный интеллект, о боже! (с Яном Бреммером и Шуманом Госемаджумдером)» . КАФЕ . 20 июля 2023 г. Проверено 15 сентября 2023 г.
  134. Хэмблин, Джеймс (9 мая 2014 г.). «Но что будет означать для меня конец человечества?». Атлантический океан . Архивировано из оригинала 4 июня 2014 года . Проверено 12 декабря 2015 г.
  135. ^ «Большие технологии разжигают опасения по поводу ИИ, предупреждают ученых» . Телеграф . Проверено 7 декабря 2023 г.
  136. ^ «Основатель Google Brain говорит, что крупные технологические компании лгут об опасности исчезновения ИИ» . Австралийский финансовый обзор . Проверено 7 декабря 2023 г.
  137. ^ «GPT - это GPT: ранний взгляд на потенциал воздействия больших языковых моделей на рынок труда». openai.com . Проверено 7 июня 2023 г.
  138. ^ ab «80% работников будут подвержены воздействию ИИ. Эти рабочие места пострадают больше всего». Евроньюс . 23 марта 2023 г. Проверено 8 июня 2023 г.
  139. ^ Шеффи, Айелет. «Илон Маск говорит, что нам нужен всеобщий базовый доход, потому что «в будущем физический труд станет выбором». Бизнес-инсайдер . Проверено 8 июня 2023 г.

Источники

дальнейшее чтение

Внешние ссылки