Искусственный интеллект ( ИИ ) в самом широком смысле — это интеллект , демонстрируемый машинами , в частности компьютерными системами . Это область исследований в области информатики , которая разрабатывает и изучает методы и программное обеспечение , которые позволяют машинам воспринимать окружающую среду и использовать обучение и интеллект для принятия мер, которые максимизируют их шансы на достижение определенных целей. [1] Такие машины можно назвать ИИ.
Некоторые известные приложения ИИ включают передовые поисковые системы в Интернете (например, Google Search ); системы рекомендаций (используются YouTube , Amazon и Netflix ); взаимодействие посредством человеческой речи (например, Google Assistant , Siri и Alexa ); автономные транспортные средства (например, Waymo ); генеративные и творческие инструменты (например, ChatGPT , Apple Intelligence и AI art ); и сверхчеловеческая игра и анализ в стратегических играх (например, шахматах и го ). [2] Однако многие приложения ИИ не воспринимаются как ИИ: «Множество передовых ИИ просочилось в общие приложения, часто не называемые ИИ, потому что как только что-то становится достаточно полезным и достаточно распространенным, его больше не называют ИИ ». [3] [4]
Алан Тьюринг был первым человеком, проведшим серьезные исследования в области, которую он назвал машинным интеллектом. [5] Искусственный интеллект был основан как академическая дисциплина в 1956 году, [6] теми, кого сейчас считают отцами-основателями ИИ: Джоном Маккарти , Марвином Минкси , Натаниэлем Рочестером и Клодом Шенноном . [7] [8] Эта отрасль прошла через несколько циклов оптимизма, [9] [10] за которыми следовали периоды разочарования и потери финансирования, известные как зима искусственного интеллекта . [11] [12] Финансирование и интерес значительно возросли после 2012 года, когда глубокое обучение превзошло все предыдущие методы искусственного интеллекта, [13] и после 2017 года с архитектурой-трансформером . [14] Это привело к буму искусственного интеллекта в начале 2020-х годов, когда компании, университеты и лаборатории, преимущественно базирующиеся в Соединенных Штатах, стали пионерами значительных достижений в области искусственного интеллекта . [15]
Растущее использование искусственного интеллекта в 21 веке влияет на социальный и экономический сдвиг в сторону большей автоматизации , принятия решений на основе данных и интеграции систем искусственного интеллекта в различные экономические сектора и сферы жизни, влияя на рынки труда , здравоохранение , государственное управление . , промышленность , образование , пропаганда и дезинформация . Это поднимает вопросы о долгосрочных последствиях , этических последствиях и рисках ИИ , что побуждает к дискуссиям о регуляторной политике , призванной обеспечить безопасность и преимущества технологии .
Различные области исследований ИИ сосредоточены вокруг конкретных целей и использования определенных инструментов. Традиционные цели исследований ИИ включают рассуждение , представление знаний , планирование , обучение , обработку естественного языка , восприятие и поддержку робототехники . [a] Общий интеллект — способность выполнять любую задачу, которую может выполнить человек, по крайней мере, на равном уровне — входит в число долгосрочных целей этой области. [16]
Для достижения этих целей исследователи ИИ адаптировали и интегрировали широкий спектр методов, включая поисковую и математическую оптимизацию , формальную логику , искусственные нейронные сети и методы, основанные на статистике , исследовании операций и экономике . [b] ИИ также опирается на психологию , лингвистику , философию , нейробиологию и другие области. [17]
Общая проблема моделирования (или создания) интеллекта разбита на подзадачи. Они состоят из определенных черт или способностей, которые исследователи ожидают от интеллектуальной системы. Описанные ниже черты получили наибольшее внимание и охватывают сферу исследований ИИ. [а]
Ранние исследователи разработали алгоритмы, имитирующие пошаговые рассуждения, которые люди используют, когда решают головоломки или делают логические выводы . [18] К концу 1980-х и 1990-м годам были разработаны методы работы с неопределенной или неполной информацией с использованием концепций теории вероятности и экономики . [19]
Многих из этих алгоритмов недостаточно для решения больших задач рассуждения, поскольку они испытывают «комбинаторный взрыв»: по мере роста задач они становятся экспоненциально медленнее. [20] Даже люди редко используют пошаговые выводы, которые могли смоделировать ранние исследования ИИ. Они решают большинство своих проблем, используя быстрые и интуитивные суждения. [21] Точные и эффективные рассуждения — нерешенная проблема.
Представление знаний и инженерия знаний [22] позволяют программам ИИ разумно отвечать на вопросы и делать выводы о фактах реального мира. Формальные представления знаний используются при индексировании и поиске на основе контента, [23] интерпретации сцен, [24] поддержке клинических решений, [25] обнаружении знаний (извлечение «интересных» и практических выводов из больших баз данных ), [26] и других областях. . [27]
База знаний — это совокупность знаний, представленная в форме, которую может использовать программа. Онтология — это набор объектов, отношений, концепций и свойств, используемых в определенной области знаний . [28] Базы знаний должны представлять такие вещи, как объекты, свойства, категории и отношения между объектами; [29] ситуации, события, состояния и время; [30] причины и следствия; [31] знание о знании (то, что мы знаем о том, что знают другие люди); [32] рассуждения по умолчанию (вещи, которые люди предполагают, являются истинными, пока им не скажут иначе, и останутся истинными, даже когда другие факты меняются); [33] и многие другие аспекты и области знаний.
Среди наиболее сложных проблем представления знаний — широта знаний здравого смысла (набор элементарных фактов, известных среднестатистическому человеку, огромен); [34] и субсимволическая форма большинства здравомыслящих знаний (многое из того, что знают люди, не представлено в виде «фактов» или «утверждений», которые они могли бы выразить устно). [21] Существует также сложность приобретения знаний , проблема получения знаний для приложений ИИ. [с]
«Агент» — это все, что воспринимает и совершает действия в мире. Рациональный агент имеет цели или предпочтения и предпринимает действия для их достижения. [d] [37] При автоматизированном планировании агент имеет конкретную цель. [38] При автоматизированном принятии решений у агента есть предпочтения — есть некоторые ситуации, в которых он предпочел бы оказаться, а некоторых ситуаций он пытается избежать. Агент, принимающий решения, присваивает каждой ситуации число (называемое « полезностью »), которое измеряет, насколько агент предпочитает ее. Для каждого возможного действия он может рассчитать « ожидаемую полезность »: полезность всех возможных результатов действия, взвешенную по вероятности того, что результат произойдет. Затем он может выбрать действие с максимальной ожидаемой полезностью. [39]
При классическом планировании агент точно знает, каков будет эффект любого действия. [40] Однако в большинстве задач реального мира агент может не быть уверен в ситуации, в которой он находится (она «неизвестна» или «ненаблюдаема»), и он может не знать наверняка, что произойдет после каждого возможного действия ( оно не «детерминировано»). Он должен выбрать действие, сделав вероятностное предположение, а затем повторно оценить ситуацию, чтобы увидеть, сработало ли действие. [41]
В некоторых задачах предпочтения агента могут быть неопределенными, особенно если в решении участвуют другие агенты или люди. Их можно изучить (например, с помощью обратного обучения с подкреплением ), или агент может искать информацию для улучшения своих предпочтений. [42] Теорию ценности информации можно использовать для взвешивания ценности исследовательских или экспериментальных действий. [43] Пространство возможных будущих действий и ситуаций обычно непреодолимо велико, поэтому агенты должны предпринимать действия и оценивать ситуации, не зная, каким будет результат.
Марковский процесс принятия решений имеет модель перехода , которая описывает вероятность того, что конкретное действие изменит состояние определенным образом, и функцию вознаграждения , которая определяет полезность каждого состояния и стоимость каждого действия. Политика связывает решение с каждым возможным состоянием. Политика может быть рассчитана (например, путем итерации ), быть эвристической или ее можно изучить. [44]
Теория игр описывает рациональное поведение нескольких взаимодействующих агентов и используется в программах ИИ, которые принимают решения с участием других агентов. [45]
Машинное обучение — это исследование программ, которые могут автоматически улучшить свою производительность при выполнении определенной задачи. [46] Он был частью ИИ с самого начала. [э]
Существует несколько видов машинного обучения. Обучение без учителя анализирует поток данных, находит закономерности и делает прогнозы без какого-либо другого руководства. [49] Обучение с учителем требует, чтобы человек сначала помечал входные данные, и существует в двух основных вариантах: классификация (когда программа должна научиться предсказывать, к какой категории принадлежат входные данные) и регрессия (когда программа должна выводить числовую функцию на основе при цифровом вводе). [50]
При обучении с подкреплением агент вознаграждается за хорошие ответы и наказывается за плохие. Агент учится выбирать ответы, которые классифицируются как «хорошие». [51] Трансферное обучение — это когда знания, полученные при решении одной проблемы, применяются к новой проблеме. [52] Глубокое обучение — это тип машинного обучения, при котором входные данные обрабатываются через биологически созданные искусственные нейронные сети для всех этих типов обучения. [53]
Теория компьютерного обучения может оценивать учащихся по сложности вычислений , по сложности выборки (сколько данных требуется) или по другим понятиям оптимизации . [54]
Обработка естественного языка (NLP) [55] позволяет программам читать, писать и общаться на человеческих языках, таких как английский . Конкретные проблемы включают распознавание речи , синтез речи , машинный перевод , извлечение информации , поиск информации и ответы на вопросы . [56]
Ранние работы, основанные на порождающей грамматике и семантических сетях Ноама Хомского , имели трудности с устранением смысловой неоднозначности [f], если только они не ограничивались небольшими областями, называемыми « микромирами » (из-за проблемы знания здравого смысла [34] ). Маргарет Мастерман считала, что именно значение, а не грамматика, является ключом к пониманию языков и что основой вычислительной структуры языка должны быть тезаурусы , а не словари.
Современные методы глубокого обучения для НЛП включают встраивание слов (представление слов, как правило, в виде векторов , кодирующих их значение), [57] преобразователи (архитектура глубокого обучения, использующая механизм внимания ) [58] и другие. [59] В 2019 году генеративные предварительно обученные языковые модели-трансформеры (или «GPT») начали генерировать связный текст, [60] [61] и к 2023 году эти модели смогли получить оценки человеческого уровня на экзамене на адвоката . Тест SAT , тест GRE и многие другие практические приложения. [62]
Машинное восприятие — это способность использовать данные от датчиков (таких как камеры, микрофоны, беспроводные сигналы, активный лидар , гидролокатор, радар и тактильные датчики ) для определения аспектов мира. Компьютерное зрение — это способность анализировать визуальный ввод. [63]
Эта область включает в себя распознавание речи , [64] классификацию изображений , [65] распознавание лиц , распознавание объектов , [66] отслеживание объектов , [67] и роботизированное восприятие . [68]
Аффективные вычисления — это междисциплинарный зонтик, включающий системы, которые распознают, интерпретируют, обрабатывают или моделируют человеческие чувства, эмоции и настроение . [70] Например, некоторые виртуальные помощники запрограммированы разговаривать разговорно или даже шутливо подшучивать; это делает их более чувствительными к эмоциональной динамике человеческого взаимодействия или иным образом облегчает взаимодействие человека с компьютером .
Однако это дает наивным пользователям нереальное представление об интеллекте существующих компьютерных агентов. [71] Умеренные успехи, связанные с аффективными вычислениями, включают текстовый анализ настроений и, в последнее время, мультимодальный анализ настроений , в котором ИИ классифицирует аффекты, отображаемые субъектом, записанным на видео. [72]
Машина с общим искусственным интеллектом должна быть способна решать широкий спектр задач с широтой и универсальностью, аналогичной человеческому интеллекту . [16]
Исследования ИИ используют широкий спектр методов для достижения вышеуказанных целей. [б]
ИИ может решить многие проблемы, разумно перебирая множество возможных решений. [73] В ИИ используются два совершенно разных типа поиска: поиск в пространстве состояний и локальный поиск .
Поиск в пространстве состояний просматривает дерево возможных состояний, чтобы попытаться найти целевое состояние. [74] Например, алгоритмы планирования просматривают деревья целей и подцелей, пытаясь найти путь к целевой цели. Этот процесс называется анализом средств и результатов . [75]
Простого исчерпывающего поиска [76] редко бывает достаточно для решения большинства реальных задач: пространство поиска (количество мест для поиска) быстро вырастает до астрономических цифр . В результате поиск выполняется слишком медленно или никогда не завершается. [20] « Эвристика » или «эмпирические правила» могут помочь расставить приоритеты в выборе, который с большей вероятностью приведет к достижению цели. [77]
Состязательный поиск используется для игровых программ, таких как шахматы или го. Он просматривает дерево возможных ходов и контрходов в поисках выигрышной позиции. [78]
Локальный поиск использует математическую оптимизацию для поиска решения проблемы. Он начинается с некоторой формы предположения и постепенно совершенствует его. [79]
Градиентный спуск — это тип локального поиска, который оптимизирует набор числовых параметров путем постепенной их корректировки для минимизации функции потерь . Варианты градиентного спуска обычно используются для обучения нейронных сетей. [80]
Другой тип локального поиска — эволюционные вычисления , целью которых является итеративное улучшение набора возможных решений путем «мутации» и «рекомбинации» их, отбирая только наиболее приспособленных для выживания в каждом поколении. [81]
Процессы распределенного поиска могут координироваться с помощью алгоритмов роевого интеллекта . Двумя популярными роевыми алгоритмами, используемыми в поиске, являются оптимизация роя частиц (вдохновленная стайкой птиц ) и оптимизация колонии муравьев (вдохновленная муравьиными следами ). [82]
Формальная логика используется для рассуждений и представления знаний . [83] Формальная логика существует в двух основных формах: логика высказываний (которая оперирует утверждениями, которые являются истинными или ложными, и использует логические связки , такие как «и», «или», «не» и «подразумевается») [84] и предикат логика (которая также оперирует объектами, предикатами и отношениями и использует кванторы , такие как « Каждый X есть Y » и «Есть некоторые X , которые являются Y »). [85]
Дедуктивное рассуждение в логике — это процесс доказательства нового утверждения ( вывода ) на основе других утверждений, которые даны и считаются истинными (посылок ) . [86] Доказательства могут быть структурированы как деревья доказательств , в которых узлы помечены предложениями, а дочерние узлы соединены с родительскими узлами правилами вывода .
Учитывая проблему и набор предпосылок, решение проблемы сводится к поиску дерева доказательств, корневой узел которого помечен решением проблемы, а листовые узлы помечены посылками или аксиомами . В случае предложений Хорна поиск решения проблемы может осуществляться путем рассуждений вперед от посылок или назад от проблемы. [87] В более общем случае клаузальной формы логики первого порядка резолюция представляет собой единственное, свободное от аксиом правило вывода, в котором проблема решается путем доказательства противоречия из посылок, которые включают отрицание проблемы для решить. [88]
Вывод как в логике предложения Хорна, так и в логике первого порядка неразрешим и, следовательно, неразрешим . Однако обратные рассуждения с предложениями Хорна, лежащие в основе вычислений в языке логического программирования Пролог , являются полными по Тьюрингу . Более того, его эффективность не уступает вычислениям на других символьных языках программирования. [89]
Нечеткая логика присваивает «степень истинности» от 0 до 1. Таким образом, она может обрабатывать расплывчатые и частично истинные утверждения. [90]
Немонотонная логика , включая логическое программирование с отрицанием как неудачей , предназначена для обработки рассуждений по умолчанию . [33] Для описания многих сложных областей были разработаны другие специализированные версии логики.
Многие проблемы ИИ (в том числе рассуждения, планирование, обучение, восприятие и робототехника) требуют от агента работы с неполной или неопределенной информацией. Исследователи искусственного интеллекта разработали ряд инструментов для решения этих проблем, используя методы теории вероятностей и экономики. [91] Были разработаны точные математические инструменты, которые анализируют, как агент может делать выбор и планировать, используя теорию принятия решений , анализ решений , [92] и теорию ценности информации . [93] Эти инструменты включают такие модели, как марковские процессы принятия решений , [94] динамические сети принятия решений , [95] теория игр и проектирование механизмов . [96]
Байесовские сети [97] — это инструмент, который можно использовать для рассуждений (с использованием алгоритма байесовского вывода ), [g] [99] обучения (с использованием алгоритма ожидания-максимизации ), [h] [101] планирования (с использованием сетей принятия решений ). [102] и восприятие (с использованием динамических байесовских сетей ). [95]
Вероятностные алгоритмы также можно использовать для фильтрации, прогнозирования, сглаживания и поиска объяснений потоков данных, тем самым помогая системам восприятия анализировать процессы, происходящие с течением времени (например, скрытые модели Маркова или фильтры Калмана ). [95]
Простейшие ИИ-приложения можно разделить на два типа: классификаторы (например, «если блестит, то ромб»), с одной стороны, и контроллеры (например, «если бриллиант, то поднимите»), с другой стороны. Классификаторы [103] — это функции, которые используют сопоставление с образцом для определения наиболее близкого соответствия. Их можно доработать на основе выбранных примеров с помощью обучения с учителем . Каждый шаблон (также называемый « наблюдением ») помечен определенным предопределенным классом. Все наблюдения в сочетании с их метками классов известны как набор данных . Когда получено новое наблюдение, оно классифицируется на основе предыдущего опыта. [50]
Существует множество видов классификаторов. Дерево решений — это самый простой и наиболее широко используемый алгоритм символьного машинного обучения. [104] Алгоритм K-ближайшего соседа был наиболее широко используемым аналоговым ИИ до середины 1990-х годов, а методы ядра, такие как машина опорных векторов (SVM), вытеснили k-ближайшего соседа в 1990-х годах. [105] Наивный байесовский классификатор, как сообщается, является «наиболее широко используемым обучающим устройством» [106] в Google, отчасти благодаря его масштабируемости. [107] Нейронные сети также используются в качестве классификаторов. [108]
Искусственная нейронная сеть основана на наборе узлов, также известных как искусственные нейроны , которые в общих чертах моделируют нейроны биологического мозга. Он обучен распознавать закономерности; после обучения он сможет распознавать эти закономерности в свежих данных. Есть вход, как минимум один скрытый слой узлов и выход. Каждый узел применяет функцию, и как только вес пересекает указанный порог, данные передаются на следующий уровень. Сеть обычно называется глубокой нейронной сетью, если она имеет как минимум два скрытых слоя. [108]
Алгоритмы обучения нейронных сетей используют локальный поиск для выбора весов, которые дадут правильный результат для каждого входного сигнала во время обучения. Наиболее распространенным методом обучения является алгоритм обратного распространения ошибки . [109] Нейронные сети учатся моделировать сложные взаимосвязи между входными и выходными данными и находить закономерности в данных. Теоретически нейронная сеть может изучить любую функцию. [110]
В нейронных сетях прямого распространения сигнал проходит только в одном направлении. [111] Рекуррентные нейронные сети подают выходной сигнал обратно на вход, что позволяет кратковременно запоминать предыдущие входные события. Долговременная краткосрочная память является наиболее успешной сетевой архитектурой для рекуррентных сетей. [112] Перцептроны [113] используют только один слой нейронов, глубокое обучение [114] использует несколько слоев. Сверточные нейронные сети усиливают связь между нейронами, находящимися «близко» друг к другу — это особенно важно при обработке изображений , где локальный набор нейронов должен идентифицировать «край», прежде чем сеть сможет идентифицировать объект. [115]
Глубокое обучение [114] использует несколько слоев нейронов между входами и выходами сети. Несколько слоев могут постепенно извлекать функции более высокого уровня из необработанных входных данных. Например, при обработке изображений нижние уровни могут идентифицировать края, а более высокие уровни могут идентифицировать понятия, относящиеся к человеку, такие как цифры, буквы или лица. [116]
Глубокое обучение значительно улучшило производительность программ во многих важных областях искусственного интеллекта, включая компьютерное зрение , распознавание речи , обработку естественного языка , классификацию изображений , [117] и другие. Причина , по которой глубокое обучение так хорошо работает во многих приложениях , по состоянию на 2023 год неизвестна. был описан многими людьми еще в 1950-х годах) [i] но из-за двух факторов: невероятного увеличения мощности компьютера (включая стократное увеличение скорости за счет перехода на графические процессоры ) и доступности огромных объемов обучения данные, особенно гигантские наборы данных, используемые для эталонного тестирования, такие как ImageNet . [Дж]
Генеративные предварительно обученные преобразователи (GPT) — это большие языковые модели , основанные на семантических отношениях между словами в предложениях ( обработка естественного языка ). Текстовые модели GPT предварительно обучаются на большом массиве текста , который может быть взят из Интернета. Предварительное обучение состоит из предсказания следующего токена (токеном обычно является слово, подслово или знак препинания). В ходе этого предварительного обучения модели GPT накапливают знания о мире, а затем могут генерировать текст, похожий на человеческий, многократно предсказывая следующий токен. Как правило, последующий этап обучения делает модель более правдивой, полезной и безвредной, обычно с помощью метода, называемого обучением с подкреплением на основе обратной связи с человеком (RLHF). Текущие модели GPT склонны генерировать ложные сведения, называемые « галлюцинациями », хотя это можно уменьшить с помощью RLHF и качественных данных. Они используются в чат-ботах , которые позволяют задать вопрос или запросить задачу простым текстом. [127] [128]
Текущие модели и сервисы включают Gemini (ранее Bard), ChatGPT , Grok , Claude , Copilot и LLaMA . [129] Мультимодальные модели GPT могут обрабатывать различные типы данных ( модальности ), такие как изображения, видео, звук и текст. [130]
В конце 2010-х годов графические процессоры (GPU), которые все чаще проектировались с усовершенствованиями, специфичными для искусственного интеллекта, и использовались со специализированным программным обеспечением TensorFlow , заменили ранее использовавшиеся центральные процессоры (ЦП) в качестве доминирующего средства для крупномасштабных (коммерческих и академических) машин . обучение моделей обучения . [131] Специализированные языки программирования , такие как Пролог, использовались в ранних исследованиях искусственного интеллекта, [132] но языки программирования общего назначения, такие как Python, стали преобладать. [133]
Технологии искусственного интеллекта и машинного обучения используются в большинстве важнейших приложений 2020-х годов, включая: поисковые системы (такие как Google Search ), таргетинг онлайн-рекламы , системы рекомендаций (предлагаемые Netflix , YouTube или Amazon ), привлечение интернет-трафика , таргетированную рекламу. ( AdSense , Facebook ), виртуальные помощники (такие как Siri или Alexa ), автономные транспортные средства (включая дроны , ADAS и беспилотные автомобили ), автоматический языковой перевод ( Microsoft Translator , Google Translate ), распознавание лиц ( Apple Face ID или DeepFace от Microsoft и FaceNet от Google ) и маркировка изображений (используется Facebook , iPhoto от Apple и TikTok ). Развертывание ИИ может контролироваться директором по автоматизации (CAO).
Применение ИИ в медицине и медицинских исследованиях потенциально может улучшить уход за пациентами и качество их жизни. [134] Через призму клятвы Гиппократа медицинские работники этически обязаны использовать ИИ, если приложения могут более точно диагностировать и лечить пациентов.
Для медицинских исследований ИИ является важным инструментом обработки и интеграции больших данных . Это особенно важно для развития органоидной и тканевой инженерии , где микроскопическая визуализация используется в качестве ключевого метода производства. [135] Было высказано предположение, что ИИ может преодолеть несоответствие в финансировании, выделяемом на различные области исследований. [135] Новые инструменты ИИ могут углубить понимание биомедицинских путей. Например, AlphaFold 2 (2021) продемонстрировал способность аппроксимировать трехмерную структуру белка за часы, а не месяцы . [136] В 2023 году сообщалось, что открытие лекарств под руководством ИИ помогло найти класс антибиотиков, способных убивать два разных типа устойчивых к лекарствам бактерий. [137] В 2024 году исследователи использовали машинное обучение, чтобы ускорить поиск лекарств от болезни Паркинсона . Их целью было идентифицировать соединения, которые блокируют слипание или агрегацию альфа-синуклеина (белка, который характеризует болезнь Паркинсона). Им удалось ускорить процесс первичной проверки в десять раз и снизить стоимость в тысячу раз. [138] [139]
Игровые программы используются с 1950-х годов для демонстрации и тестирования самых передовых методов искусственного интеллекта. [140] Deep Blue стала первой компьютерной шахматной системой, победившей действующего чемпиона мира по шахматам Гарри Каспарова 11 мая 1997 года. [141] В 2011 году в игре Jeopardy! викторина-шоу показательный матч, вопросно-ответная система IBM , Уотсон , победилдва величайших Jeopardy! чемпионы Брэд Раттер и Кен Дженнингс со значительным отрывом. [142] В марте 2016 года AlphaGo выиграла 4 из 5 игр в го в матче с чемпионом по го Ли Седолем , став первой компьютерной системой игры в го, обыгравшей профессионального игрока в го без гандикапов . Затем в 2017 году он победил Кэ Цзе , который был лучшим игроком в го в мире. [143] Другие программы обрабатывают игры с несовершенной информацией , например, программа для игры в покер Pluribus . [144] DeepMind разработала все более общие модели обучения с подкреплением , такие как MuZero , которые можно было обучить играть в шахматы, го или игры Atari . [145] В 2019 году AlphaStar из DeepMind достигла уровня гроссмейстера в StarCraft II , особенно сложной стратегической игре в реальном времени, которая предполагает неполное знание того, что происходит на карте. [146] В 2021 году ИИ-агент участвовал в соревновании PlayStation Gran Turismo , победив четырех лучших в мире гонщиков Gran Turismo, используя глубокое обучение с подкреплением. [147] В 2024 году Google DeepMind представила SIMA, тип искусственного интеллекта, способный автономно играть в девять ранее невиданных видеоигр с открытым миром , наблюдая за выводом на экран, а также выполнять короткие конкретные задачи в ответ на инструкции на естественном языке. [148]
Финансы — один из наиболее быстрорастущих секторов, где используются прикладные инструменты искусственного интеллекта: от розничного онлайн-банкинга до инвестиционных консультаций и страхования, где уже несколько лет используются автоматизированные «роботы-консультанты». [149]
Рост использования ИИ в FinTech подчеркивает его достижения и потенциал в финансовом секторе. ИИ меняет цели, методы и инструменты экономики и финансов. [150] Он улучшает оценку кредитного риска с помощью алгоритмов машинного обучения, улучшает управление рисками и помогает прогнозировать рыночные риски, помогая финансовым учреждениям управлять активами во время волатильности. Кроме того, количественные торговые стратегии на основе искусственного интеллекта оптимизировали эффективность и прибыльность высокочастотной торговли . [150]
Эксперты World Pensions, такие как Николас Фирзли, настаивают, что, возможно, еще слишком рано видеть появление высокоинновационных финансовых продуктов и услуг на основе искусственного интеллекта: «развертывание инструментов искусственного интеллекта просто приведет к дальнейшей автоматизации процессов: уничтожению десятков тысяч рабочих мест в банковском деле, финансовом планировании и пенсионное консультирование в процессе, но я не уверен, что это вызовет новую волну [например, сложных] пенсионных инноваций». [151]
Различные страны внедряют военные приложения ИИ. [152] Основные приложения расширяют возможности управления и контроля , связи, датчиков, интеграции и совместимости. [153] Исследования направлены на сбор и анализ разведданных, логистику, кибероперации, информационные операции, а также полуавтономные и автономные транспортные средства . [152] Технологии искусственного интеллекта обеспечивают координацию датчиков и исполнительных устройств, обнаружение и идентификацию угроз, маркировку позиций противника, захват целей , координацию и устранение конфликтов в распределенных совместных огнях между объединенными в сеть боевыми машинами с участием пилотируемых и беспилотных групп. [153] ИИ был задействован в военных операциях в Ираке и Сирии. [152]
В ноябре 2023 года вице-президент США Камала Харрис обнародовала подписанную 31 страной декларацию, устанавливающую ограничения на использование искусственного интеллекта в военных целях. Обязательства включают в себя проведение юридических проверок для обеспечения соответствия военного ИИ международному праву, а также осторожность и прозрачность при разработке этой технологии. [154]
В начале 2020-х годов генеративный искусственный интеллект получил широкое распространение. В марте 2023 года 58% взрослых американцев слышали о ChatGPT и 14% пробовали его. [155] Возрастающий реализм и простота использования генераторов текста в изображения на основе искусственного интеллекта , таких как Midjourney , DALL-E и Stable Diffusion , вызвали тенденцию к созданию вирусных фотографий, созданных с помощью искусственного интеллекта. Широкое внимание привлекли фейковая фотография Папы Франциска в белом пуховике, вымышленный арест Дональда Трампа и мистификация нападения на Пентагон , а также использование в профессиональном творчестве. [156] [157]
Существуют также тысячи успешных приложений ИИ, используемых для решения конкретных проблем в конкретных отраслях или учреждениях. В опросе 2017 года каждая пятая компания сообщила, что включила искусственный интеллект в некоторые предложения или процессы. [158] Несколько примеров: хранение энергии , медицинская диагностика, военная логистика, приложения, предсказывающие результат судебных решений, внешняя политика или управление цепочками поставок.
Приложения искусственного интеллекта для эвакуации и борьбы со стихийными бедствиями растут. ИИ использовался для расследования того, эвакуировались ли люди в крупномасштабных и мелкомасштабных эвакуациях и каким образом, с использованием исторических данных GPS, видео или социальных сетей. Кроме того, ИИ может предоставлять информацию в реальном времени об условиях эвакуации в реальном времени. [159] [160] [161]
В сельском хозяйстве ИИ помог фермерам определить области, которые нуждаются в ирригации, удобрении, обработке пестицидами или повышении урожайности. Агрономы используют ИИ для проведения исследований и разработок. ИИ использовался для прогнозирования времени созревания таких культур, как томаты, мониторинга влажности почвы, управления сельскохозяйственными роботами, проведения прогнозной аналитики, классификации эмоций, вызываемых домашним скотом, свиней, автоматизации теплиц, обнаружения болезней и вредителей, а также экономии воды.
Искусственный интеллект используется в астрономии для анализа растущих объемов доступных данных и приложений, в основном для «классификации, регрессии, кластеризации, прогнозирования, генерации, открытия и развития новых научных идей», например, для открытия экзопланет, прогнозирования солнечной активности и различие между сигналами и инструментальными эффектами в гравитационно-волновой астрономии. Его также можно использовать для деятельности в космосе, такой как исследование космоса, включая анализ данных космических миссий, принятие научных решений по космическим кораблям в реальном времени, предотвращение космического мусора и более автономную работу.
ИИ имеет потенциальные преимущества и потенциальные риски. ИИ может способствовать развитию науки и находить решения серьезных проблем: Демис Хассабис из Deep Mind надеется «разгадать интеллект, а затем использовать его для решения всего остального». [162] Однако по мере того, как использование ИИ стало широко распространенным, было выявлено несколько непредвиденных последствий и рисков. [163] Производственные системы иногда не могут учитывать этику и предвзятость в процессах обучения ИИ, особенно когда алгоритмы ИИ по своей сути необъяснимы в глубоком обучении. [164]
Алгоритмы машинного обучения требуют больших объемов данных. Методы, используемые для получения этих данных, вызвали обеспокоенность по поводу конфиденциальности , слежки и авторских прав .
Технологические компании собирают широкий спектр данных от своих пользователей, включая онлайн-активность, данные геолокации, видео и аудио. [165] Например, для создания алгоритмов распознавания речи Amazon записала миллионы частных разговоров и позволила временным работникам прослушивать и расшифровывать некоторые из них. [166] Мнения об этой широко распространенной слежке варьируются от тех, кто считает ее неизбежным злом, до тех, для кого она явно неэтична и нарушает право на неприкосновенность частной жизни . [167]
Разработчики ИИ утверждают, что это единственный способ предоставлять ценные приложения. и разработали несколько методов, которые пытаются сохранить конфиденциальность при получении данных, таких как агрегирование данных , деидентификация и дифференциальная конфиденциальность . [168] С 2016 года некоторые эксперты по конфиденциальности, такие как Синтия Дворк , начали рассматривать конфиденциальность с точки зрения справедливости . Брайан Кристиан писал, что эксперты перешли «от вопроса «что они знают» к вопросу «что они с этим делают»». [169]
Генеративный ИИ часто обучается на нелицензированных произведениях, защищенных авторским правом, в том числе в таких областях, как изображения или компьютерный код; выходные данные затем используются на основании « добросовестного использования ». Эксперты расходятся во мнениях относительно того, насколько хорошо и при каких обстоятельствах это обоснование будет иметь силу в судах; соответствующие факторы могут включать «цель и характер использования произведения, защищенного авторским правом» и «влияние на потенциальный рынок произведения, защищенного авторским правом». [170] [171] Владельцы веб-сайтов, которые не хотят, чтобы их контент удалялся, могут указать это в файле robots.txt . [172] В 2023 году ведущие авторы (в том числе Джон Гришэм и Джонатан Франзен ) подали в суд на компании, занимающиеся ИИ, за использование их работ для обучения генеративному ИИ. [173] [174] Другой обсуждаемый подход заключается в создании отдельной sui Generis системы защиты творений, созданных ИИ, чтобы гарантировать справедливое присвоение авторства и компенсацию авторам-людям. [175]
На коммерческой сцене ИИ доминируют крупные технологические компании, такие как Alphabet Inc. , Amazon , Apple Inc. , Meta Platforms и Microsoft . [176] [177] [178] Некоторые из этих игроков уже владеют подавляющим большинством существующей облачной инфраструктуры и вычислительными мощностями центров обработки данных , что позволяет им еще больше укрепиться на рынке. [179] [180]
В январе 2024 года Международное энергетическое агентство (МЭА) опубликовало «Электричество 2024, анализ и прогноз до 2026 года» , в котором прогнозируется потребление электроэнергии. [181] Это первый отчет МЭА, в котором даются прогнозы относительно центров обработки данных и энергопотребления для искусственного интеллекта и криптовалют. В отчете говорится, что спрос на электроэнергию для этих целей может удвоиться к 2026 году, при этом дополнительное потребление электроэнергии будет равно объему электроэнергии, потребляемой всей японской страной. [182]
Колоссальное энергопотребление ИИ является причиной роста использования ископаемого топлива и может задержать закрытие устаревших угольных энергетических объектов, выделяющих углерод. В США наблюдается лихорадочный рост строительства центров обработки данных, превращающий крупные технологические компании (например, ChatGTP, Meta, Google, Amazon) в ненасытных потребителей электроэнергии. Прогнозируемое потребление электроэнергии настолько велико, что есть опасения, что оно будет обеспечено независимо от источника. Поиск ChatGTP предполагает использование в 10 раз больше электроэнергии, чем поиск Google. Крупные фирмы торопятся найти источники энергии – от ядерной энергии до геотермальной энергии и термоядерного синтеза. Технологические компании утверждают, что в долгосрочной перспективе ИИ в конечном итоге станет более добрым к окружающей среде, но энергия им нужна сейчас. По мнению технологических компаний, искусственный интеллект сделает энергосистему более эффективной и «интеллектуальной», будет способствовать развитию атомной энергетики и отслеживать общие выбросы углекислого газа. [183]
В исследовательском документе Goldman Sachs 2024 года «Центры обработки данных искусственного интеллекта и грядущий всплеск спроса на электроэнергию в США» говорится, что «спрос на электроэнергию в США, вероятно, будет испытывать рост, не наблюдавшийся в течение одного поколения…». и прогнозирует, что к 2030 году центры обработки данных США будут потреблять 8% электроэнергии в США по сравнению с 3% в 2022 году, что предвещает рост электроэнергетической отрасли различными способами. [184] Потребность центров обработки данных во все большем и большем количестве электроэнергии такова, что они могут максимально использовать электрическую сеть. Крупные технологические компании возражают, что искусственный интеллект может использоваться для максимального использования энергосистемы всеми. [185]
В 2024 году газета Wall Street Journal сообщила, что крупные компании, занимающиеся искусственным интеллектом, начали переговоры с поставщиками атомной энергии США о поставке электроэнергии в центры обработки данных. В марте 2024 года Amazon приобрела ядерный центр обработки данных в Пенсильвании за 650 миллионов долларов США. [186]
YouTube , Facebook и другие используют системы рекомендаций , чтобы направлять пользователей к большему количеству контента. Целью этих программ искусственного интеллекта было максимальное вовлечение пользователей (то есть единственной целью было заставить людей следить за происходящим). ИИ узнал, что пользователи склонны выбирать дезинформацию , теории заговора и крайне предвзятый контент, и, чтобы удержать их на просмотре, ИИ рекомендовал больше такого контента. Пользователи также склонны смотреть больше контента на одну и ту же тему, поэтому ИИ направлял людей в пузыри фильтров , где они получали несколько версий одной и той же дезинформации. [187] Это убедило многих пользователей в правдивости дезинформации и в конечном итоге подорвало доверие к институтам, СМИ и правительству. [188] Программа ИИ правильно научилась максимизировать свою цель, но результат был вреден для общества. После выборов в США в 2016 году крупные технологические компании предприняли шаги по смягчению проблемы .
В 2022 году генеративный ИИ начал создавать изображения, аудио, видео и текст, неотличимые от реальных фотографий, записей, фильмов или написанного человеком текста. Злоумышленники могут использовать эту технологию для создания огромного количества дезинформации или пропаганды. [189] Пионер искусственного интеллекта Джеффри Хинтон выразил обеспокоенность по поводу того, что искусственный интеллект, помимо других рисков, позволяет «авторитарным лидерам манипулировать своим электоратом» в больших масштабах. [190]
Приложения машинного обучения будут предвзятыми, если они будут учиться на предвзятых данных. [191] Разработчики могут не знать о существовании предвзятости. [192] Смещение может быть вызвано способом выбора обучающих данных и способом развертывания модели. [193] [191] Если предвзятый алгоритм используется для принятия решений, которые могут серьезно навредить людям (как это может быть в медицине , финансах , наборе персонала , жилищном обеспечении или полиции ), тогда алгоритм может вызвать дискриминацию . [194] Справедливость в машинном обучении — это исследование того, как предотвратить вред, причиняемый алгоритмической предвзятостью. Это стало серьезной областью академических исследований в области ИИ. Исследователи обнаружили, что не всегда возможно определить «справедливость» так, чтобы это удовлетворило все заинтересованные стороны. [195]
28 июня 2015 года новая функция маркировки изображений в Google Фото ошибочно определила Джеки Алсина и его друга как «горилл», потому что они были черными. Система была обучена на наборе данных, который содержал очень мало изображений чернокожих людей, [196] проблема, называемая «несоответствием размера выборки». [197] Google «исправил» эту проблему, запретив системе помечать что-либо как «гориллу». Восемь лет спустя, в 2023 году, Google Photos все еще не смог идентифицировать гориллу, как и аналогичные продукты Apple, Facebook, Microsoft и Amazon. [198]
COMPAS – коммерческая программа, широко используемая судами США для оценки вероятности того, что обвиняемый станет рецидивистом . В 2016 году Джулия Ангвин из ProPublica обнаружила, что КОМПАС демонстрирует расовую предвзятость, несмотря на то, что программе не была указана расовая принадлежность обвиняемых. Хотя частота ошибок как для белых, так и для чернокожих была калибрована равной ровно 61%, ошибки для каждой расы были разными — система постоянно переоценивала вероятность того, что чернокожий человек совершит повторное правонарушение, и недооценивала вероятность того, что белый человек не совершит правонарушение. повторно обидеть. [199] В 2017 году несколько исследователей [k] показали, что COMPAS математически невозможно учесть все возможные меры справедливости, когда в данных базовые показатели повторных правонарушений различаются для белых и чернокожих. [201]
Программа может принимать предвзятые решения, даже если в данных явно не упоминается проблемный признак (например, «раса» или «пол»). Эта функция будет коррелировать с другими функциями (такими как «адрес», «история покупок» или «имя»), и программа будет принимать те же решения на основе этих функций, что и на основе «расы» или «пола». [202] Мориц Хардт сказал: «Самый убедительный факт в этой области исследований заключается в том, что справедливость через слепоту не работает». [203]
Критика COMPAS подчеркнула, что модели машинного обучения созданы для того, чтобы делать «прогнозы», которые действительны только в том случае, если мы предполагаем, что будущее будет напоминать прошлое. Если они обучаются на данных, которые включают результаты расистских решений в прошлом, модели машинного обучения должны предсказывать, что расистские решения будут приняты в будущем. Если приложение затем использует эти прогнозы в качестве рекомендаций , некоторые из этих «рекомендаций», скорее всего, будут расистскими. [204] Таким образом, машинное обучение не очень подходит для принятия решений в тех областях, где есть надежда, что будущее будет лучше прошлого. Он носит скорее описательный, чем предписывающий характер. [л]
Предвзятость и несправедливость могут остаться незамеченными, поскольку разработчики в подавляющем большинстве белые и мужчины: среди инженеров ИИ около 4% — чернокожие, а 20% — женщины. [197]
На своей конференции по справедливости, подотчетности и прозрачности 2022 года (ACM FAccT 2022) Ассоциация вычислительной техники в Сеуле, Южная Корея, представила и опубликовала результаты, которые рекомендуют, чтобы до тех пор, пока системы искусственного интеллекта и робототехники не будут продемонстрированы, что они свободны от ошибок предвзятости, они небезопасны, и следует ограничить использование самообучающихся нейронных сетей, обученных на огромных нерегулируемых источниках ошибочных интернет-данных. [ сомнительно – обсудить ] [206]
Многие системы искусственного интеллекта настолько сложны, что их разработчики не могут объяснить, как они принимают решения. [207] Особенно с глубокими нейронными сетями , в которых существует большое количество нелинейных связей между входными и выходными данными. Но существуют некоторые популярные методы объяснения. [208]
Невозможно быть уверенным в том, что программа работает правильно, если никто не знает, как именно она работает. Было много случаев, когда программа машинного обучения прошла строгие тесты, но, тем не менее, узнала нечто иное, чем то, что планировали программисты. Например, было обнаружено, что система, которая может идентифицировать кожные заболевания лучше, чем медицинские работники, на самом деле имеет сильную тенденцию классифицировать изображения с линейкой как «раковые», поскольку изображения злокачественных новообразований обычно включают линейку, показывающую масштаб. [209] Другая система машинного обучения, разработанная для эффективного распределения медицинских ресурсов, классифицирует пациентов с астмой как людей с «низким риском» смерти от пневмонии. Наличие астмы на самом деле является серьезным фактором риска, но, поскольку пациенты, страдающие астмой, обычно получают гораздо больше медицинской помощи, согласно данным обучения, их смерть относительно маловероятна. Корреляция между астмой и низким риском смерти от пневмонии была реальной, но вводящей в заблуждение. [210]
Люди, пострадавшие от решения алгоритма, имеют право на объяснение. [211] От врачей, например, ожидается, что они будут четко и полностью объяснять своим коллегам причины любого принимаемого ими решения. Ранние проекты Общего регламента ЕС по защите данных в 2016 году содержали прямое заявление о существовании этого права. [m] Эксперты отрасли отметили, что это нерешенная проблема, решения которой не видно. Регуляторы утверждали, что тем не менее вред реален: если проблема не имеет решения, инструменты не следует использовать. [212]
DARPA учредило программу XAI («Объяснимый искусственный интеллект») в 2014 году, чтобы попытаться решить эти проблемы. [213]
Несколько подходов направлены на решение проблемы прозрачности. SHAP позволяет визуализировать вклад каждой функции в выходные данные. [214] LIME может локально аппроксимировать результаты модели более простой, интерпретируемой моделью. [215] Многозадачное обучение обеспечивает большое количество результатов в дополнение к целевой классификации. Эти другие выходные данные могут помочь разработчикам понять, чему научилась сеть. [216] Деконволюция , DeepDream и другие генеративные методы могут позволить разработчикам видеть, чему научились различные уровни глубокой сети для компьютерного зрения, и выдавать выходные данные, которые могут указывать на то, что изучает сеть. [217] Для генеративных предварительно обученных трансформаторов компания Anthropic разработала метод, основанный на словарном обучении , который связывает паттерны активации нейронов с понятными человеку концепциями. [218]
Искусственный интеллект предоставляет ряд инструментов, полезных для злоумышленников , таких как авторитарные правительства , террористы , преступники или государства-изгои .
Смертоносное автономное оружие — это машина, которая обнаруживает, выбирает и поражает человеческие цели без присмотра человека. [n] Широко доступные инструменты ИИ могут быть использованы злоумышленниками для разработки недорогого автономного оружия, и, если они производятся в больших масштабах, они потенциально могут стать оружием массового уничтожения . [220] Даже при использовании в обычной войне маловероятно, что они не смогут надежно выбирать цели и потенциально смогут убить невиновного человека . [220] В 2014 году 30 стран (включая Китай) поддержали запрет на автономное оружие в соответствии с Конвенцией ООН о конкретных видах обычного оружия , однако США и другие страны с этим не согласились. [221] К 2015 году более пятидесяти стран, как сообщалось, исследовали боевых роботов. [222]
Инструменты ИИ облегчают авторитарным правительствам эффективный контроль над своими гражданами несколькими способами. Распознавание лиц и голоса позволяет осуществлять повсеместное наблюдение . Машинное обучение , оперируя этими данными, может классифицировать потенциальных врагов государства и не давать им скрываться. Системы рекомендаций могут точно нацелены на пропаганду и дезинформацию для достижения максимального эффекта. Дипфейки и генеративный искусственный интеллект помогают создавать дезинформацию. Передовой ИИ может сделать авторитарные централизованные процессы принятия решений более конкурентоспособными, чем либеральные и децентрализованные системы, такие как рынки . Это снижает стоимость и сложность цифровой войны и современного шпионского ПО . [223] Все эти технологии доступны с 2020 года или раньше — системы распознавания лиц с искусственным интеллектом уже используются для массовой слежки в Китае. [224] [225]
Существует много других способов, с помощью которых ИИ может помочь злодеям, некоторые из которых невозможно предусмотреть. Например, искусственный интеллект с машинным обучением способен создавать десятки тысяч токсичных молекул за считанные часы. [226]
Экономисты часто подчеркивали риски увольнений из ИИ и высказывали предположения о безработице, если не будет адекватной социальной политики для полной занятости. [227]
В прошлом технологии имели тенденцию скорее увеличивать, чем сокращать общую занятость, но экономисты признают, что с ИИ «мы находимся на неизведанной территории». [228] Опрос экономистов показал разногласия относительно того, приведет ли растущее использование роботов и искусственного интеллекта к существенному увеличению долгосрочной безработицы , но в целом они согласны с тем, что это может принести чистую выгоду, если перераспределить прирост производительности . [229] Оценки риска различаются; например, в 2010-х годах Майкл Осборн и Карл Бенедикт Фрей подсчитали, что 47% рабочих мест в США подвергаются «высокому риску» потенциальной автоматизации, тогда как в отчете ОЭСР только 9% рабочих мест в США классифицируются как «высокие риски». [o] [231] Методология спекуляций о будущих уровнях занятости подвергалась критике за отсутствие доказательной базы и за то, что подразумевается, что технологии, а не социальная политика, создают безработицу, а не увольнения. [227] В апреле 2023 года сообщалось, что 70% рабочих мест китайских иллюстраторов видеоигр были сокращены из-за генеративного искусственного интеллекта. [232] [233]
В отличие от предыдущих волн автоматизации, многие рабочие места среднего класса могут быть ликвидированы искусственным интеллектом; В 2015 году журнал The Economist заявил, что «беспокойство о том, что ИИ может сделать с рабочими местами белых воротничков то же, что паровая энергия сделала с рабочими во время промышленной революции», «стоит отнестись серьезно». [234] Рабочие места, подверженные крайнему риску, варьируются от помощников юристов до поваров фаст-фуда, в то время как спрос на рабочие места, вероятно, увеличится для профессий, связанных с уходом, от личного здравоохранения до духовенства. [235]
С первых дней развития искусственного интеллекта существовали аргументы, например, выдвинутые Джозефом Вайценбаумом , о том, должны ли на самом деле задачи, которые могут выполняться компьютерами, выполняться ими, учитывая разницу между компьютерами и людьми, и между количественными расчетами и качественными, основанными на ценностях суждениями. [236]
Утверждалось, что ИИ станет настолько мощным, что человечество может необратимо потерять над ним контроль. Это может, как заявил физик Стивен Хокинг , « означать конец человечества ». [237] Этот сценарий был обычным явлением в научной фантастике, когда компьютер или робот внезапно развивает человеческое «самосознание» (или «чувственность» или «сознание») и становится злонамеренным персонажем. [p] Эти научно-фантастические сценарии вводят в заблуждение по нескольким причинам.
Во-первых, ИИ не требует, чтобы человеческое « сознание » представляло экзистенциальный риск. Современные программы искусственного интеллекта ставят перед собой конкретные цели и используют обучение и интеллект для их достижения. Философ Ник Бостром утверждал, что если дать достаточно мощному ИИ практически любую цель, он может решить уничтожить человечество для ее достижения (он использовал пример менеджера фабрики по производству скрепок ). [239] Стюарт Рассел приводит пример домашнего робота, который пытается найти способ убить своего владельца, чтобы предотвратить его отключение от сети, мотивируя это тем, что «вы не сможете принести кофе, если вы мертвы». [240] Чтобы быть безопасным для человечества, сверхразум должен быть искренне связан с моралью и ценностями человечества, чтобы он «фундаментально был на нашей стороне». [241]
Во-вторых, Юваль Ной Харари утверждает, что ИИ не требует тела робота или физического контроля, чтобы представлять экзистенциальный риск. Существенные части цивилизации не являются физическими. Такие вещи, как идеологии , законы , правительство , деньги и экономика , созданы из языка ; они существуют, потому что есть истории, в которые верят миллиарды людей. Нынешняя распространенность дезинформации предполагает, что ИИ может использовать язык, чтобы убедить людей поверить во что угодно, даже совершить разрушительные действия. [242]
Мнения среди экспертов и инсайдеров отрасли неоднозначны: значительная часть их как обеспокоена, так и не обеспокоена риском, исходящим от возможного сверхразумного ИИ. [243] Такие личности, как Стивен Хокинг , Билл Гейтс и Илон Маск , [244] а также пионеры ИИ, такие как Йошуа Бенджио , Стюарт Рассел , Демис Хассабис и Сэм Альтман , выражали обеспокоенность по поводу экзистенциального риска, связанного с ИИ.
В мае 2023 года Джеффри Хинтон объявил о своем уходе из Google, чтобы иметь возможность «свободно говорить о рисках ИИ», «не задумываясь о том, как это повлияет на Google». [245] Он особо упомянул риски поглощения ИИ , [246] и подчеркнул, что для того, чтобы избежать наихудших результатов, установление правил безопасности потребует сотрудничества между теми, кто конкурирует в использовании ИИ. [247]
В 2023 году многие ведущие эксперты в области ИИ выступили с совместным заявлением , что «Снижение риска исчезновения ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война». [248]
Другие исследователи, однако, высказались в пользу менее антиутопической точки зрения. Пионер искусственного интеллекта Юрген Шмидхубер не подписал совместное заявление, подчеркнув, что в 95% всех случаев исследования искусственного интеллекта направлены на то, чтобы сделать «человеческую жизнь дольше, здоровее и проще». [249] Хотя инструменты, которые сейчас используются для улучшения жизни, также могут быть использованы злоумышленниками, «они также могут быть использованы против злоумышленников». [250] [251] Эндрю Нг также утверждал, что «было бы ошибкой поддаться шумихе вокруг ИИ, связанной с судным днем, и что регуляторы, которые это сделают, принесут пользу только корыстным интересам». [252] Янн ЛеКун «высмеивает антиутопические сценарии своих сверстников, включающие усиленную дезинформацию и даже, в конечном итоге, вымирание человечества». [253] В начале 2010-х годов эксперты утверждали, что риски в будущем слишком далеки, чтобы требовать проведения исследований, или что люди будут представлять ценность с точки зрения сверхразумной машины. [254] Однако после 2016 года изучение текущих и будущих рисков и возможных решений стало серьезным направлением исследований. [255]
Дружественный ИИ — это машины, которые с самого начала были разработаны для минимизации рисков и принятия решений, приносящих пользу людям. Элиэзер Юдковски , придумавший этот термин, утверждает, что разработка дружественного ИИ должна быть более высоким приоритетом исследований: это может потребовать больших инвестиций и должно быть завершено до того, как ИИ станет экзистенциальным риском. [256]
У машин, обладающих интеллектом, есть потенциал использовать свой интеллект для принятия этических решений. Область машинной этики предоставляет машинам этические принципы и процедуры для решения этических дилемм. [257] Область машинной этики также называется вычислительной моралью, [257] и была основана на симпозиуме AAAI в 2005 году. [258]
Другие подходы включают «искусственные моральные агенты» Венделла Уоллаха [259] и три принципа Стюарта Дж. Рассела для разработки доказуемо полезных машин. [260]
Активные организации в сообществе искусственного интеллекта с открытым исходным кодом включают Hugging Face , [261] Google , [262] EleutherAI и Meta . [263] Различные модели ИИ, такие как Llama 2 , Mistral или Stable Diffusion , стали открытыми, [264] [265] это означает, что их архитектура и обученные параметры («веса») общедоступны. Модели открытого веса можно свободно настраивать , что позволяет компаниям специализировать их на основе собственных данных и для собственных сценариев использования. [266] Модели открытого веса полезны для исследований и инноваций, но ими также можно злоупотреблять. Поскольку их можно точно настроить, любые встроенные меры безопасности, такие как противодействие вредоносным запросам, можно отключать до тех пор, пока они не станут неэффективными. Некоторые исследователи предупреждают, что будущие модели ИИ могут обладать опасными возможностями (например, потенциально способствовать значительному развитию биотерроризма ) и что, как только они будут опубликованы в Интернете, их нельзя будет удалить повсюду, если это необходимо. Они рекомендуют предварительные аудиты и анализ затрат и выгод. [267]
Этическая допустимость проектов искусственного интеллекта может быть проверена при проектировании, разработке и внедрении системы ИИ. Структура искусственного интеллекта, такая как Care and Act Framework, содержащая значения SUM, разработанная Институтом Алана Тьюринга, тестирует проекты в четырех основных областях: [268] [269]
Другие разработки в области этических норм включают, среди прочего, решения, принятые на конференции Асиломар , Монреальскую декларацию об ответственном ИИ и инициативу IEEE по этике автономных систем; [270] Однако эти принципы не обходятся без критики, особенно в отношении избранных людей, способствующих этим основам. [271]
Содействие благополучию людей и сообществ, на которые влияют эти технологии, требует рассмотрения социальных и этических последствий на всех этапах проектирования, разработки и внедрения системы ИИ, а также сотрудничества между должностными лицами, такими как специалисты по обработке данных, менеджеры по продуктам, инженеры по обработке данных, специалисты по предметной области. специалисты и менеджеры по доставке. [272]
Британский институт безопасности ИИ выпустил в 2024 году набор инструментов для тестирования под названием «Inspect» для оценки безопасности ИИ, доступный по лицензии MIT с открытым исходным кодом, который находится в свободном доступе на GitHub и может быть улучшен с помощью сторонних пакетов. Его можно использовать для оценки моделей ИИ в различных областях, включая базовые знания, способность рассуждать и автономные возможности. [273]
Регулирование искусственного интеллекта — это разработка политики и законов государственного сектора для продвижения и регулирования искусственного интеллекта (ИИ); следовательно, это связано с более широким регулированием алгоритмов. [274] Нормативно-правовая и политическая среда в области ИИ является новой проблемой в юрисдикциях по всему миру. [275] Согласно AI Index в Стэнфорде , ежегодное количество законов, связанных с ИИ, принятых в 127 странах, принявших участие в исследовании, выросло с одного, принятого в 2016 году, до 37, принятых только в 2022 году. [276] [277] В период с 2016 по 2020 год более 30 стран приняли специальные стратегии в области ИИ. [278] Большинство государств-членов ЕС опубликовали национальные стратегии в области искусственного интеллекта, а также Канада, Китай, Индия, Япония, Маврикий, Российская Федерация, Саудовская Аравия, Объединенные Арабские Эмираты, США и Вьетнам. Другие страны, в том числе Бангладеш, Малайзия и Тунис, находились в процессе разработки собственной стратегии искусственного интеллекта. [278] Глобальное партнерство по искусственному интеллекту было запущено в июне 2020 года, заявив о необходимости разработки ИИ в соответствии с правами человека и демократическими ценностями, чтобы обеспечить общественное доверие к этой технологии. [278] Генри Киссинджер , Эрик Шмидт и Дэниел Хуттенлохер опубликовали в ноябре 2021 года совместное заявление с призывом создать правительственную комиссию по регулированию ИИ. [279] В 2023 году лидеры OpenAI опубликовали рекомендации по управлению сверхинтеллектом, что, по их мнению, может произойти менее чем через 10 лет. [280] В 2023 году Организация Объединенных Наций также создала консультативный орган для предоставления рекомендаций по управлению ИИ; В состав этого органа входят руководители технологических компаний, правительственные чиновники и ученые. [281]
Согласно опросу Ipsos 2022 года , отношение к ИИ сильно различалось в зависимости от страны; 78% граждан Китая и только 35% американцев согласились, что «продукты и услуги, использующие ИИ, имеют больше преимуществ, чем недостатков». [276] Опрос Reuters /Ipsos , проведенный в 2023 году, показал, что 61% американцев согласны, а 22% не согласны с тем, что ИИ представляет угрозу для человечества. [282] В опросе Fox News 2023 года 35% американцев сочли «очень важным», а еще 41% сочли «несколько важным» регулирование ИИ со стороны федерального правительства, по сравнению с 13%, ответившими «не очень важно». и 8% ответили «совсем не важно». [283] [284]
В ноябре 2023 года в Блетчли-Парке в Великобритании прошел первый глобальный саммит по безопасности ИИ , на котором обсуждались краткосрочные и долгосрочные риски ИИ, а также возможность создания обязательных и добровольных нормативных рамок. [285] 28 стран, включая США, Китай и Европейский Союз, в начале саммита опубликовали декларацию, призывающую к международному сотрудничеству для решения проблем и рисков, связанных с искусственным интеллектом. [286] [287] В мае 2024 года на Сеульском саммите AI 16 глобальных компаний, занимающихся технологиями искусственного интеллекта, согласились взять на себя обязательства по обеспечению безопасности при разработке искусственного интеллекта. [288] [289]
Изучение механического или «формального» рассуждения началось с философов и математиков древности. Изучение логики привело непосредственно к теории вычислений Алана Тьюринга , которая предполагала, что машина, перетасовывая такие простые символы, как «0» и «1», может моделировать любую мыслимую форму математического рассуждения. [290] [5] Это, наряду с одновременными открытиями в кибернетике , теории информации и нейробиологии , побудило исследователей рассмотреть возможность создания «электронного мозга». [q] Они разработали несколько областей исследований, которые впоследствии стали частью ИИ, [292] такие как проект Маккаллуша и Питта для «искусственных нейронов» в 1943 году, [293] и влиятельная статья Тьюринга 1950 года « Вычислительная техника и интеллект », в которой были представлены тест Тьюринга и показал, что «машинный интеллект» вполне правдоподобен. [294] [5]
Область исследований ИИ была основана на семинаре в Дартмутском колледже в 1956 году. [r] [6] Участники стали лидерами исследований ИИ в 1960-х годах. [s] Они и их студенты создали программы, которые пресса назвала «удивительными»: [t] компьютеры изучали стратегии игры в шашки , решали текстовые задачи по алгебре, доказывали логические теоремы и говорили по-английски. [u] [9] Лаборатории искусственного интеллекта были созданы в ряде университетов Великобритании и США в конце 1950-х — начале 1960-х годов. [5]
Исследователи 1960-х и 1970-х годов были убеждены, что их методы в конечном итоге позволят создать машину с общим интеллектом , и считали это целью своей области. [298] Герберт Саймон предсказал: «Через двадцать лет машины будут способны выполнять любую работу, которую может выполнить человек». [299] Марвин Мински согласился, написав: «Через поколение... проблема создания «искусственного интеллекта» будет существенно решена». [300] Однако они недооценили сложность проблемы. [v] В 1974 году правительства США и Великобритании прекратили исследовательские исследования в ответ на критику сэра Джеймса Лайтхилла [302] и продолжающееся давление со стороны Конгресса США с целью финансирования более продуктивных проектов . [303] Книга Мински и Паперта « Перцептроны » была воспринята как доказательство того, что искусственные нейронные сети никогда не будут полезны для решения реальных задач, тем самым полностью дискредитируя этот подход. [304] Последовала « зима ИИ », период, когда получение финансирования для проектов ИИ было затруднено. [11]
В начале 1980-х годов исследования искусственного интеллекта были возрождены благодаря коммерческому успеху экспертных систем , [305] формы программы искусственного интеллекта, которая моделировала знания и аналитические навыки людей-экспертов. К 1985 году рынок искусственного интеллекта превысил миллиард долларов. В то же время японский компьютерный проект пятого поколения вдохновил правительства США и Великобритании восстановить финансирование академических исследований . [10] Однако, начиная с краха рынка Lisp-машин в 1987 году, ИИ снова потерял репутацию, и началась вторая, более продолжительная зима. [12]
До этого момента большая часть финансирования ИИ направлялась на проекты, в которых использовались символы высокого уровня для представления мысленных объектов , таких как планы, цели, убеждения и известные факты. В 1980-х годах некоторые исследователи начали сомневаться в том, что этот подход сможет имитировать все процессы человеческого познания, особенно восприятие , робототехнику , обучение и распознавание образов , [306] и начали изучать «субсимволические» подходы. [307] Родни Брукс отверг «представление» в целом и сосредоточился непосредственно на разработке машин, которые движутся и выживают. [w] Джудея Перл , Лофти Заде и другие разработали методы, которые обрабатывали неполную и неопределенную информацию, делая разумные предположения, а не точную логику. [91] [312] Но самым важным событием стало возрождение « коннекционизма », включая исследования нейронных сетей, Джеффри Хинтоном и другими. [313] В 1990 году Ян ЛеКун успешно показал, что сверточные нейронные сети могут распознавать рукописные цифры, что стало первым из многих успешных применений нейронных сетей. [314]
ИИ постепенно восстановил свою репутацию в конце 1990-х и начале 21 века, используя формальные математические методы и находя конкретные решения конкретных проблем. Эта « узкая » и «формальная» направленность позволила исследователям получать поддающиеся проверке результаты и сотрудничать с другими областями (такими как статистика , экономика и математика ). [315] К 2000 году решения, разработанные исследователями искусственного интеллекта, получили широкое распространение, хотя в 1990-е годы их редко называли «искусственным интеллектом». [316] Однако некоторые академические исследователи были обеспокоены тем, что ИИ больше не преследует свою первоначальную цель — создание универсальных, полностью интеллектуальных машин. Примерно начиная с 2002 года они основали подразделение общего искусственного интеллекта (или «AGI»), в котором к 2010-м годам было несколько хорошо финансируемых учреждений. [16]
Глубокое обучение начало доминировать в отрасли в 2012 году и было внедрено во всех сферах. [13] Для многих конкретных задач от других методов отказались. [x] Успех глубокого обучения был основан как на усовершенствовании аппаратного обеспечения ( более быстрые компьютеры , [318] графические процессоры , облачные вычисления [319] ), так и на доступе к большим объемам данных [320] (включая тщательно подобранные наборы данных, [319] такие как ImageNet ). Успех глубокого обучения привел к огромному увеличению интереса и финансирования ИИ. [y] Объем исследований в области машинного обучения (измеряемый общим количеством публикаций) увеличился на 50% в 2015–2019 годах. [278]
В 2016 году вопросы справедливости и неправомерного использования технологий оказались в центре внимания конференций по машинному обучению, количество публикаций значительно увеличилось, появилось финансирование, и многие исследователи переориентировали свою карьеру на эти проблемы. Проблема выравнивания стала серьезной областью академических исследований. [255]
В конце подросткового периода и начале 2020-х годов компании AGI начали предлагать программы, вызвавшие огромный интерес. В 2015 году программа AlphaGo , разработанная компанией DeepMind , обыграла чемпиона мира по игре в го . Программу обучали только правилам игры и самостоятельно разрабатывали стратегию. GPT-3 — это большая языковая модель , выпущенная OpenAI в 2020 году и способная генерировать высококачественный человеческий текст. [321] Эти и другие программы спровоцировали агрессивный бум ИИ , когда крупные компании начали инвестировать миллиарды в исследования ИИ. По данным AI Impacts, около 2022 года только в США в ИИ ежегодно инвестировалось около 50 миллиардов долларов, и около 20% новых выпускников докторских программ в области компьютерных наук в США специализировались в области ИИ. [322] В 2022 году в США существовало около 800 000 вакансий, связанных с искусственным интеллектом. [323]
Алан Тьюринг написал в 1950 году: «Я предлагаю рассмотреть вопрос: могут ли машины думать?» [324] Он посоветовал изменить вопрос с того, «думает ли машина», на «может ли машина демонстрировать разумное поведение». [324] Он разработал тест Тьюринга, который измеряет способность машины имитировать человеческий разговор. [294] Поскольку мы можем только наблюдать за поведением машины, не имеет значения, «на самом деле» она думает или буквально обладает «разумом». Тьюринг отмечает, что мы не можем определить эти вещи в отношении других людей , но «обычно существует вежливая условность, о которой думают все». [325]
Рассел и Норвиг согласны с Тьюрингом в том, что интеллект следует определять с точки зрения внешнего поведения, а не внутренней структуры. [1] Однако очень важно, что тест требует, чтобы машина имитировала людей. « Тексты по авиационной технике , — писали они, — не определяют цель своей области как создание «машин, которые летают настолько точно, как голуби , что могут обмануть других голубей » . [326] Основатель искусственного интеллекта Джон Маккарти согласился, написав, что « искусственные интеллект по определению не является симуляцией человеческого интеллекта». [327]
Маккарти определяет интеллект как «вычислительную часть способности достигать целей в мире». [328] Другой основатель ИИ, Марвин Мински, также описывает его как «способность решать сложные проблемы». [329] Ведущий учебник по искусственному интеллекту определяет его как исследование агентов, которые воспринимают окружающую среду и предпринимают действия, которые максимизируют их шансы на достижение определенных целей. [1] Эти определения рассматривают интеллект как четко определенные проблемы с четко определенными решениями, где и сложность проблемы, и производительность программы являются прямыми показателями «интеллекта» машины, а не каких-либо других философских дискуссий. требуется или даже невозможен.
Другое определение было принято Google, [330] крупным практиком в области искусственного интеллекта. Это определение предусматривает способность систем синтезировать информацию как проявление интеллекта, аналогично тому, как это определяется в биологическом интеллекте.
Никакая устоявшаяся объединяющая теория или парадигма не направляла исследования ИИ на протяжении большей части его истории. [z] Беспрецедентный успех статистического машинного обучения в 2010-х годах затмил все другие подходы (настолько, что некоторые источники, особенно в деловом мире, используют термин «искусственный интеллект» для обозначения «машинного обучения с нейронными сетями»). Этот подход в основном субсимволический , мягкий и узкий . Критики утверждают, что будущим поколениям исследователей ИИ, возможно, придется вернуться к этим вопросам.
Символический ИИ (или « GOFAI ») [332] имитировал сознательные рассуждения высокого уровня, которые люди используют, когда решают головоломки, выражают юридические рассуждения и занимаются математикой. Они очень успешно справлялись с «умными» задачами, такими как алгебра или тесты на IQ. В 1960-х годах Ньюэлл и Саймон предложили гипотезу системы физических символов : «Система физических символов обладает необходимыми и достаточными средствами общего разумного действия». [333]
Однако символический подход не справился со многими задачами, которые люди легко решают, такими как обучение, распознавание объекта или здравое рассуждение. Парадокс Моравца заключается в открытии того, что «интеллектуальные» задачи высокого уровня были легкими для ИИ, а «инстинктивные» задачи низкого уровня были чрезвычайно трудными. [334] Философ Хьюберт Дрейфус с 1960-х годов утверждал , что человеческий опыт зависит от бессознательного инстинкта, а не от сознательного манипулирования символами, и от «чувства» ситуации, а не от явного символического знания. [335] Хотя его аргументы были высмеяны и проигнорированы, когда они были впервые представлены, в конечном итоге исследования ИИ пришли к его мнению. [аа] [21]
Проблема не решена: субсимволические рассуждения могут совершать многие из тех же непостижимых ошибок, что и человеческая интуиция, например алгоритмическая предвзятость . Критики, такие как Ноам Хомский, утверждают, что продолжение исследований символического ИИ по-прежнему будет необходимо для достижения общего интеллекта, [337] [338] отчасти потому, что субсимволический ИИ представляет собой отход от объяснимого ИИ : может быть трудно или невозможно понять, почему современная статистическая программа искусственного интеллекта приняла конкретное решение. Развивающаяся область нейросимволического искусственного интеллекта пытается соединить два подхода.
«Чистые» надеются, что разумное поведение описывается с использованием простых и элегантных принципов (таких как логика , оптимизация или нейронные сети ). «Неряшливы» ожидают, что это обязательно потребует решения большого количества несвязанных между собой задач. Чистоплотные защищают свои программы с теоретической строгостью, неряшливые полагаются главным образом на постепенное тестирование, чтобы увидеть, работают ли они. Этот вопрос активно обсуждался в 1970-х и 1980-х годах [339] , но в конечном итоге был признан неактуальным. Современный ИИ имеет элементы и того, и другого.
Для многих важных задач найти доказуемо правильное или оптимальное решение сложно . [20] Мягкие вычисления — это набор методов, включая генетические алгоритмы , нечеткую логику и нейронные сети, которые терпимы к неточностям, неопределенности, частичной истинности и приближению. Мягкие вычисления были представлены в конце 1980-х годов, и наиболее успешные программы искусственного интеллекта в 21 веке являются примерами мягких вычислений с нейронными сетями.
Исследователи ИИ разделились во мнениях относительно того, следует ли напрямую преследовать цели искусственного общего интеллекта и сверхинтеллекта или решать как можно больше конкретных проблем (узкий ИИ) в надежде, что эти решения косвенно приведут к долгосрочным целям в этой области. [340] [341] Общий интеллект трудно определить и трудно измерить, а современный ИИ добился более проверяемых успехов, сосредоточив внимание на конкретных проблемах с конкретными решениями. Экспериментальное подразделение общего искусственного интеллекта изучает исключительно эту область.
Философия разума не знает, может ли машина обладать разумом , сознанием и психическими состояниями в том же смысле, что и люди. В этом вопросе учитывается внутренний опыт машины, а не ее внешнее поведение. Основные исследования в области искусственного интеллекта считают этот вопрос неактуальным, поскольку он не влияет на цели этой области: создание машин, которые могут решать проблемы с помощью интеллекта. Рассел и Норвиг добавляют, что «дополнительный проект по созданию машины, обладающей таким же сознанием, как и люди, — это не тот проект, за который мы готовы взяться». [342] Однако этот вопрос стал центральным в философии разума. Это также, как правило, центральный вопрос, обсуждаемый в области искусственного интеллекта в художественной литературе .
Дэвид Чалмерс выделил две проблемы в понимании разума, которые он назвал «сложными» и «легкими» проблемами сознания. [343] Самая простая задача — понять, как мозг обрабатывает сигналы, строит планы и контролирует поведение. Сложная проблема состоит в том, чтобы объяснить, как это ощущается или почему это вообще должно ощущаться как-то, предполагая, что мы правы, думая, что это действительно что-то ощущается (иллюзоризм сознания Деннета говорит, что это иллюзия). Обработку информации человеком легко объяснить, но субъективный опыт человека объяснить сложно. Например, легко представить человека, страдающего дальтонизмом, который научился определять, какие объекты в его поле зрения являются красными, но неясно, что потребуется, чтобы человек знал, как выглядит красный цвет . [344]
Компьютерализм — это позиция в философии разума , согласно которой человеческий разум — это система обработки информации, а мышление — это форма вычислений. Компьютерализм утверждает, что отношения между разумом и телом аналогичны или идентичны отношениям между программным обеспечением и оборудованием и, таким образом, могут быть решением проблемы разума и тела . Эта философская позиция была вдохновлена работами исследователей искусственного интеллекта и ученых-когнитивистов в 1960-х годах и первоначально была предложена философами Джерри Фодором и Хилари Патнэм . [345]
Философ Джон Сирл охарактеризовал эту позицию как « сильный ИИ »: «Правильно запрограммированный компьютер с правильными входами и выходами, таким образом, будет обладать разумом точно в том же смысле, в котором разум есть у людей». [ab] Серл опровергает это утверждение своим аргументом о китайской комнате, который пытается показать, что, даже если машина идеально имитирует человеческое поведение, все равно нет оснований предполагать, что она также обладает разумом. [349]
Трудно или невозможно достоверно оценить, разумен ли продвинутый ИИ (способен чувствовать), и если да, то в какой степени. [350] Но если существует значительная вероятность того, что данная машина может чувствовать и страдать, тогда она может иметь право на определенные права или меры защиты благосостояния, аналогично животным. [351] [352] Разумность (набор способностей, связанных с высоким интеллектом, таких как проницательность или самосознание ) может обеспечить еще одну моральную основу для прав ИИ. [351] Права роботов также иногда предлагаются как практический способ интеграции автономных агентов в общество. [353]
В 2017 году Европейский Союз рассмотрел возможность предоставления «электронной личности» некоторым наиболее способным системам искусственного интеллекта. Подобно правовому статусу компаний, он наделял бы права, но также и обязанности. [354] В 2018 году критики утверждали, что предоставление прав на системы искусственного интеллекта преуменьшит важность прав человека и что законодательство должно быть сосредоточено на потребностях пользователей, а не на спекулятивных футуристических сценариях. Они также отметили, что роботам не хватает автономии, чтобы самостоятельно участвовать в жизни общества. [355] [356]
Прогресс в области искусственного интеллекта повысил интерес к этой теме. Сторонники благополучия и прав ИИ часто утверждают, что разумность ИИ, если она появится, будет особенно легко отрицать. Они предупреждают, что это может быть моральное «слепое пятно», аналогичное рабству или промышленному сельскому хозяйству , которое может привести к широкомасштабным страданиям, если разумный ИИ будет создан и небрежно будет эксплуатироваться. [352] [351]
Сверхинтеллект — это гипотетический агент, обладающий интеллектом, намного превосходящим интеллект самого яркого и одаренного человеческого разума . [341]
Если бы исследования в области общего искусственного интеллекта позволили создать достаточно интеллектуальное программное обеспечение, оно, возможно, смогло бы перепрограммировать и улучшить себя . Усовершенствованное программное обеспечение будет еще лучше самосовершенствоваться, что приведет к тому, что И.Дж. Гуд назвал « интеллектуальным взрывом », а Вернор Виндж — « сингулярностью ». [357]
Однако технологии не могут совершенствоваться экспоненциально бесконечно и обычно следуют S-образной кривой , замедляясь, когда достигают физических пределов возможностей технологии. [358]
Конструктор роботов Ганс Моравец , кибернетик Кевин Уорвик и изобретатель Рэй Курцвейл предсказали, что люди и машины в будущем сольются в киборгов , которые будут более способными и могущественными, чем оба. Эта идея, названная трансгуманизмом, имеет корни у Олдоса Хаксли и Роберта Эттингера . [359]
Эдвард Фредкин утверждает, что «искусственный интеллект — это следующий этап эволюции», идея, впервые предложенная Сэмюэлем Батлером в книге « Дарвин среди машин » еще в 1863 году и развитая Джорджем Дайсоном в его книге 1998 года «Дарвин среди машин». : Эволюция глобального интеллекта . [360]
Искусственные существа, способные мыслить, появлялись в качестве средств повествования с античных времен [361] и были постоянной темой в научной фантастике . [362]
Общий образ в этих произведениях начался с «Франкенштейна » Мэри Шелли , где человеческое творение становится угрозой для своих хозяев. Сюда входят такие работы, как « Космическая одиссея 2001 года» Артура Кларка и Стэнли Кубрика (обе 1968 года) с HAL 9000 , смертоносным компьютером, управляющим космическим кораблем «Дискавери-1» , а также «Терминатор » (1984 год) и «Матрица» (1999 год ). ). Напротив, редкие верные роботы, такие как Горт из «Дня, когда Земля остановилась» (1951) и Бишоп из «Чужих» (1986), менее заметны в популярной культуре. [363]
Айзек Азимов представил Три закона робототехники во многих рассказах, в первую очередь в сверхинтеллектуальном компьютере « Мультивак ». Законы Азимова часто поднимаются во время непрофессиональных дискуссий по этике машин; [364] хотя почти все исследователи искусственного интеллекта знакомы с законами Азимова через массовую культуру, они обычно считают эти законы бесполезными по многим причинам, одной из которых является их двусмысленность. [365]
В нескольких работах ИИ используется, чтобы заставить нас ответить на фундаментальный вопрос о том, что делает нас людьми, показывая нам искусственные существа, обладающие способностью чувствовать и, следовательно, страдать. Это появляется в фильме Карела Чапека « RUR» , фильмах «Искусственный интеллект» и «Из машины» , а также в романе « Мечтают ли андроиды об электроовцах?» , Филип К. Дик . Дик рассматривает идею о том, что наше понимание человеческой субъективности меняется благодаря технологиям, созданным с помощью искусственного интеллекта. [366]
Два наиболее широко используемых учебника в 2023 году (см. Открытую программу):
Это были четыре наиболее широко используемых учебника по ИИ в 2008 году:
Более поздние издания:
Вместо этого Соединенные Штаты создали новую область доминирования, на которую остальной мир смотрит со смесью благоговения, зависти и негодования: искусственный интеллект... От моделей ИИ и исследований до облачных вычислений и венчурного капитала, американские компании, Университеты и исследовательские лаборатории – и их филиалы в странах-союзниках – похоже, имеют огромное преимущество как в разработке передового искусственного интеллекта, так и в его коммерциализации. Стоимость венчурных инвестиций в стартапы в области искусственного интеллекта в США превышает аналогичные показатели остального мира вместе взятых.