stringtranslate.com

Искусственный интеллект

Искусственный интеллект ( ИИ ) в самом широком смысле — это интеллект , демонстрируемый машинами , в частности компьютерными системами . Это область исследований в области информатики , которая разрабатывает и изучает методы и программное обеспечение , которые позволяют машинам воспринимать окружающую среду и использовать обучение и интеллект для принятия мер, которые максимизируют их шансы на достижение определенных целей. [1] Такие машины можно назвать ИИ.

Некоторые известные приложения ИИ включают передовые поисковые системы в Интернете (например, Google Search ); системы рекомендаций (используются YouTube , Amazon и Netflix ); взаимодействие посредством человеческой речи (например, Google Assistant , Siri и Alexa ); автономные транспортные средства (например, Waymo ); генеративные и творческие инструменты (например, ChatGPT , Apple Intelligence и AI art ); и сверхчеловеческая игра и анализ в стратегических играх (например, шахматах и ​​го ). [2] Однако многие приложения ИИ не воспринимаются как ИИ: «Множество передовых ИИ просочилось в общие приложения, часто не называемые ИИ, потому что как только что-то становится достаточно полезным и достаточно распространенным, его больше не называют ИИ ». [3] [4]

Алан Тьюринг был первым человеком, проведшим серьезные исследования в области, которую он назвал машинным интеллектом. [5] Искусственный интеллект был основан как академическая дисциплина в 1956 году, [6] теми, кого сейчас считают отцами-основателями ИИ: Джоном Маккарти , Марвином Минкси , Натаниэлем Рочестером и Клодом Шенноном . [7] [8] Эта отрасль прошла через несколько циклов оптимизма, [9] [10] за которыми следовали периоды разочарования и потери финансирования, известные как зима искусственного интеллекта . [11] [12] Финансирование и интерес значительно возросли после 2012 года, когда глубокое обучение превзошло все предыдущие методы искусственного интеллекта, [13] и после 2017 года с архитектурой-трансформером . [14] Это привело к буму искусственного интеллекта в начале 2020-х годов, когда компании, университеты и лаборатории, преимущественно базирующиеся в Соединенных Штатах, стали пионерами значительных достижений в области искусственного интеллекта . [15]

Растущее использование искусственного интеллекта в 21 веке влияет на социальный и экономический сдвиг в сторону большей автоматизации , принятия решений на основе данных и интеграции систем искусственного интеллекта в различные экономические сектора и сферы жизни, влияя на рынки труда , здравоохранение , государственное управление . , промышленность , образование , пропаганда и дезинформация . Это поднимает вопросы о долгосрочных последствиях , этических последствиях и рисках ИИ , что побуждает к дискуссиям о регуляторной политике , призванной обеспечить безопасность и преимущества технологии .

Различные области исследований ИИ сосредоточены вокруг конкретных целей и использования определенных инструментов. Традиционные цели исследований ИИ включают рассуждение , представление знаний , планирование , обучение , обработку естественного языка , восприятие и поддержку робототехники . [a] Общий интеллект — способность выполнять любую задачу, которую может выполнить человек, по крайней мере, на равном уровне — входит в число долгосрочных целей этой области. [16]

Для достижения этих целей исследователи ИИ адаптировали и интегрировали широкий спектр методов, включая поисковую и математическую оптимизацию , формальную логику , искусственные нейронные сети и методы, основанные на статистике , исследовании операций и экономике . [b] ИИ также опирается на психологию , лингвистику , философию , нейробиологию и другие области. [17]

Цели

Общая проблема моделирования (или создания) интеллекта разбита на подзадачи. Они состоят из определенных черт или способностей, которые исследователи ожидают от интеллектуальной системы. Описанные ниже черты получили наибольшее внимание и охватывают сферу исследований ИИ. [а]

Рассуждение и решение проблем

Ранние исследователи разработали алгоритмы, имитирующие пошаговые рассуждения, которые люди используют, когда решают головоломки или делают логические выводы . [18] К концу 1980-х и 1990-м годам были разработаны методы работы с неопределенной или неполной информацией с использованием концепций теории вероятности и экономики . [19]

Многих из этих алгоритмов недостаточно для решения больших задач рассуждения, поскольку они испытывают «комбинаторный взрыв»: по мере роста задач они становятся экспоненциально медленнее. [20] Даже люди редко используют пошаговые выводы, которые могли смоделировать ранние исследования ИИ. Они решают большинство своих проблем, используя быстрые и интуитивные суждения. [21] Точные и эффективные рассуждения — нерешенная проблема.

Представление знаний

Онтология представляет знания как набор концепций внутри предметной области и отношений между этими концепциями.

Представление знаний и инженерия знаний [22] позволяют программам ИИ разумно отвечать на вопросы и делать выводы о фактах реального мира. Формальные представления знаний используются при индексировании и поиске на основе контента, [23] интерпретации сцен, [24] поддержке клинических решений, [25] обнаружении знаний (извлечение «интересных» и практических выводов из больших баз данных ), [26] и других областях. . [27]

База знаний — это совокупность знаний, представленная в форме, которую может использовать программа. Онтология — это набор объектов, отношений, концепций и свойств, используемых в определенной области знаний . [28] Базы знаний должны представлять такие вещи, как объекты, свойства, категории и отношения между объектами; [29] ситуации, события, состояния и время; [30] причины и следствия; [31] знание о знании (то, что мы знаем о том, что знают другие люди); [32] рассуждения по умолчанию (вещи, которые люди предполагают, являются истинными, пока им не скажут иначе, и останутся истинными, даже когда другие факты меняются); [33] и многие другие аспекты и области знаний.

Среди наиболее сложных проблем представления знаний — широта знаний здравого смысла (набор элементарных фактов, известных среднестатистическому человеку, огромен); [34] и субсимволическая форма большинства здравомыслящих знаний (многое из того, что знают люди, не представлено в виде «фактов» или «утверждений», которые они могли бы выразить устно). [21] Существует также сложность приобретения знаний , проблема получения знаний для приложений ИИ. [с]

Планирование и принятие решений

«Агент» — это все, что воспринимает и совершает действия в мире. Рациональный агент имеет цели или предпочтения и предпринимает действия для их достижения. [d] [37] При автоматизированном планировании агент имеет конкретную цель. [38] При автоматизированном принятии решений у агента есть предпочтения — есть некоторые ситуации, в которых он предпочел бы оказаться, а некоторых ситуаций он пытается избежать. Агент, принимающий решения, присваивает каждой ситуации число (называемое « полезностью »), которое измеряет, насколько агент предпочитает ее. Для каждого возможного действия он может рассчитать « ожидаемую полезность »: полезность всех возможных результатов действия, взвешенную по вероятности того, что результат произойдет. Затем он может выбрать действие с максимальной ожидаемой полезностью. [39]

При классическом планировании агент точно знает, каков будет эффект любого действия. [40] Однако в большинстве задач реального мира агент может не быть уверен в ситуации, в которой он находится (она «неизвестна» или «ненаблюдаема»), и он может не знать наверняка, что произойдет после каждого возможного действия ( оно не «детерминировано»). Он должен выбрать действие, сделав вероятностное предположение, а затем повторно оценить ситуацию, чтобы увидеть, сработало ли действие. [41]

В некоторых задачах предпочтения агента могут быть неопределенными, особенно если в решении участвуют другие агенты или люди. Их можно изучить (например, с помощью обратного обучения с подкреплением ), или агент может искать информацию для улучшения своих предпочтений. [42] Теорию ценности информации можно использовать для взвешивания ценности исследовательских или экспериментальных действий. [43] Пространство возможных будущих действий и ситуаций обычно непреодолимо велико, поэтому агенты должны предпринимать действия и оценивать ситуации, не зная, каким будет результат.

Марковский процесс принятия решений имеет модель перехода , которая описывает вероятность того, что конкретное действие изменит состояние определенным образом, и функцию вознаграждения , которая определяет полезность каждого состояния и стоимость каждого действия. Политика связывает решение с каждым возможным состоянием. Политика может быть рассчитана (например, путем итерации ), быть эвристической или ее можно изучить. [44]

Теория игр описывает рациональное поведение нескольких взаимодействующих агентов и используется в программах ИИ, которые принимают решения с участием других агентов. [45]

Обучение

Машинное обучение — это исследование программ, которые могут автоматически улучшить свою производительность при выполнении определенной задачи. [46] Он был частью ИИ с самого начала. [э]

Существует несколько видов машинного обучения. Обучение без учителя анализирует поток данных, находит закономерности и делает прогнозы без какого-либо другого руководства. [49] Обучение с учителем требует, чтобы человек сначала помечал входные данные, и существует в двух основных вариантах: классификация (когда программа должна научиться предсказывать, к какой категории принадлежат входные данные) и регрессия (когда программа должна выводить числовую функцию на основе при цифровом вводе). [50]

При обучении с подкреплением агент вознаграждается за хорошие ответы и наказывается за плохие. Агент учится выбирать ответы, которые классифицируются как «хорошие». [51] Трансферное обучение — это когда знания, полученные при решении одной проблемы, применяются к новой проблеме. [52] Глубокое обучение — это тип машинного обучения, при котором входные данные обрабатываются через биологически созданные искусственные нейронные сети для всех этих типов обучения. [53]

Теория компьютерного обучения может оценивать учащихся по сложности вычислений , по сложности выборки (сколько данных требуется) или по другим понятиям оптимизации . [54]

Обработка естественного языка

Обработка естественного языка (NLP) [55] позволяет программам читать, писать и общаться на человеческих языках, таких как английский . Конкретные проблемы включают распознавание речи , синтез речи , машинный перевод , извлечение информации , поиск информации и ответы на вопросы . [56]

Ранние работы, основанные на порождающей грамматике и семантических сетях Ноама Хомского , имели трудности с устранением смысловой неоднозначности [f], если только они не ограничивались небольшими областями, называемыми « микромирами » (из-за проблемы знания здравого смысла [34] ). Маргарет Мастерман считала, что именно значение, а не грамматика, является ключом к пониманию языков и что основой вычислительной структуры языка должны быть тезаурусы , а не словари.

Современные методы глубокого обучения для НЛП включают встраивание слов (представление слов, как правило, в виде векторов , кодирующих их значение), [57] преобразователи (архитектура глубокого обучения, использующая механизм внимания ) [58] и другие. [59] В 2019 году генеративные предварительно обученные языковые модели-трансформеры (или «GPT») начали генерировать связный текст, [60] [61] и к 2023 году эти модели смогли получить оценки человеческого уровня на экзамене на адвоката . Тест SAT , тест GRE и многие другие практические приложения. [62]

Восприятие

Машинное восприятие — это способность использовать данные от датчиков (таких как камеры, микрофоны, беспроводные сигналы, активный лидар , гидролокатор, радар и тактильные датчики ) для определения аспектов мира. Компьютерное зрение — это способность анализировать визуальный ввод. [63]

Эта область включает в себя распознавание речи , [64] классификацию изображений , [65] распознавание лиц , распознавание объектов , [66] отслеживание объектов , [67] и роботизированное восприятие . [68]

Социальный интеллект

Kismet , голова робота, созданная в 1990-х годах; машина, способная распознавать и моделировать эмоции [69]

Аффективные вычисления — это междисциплинарный зонтик, включающий системы, которые распознают, интерпретируют, обрабатывают или моделируют человеческие чувства, эмоции и настроение . [70] Например, некоторые виртуальные помощники запрограммированы разговаривать разговорно или даже шутливо подшучивать; это делает их более чувствительными к эмоциональной динамике человеческого взаимодействия или иным образом облегчает взаимодействие человека с компьютером .

Однако это дает наивным пользователям нереальное представление об интеллекте существующих компьютерных агентов. [71] Умеренные успехи, связанные с аффективными вычислениями, включают текстовый анализ настроений и, в последнее время, мультимодальный анализ настроений , в котором ИИ классифицирует аффекты, отображаемые субъектом, записанным на видео. [72]

Общий интеллект

Машина с общим искусственным интеллектом должна быть способна решать широкий спектр задач с широтой и универсальностью, аналогичной человеческому интеллекту . [16]

Техники

Исследования ИИ используют широкий спектр методов для достижения вышеуказанных целей. [б]

Поиск и оптимизация

ИИ может решить многие проблемы, разумно перебирая множество возможных решений. [73] В ИИ используются два совершенно разных типа поиска: поиск в пространстве состояний и локальный поиск .

Поиск в пространстве состояний просматривает дерево возможных состояний, чтобы попытаться найти целевое состояние. [74] Например, алгоритмы планирования просматривают деревья целей и подцелей, пытаясь найти путь к целевой цели. Этот процесс называется анализом средств и результатов . [75]

Простого исчерпывающего поиска [76] редко бывает достаточно для решения большинства реальных задач: пространство поиска (количество мест для поиска) быстро вырастает до астрономических цифр . В результате поиск выполняется слишком медленно или никогда не завершается. [20] « Эвристика » или «эмпирические правила» могут помочь расставить приоритеты в выборе, который с большей вероятностью приведет к достижению цели. [77]

Состязательный поиск используется для игровых программ, таких как шахматы или го. Он просматривает дерево возможных ходов и контрходов в поисках выигрышной позиции. [78]

Иллюстрация градиентного спуска для трех разных отправных точек; два параметра (представленные координатами плана) корректируются так, чтобы минимизировать функцию потерь (высоту)

Локальный поиск использует математическую оптимизацию для поиска решения проблемы. Он начинается с некоторой формы предположения и постепенно совершенствует его. [79]

Градиентный спуск — это тип локального поиска, который оптимизирует набор числовых параметров путем постепенной их корректировки для минимизации функции потерь . Варианты градиентного спуска обычно используются для обучения нейронных сетей. [80]

Другой тип локального поиска — эволюционные вычисления , целью которых является итеративное улучшение набора возможных решений путем «мутации» и «рекомбинации» их, отбирая только наиболее приспособленных для выживания в каждом поколении. [81]

Процессы распределенного поиска могут координироваться с помощью алгоритмов роевого интеллекта . Двумя популярными роевыми алгоритмами, используемыми в поиске, являются оптимизация роя частиц (вдохновленная стайкой птиц ) и оптимизация колонии муравьев (вдохновленная муравьиными следами ). [82]

Логика

Формальная логика используется для рассуждений и представления знаний . [83] Формальная логика существует в двух основных формах: логика высказываний (которая оперирует утверждениями, которые являются истинными или ложными, и использует логические связки , такие как «и», «или», «не» и «подразумевается») [84] и предикат логика (которая также оперирует объектами, предикатами и отношениями и использует кванторы , такие как « Каждый X есть Y » и «Есть некоторые X , которые являются Y »). [85]

Дедуктивное рассуждение в логике — это процесс доказательства нового утверждения ( вывода ) на основе других утверждений, которые даны и считаются истинными (посылок ) . [86] Доказательства могут быть структурированы как деревья доказательств , в которых узлы помечены предложениями, а дочерние узлы соединены с родительскими узлами правилами вывода .

Учитывая проблему и набор предпосылок, решение проблемы сводится к поиску дерева доказательств, корневой узел которого помечен решением проблемы, а листовые узлы помечены посылками или аксиомами . В случае предложений Хорна поиск решения проблемы может осуществляться путем рассуждений вперед от посылок или назад от проблемы. [87] В более общем случае клаузальной формы логики первого порядка резолюция представляет собой единственное, свободное от аксиом правило вывода, в котором проблема решается путем доказательства противоречия из посылок, которые включают отрицание проблемы для решить. [88]

Вывод как в логике предложения Хорна, так и в логике первого порядка неразрешим и, следовательно, неразрешим . Однако обратные рассуждения с предложениями Хорна, лежащие в основе вычислений в языке логического программирования Пролог , являются полными по Тьюрингу . Более того, его эффективность не уступает вычислениям на других символьных языках программирования. [89]

Нечеткая логика присваивает «степень истинности» от 0 до 1. Таким образом, она может обрабатывать расплывчатые и частично истинные утверждения. [90]

Немонотонная логика , включая логическое программирование с отрицанием как неудачей , предназначена для обработки рассуждений по умолчанию . [33] Для описания многих сложных областей были разработаны другие специализированные версии логики.

Вероятностные методы для неопределенных рассуждений

Простая байесовская сеть с соответствующими таблицами условной вероятности.

Многие проблемы ИИ (в том числе рассуждения, планирование, обучение, восприятие и робототехника) требуют от агента работы с неполной или неопределенной информацией. Исследователи искусственного интеллекта разработали ряд инструментов для решения этих проблем, используя методы теории вероятностей и экономики. [91] Были разработаны точные математические инструменты, которые анализируют, как агент может делать выбор и планировать, используя теорию принятия решений , анализ решений , [92] и теорию ценности информации . [93] Эти инструменты включают такие модели, как марковские процессы принятия решений , [94] динамические сети принятия решений , [95] теория игр и проектирование механизмов . [96]

Байесовские сети [97] — это инструмент, который можно использовать для рассуждений (с использованием алгоритма байесовского вывода ), [g] [99] обучения (с использованием алгоритма ожидания-максимизации ), [h] [101] планирования (с использованием сетей принятия решений ). [102] и восприятие (с использованием динамических байесовских сетей ). [95]

Вероятностные алгоритмы также можно использовать для фильтрации, прогнозирования, сглаживания и поиска объяснений потоков данных, тем самым помогая системам восприятия анализировать процессы, происходящие с течением времени (например, скрытые модели Маркова или фильтры Калмана ). [95]

Кластеризация ожиданий и максимизации данных об извержениях Old Faithful начинается со случайного предположения, но затем успешно сходится к точной кластеризации двух физически различных режимов извержения.

Классификаторы и статистические методы обучения

Простейшие ИИ-приложения можно разделить на два типа: классификаторы (например, «если блестит, то ромб»), с одной стороны, и контроллеры (например, «если бриллиант, то поднимите»), с другой стороны. Классификаторы [103] — это функции, которые используют сопоставление с образцом для определения наиболее близкого соответствия. Их можно доработать на основе выбранных примеров с помощью обучения с учителем . Каждый шаблон (также называемый « наблюдением ») помечен определенным предопределенным классом. Все наблюдения в сочетании с их метками классов известны как набор данных . Когда получено новое наблюдение, оно классифицируется на основе предыдущего опыта. [50]

Существует множество видов классификаторов. Дерево решений — это самый простой и наиболее широко используемый алгоритм символьного машинного обучения. [104] Алгоритм K-ближайшего соседа был наиболее широко используемым аналоговым ИИ до середины 1990-х годов, а методы ядра, такие как машина опорных векторов (SVM), вытеснили k-ближайшего соседа в 1990-х годах. [105] Наивный байесовский классификатор, как сообщается, является «наиболее широко используемым обучающим устройством» [106] в Google, отчасти благодаря его масштабируемости. [107] Нейронные сети также используются в качестве классификаторов. [108]

Искусственные нейронные сети

Нейронная сеть — это взаимосвязанная группа узлов, подобная обширной сети нейронов в человеческом мозге.

Искусственная нейронная сеть основана на наборе узлов, также известных как искусственные нейроны , которые в общих чертах моделируют нейроны биологического мозга. Он обучен распознавать закономерности; после обучения он сможет распознавать эти закономерности в свежих данных. Есть вход, как минимум один скрытый слой узлов и выход. Каждый узел применяет функцию, и как только вес пересекает указанный порог, данные передаются на следующий уровень. Сеть обычно называется глубокой нейронной сетью, если она имеет как минимум два скрытых слоя. [108]

Алгоритмы обучения нейронных сетей используют локальный поиск для выбора весов, которые дадут правильный результат для каждого входного сигнала во время обучения. Наиболее распространенным методом обучения является алгоритм обратного распространения ошибки . [109] Нейронные сети учатся моделировать сложные взаимосвязи между входными и выходными данными и находить закономерности в данных. Теоретически нейронная сеть может изучить любую функцию. [110]

В нейронных сетях прямого распространения сигнал проходит только в одном направлении. [111] Рекуррентные нейронные сети подают выходной сигнал обратно на вход, что позволяет кратковременно запоминать предыдущие входные события. Долговременная краткосрочная память является наиболее успешной сетевой архитектурой для рекуррентных сетей. [112] Перцептроны [113] используют только один слой нейронов, глубокое обучение [114] использует несколько слоев. Сверточные нейронные сети усиливают связь между нейронами, находящимися «близко» друг к другу — это особенно важно при обработке изображений , где локальный набор нейронов должен идентифицировать «край», прежде чем сеть сможет идентифицировать объект. [115]

Глубокое обучение

Глубокое обучение [114] использует несколько слоев нейронов между входами и выходами сети. Несколько слоев могут постепенно извлекать функции более высокого уровня из необработанных входных данных. Например, при обработке изображений нижние уровни могут идентифицировать края, а более высокие уровни могут идентифицировать понятия, относящиеся к человеку, такие как цифры, буквы или лица. [116]

Глубокое обучение значительно улучшило производительность программ во многих важных областях искусственного интеллекта, включая компьютерное зрение , распознавание речи , обработку естественного языка , классификацию изображений , [117] и другие. Причина , по которой глубокое обучение так хорошо работает во многих приложениях , по состоянию на 2023 год неизвестна. был описан многими людьми еще в 1950-х годах) [i] но из-за двух факторов: невероятного увеличения мощности компьютера (включая стократное увеличение скорости за счет перехода на графические процессоры ) и доступности огромных объемов обучения данные, особенно гигантские наборы данных, используемые для эталонного тестирования, такие как ImageNet . [Дж]

GPT

Генеративные предварительно обученные преобразователи (GPT) — это большие языковые модели , основанные на семантических отношениях между словами в предложениях ( обработка естественного языка ). Текстовые модели GPT предварительно обучаются на большом массиве текста , который может быть взят из Интернета. Предварительное обучение состоит из предсказания следующего токена (токеном обычно является слово, подслово или знак препинания). В ходе этого предварительного обучения модели GPT накапливают знания о мире, а затем могут генерировать текст, похожий на человеческий, многократно предсказывая следующий токен. Как правило, последующий этап обучения делает модель более правдивой, полезной и безвредной, обычно с помощью метода, называемого обучением с подкреплением на основе обратной связи с человеком (RLHF). Текущие модели GPT склонны генерировать ложные сведения, называемые « галлюцинациями », хотя это можно уменьшить с помощью RLHF и качественных данных. Они используются в чат-ботах , которые позволяют задать вопрос или запросить задачу простым текстом. [127] [128]

Текущие модели и сервисы включают Gemini (ранее Bard), ChatGPT , Grok , Claude , Copilot и LLaMA . [129] Мультимодальные модели GPT могут обрабатывать различные типы данных ( модальности ), такие как изображения, видео, звук и текст. [130]

Специализированное оборудование и программное обеспечение

В конце 2010-х годов графические процессоры (GPU), которые все чаще проектировались с усовершенствованиями, специфичными для искусственного интеллекта, и использовались со специализированным программным обеспечением TensorFlow , заменили ранее использовавшиеся центральные процессоры (ЦП) в качестве доминирующего средства для крупномасштабных (коммерческих и академических) машин . обучение моделей обучения . [131] Специализированные языки программирования , такие как Пролог, использовались в ранних исследованиях искусственного интеллекта, [132] но языки программирования общего назначения, такие как Python, стали преобладать. [133]

Приложения

Технологии искусственного интеллекта и машинного обучения используются в большинстве важнейших приложений 2020-х годов, включая: поисковые системы (такие как Google Search ), таргетинг онлайн-рекламы , системы рекомендаций (предлагаемые Netflix , YouTube или Amazon ), привлечение интернет-трафика , таргетированную рекламу. ( AdSense , Facebook ), виртуальные помощники (такие как Siri или Alexa ), автономные транспортные средства (включая дроны , ADAS и беспилотные автомобили ), автоматический языковой перевод ( Microsoft Translator , Google Translate ), распознавание лиц ( Apple Face ID или DeepFace от Microsoft и FaceNet от Google ) и маркировка изображений (используется Facebook , iPhoto от Apple и TikTok ). Развертывание ИИ может контролироваться директором по автоматизации (CAO).

Здоровье и медицина

Применение ИИ в медицине и медицинских исследованиях потенциально может улучшить уход за пациентами и качество их жизни. [134] Через призму клятвы Гиппократа медицинские работники этически обязаны использовать ИИ, если приложения могут более точно диагностировать и лечить пациентов.

Для медицинских исследований ИИ является важным инструментом обработки и интеграции больших данных . Это особенно важно для развития органоидной и тканевой инженерии , где микроскопическая визуализация используется в качестве ключевого метода производства. [135] Было высказано предположение, что ИИ может преодолеть несоответствие в финансировании, выделяемом на различные области исследований. [135] Новые инструменты ИИ могут углубить понимание биомедицинских путей. Например, AlphaFold 2 (2021) продемонстрировал способность аппроксимировать трехмерную структуру белка за часы, а не месяцы . [136] В 2023 году сообщалось, что открытие лекарств под руководством ИИ помогло найти класс антибиотиков, способных убивать два разных типа устойчивых к лекарствам бактерий. [137] В 2024 году исследователи использовали машинное обучение, чтобы ускорить поиск лекарств от болезни Паркинсона . Их целью было идентифицировать соединения, которые блокируют слипание или агрегацию альфа-синуклеина (белка, который характеризует болезнь Паркинсона). Им удалось ускорить процесс первичной проверки в десять раз и снизить стоимость в тысячу раз. [138] [139]

Игры

Игровые программы используются с 1950-х годов для демонстрации и тестирования самых передовых методов искусственного интеллекта. [140] Deep Blue стала первой компьютерной шахматной системой, победившей действующего чемпиона мира по шахматам Гарри Каспарова 11 мая 1997 года. [141] В 2011 году в игре Jeopardy! викторина-шоу показательный матч, вопросно-ответная система IBM , Уотсон , победилдва величайших Jeopardy! чемпионы Брэд Раттер и Кен Дженнингс со значительным отрывом. [142] В марте 2016 года AlphaGo выиграла 4 из 5 игр в го в матче с чемпионом по го Ли Седолем , став первой компьютерной системой игры в го, обыгравшей профессионального игрока в го без гандикапов . Затем в 2017 году он победил Кэ Цзе , который был лучшим игроком в го в мире. [143] Другие программы обрабатывают игры с несовершенной информацией , например, программа для игры в покер Pluribus . [144] DeepMind разработала все более общие модели обучения с подкреплением , такие как MuZero , которые можно было обучить играть в шахматы, го или игры Atari . [145] В 2019 году AlphaStar из DeepMind достигла уровня гроссмейстера в StarCraft II , особенно сложной стратегической игре в реальном времени, которая предполагает неполное знание того, что происходит на карте. [146] В 2021 году ИИ-агент участвовал в соревновании PlayStation Gran Turismo , победив четырех лучших в мире гонщиков Gran Turismo, используя глубокое обучение с подкреплением. [147] В 2024 году Google DeepMind представила SIMA, тип искусственного интеллекта, способный автономно играть в девять ранее невиданных видеоигр с открытым миром , наблюдая за выводом на экран, а также выполнять короткие конкретные задачи в ответ на инструкции на естественном языке. [148]

Финансы

Финансы — один из наиболее быстрорастущих секторов, где используются прикладные инструменты искусственного интеллекта: от розничного онлайн-банкинга до инвестиционных консультаций и страхования, где уже несколько лет используются автоматизированные «роботы-консультанты». [149]

Рост использования ИИ в FinTech подчеркивает его достижения и потенциал в финансовом секторе. ИИ меняет цели, методы и инструменты экономики и финансов. [150] Он улучшает оценку кредитного риска с помощью алгоритмов машинного обучения, улучшает управление рисками и помогает прогнозировать рыночные риски, помогая финансовым учреждениям управлять активами во время волатильности. Кроме того, количественные торговые стратегии на основе искусственного интеллекта оптимизировали эффективность и прибыльность высокочастотной торговли . [150]

Эксперты World Pensions, такие как Николас Фирзли, настаивают, что, возможно, еще слишком рано видеть появление высокоинновационных финансовых продуктов и услуг на основе искусственного интеллекта: «развертывание инструментов искусственного интеллекта просто приведет к дальнейшей автоматизации процессов: уничтожению десятков тысяч рабочих мест в банковском деле, финансовом планировании и пенсионное консультирование в процессе, но я не уверен, что это вызовет новую волну [например, сложных] пенсионных инноваций». [151]

Военный

Различные страны внедряют военные приложения ИИ. [152] Основные приложения расширяют возможности управления и контроля , связи, датчиков, интеграции и совместимости. [153] Исследования направлены на сбор и анализ разведданных, логистику, кибероперации, информационные операции, а также полуавтономные и автономные транспортные средства . [152] Технологии искусственного интеллекта обеспечивают координацию датчиков и исполнительных устройств, обнаружение и идентификацию угроз, маркировку позиций противника, захват целей , координацию и устранение конфликтов в распределенных совместных огнях между объединенными в сеть боевыми машинами с участием пилотируемых и беспилотных групп. [153] ИИ был задействован в военных операциях в Ираке и Сирии. [152]

В ноябре 2023 года вице-президент США Камала Харрис обнародовала подписанную 31 страной декларацию, устанавливающую ограничения на использование искусственного интеллекта в военных целях. Обязательства включают в себя проведение юридических проверок для обеспечения соответствия военного ИИ международному праву, а также осторожность и прозрачность при разработке этой технологии. [154]

Генеративный ИИ

Винсент Ван Гог в акварели, созданный с помощью генеративного программного обеспечения искусственного интеллекта

В начале 2020-х годов генеративный искусственный интеллект получил широкое распространение. В марте 2023 года 58% взрослых американцев слышали о ChatGPT и 14% пробовали его. [155] Возрастающий реализм и простота использования генераторов текста в изображения на основе искусственного интеллекта , таких как Midjourney , DALL-E и Stable Diffusion , вызвали тенденцию к созданию вирусных фотографий, созданных с помощью искусственного интеллекта. Широкое внимание привлекли фейковая фотография Папы Франциска в белом пуховике, вымышленный арест Дональда Трампа и мистификация нападения на Пентагон , а также использование в профессиональном творчестве. [156] [157]

Другие отраслевые задачи

Существуют также тысячи успешных приложений ИИ, используемых для решения конкретных проблем в конкретных отраслях или учреждениях. В опросе 2017 года каждая пятая компания сообщила, что включила искусственный интеллект в некоторые предложения или процессы. [158] Несколько примеров: хранение энергии , медицинская диагностика, военная логистика, приложения, предсказывающие результат судебных решений, внешняя политика или управление цепочками поставок.

Приложения искусственного интеллекта для эвакуации и борьбы со стихийными бедствиями растут. ИИ использовался для расследования того, эвакуировались ли люди в крупномасштабных и мелкомасштабных эвакуациях и каким образом, с использованием исторических данных GPS, видео или социальных сетей. Кроме того, ИИ может предоставлять информацию в реальном времени об условиях эвакуации в реальном времени. [159] [160] [161]

В сельском хозяйстве ИИ помог фермерам определить области, которые нуждаются в ирригации, удобрении, обработке пестицидами или повышении урожайности. Агрономы используют ИИ для проведения исследований и разработок. ИИ использовался для прогнозирования времени созревания таких культур, как томаты, мониторинга влажности почвы, управления сельскохозяйственными роботами, проведения прогнозной аналитики, классификации эмоций, вызываемых домашним скотом, свиней, автоматизации теплиц, обнаружения болезней и вредителей, а также экономии воды.

Искусственный интеллект используется в астрономии для анализа растущих объемов доступных данных и приложений, в основном для «классификации, регрессии, кластеризации, прогнозирования, генерации, открытия и развития новых научных идей», например, для открытия экзопланет, прогнозирования солнечной активности и различие между сигналами и инструментальными эффектами в гравитационно-волновой астрономии. Его также можно использовать для деятельности в космосе, такой как исследование космоса, включая анализ данных космических миссий, принятие научных решений по космическим кораблям в реальном времени, предотвращение космического мусора и более автономную работу.

Этика

ИИ имеет потенциальные преимущества и потенциальные риски. ИИ может способствовать развитию науки и находить решения серьезных проблем: Демис Хассабис из Deep Mind надеется «разгадать интеллект, а затем использовать его для решения всего остального». [162] Однако по мере того, как использование ИИ стало широко распространенным, было выявлено несколько непредвиденных последствий и рисков. [163] Производственные системы иногда не могут учитывать этику и предвзятость в процессах обучения ИИ, особенно когда алгоритмы ИИ по своей сути необъяснимы в глубоком обучении. [164]

Риски и вред

Алгоритмы машинного обучения требуют больших объемов данных. Методы, используемые для получения этих данных, вызвали обеспокоенность по поводу конфиденциальности , слежки и авторских прав .

Технологические компании собирают широкий спектр данных от своих пользователей, включая онлайн-активность, данные геолокации, видео и аудио. [165] Например, для создания алгоритмов распознавания речи Amazon записала миллионы частных разговоров и позволила временным работникам прослушивать и расшифровывать некоторые из них. [166] Мнения об этой широко распространенной слежке варьируются от тех, кто считает ее неизбежным злом, до тех, для кого она явно неэтична и нарушает право на неприкосновенность частной жизни . [167]

Разработчики ИИ утверждают, что это единственный способ предоставлять ценные приложения. и разработали несколько методов, которые пытаются сохранить конфиденциальность при получении данных, таких как агрегирование данных , деидентификация и дифференциальная конфиденциальность . [168] С 2016 года некоторые эксперты по конфиденциальности, такие как Синтия Дворк , начали рассматривать конфиденциальность с точки зрения справедливости . Брайан Кристиан писал, что эксперты перешли «от вопроса «что они знают» к вопросу «что они с этим делают»». [169]

Генеративный ИИ часто обучается на нелицензированных произведениях, защищенных авторским правом, в том числе в таких областях, как изображения или компьютерный код; выходные данные затем используются на основании « добросовестного использования ». Эксперты расходятся во мнениях относительно того, насколько хорошо и при каких обстоятельствах это обоснование будет иметь силу в судах; соответствующие факторы могут включать «цель и характер использования произведения, защищенного авторским правом» и «влияние на потенциальный рынок произведения, защищенного авторским правом». [170] [171] Владельцы веб-сайтов, которые не хотят, чтобы их контент удалялся, могут указать это в файле robots.txt . [172] В 2023 году ведущие авторы (в том числе Джон Гришэм и Джонатан Франзен ) подали в суд на компании, занимающиеся ИИ, за использование их работ для обучения генеративному ИИ. [173] [174] Другой обсуждаемый подход заключается в создании отдельной sui Generis системы защиты творений, созданных ИИ, чтобы гарантировать справедливое присвоение авторства и компенсацию авторам-людям. [175]

Доминирование технологических гигантов

На коммерческой сцене ИИ доминируют крупные технологические компании, такие как Alphabet Inc. , Amazon , Apple Inc. , Meta Platforms и Microsoft . [176] [177] [178] Некоторые из этих игроков уже владеют подавляющим большинством существующей облачной инфраструктуры и вычислительными мощностями центров обработки данных , что позволяет им еще больше укрепиться на рынке. [179] [180]

Значительные потребности в электроэнергии и другие воздействия на окружающую среду

В январе 2024 года Международное энергетическое агентство (МЭА) опубликовало «Электричество 2024, анализ и прогноз до 2026 года» , в котором прогнозируется потребление электроэнергии. [181] Это первый отчет МЭА, в котором даются прогнозы относительно центров обработки данных и энергопотребления для искусственного интеллекта и криптовалют. В отчете говорится, что спрос на электроэнергию для этих целей может удвоиться к 2026 году, при этом дополнительное потребление электроэнергии будет равно объему электроэнергии, потребляемой всей японской страной. [182]

Колоссальное энергопотребление ИИ является причиной роста использования ископаемого топлива и может задержать закрытие устаревших угольных энергетических объектов, выделяющих углерод. В США наблюдается лихорадочный рост строительства центров обработки данных, превращающий крупные технологические компании (например, ChatGTP, Meta, Google, Amazon) в ненасытных потребителей электроэнергии. Прогнозируемое потребление электроэнергии настолько велико, что есть опасения, что оно будет обеспечено независимо от источника. Поиск ChatGTP предполагает использование в 10 раз больше электроэнергии, чем поиск Google. Крупные фирмы торопятся найти источники энергии – от ядерной энергии до геотермальной энергии и термоядерного синтеза. Технологические компании утверждают, что в долгосрочной перспективе ИИ в конечном итоге станет более добрым к окружающей среде, но энергия им нужна сейчас. По мнению технологических компаний, искусственный интеллект сделает энергосистему более эффективной и «интеллектуальной», будет способствовать развитию атомной энергетики и отслеживать общие выбросы углекислого газа. [183]

В исследовательском документе Goldman Sachs 2024 года «Центры обработки данных искусственного интеллекта и грядущий всплеск спроса на электроэнергию в США» говорится, что «спрос на электроэнергию в США, вероятно, будет испытывать рост, не наблюдавшийся в течение одного поколения…». и прогнозирует, что к 2030 году центры обработки данных США будут потреблять 8% электроэнергии в США по сравнению с 3% в 2022 году, что предвещает рост электроэнергетической отрасли различными способами. [184] Потребность центров обработки данных во все большем и большем количестве электроэнергии такова, что они могут максимально использовать электрическую сеть. Крупные технологические компании возражают, что искусственный интеллект может использоваться для максимального использования энергосистемы всеми. [185]

В 2024 году газета Wall Street Journal сообщила, что крупные компании, занимающиеся искусственным интеллектом, начали переговоры с поставщиками атомной энергии США о поставке электроэнергии в центры обработки данных. В марте 2024 года Amazon приобрела ядерный центр обработки данных в Пенсильвании за 650 миллионов долларов США. [186]

Дезинформация

YouTube , Facebook и другие используют системы рекомендаций , чтобы направлять пользователей к большему количеству контента. Целью этих программ искусственного интеллекта было максимальное вовлечение пользователей (то есть единственной целью было заставить людей следить за происходящим). ИИ узнал, что пользователи склонны выбирать дезинформацию , теории заговора и крайне предвзятый контент, и, чтобы удержать их на просмотре, ИИ рекомендовал больше такого контента. Пользователи также склонны смотреть больше контента на одну и ту же тему, поэтому ИИ направлял людей в пузыри фильтров , где они получали несколько версий одной и той же дезинформации. [187] Это убедило многих пользователей в правдивости дезинформации и в конечном итоге подорвало доверие к институтам, СМИ и правительству. [188] Программа ИИ правильно научилась максимизировать свою цель, но результат был вреден для общества. После выборов в США в 2016 году крупные технологические компании предприняли шаги по смягчению проблемы .

В 2022 году генеративный ИИ начал создавать изображения, аудио, видео и текст, неотличимые от реальных фотографий, записей, фильмов или написанного человеком текста. Злоумышленники могут использовать эту технологию для создания огромного количества дезинформации или пропаганды. [189] Пионер искусственного интеллекта Джеффри Хинтон выразил обеспокоенность по поводу того, что искусственный интеллект, помимо других рисков, позволяет «авторитарным лидерам манипулировать своим электоратом» в больших масштабах. [190]

Алгоритмическая предвзятость и справедливость

Приложения машинного обучения будут предвзятыми, если они будут учиться на предвзятых данных. [191] Разработчики могут не знать о существовании предвзятости. [192] Смещение может быть вызвано способом выбора обучающих данных и способом развертывания модели. [193] [191] Если предвзятый алгоритм используется для принятия решений, которые могут серьезно навредить людям (как это может быть в медицине , финансах , наборе персонала , жилищном обеспечении или полиции ), тогда алгоритм может вызвать дискриминацию . [194] Справедливость в машинном обучении — это исследование того, как предотвратить вред, причиняемый алгоритмической предвзятостью. Это стало серьезной областью академических исследований в области ИИ. Исследователи обнаружили, что не всегда возможно определить «справедливость» так, чтобы это удовлетворило все заинтересованные стороны. [195]

28 июня 2015 года новая функция маркировки изображений в Google Фото ошибочно определила Джеки Алсина и его друга как «горилл», потому что они были черными. Система была обучена на наборе данных, который содержал очень мало изображений чернокожих людей, [196] проблема, называемая «несоответствием размера выборки». [197] Google «исправил» эту проблему, запретив системе помечать что-либо как «гориллу». Восемь лет спустя, в 2023 году, Google Photos все еще не смог идентифицировать гориллу, как и аналогичные продукты Apple, Facebook, Microsoft и Amazon. [198]

COMPAS – коммерческая программа, широко используемая судами США для оценки вероятности того, что обвиняемый станет рецидивистом . В 2016 году Джулия Ангвин из ProPublica обнаружила, что КОМПАС демонстрирует расовую предвзятость, несмотря на то, что программе не была указана расовая принадлежность обвиняемых. Хотя частота ошибок как для белых, так и для чернокожих была калибрована равной ровно 61%, ошибки для каждой расы были разными — система постоянно переоценивала вероятность того, что чернокожий человек совершит повторное правонарушение, и недооценивала вероятность того, что белый человек не совершит правонарушение. повторно обидеть. [199] В 2017 году несколько исследователей [k] показали, что COMPAS математически невозможно учесть все возможные меры справедливости, когда в данных базовые показатели повторных правонарушений различаются для белых и чернокожих. [201]

Программа может принимать предвзятые решения, даже если в данных явно не упоминается проблемный признак (например, «раса» или «пол»). Эта функция будет коррелировать с другими функциями (такими как «адрес», «история покупок» или «имя»), и программа будет принимать те же решения на основе этих функций, что и на основе «расы» или «пола». [202] Мориц Хардт сказал: «Самый убедительный факт в этой области исследований заключается в том, что справедливость через слепоту не работает». [203]

Критика COMPAS подчеркнула, что модели машинного обучения созданы для того, чтобы делать «прогнозы», которые действительны только в том случае, если мы предполагаем, что будущее будет напоминать прошлое. Если они обучаются на данных, которые включают результаты расистских решений в прошлом, модели машинного обучения должны предсказывать, что расистские решения будут приняты в будущем. Если приложение затем использует эти прогнозы в качестве рекомендаций , некоторые из этих «рекомендаций», скорее всего, будут расистскими. [204] Таким образом, машинное обучение не очень подходит для принятия решений в тех областях, где есть надежда, что будущее будет лучше прошлого. Он носит скорее описательный, чем предписывающий характер. [л]

Предвзятость и несправедливость могут остаться незамеченными, поскольку разработчики в подавляющем большинстве белые и мужчины: среди инженеров ИИ около 4% — чернокожие, а 20% — женщины. [197]

На своей конференции по справедливости, подотчетности и прозрачности 2022 года (ACM FAccT 2022) Ассоциация вычислительной техники в Сеуле, Южная Корея, представила и опубликовала результаты, которые рекомендуют, чтобы до тех пор, пока системы искусственного интеллекта и робототехники не будут продемонстрированы, что они свободны от ошибок предвзятости, они небезопасны, и следует ограничить использование самообучающихся нейронных сетей, обученных на огромных нерегулируемых источниках ошибочных интернет-данных. [ сомнительнообсудить ] [206]

Отсутствие прозрачности

Многие системы искусственного интеллекта настолько сложны, что их разработчики не могут объяснить, как они принимают решения. [207] Особенно с глубокими нейронными сетями , в которых существует большое количество нелинейных связей между входными и выходными данными. Но существуют некоторые популярные методы объяснения. [208]

Невозможно быть уверенным в том, что программа работает правильно, если никто не знает, как именно она работает. Было много случаев, когда программа машинного обучения прошла строгие тесты, но, тем не менее, узнала нечто иное, чем то, что планировали программисты. Например, было обнаружено, что система, которая может идентифицировать кожные заболевания лучше, чем медицинские работники, на самом деле имеет сильную тенденцию классифицировать изображения с линейкой как «раковые», поскольку изображения злокачественных новообразований обычно включают линейку, показывающую масштаб. [209] Другая система машинного обучения, разработанная для эффективного распределения медицинских ресурсов, классифицирует пациентов с астмой как людей с «низким риском» смерти от пневмонии. Наличие астмы на самом деле является серьезным фактором риска, но, поскольку пациенты, страдающие астмой, обычно получают гораздо больше медицинской помощи, согласно данным обучения, их смерть относительно маловероятна. Корреляция между астмой и низким риском смерти от пневмонии была реальной, но вводящей в заблуждение. [210]

Люди, пострадавшие от решения алгоритма, имеют право на объяснение. [211] От врачей, например, ожидается, что они будут четко и полностью объяснять своим коллегам причины любого принимаемого ими решения. Ранние проекты Общего регламента ЕС по защите данных в 2016 году содержали прямое заявление о существовании этого права. [m] Эксперты отрасли отметили, что это нерешенная проблема, решения которой не видно. Регуляторы утверждали, что тем не менее вред реален: если проблема не имеет решения, инструменты не следует использовать. [212]

DARPA учредило программу XAI («Объяснимый искусственный интеллект») в 2014 году, чтобы попытаться решить эти проблемы. [213]

Несколько подходов направлены на решение проблемы прозрачности. SHAP позволяет визуализировать вклад каждой функции в выходные данные. [214] LIME может локально аппроксимировать результаты модели более простой, интерпретируемой моделью. [215] Многозадачное обучение обеспечивает большое количество результатов в дополнение к целевой классификации. Эти другие выходные данные могут помочь разработчикам понять, чему научилась сеть. [216] Деконволюция , DeepDream и другие генеративные методы могут позволить разработчикам видеть, чему научились различные уровни глубокой сети для компьютерного зрения, и выдавать выходные данные, которые могут указывать на то, что изучает сеть. [217] Для генеративных предварительно обученных трансформаторов компания Anthropic разработала метод, основанный на словарном обучении , который связывает паттерны активации нейронов с понятными человеку концепциями. [218]

Плохие актеры и вооруженный ИИ

Искусственный интеллект предоставляет ряд инструментов, полезных для злоумышленников , таких как авторитарные правительства , террористы , преступники или государства-изгои .

Смертоносное автономное оружие — это машина, которая обнаруживает, выбирает и поражает человеческие цели без присмотра человека. [n] Широко доступные инструменты ИИ могут быть использованы злоумышленниками для разработки недорогого автономного оружия, и, если они производятся в больших масштабах, они потенциально могут стать оружием массового уничтожения . [220] Даже при использовании в обычной войне маловероятно, что они не смогут надежно выбирать цели и потенциально смогут убить невиновного человека . [220] В 2014 году 30 стран (включая Китай) поддержали запрет на автономное оружие в соответствии с Конвенцией ООН о конкретных видах обычного оружия , однако США и другие страны с этим не согласились. [221] К 2015 году более пятидесяти стран, как сообщалось, исследовали боевых роботов. [222]

Инструменты ИИ облегчают авторитарным правительствам эффективный контроль над своими гражданами несколькими способами. Распознавание лиц и голоса позволяет осуществлять повсеместное наблюдение . Машинное обучение , оперируя этими данными, может классифицировать потенциальных врагов государства и не давать им скрываться. Системы рекомендаций могут точно нацелены на пропаганду и дезинформацию для достижения максимального эффекта. Дипфейки и генеративный искусственный интеллект помогают создавать дезинформацию. Передовой ИИ может сделать авторитарные централизованные процессы принятия решений более конкурентоспособными, чем либеральные и децентрализованные системы, такие как рынки . Это снижает стоимость и сложность цифровой войны и современного шпионского ПО . [223] Все эти технологии доступны с 2020 года или раньше — системы распознавания лиц с искусственным интеллектом уже используются для массовой слежки в Китае. [224] [225]

Существует много других способов, с помощью которых ИИ может помочь злодеям, некоторые из которых невозможно предусмотреть. Например, искусственный интеллект с машинным обучением способен создавать десятки тысяч токсичных молекул за считанные часы. [226]

Технологическая безработица

Экономисты часто подчеркивали риски увольнений из ИИ и высказывали предположения о безработице, если не будет адекватной социальной политики для полной занятости. [227]

В прошлом технологии имели тенденцию скорее увеличивать, чем сокращать общую занятость, но экономисты признают, что с ИИ «мы находимся на неизведанной территории». [228] Опрос экономистов показал разногласия относительно того, приведет ли растущее использование роботов и искусственного интеллекта к существенному увеличению долгосрочной безработицы , но в целом они согласны с тем, что это может принести чистую выгоду, если перераспределить прирост производительности . [229] Оценки риска различаются; например, в 2010-х годах Майкл Осборн и Карл Бенедикт Фрей подсчитали, что 47% рабочих мест в США подвергаются «высокому риску» потенциальной автоматизации, тогда как в отчете ОЭСР только 9% рабочих мест в США классифицируются как «высокие риски». [o] [231] Методология спекуляций о будущих уровнях занятости подвергалась критике за отсутствие доказательной базы и за то, что подразумевается, что технологии, а не социальная политика, создают безработицу, а не увольнения. [227] В апреле 2023 года сообщалось, что 70% рабочих мест китайских иллюстраторов видеоигр были сокращены из-за генеративного искусственного интеллекта. [232] [233]

В отличие от предыдущих волн автоматизации, многие рабочие места среднего класса могут быть ликвидированы искусственным интеллектом; В 2015 году журнал The Economist заявил, что «беспокойство о том, что ИИ может сделать с рабочими местами белых воротничков то же, что паровая энергия сделала с рабочими во время промышленной революции», «стоит отнестись серьезно». [234] Рабочие места, подверженные крайнему риску, варьируются от помощников юристов до поваров фаст-фуда, в то время как спрос на рабочие места, вероятно, увеличится для профессий, связанных с уходом, от личного здравоохранения до духовенства. [235]

С первых дней развития искусственного интеллекта существовали аргументы, например, выдвинутые Джозефом Вайценбаумом , о том, должны ли на самом деле задачи, которые могут выполняться компьютерами, выполняться ими, учитывая разницу между компьютерами и людьми, и между количественными расчетами и качественными, основанными на ценностях суждениями. [236]

Экзистенциальный риск

Утверждалось, что ИИ станет настолько мощным, что человечество может необратимо потерять над ним контроль. Это может, как заявил физик Стивен Хокинг , « означать конец человечества ». [237] Этот сценарий был обычным явлением в научной фантастике, когда компьютер или робот внезапно развивает человеческое «самосознание» (или «чувственность» или «сознание») и становится злонамеренным персонажем. [p] Эти научно-фантастические сценарии вводят в заблуждение по нескольким причинам.

Во-первых, ИИ не требует, чтобы человеческое « сознание » представляло экзистенциальный риск. Современные программы искусственного интеллекта ставят перед собой конкретные цели и используют обучение и интеллект для их достижения. Философ Ник Бостром утверждал, что если дать достаточно мощному ИИ практически любую цель, он может решить уничтожить человечество для ее достижения (он использовал пример менеджера фабрики по производству скрепок ). [239] Стюарт Рассел приводит пример домашнего робота, который пытается найти способ убить своего владельца, чтобы предотвратить его отключение от сети, мотивируя это тем, что «вы не сможете принести кофе, если вы мертвы». [240] Чтобы быть безопасным для человечества, сверхразум должен быть искренне связан с моралью и ценностями человечества, чтобы он «фундаментально был на нашей стороне». [241]

Во-вторых, Юваль Ной Харари утверждает, что ИИ не требует тела робота или физического контроля, чтобы представлять экзистенциальный риск. Существенные части цивилизации не являются физическими. Такие вещи, как идеологии , законы , правительство , деньги и экономика , созданы из языка ; они существуют, потому что есть истории, в которые верят миллиарды людей. Нынешняя распространенность дезинформации предполагает, что ИИ может использовать язык, чтобы убедить людей поверить во что угодно, даже совершить разрушительные действия. [242]

Мнения среди экспертов и инсайдеров отрасли неоднозначны: значительная часть их как обеспокоена, так и не обеспокоена риском, исходящим от возможного сверхразумного ИИ. [243] Такие личности, как Стивен Хокинг , Билл Гейтс и Илон Маск , [244] а также пионеры ИИ, такие как Йошуа Бенджио , Стюарт Рассел , Демис Хассабис и Сэм Альтман , выражали обеспокоенность по поводу экзистенциального риска, связанного с ИИ.

В мае 2023 года Джеффри Хинтон объявил о своем уходе из Google, чтобы иметь возможность «свободно говорить о рисках ИИ», «не задумываясь о том, как это повлияет на Google». [245] Он особо упомянул риски поглощения ИИ , [246] и подчеркнул, что для того, чтобы избежать наихудших результатов, установление правил безопасности потребует сотрудничества между теми, кто конкурирует в использовании ИИ. [247]

В 2023 году многие ведущие эксперты в области ИИ выступили с совместным заявлением , что «Снижение риска исчезновения ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война». [248]

Другие исследователи, однако, высказались в пользу менее антиутопической точки зрения. Пионер искусственного интеллекта Юрген Шмидхубер не подписал совместное заявление, подчеркнув, что в 95% всех случаев исследования искусственного интеллекта направлены на то, чтобы сделать «человеческую жизнь дольше, здоровее и проще». [249] Хотя инструменты, которые сейчас используются для улучшения жизни, также могут быть использованы злоумышленниками, «они также могут быть использованы против злоумышленников». [250] [251] Эндрю Нг также утверждал, что «было бы ошибкой поддаться шумихе вокруг ИИ, связанной с судным днем, и что регуляторы, которые это сделают, принесут пользу только корыстным интересам». [252] Янн ЛеКун «высмеивает антиутопические сценарии своих сверстников, включающие усиленную дезинформацию и даже, в конечном итоге, вымирание человечества». [253] В начале 2010-х годов эксперты утверждали, что риски в будущем слишком далеки, чтобы требовать проведения исследований, или что люди будут представлять ценность с точки зрения сверхразумной машины. [254] Однако после 2016 года изучение текущих и будущих рисков и возможных решений стало серьезным направлением исследований. [255]

Этические машины и согласованность

Дружественный ИИ — это машины, которые с самого начала были разработаны для минимизации рисков и принятия решений, приносящих пользу людям. Элиэзер Юдковски , придумавший этот термин, утверждает, что разработка дружественного ИИ должна быть более высоким приоритетом исследований: это может потребовать больших инвестиций и должно быть завершено до того, как ИИ станет экзистенциальным риском. [256]

У машин, обладающих интеллектом, есть потенциал использовать свой интеллект для принятия этических решений. Область машинной этики предоставляет машинам этические принципы и процедуры для решения этических дилемм. [257] Область машинной этики также называется вычислительной моралью, [257] и была основана на симпозиуме AAAI в 2005 году. [258]

Другие подходы включают «искусственные моральные агенты» Венделла Уоллаха [259] и три принципа Стюарта Дж. Рассела для разработки доказуемо полезных машин. [260]

Открытый источник

Активные организации в сообществе искусственного интеллекта с открытым исходным кодом включают Hugging Face , [261] Google , [262] EleutherAI и Meta . [263] Различные модели ИИ, такие как Llama 2 , Mistral или Stable Diffusion , стали открытыми, [264] [265] это означает, что их архитектура и обученные параметры («веса») общедоступны. Модели открытого веса можно свободно настраивать , что позволяет компаниям специализировать их на основе собственных данных и для собственных сценариев использования. [266] Модели открытого веса полезны для исследований и инноваций, но ими также можно злоупотреблять. Поскольку их можно точно настроить, любые встроенные меры безопасности, такие как противодействие вредоносным запросам, можно отключать до тех пор, пока они не станут неэффективными. Некоторые исследователи предупреждают, что будущие модели ИИ могут обладать опасными возможностями (например, потенциально способствовать значительному развитию биотерроризма ) и что, как только они будут опубликованы в Интернете, их нельзя будет удалить повсюду, если это необходимо. Они рекомендуют предварительные аудиты и анализ затрат и выгод. [267]

Рамки

Этическая допустимость проектов искусственного интеллекта может быть проверена при проектировании, разработке и внедрении системы ИИ. Структура искусственного интеллекта, такая как Care and Act Framework, содержащая значения SUM, разработанная Институтом Алана Тьюринга, тестирует проекты в четырех основных областях: [268] [269]

Другие разработки в области этических норм включают, среди прочего, решения, принятые на конференции Асиломар , Монреальскую декларацию об ответственном ИИ и инициативу IEEE по этике автономных систем; [270] Однако эти принципы не обходятся без критики, особенно в отношении избранных людей, способствующих этим основам. [271]

Содействие благополучию людей и сообществ, на которые влияют эти технологии, требует рассмотрения социальных и этических последствий на всех этапах проектирования, разработки и внедрения системы ИИ, а также сотрудничества между должностными лицами, такими как специалисты по обработке данных, менеджеры по продуктам, инженеры по обработке данных, специалисты по предметной области. специалисты и менеджеры по доставке. [272]

Британский институт безопасности ИИ выпустил в 2024 году набор инструментов для тестирования под названием «Inspect» для оценки безопасности ИИ, доступный по лицензии MIT с открытым исходным кодом, который находится в свободном доступе на GitHub и может быть улучшен с помощью сторонних пакетов. Его можно использовать для оценки моделей ИИ в различных областях, включая базовые знания, способность рассуждать и автономные возможности. [273]

Регулирование

AI Safety Summit
В 2023 году состоялся первый глобальный саммит по безопасности ИИ, на котором была принята декларация, призывающая к международному сотрудничеству.

Регулирование искусственного интеллекта — это разработка политики и законов государственного сектора для продвижения и регулирования искусственного интеллекта (ИИ); следовательно, это связано с более широким регулированием алгоритмов. [274] Нормативно-правовая и политическая среда в области ИИ является новой проблемой в юрисдикциях по всему миру. [275] Согласно AI Index в Стэнфорде , ежегодное количество законов, связанных с ИИ, принятых в 127 странах, принявших участие в исследовании, выросло с одного, принятого в 2016 году, до 37, принятых только в 2022 году. [276] [277] В период с 2016 по 2020 год более 30 стран приняли специальные стратегии в области ИИ. [278] Большинство государств-членов ЕС опубликовали национальные стратегии в области искусственного интеллекта, а также Канада, Китай, Индия, Япония, Маврикий, Российская Федерация, Саудовская Аравия, Объединенные Арабские Эмираты, США и Вьетнам. Другие страны, в том числе Бангладеш, Малайзия и Тунис, находились в процессе разработки собственной стратегии искусственного интеллекта. [278] Глобальное партнерство по искусственному интеллекту было запущено в июне 2020 года, заявив о необходимости разработки ИИ в соответствии с правами человека и демократическими ценностями, чтобы обеспечить общественное доверие к этой технологии. [278] Генри Киссинджер , Эрик Шмидт и Дэниел Хуттенлохер опубликовали в ноябре 2021 года совместное заявление с призывом создать правительственную комиссию по регулированию ИИ. [279] В 2023 году лидеры OpenAI опубликовали рекомендации по управлению сверхинтеллектом, что, по их мнению, может произойти менее чем через 10 лет. [280] В 2023 году Организация Объединенных Наций также создала консультативный орган для предоставления рекомендаций по управлению ИИ; В состав этого органа входят руководители технологических компаний, правительственные чиновники и ученые. [281]

Согласно опросу Ipsos 2022 года , отношение к ИИ сильно различалось в зависимости от страны; 78% граждан Китая и только 35% американцев согласились, что «продукты и услуги, использующие ИИ, имеют больше преимуществ, чем недостатков». [276] Опрос Reuters /Ipsos , проведенный в 2023 году, показал, что 61% американцев согласны, а 22% не согласны с тем, что ИИ представляет угрозу для человечества. [282] В опросе Fox News 2023 года 35% американцев сочли «очень важным», а еще 41% сочли «несколько важным» регулирование ИИ со стороны федерального правительства, по сравнению с 13%, ответившими «не очень важно». и 8% ответили «совсем не важно». [283] [284]

В ноябре 2023 года в Блетчли-Парке в Великобритании прошел первый глобальный саммит по безопасности ИИ , на котором обсуждались краткосрочные и долгосрочные риски ИИ, а также возможность создания обязательных и добровольных нормативных рамок. [285] 28 стран, включая США, Китай и Европейский Союз, в начале саммита опубликовали декларацию, призывающую к международному сотрудничеству для решения проблем и рисков, связанных с искусственным интеллектом. [286] [287] В мае 2024 года на Сеульском саммите AI 16 глобальных компаний, занимающихся технологиями искусственного интеллекта, согласились взять на себя обязательства по обеспечению безопасности при разработке искусственного интеллекта. [288] [289]

История

Изучение механического или «формального» рассуждения началось с философов и математиков древности. Изучение логики привело непосредственно к теории вычислений Алана Тьюринга , которая предполагала, что машина, перетасовывая такие простые символы, как «0» и «1», может моделировать любую мыслимую форму математического рассуждения. [290] [5] Это, наряду с одновременными открытиями в кибернетике , теории информации и нейробиологии , побудило исследователей рассмотреть возможность создания «электронного мозга». [q] Они разработали несколько областей исследований, которые впоследствии стали частью ИИ, [292] такие как проект Маккаллуша и Питта для «искусственных нейронов» в 1943 году, [293] и влиятельная статья Тьюринга 1950 года « Вычислительная техника и интеллект », в которой были представлены тест Тьюринга и показал, что «машинный интеллект» вполне правдоподобен. [294] [5]

Область исследований ИИ была основана на семинаре в Дартмутском колледже в 1956 году. [r] [6] Участники стали лидерами исследований ИИ в 1960-х годах. [s] Они и их студенты создали программы, которые пресса назвала «удивительными»: [t] компьютеры изучали стратегии игры в шашки , решали текстовые задачи по алгебре, доказывали логические теоремы и говорили по-английски. [u] [9] Лаборатории искусственного интеллекта были созданы в ряде университетов Великобритании и США в конце 1950-х — начале 1960-х годов. [5]

Исследователи 1960-х и 1970-х годов были убеждены, что их методы в конечном итоге позволят создать машину с общим интеллектом , и считали это целью своей области. [298] Герберт Саймон предсказал: «Через двадцать лет машины будут способны выполнять любую работу, которую может выполнить человек». [299] Марвин Мински согласился, написав: «Через поколение... проблема создания «искусственного интеллекта» будет существенно решена». [300] Однако они недооценили сложность проблемы. [v] В 1974 году правительства США и Великобритании прекратили исследовательские исследования в ответ на критику сэра Джеймса Лайтхилла [302] и продолжающееся давление со стороны Конгресса США с целью финансирования более продуктивных проектов . [303] Книга Мински и Паперта « Перцептроны » была воспринята как доказательство того, что искусственные нейронные сети никогда не будут полезны для решения реальных задач, тем самым полностью дискредитируя этот подход. [304] Последовала « зима ИИ », период, когда получение финансирования для проектов ИИ было затруднено. [11]

В начале 1980-х годов исследования искусственного интеллекта были возрождены благодаря коммерческому успеху экспертных систем , [305] формы программы искусственного интеллекта, которая моделировала знания и аналитические навыки людей-экспертов. К 1985 году рынок искусственного интеллекта превысил миллиард долларов. В то же время японский компьютерный проект пятого поколения вдохновил правительства США и Великобритании восстановить финансирование академических исследований . [10] Однако, начиная с краха рынка Lisp-машин в 1987 году, ИИ снова потерял репутацию, и началась вторая, более продолжительная зима. [12]

До этого момента большая часть финансирования ИИ направлялась на проекты, в которых использовались символы высокого уровня для представления мысленных объектов , таких как планы, цели, убеждения и известные факты. В 1980-х годах некоторые исследователи начали сомневаться в том, что этот подход сможет имитировать все процессы человеческого познания, особенно восприятие , робототехнику , обучение и распознавание образов , [306] и начали изучать «субсимволические» подходы. [307] Родни Брукс отверг «представление» в целом и сосредоточился непосредственно на разработке машин, которые движутся и выживают. [w] Джудея Перл , Лофти Заде и другие разработали методы, которые обрабатывали неполную и неопределенную информацию, делая разумные предположения, а не точную логику. [91] [312] Но самым важным событием стало возрождение « коннекционизма », включая исследования нейронных сетей, Джеффри Хинтоном и другими. [313] В 1990 году Ян ЛеКун успешно показал, что сверточные нейронные сети могут распознавать рукописные цифры, что стало первым из многих успешных применений нейронных сетей. [314]

ИИ постепенно восстановил свою репутацию в конце 1990-х и начале 21 века, используя формальные математические методы и находя конкретные решения конкретных проблем. Эта « узкая » и «формальная» направленность позволила исследователям получать поддающиеся проверке результаты и сотрудничать с другими областями (такими как статистика , экономика и математика ). [315] К 2000 году решения, разработанные исследователями искусственного интеллекта, получили широкое распространение, хотя в 1990-е годы их редко называли «искусственным интеллектом». [316] Однако некоторые академические исследователи были обеспокоены тем, что ИИ больше не преследует свою первоначальную цель — создание универсальных, полностью интеллектуальных машин. Примерно начиная с 2002 года они основали подразделение общего искусственного интеллекта (или «AGI»), в котором к 2010-м годам было несколько хорошо финансируемых учреждений. [16]

Глубокое обучение начало доминировать в отрасли в 2012 году и было внедрено во всех сферах. [13] Для многих конкретных задач от других методов отказались. [x] Успех глубокого обучения был основан как на усовершенствовании аппаратного обеспечения ( более быстрые компьютеры , [318] графические процессоры , облачные вычисления [319] ), так и на доступе к большим объемам данных [320] (включая тщательно подобранные наборы данных, [319] такие как ImageNet ). Успех глубокого обучения привел к огромному увеличению интереса и финансирования ИИ. [y] Объем исследований в области машинного обучения (измеряемый общим количеством публикаций) увеличился на 50% в 2015–2019 годах. [278]

В 2016 году вопросы справедливости и неправомерного использования технологий оказались в центре внимания конференций по машинному обучению, количество публикаций значительно увеличилось, появилось финансирование, и многие исследователи переориентировали свою карьеру на эти проблемы. Проблема выравнивания стала серьезной областью академических исследований. [255]

В конце подросткового периода и начале 2020-х годов компании AGI начали предлагать программы, вызвавшие огромный интерес. В 2015 году программа AlphaGo , разработанная компанией DeepMind , обыграла чемпиона мира по игре в го . Программу обучали только правилам игры и самостоятельно разрабатывали стратегию. GPT-3 — это большая языковая модель , выпущенная OpenAI в 2020 году и способная генерировать высококачественный человеческий текст. [321] Эти и другие программы спровоцировали агрессивный бум ИИ , когда крупные компании начали инвестировать миллиарды в исследования ИИ. По данным AI Impacts, около 2022 года только в США в ИИ ежегодно инвестировалось около 50 миллиардов долларов, и около 20% новых выпускников докторских программ в области компьютерных наук в США специализировались в области ИИ. [322] В 2022 году в США существовало около 800 000 вакансий, связанных с искусственным интеллектом. [323]

Философия

Определение искусственного интеллекта

Алан Тьюринг написал в 1950 году: «Я предлагаю рассмотреть вопрос: могут ли машины думать?» [324] Он посоветовал изменить вопрос с того, «думает ли машина», на «может ли машина демонстрировать разумное поведение». [324] Он разработал тест Тьюринга, который измеряет способность машины имитировать человеческий разговор. [294] Поскольку мы можем только наблюдать за поведением машины, не имеет значения, «на самом деле» она думает или буквально обладает «разумом». Тьюринг отмечает, что мы не можем определить эти вещи в отношении других людей , но «обычно существует вежливая условность, о которой думают все». [325]

Рассел и Норвиг согласны с Тьюрингом в том, что интеллект следует определять с точки зрения внешнего поведения, а не внутренней структуры. [1] Однако очень важно, что тест требует, чтобы машина имитировала людей. « Тексты по авиационной технике , — писали они, — не определяют цель своей области как создание «машин, которые летают настолько точно, как голуби , что могут обмануть других голубей » . [326] Основатель искусственного интеллекта Джон Маккарти согласился, написав, что « искусственные интеллект по определению не является симуляцией человеческого интеллекта». [327]

Маккарти определяет интеллект как «вычислительную часть способности достигать целей в мире». [328] Другой основатель ИИ, Марвин Мински, также описывает его как «способность решать сложные проблемы». [329] Ведущий учебник по искусственному интеллекту определяет его как исследование агентов, которые воспринимают окружающую среду и предпринимают действия, которые максимизируют их шансы на достижение определенных целей. [1] Эти определения рассматривают интеллект как четко определенные проблемы с четко определенными решениями, где и сложность проблемы, и производительность программы являются прямыми показателями «интеллекта» машины, а не каких-либо других философских дискуссий. требуется или даже невозможен.

Другое определение было принято Google, [330] крупным практиком в области искусственного интеллекта. Это определение предусматривает способность систем синтезировать информацию как проявление интеллекта, аналогично тому, как это определяется в биологическом интеллекте.

Оценка подходов к ИИ

Никакая устоявшаяся объединяющая теория или парадигма не направляла исследования ИИ на протяжении большей части его истории. [z] Беспрецедентный успех статистического машинного обучения в 2010-х годах затмил все другие подходы (настолько, что некоторые источники, особенно в деловом мире, используют термин «искусственный интеллект» для обозначения «машинного обучения с нейронными сетями»). Этот подход в основном субсимволический , мягкий и узкий . Критики утверждают, что будущим поколениям исследователей ИИ, возможно, придется вернуться к этим вопросам.

Символический ИИ и его пределы

Символический ИИ (или « GOFAI ») [332] имитировал сознательные рассуждения высокого уровня, которые люди используют, когда решают головоломки, выражают юридические рассуждения и занимаются математикой. Они очень успешно справлялись с «умными» задачами, такими как алгебра или тесты на IQ. В 1960-х годах Ньюэлл и Саймон предложили гипотезу системы физических символов : «Система физических символов обладает необходимыми и достаточными средствами общего разумного действия». [333]

Однако символический подход не справился со многими задачами, которые люди легко решают, такими как обучение, распознавание объекта или здравое рассуждение. Парадокс Моравца заключается в открытии того, что «интеллектуальные» задачи высокого уровня были легкими для ИИ, а «инстинктивные» задачи низкого уровня были чрезвычайно трудными. [334] Философ Хьюберт Дрейфус с 1960-х годов утверждал , что человеческий опыт зависит от бессознательного инстинкта, а не от сознательного манипулирования символами, и от «чувства» ситуации, а не от явного символического знания. [335] Хотя его аргументы были высмеяны и проигнорированы, когда они были впервые представлены, в конечном итоге исследования ИИ пришли к его мнению. [аа] [21]

Проблема не решена: субсимволические рассуждения могут совершать многие из тех же непостижимых ошибок, что и человеческая интуиция, например алгоритмическая предвзятость . Критики, такие как Ноам Хомский, утверждают, что продолжение исследований символического ИИ по-прежнему будет необходимо для достижения общего интеллекта, [337] [338] отчасти потому, что субсимволический ИИ представляет собой отход от объяснимого ИИ : может быть трудно или невозможно понять, почему современная статистическая программа искусственного интеллекта приняла конкретное решение. Развивающаяся область нейросимволического искусственного интеллекта пытается соединить два подхода.

Аккуратный против неряшливого

«Чистые» надеются, что разумное поведение описывается с использованием простых и элегантных принципов (таких как логика , оптимизация или нейронные сети ). «Неряшливы» ожидают, что это обязательно потребует решения большого количества несвязанных между собой задач. Чистоплотные защищают свои программы с теоретической строгостью, неряшливые полагаются главным образом на постепенное тестирование, чтобы увидеть, работают ли они. Этот вопрос активно обсуждался в 1970-х и 1980-х годах [339] , но в конечном итоге был признан неактуальным. Современный ИИ имеет элементы и того, и другого.

Мягкие и жесткие вычисления

Для многих важных задач найти доказуемо правильное или оптимальное решение сложно . [20] Мягкие вычисления — это набор методов, включая генетические алгоритмы , нечеткую логику и нейронные сети, которые терпимы к неточностям, неопределенности, частичной истинности и приближению. Мягкие вычисления были представлены в конце 1980-х годов, и наиболее успешные программы искусственного интеллекта в 21 веке являются примерами мягких вычислений с нейронными сетями.

Узкий и общий ИИ

Исследователи ИИ разделились во мнениях относительно того, следует ли напрямую преследовать цели искусственного общего интеллекта и сверхинтеллекта или решать как можно больше конкретных проблем (узкий ИИ) в надежде, что эти решения косвенно приведут к долгосрочным целям в этой области. [340] [341] Общий интеллект трудно определить и трудно измерить, а современный ИИ добился более проверяемых успехов, сосредоточив внимание на конкретных проблемах с конкретными решениями. Экспериментальное подразделение общего искусственного интеллекта изучает исключительно эту область.

Машинное сознание, разум и разум

Философия разума не знает, может ли машина обладать разумом , сознанием и психическими состояниями в том же смысле, что и люди. В этом вопросе учитывается внутренний опыт машины, а не ее внешнее поведение. Основные исследования в области искусственного интеллекта считают этот вопрос неактуальным, поскольку он не влияет на цели этой области: создание машин, которые могут решать проблемы с помощью интеллекта. Рассел и Норвиг добавляют, что «дополнительный проект по созданию машины, обладающей таким же сознанием, как и люди, — это не тот проект, за который мы готовы взяться». [342] Однако этот вопрос стал центральным в философии разума. Это также, как правило, центральный вопрос, обсуждаемый в области искусственного интеллекта в художественной литературе .

Сознание

Дэвид Чалмерс выделил две проблемы в понимании разума, которые он назвал «сложными» и «легкими» проблемами сознания. [343] Самая простая задача — понять, как мозг обрабатывает сигналы, строит планы и контролирует поведение. Сложная проблема состоит в том, чтобы объяснить, как это ощущается или почему это вообще должно ощущаться как-то, предполагая, что мы правы, думая, что это действительно что-то ощущается (иллюзоризм сознания Деннета говорит, что это иллюзия). Обработку информации человеком легко объяснить, но субъективный опыт человека объяснить сложно. Например, легко представить человека, страдающего дальтонизмом, который научился определять, какие объекты в его поле зрения являются красными, но неясно, что потребуется, чтобы человек знал, как выглядит красный цвет . [344]

Компьютерализм и функционализм

Компьютерализм — это позиция в философии разума , согласно которой человеческий разум — это система обработки информации, а мышление — это форма вычислений. Компьютерализм утверждает, что отношения между разумом и телом аналогичны или идентичны отношениям между программным обеспечением и оборудованием и, таким образом, могут быть решением проблемы разума и тела . Эта философская позиция была вдохновлена ​​работами исследователей искусственного интеллекта и ученых-когнитивистов в 1960-х годах и первоначально была предложена философами Джерри Фодором и Хилари Патнэм . [345]

Философ Джон Сирл охарактеризовал эту позицию как « сильный ИИ »: «Правильно запрограммированный компьютер с правильными входами и выходами, таким образом, будет обладать разумом точно в том же смысле, в котором разум есть у людей». [ab] Серл опровергает это утверждение своим аргументом о китайской комнате, который пытается показать, что, даже если машина идеально имитирует человеческое поведение, все равно нет оснований предполагать, что она также обладает разумом. [349]

Благосостояние и права ИИ

Трудно или невозможно достоверно оценить, разумен ли продвинутый ИИ (способен чувствовать), и если да, то в какой степени. [350] Но если существует значительная вероятность того, что данная машина может чувствовать и страдать, тогда она может иметь право на определенные права или меры защиты благосостояния, аналогично животным. [351] [352] Разумность (набор способностей, связанных с высоким интеллектом, таких как проницательность или самосознание ) может обеспечить еще одну моральную основу для прав ИИ. [351] Права роботов также иногда предлагаются как практический способ интеграции автономных агентов в общество. [353]

В 2017 году Европейский Союз рассмотрел возможность предоставления «электронной личности» некоторым наиболее способным системам искусственного интеллекта. Подобно правовому статусу компаний, он наделял бы права, но также и обязанности. [354] В 2018 году критики утверждали, что предоставление прав на системы искусственного интеллекта преуменьшит важность прав человека и что законодательство должно быть сосредоточено на потребностях пользователей, а не на спекулятивных футуристических сценариях. Они также отметили, что роботам не хватает автономии, чтобы самостоятельно участвовать в жизни общества. [355] [356]

Прогресс в области искусственного интеллекта повысил интерес к этой теме. Сторонники благополучия и прав ИИ часто утверждают, что разумность ИИ, если она появится, будет особенно легко отрицать. Они предупреждают, что это может быть моральное «слепое пятно», аналогичное рабству или промышленному сельскому хозяйству , которое может привести к широкомасштабным страданиям, если разумный ИИ будет создан и небрежно будет эксплуатироваться. [352] [351]

Будущее

Сверхинтеллект и сингулярность

Сверхинтеллект — это гипотетический агент, обладающий интеллектом, намного превосходящим интеллект самого яркого и одаренного человеческого разума . [341]

Если бы исследования в области общего искусственного интеллекта позволили создать достаточно интеллектуальное программное обеспечение, оно, возможно, смогло бы перепрограммировать и улучшить себя . Усовершенствованное программное обеспечение будет еще лучше самосовершенствоваться, что приведет к тому, что И.Дж. Гуд назвал « интеллектуальным взрывом », а Вернор Виндж — « сингулярностью ». [357]

Однако технологии не могут совершенствоваться экспоненциально бесконечно и обычно следуют S-образной кривой , замедляясь, когда достигают физических пределов возможностей технологии. [358]

Трансгуманизм

Конструктор роботов Ганс Моравец , кибернетик Кевин Уорвик и изобретатель Рэй Курцвейл предсказали, что люди и машины в будущем сольются в киборгов , которые будут более способными и могущественными, чем оба. Эта идея, названная трансгуманизмом, имеет корни у Олдоса Хаксли и Роберта Эттингера . [359]

Эдвард Фредкин утверждает, что «искусственный интеллект — это следующий этап эволюции», идея, впервые предложенная Сэмюэлем Батлером в книге « Дарвин среди машин » еще в 1863 году и развитая Джорджем Дайсоном в его книге 1998 года «Дарвин среди машин». : Эволюция глобального интеллекта . [360]

В фантастике

Само слово «робот» было придумано Карелом Чапеком в его пьесе «РУР» 1921 года , название означает «Универсальные роботы Россум».

Искусственные существа, способные мыслить, появлялись в качестве средств повествования с античных времен [361] и были постоянной темой в научной фантастике . [362]

Общий образ в этих произведениях начался с «Франкенштейна » Мэри Шелли , где человеческое творение становится угрозой для своих хозяев. Сюда входят такие работы, как « Космическая одиссея 2001 года» Артура Кларка и Стэнли Кубрика (обе 1968 года) с HAL 9000 , смертоносным компьютером, управляющим космическим кораблем «Дискавери-1» , а также «Терминатор » (1984 год) и «Матрица» (1999 год ). ). Напротив, редкие верные роботы, такие как Горт из «Дня, когда Земля остановилась» (1951) и Бишоп из «Чужих» (1986), менее заметны в популярной культуре. [363]

Айзек Азимов представил Три закона робототехники во многих рассказах, в первую очередь в сверхинтеллектуальном компьютере « Мультивак ». Законы Азимова часто поднимаются во время непрофессиональных дискуссий по этике машин; [364] хотя почти все исследователи искусственного интеллекта знакомы с законами Азимова через массовую культуру, они обычно считают эти законы бесполезными по многим причинам, одной из которых является их двусмысленность. [365]

В нескольких работах ИИ используется, чтобы заставить нас ответить на фундаментальный вопрос о том, что делает нас людьми, показывая нам искусственные существа, обладающие способностью чувствовать и, следовательно, страдать. Это появляется в фильме Карела Чапека « RUR» , фильмах «Искусственный интеллект» и «Из машины» , а также в романе « Мечтают ли андроиды об электроовцах?» , Филип К. Дик . Дик рассматривает идею о том, что наше понимание человеческой субъективности меняется благодаря технологиям, созданным с помощью искусственного интеллекта. [366]

Смотрите также

Заметки с пояснениями

  1. ^ ab Этот список интеллектуальных качеств основан на темах, охватываемых основными учебниками по искусственному интеллекту, в том числе: Рассел и Норвиг (2021), Люгер и Стабблфилд (2004), Пул, Макворт и Гебель (1998) и Нильссон (1998).
  2. ^ ab Этот список инструментов основан на темах, охватываемых основными учебниками по искусственному интеллекту, в том числе: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) и Nilsson (1998).
  3. ^ Это одна из причин того, что экспертные системы оказались неэффективными для сбора знаний. [35] [36]
  4. ^ «Рациональный агент» — общий термин, используемый в экономике , философии и теоретическом искусственном интеллекте. Он может относиться ко всему, что направляет его поведение для достижения целей, например, к человеку, животному, корпорации, нации или, в случае ИИ, к компьютерной программе.
  5. Алан Тьюринг обсуждал центральную роль обучения еще в 1950 году в своей классической статье « Вычислительная техника и интеллект ». [47] В 1956 году на первой летней конференции по искусственному интеллекту в Дартмуте Рэй Соломонов написал доклад о вероятностном машинном обучении без учителя: «Машина индуктивного вывода». [48]
  6. ^ См. AI Winter § Машинный перевод и отчет ALPAC за 1966 год.
  7. ^ По сравнению с символической логикой формальный байесовский вывод требует больших вычислительных затрат. Чтобы вывод был осуществимым, большинство наблюдений должны быть условно независимыми друг от друга. AdSense использует байесовскую сеть с более чем 300 миллионами ребер, чтобы определить, какую рекламу показывать. [98]
  8. ^ Ожидание-максимизация, один из самых популярных алгоритмов в машинном обучении, позволяет выполнять кластеризацию при наличии неизвестных скрытых переменных . [100]
  9. ^ Некоторые формы глубоких нейронных сетей (без специального алгоритма обучения) были описаны: Алан Тьюринг (1948); [119] Фрэнк Розенблатт (1957); [119] Карл Стейнбух и Роджер Дэвид Джозеф (1961). [120] Глубокие или рекуррентные сети, которые обучались (или использовали градиентный спуск), были разработаны: Эрнстом Изингом и Вильгельмом Ленцем (1925); [121] Оливер Селфридж (1959); [120] Алексей Ивахненко и Валентин Лапа (1965); [121] Каору Накано (1977); [122] Сюн-Ичи Амари (1972); [122] Джон Джозеф Хопфилд (1982). [122] Обратное распространение ошибки было независимо открыто: Генри Дж. Келли (1960); [119] Артур Э. Брайсон (1962); [119] Стюарт Дрейфус (1962); [119] Артур Э. Брайсон и Ю-Чи Хо (1969); [119] Сеппо Линнаинмаа (1970); [123] Пол Вербос (1974). [119] Фактически, обратное распространение ошибки и градиентный спуск являются прямым применением цепного правила Готфрида Лейбница в исчислении (1676), [124] и по существу идентичны (для одного слоя) методу наименьших квадратов , независимо разработанному Иоганном Карлом. Фридрих Гаусс (1795 г.) и Адриен-Мари Лежандр (1805 г.). [125] Вероятно, существует множество других, которые еще предстоит открыть историкам науки.
  10. ^ Джеффри Хинтон сказал о своей работе над нейронными сетями в 1990-х годах: «Наши размеченные наборы данных были в тысячи раз слишком малы. [И] наши компьютеры были в миллионы раз медленнее» [126]
  11. ^ Включая Джона Кляйнберга ( Корнелльский университет ), Сендила Муллайнатана ( Чикагский университет ), Синтии Чоулдечовой ( Карнеги-Меллон ) и Сэма Корбетта-Дэвиса ( Стэнфорд ) [200]
  12. ^ Мориц Хардт (директор Института интеллектуальных систем Макса Планка ) утверждает, что машинное обучение «в корне неправильный инструмент для многих областей, где вы пытаетесь разработать меры и механизмы, которые изменят мир». [205]
  13. ^ Когда закон был принят в 2018 году, он все еще содержал форму этого положения.
  14. ^ Это определение Организации Объединенных Наций , которое также включает в себя такие вещи, как наземные мины . [219]
  15. ^ См. таблицу 4; 9% — это средний показатель по ОЭСР и США. [230]
  16. ^ Иногда называют « робопокалипсисом » [238]
  17. ^ «Электронный мозг» — термин, использовавшийся в прессе примерно в то время. [290] [291]
  18. Дэниел Кревье писал: «Конференция общепризнана официальной датой рождения новой науки». [295] Рассел и Норвиг назвали конференцию «зарождением искусственного интеллекта». [293]
  19. Рассел и Норвиг писали: «В течение следующих 20 лет в этой области будут доминировать эти люди и их ученики». [296]
  20. Рассел и Норвиг писали: «Это было удивительно, когда компьютер делал что-то умное». [297]
  21. ^ Описанные программы - это программа проверки Артура Сэмюэля для IBM 701 , STUDENT Дэниела Боброу , Теоретик логики Ньюэлла и Саймона и SHRDLU Терри Винограда .
  22. ^ Рассел и Норвиг пишут: «почти во всех случаях эти ранние системы терпели неудачу при решении более сложных задач» [301]
  23. ^ Воплощенные подходы к ИИ [308] отстаивались Гансом Моравецом [309] и Родни Бруксом [310] и имели много названий: Nouvelle AI . [310] Развивающая робототехника . [311]
  24. Маттео Вонг писал в The Atlantic : «В то время как на протяжении десятилетий в таких областях компьютерных наук, как обработка естественного языка, компьютерное зрение и робототехника, использовались совершенно разные методы, теперь все они используют метод программирования, называемый «глубоким обучением». , их код и подходы стали более похожими, а их модели легче интегрировать друг в друга». [317]
  25. Джек Кларк написал в Bloomberg : «После пятидесяти лет тихих прорывов в области искусственного интеллекта 2015 год стал знаковым. Компьютеры стали умнее и обучаются быстрее, чем когда-либо», и отметил, что количество программных проектов, использующих машинное обучение, Google увеличился с «спорадического использования» в 2012 году до более чем 2700 проектов в 2015 году. [319]
  26. Нильс Нильссон писал в 1983 году: «Проще говоря, в этой области существуют широкие разногласия по поводу того, что такое ИИ». [331]
  27. Дэниел Кревье писал, что «время доказало точность и проницательность некоторых комментариев Дрейфуса. Если бы он сформулировал их менее агрессивно, предлагаемые ими конструктивные действия могли бы быть предприняты гораздо раньше». [336]
  28. Сирл представил это определение «сильного ИИ» в 1999 году. [346] Первоначальная формулировка Сирла гласила: «Правильно запрограммированный компьютер на самом деле является разумом в том смысле, что можно буквально сказать, что компьютеры с правильными программами понимают и имеют другие когнитивные состояния». ." [347] Сильный ИИ определяется Расселом и Норвигом аналогично : «Сильный ИИ – утверждение, что машины, которые это делают, на самом деле думают (а не моделируют мышление)». [348]

Рекомендации

  1. ^ abc Russell & Norvig (2021), стр. 1–4.
  2. ^ Google (2016).
  3. Искусственный интеллект превысит мощность человеческого мозга. Архивировано 19 февраля 2008 г. на Wayback Machine CNN.com (26 июля 2006 г.).
  4. ^ Каплан, Андреас; Хэнляйн, Майкл (2019). «Сири, Сири, в моей руке: кто самый справедливый на земле? Об интерпретациях, иллюстрациях и значении искусственного интеллекта». Горизонты бизнеса . 62 : 15–25. doi :10.1016/j.bushor.2018.08.004. ISSN  0007-6813. S2CID  158433736.
  5. ^ abcd Коупленд, Дж., Изд. (2004). Сущность Тьюринга: идеи, породившие компьютерную эпоху . Оксфорд, Англия: Clarendon Press. ISBN 0-19-825079-7.
  6. ^ ab Дартмутская мастерская :
    • Рассел и Норвиг (2021, стр. 18)
    • МакКордак (2004, стр. 111–136)
    • НРК (1999, стр. 200–201)
    Предложение:
    • Маккарти и др. (1955)
  7. ^ Каплан, Андреас (2022). Искусственный интеллект, бизнес и цивилизация: наша судьба, созданная машинами. Routledge фокусируется на бизнесе и менеджменте. Нью-Йорк, штат Нью-Йорк: Рутледж. ISBN 978-1-000-56333-7.
  8. ^ Маркиз, Пьер; Папини, Одиль; Прад, Анри, ред. (2020). Экскурсия по исследованиям искусственного интеллекта: Том III: Интерфейсы и приложения искусственного интеллекта. Чам: Международное издательство Springer. стр. XIII. дои : 10.1007/978-3-030-06170-8. ISBN 978-3-030-06169-2.
  9. ^ ab Успешные программы 1960-х годов:
    • МакКордак (2004, стр. 243–252)
    • Кревье (1993, стр. 52–107).
    • Моравец (1988, стр. 9)
    • Рассел и Норвиг (2021, стр. 19–21)
  10. ^ ab Инициативы по финансированию в начале 1980-х годов: Проект пятого поколения (Япония), Алви (Великобритания), Корпорация микроэлектроники и компьютерных технологий (США), Инициатива стратегических вычислений (США):
    • МакКордак (2004, стр. 426–441)
    • Кревье (1993, стр. 161–162, 197–203, 211, 240)
    • Рассел и Норвиг (2021, стр. 23)
    • НРК (1999, стр. 210–211)
    • Ньюквист (1994, стр. 235–248).
  11. ^ ab Первая зима AI , отчет Лайтхилла , поправка Мэнсфилда
    • Кревье (1993, стр. 115–117).
    • Рассел и Норвиг (2021, стр. 21–22)
    • НРК (1999, стр. 212–213)
    • Хау (1994)
    • Ньюквист (1994, стр. 189–201).
  12. ^ ab Вторая зима AI :
    • Рассел и Норвиг (2021, стр. 24)
    • МакКордак (2004, стр. 430–435)
    • Кревье (1993, стр. 209–210).
    • НРК (1999, стр. 214–216)
    • Ньюквист (1994, стр. 301–318).
  13. ^ ab Революция глубокого обучения , AlexNet :
    • Гольдман (2022)
    • Рассел и Норвиг (2021, стр. 26)
    • МакКинси (2018)
  14. ^ Тэйвс (2023).
  15. ^ Фрэнк (2023).
  16. ^ abc Общий искусственный интеллект :
    • Рассел и Норвиг (2021, стр. 32–33, 1020–1021)
    Предложение по современной версии:
    • Пенначин и Герцель (2007)
    Предупреждения о чрезмерной специализации в области ИИ от ведущих исследователей:
    • Нильссон (1995)
    • Маккарти (2007)
    • Бил и Уинстон (2009)
  17. ^ Рассел и Норвиг (2021, §1.2).
  18. ^ Решение задач, решение головоломок, игры и дедукция:
    • Рассел и Норвиг (2021 г., главы 3–5)
    • Рассел и Норвиг (2021, глава 6) ( удовлетворение ограничений )
    • Пул, Макворт и Гебель (1998, главы 2, 3, 7, 9)
    • Люгер и Стабблфилд (2004, главы 3, 4, 6, 8)
    • Нильссон (1998, глава 7–12)
  19. ^ Неопределенные рассуждения:
    • Рассел и Норвиг (2021 г., главы 12–18)
    • Пул, Макворт и Гебель (1998, стр. 345–395).
    • Люгер и Стабблфилд (2004, стр. 333–381)
    • Нильссон (1998, глава 7–12)
  20. ^ abc Неразрешимость, эффективность и комбинаторный взрыв :
    • Рассел и Норвиг (2021, стр. 21)
  21. ^ abc Психологические доказательства преобладания субсимволических рассуждений и знаний:
    • Канеман (2011)
    • Дрейфус и Дрейфус (1986)
    • Уэйсон и Шапиро (1966)
    • Канеман, Слович и Тверски (1982)
  22. ^ Представление знаний и инженерия знаний :
    • Рассел и Норвиг (2021, глава 10)
    • Пул, Макворт и Гебель (1998, стр. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345)
    • Люгер и Стабблфилд (2004, стр. 227–243),
    • Нильссон (1998, глава 17.1–17.4, 18)
  23. ^ Смоляр и Чжан (1994).
  24. ^ Нойманн и Мёллер (2008).
  25. ^ Куперман, Райхли и Бейли (2006).
  26. ^ МакГарри (2005).
  27. ^ Бертини, Дель Бимбо и Торниай (2006).
  28. ^ Рассел и Норвиг (2021), стр. 272.
  29. ^ Представление категорий и отношений: Семантические сети , логика описания , наследование (включая фреймы и скрипты ):
    • Рассел и Норвиг (2021 г., §10.2 и 10.5),
    • Пул, Макворт и Гебель (1998, стр. 174–177),
    • Люгер и Стабблфилд (2004, стр. 248–258),
    • Нильссон (1998, глава 18.3)
  30. ^ Представление событий и времени: исчисление ситуаций , исчисление событий , беглое исчисление (включая решение проблемы фрейма ):
    • Рассел и Норвиг (2021, §10.3),
    • Пул, Макворт и Гебель (1998, стр. 281–298),
    • Нильссон (1998, глава 18.2)
  31. ^ Причинное исчисление :
    • Пул, Макворт и Гебель (1998, стр. 335–337).
  32. ^ Представление знаний о знаниях: исчисление убеждений, модальная логика :
    • Рассел и Норвиг (2021, §10.4),
    • Пул, Макворт и Гебель (1998, стр. 275–277).
  33. ^ ab Рассуждение по умолчанию , Проблема фрейма , логика по умолчанию , немонотонная логика , ограничение , предположение о замкнутом мире , похищение :
    • Рассел и Норвиг (2021, §10.6)
    • Пул, Макворт и Гебель (1998, стр. 248–256, 323–335)
    • Люгер и Стабблфилд (2004, стр. 335–363)
    • Нильссон (1998, ~18.3.3)
    (Пул и др. относят похищение к «рассуждению по умолчанию». Люгер и др. относят это к «неопределенному обоснованию»).
  34. ^ ab Широта здравых знаний:
    • Ленат и Гуха (1989, Введение)
    • Кревье (1993, стр. 113–114),
    • Моравец (1988, стр. 13),
    • Рассел и Норвиг (2021, стр. 241, 385, 982) ( проблема квалификации )
  35. ^ Ньюквист (1994), с. 296.
  36. ^ Кревье (1993), стр. 204–208.
  37. ^ Рассел и Норвиг (2021), с. 528.
  38. ^ Автоматизированное планирование :
    • Рассел и Норвиг (2021, глава 11).
  39. ^ Автоматизированное принятие решений , Теория принятия решений :
    • Рассел и Норвиг (2021 г., глава 16–18).
  40. ^ Классическое планирование :
    • Рассел и Норвиг (2021 г., раздел 11.2).
  41. ^ Бездатчиковое или «соответствующее» планирование, условное планирование, перепланирование (также известное как онлайн-планирование):
    • Рассел и Норвиг (2021 г., раздел 11.5).
  42. ^ Неопределенные предпочтения:
    • Рассел и Норвиг (2021, раздел 16.7)
    Обучение с обратным подкреплением :
    • Рассел и Норвиг (2021, раздел 22.6)
  43. ^ Теория ценности информации :
    • Рассел и Норвиг (2021 г., раздел 16.6).
  44. ^ Марковский процесс принятия решения :
    • Рассел и Норвиг (2021, глава 17).
  45. ^ Теория игр и теория многоагентных решений:
    • Рассел и Норвиг (2021 г., глава 18).
  46. ^ Обучение :
    • Рассел и Норвиг (2021 г., глава 19–22)
    • Пул, Макворт и Гебель (1998, стр. 397–438).
    • Люгер и Стабблфилд (2004, стр. 385–542)
    • Нильссон (1998, гл. 3.3, 10.3, 17.5, 20)
  47. ^ Тьюринг (1950).
  48. ^ Соломонов (1956).
  49. ^ Обучение без присмотра :
  50. ^ ab Обучение под наблюдением :
    • Рассел и Норвиг (2021, §19.2) (определение)
    • Рассел и Норвиг (2021, глава 19–20) (Методы)
  51. ^ Обучение с подкреплением :
    • Рассел и Норвиг (2021, глава 22)
    • Люгер и Стабблфилд (2004, стр. 442–449)
  52. ^ Передача обучения :
    • Рассел и Норвиг (2021, стр. 281)
    • Экономист (2016)
  53. ^ «Искусственный интеллект (ИИ): что такое ИИ и как он работает? | Встроенный». встроенный.com . Проверено 30 октября 2023 г.
  54. ^ Теория вычислительного обучения :
    • Рассел и Норвиг (2021, стр. 672–674)
    • Джордан и Митчелл (2015)
  55. ^ Обработка естественного языка (НЛП):
    • Рассел и Норвиг (2021 г., главы 23–24)
    • Пул, Макворт и Гебель (1998, стр. 91–104).
    • Люгер и Стабблфилд (2004, стр. 591–632)
  56. ^ Подзадачи НЛП :
    • Рассел и Норвиг (2021, стр. 849–850)
  57. ^ Рассел и Норвиг (2021), стр. 856–858.
  58. ^ Диксон (2022).
  59. ^ Современные статистические подходы и подходы к глубокому обучению в НЛП :
    • Рассел и Норвиг (2021, глава 24)
    • Камбрия и Уайт (2014)
  60. ^ Винсент (2019).
  61. ^ Рассел и Норвиг (2021), стр. 875–878.
  62. ^ Бушвик (2023).
  63. ^ Компьютерное зрение :
    • Рассел и Норвиг (2021, глава 25)
    • Нильссон (1998, глава 6)
  64. ^ Рассел и Норвиг (2021), стр. 849–850.
  65. ^ Рассел и Норвиг (2021), стр. 895–899.
  66. ^ Рассел и Норвиг (2021), стр. 899–901.
  67. ^ Чалла и др. (2011).
  68. ^ Рассел и Норвиг (2021), стр. 931–938.
  69. ^ MIT AIL (2014).
  70. ^ Аффективные вычисления :
    • Тро (1993)
    • Эдельсон (1991)
    • Тао и Тан (2005)
    • Скасселлати (2002)
  71. ^ Уодделл (2018).
  72. ^ Пория и др. (2017).
  73. ^ Алгоритмы поиска :
    • Рассел и Норвиг (2021 г., главы 3–5)
    • Пул, Макворт и Гебель (1998, стр. 113–163).
    • Люгер и Стабблфилд (2004, стр. 79–164, 193–219)
    • Нильссон (1998, глава 7–12)
  74. ^ Поиск в пространстве состояний :
    • Рассел и Норвиг (2021, глава 3)
  75. ^ Рассел и Норвиг (2021), §11.2.
  76. ^ Неинформированный поиск ( поиск в ширину , поиск в глубину и поиск в пространстве общего состояния ):
    • Рассел и Норвиг (2021, §3.4)
    • Пул, Макворт и Гебель (1998, стр. 113–132).
    • Люгер и Стабблфилд (2004, стр. 79–121)
    • Нильссон (1998, глава 8)
  77. ^ Эвристический или информированный поиск (например, жадный «сначала лучший» и A* ):
    • Рассел и Норвиг (2021, раздел 3.5)
    • Пул, Макворт и Гебель (1998, стр. 132–147).
    • Пул и Макворт (2017, §3.6)
    • Люгер и Стабблфилд (2004, стр. 133–150)
  78. ^ Состязательный поиск :
    • Рассел и Норвиг (2021, глава 5)
  79. ^ Локальный поиск или поиск по « оптимизации »:
    • Рассел и Норвиг (2021, глава 4)
  80. Сингх Чаухан, Нагеш (18 декабря 2020 г.). «Алгоритмы оптимизации в нейронных сетях». КДнаггетс . Проверено 13 января 2024 г.
  81. ^ Эволюционные вычисления :
    • Рассел и Норвиг (2021, §4.1.2)
  82. ^ Меркл и Миддендорф (2013).
  83. ^ Логика :
    • Рассел и Норвиг (2021 г., главы 6–9)
    • Люгер и Стабблфилд (2004, стр. 35–77)
    • Нильссон (1998, глава 13–16)
  84. ^ Пропозициональная логика :
    • Рассел и Норвиг (2021, глава 6)
    • Люгер и Стабблфилд (2004, стр. 45–50)
    • Нильссон (1998, глава 13)
  85. ^ Логика первого порядка и такие функции, как равенство :
    • Рассел и Норвиг (2021, глава 7)
    • Пул, Макворт и Гебель (1998, стр. 268–275),
    • Люгер и Стабблфилд (2004, стр. 50–62),
    • Нильссон (1998, глава 15)
  86. ^ Логический вывод :
    • Рассел и Норвиг (2021, глава 10)
  87. ^ логический вывод в виде поиска:
    • Рассел и Норвиг (2021, §9.3, §9.4)
    • Пул, Макворт и Гебель (1998, стр. ~46–52)
    • Люгер и Стабблфилд (2004, стр. 62–73)
    • Нильссон (1998, главы 4.2, 7.2)
  88. ^ Разрешение и унификация :
    • Рассел и Норвиг (2021 г., §7.5.2, §9.2, §9.5)
  89. ^ Уоррен, Д.Х.; Перейра, LM; Перейра, Ф. (1977). «Пролог-язык и его реализация в сравнении с Лиспом». Уведомления ACM SIGPLAN . 12 (8): 109–115. дои : 10.1145/872734.806939.
  90. ^ Нечеткая логика:
    • Рассел и Норвиг (2021, стр. 214, 255, 459)
    • Научный американец (1999)
  91. ^ ab Стохастические методы для неопределенных рассуждений:
    • Рассел и Норвиг (2021 г., главы 12–18 и 20),
    • Пул, Макворт и Гебель (1998, стр. 345–395),
    • Люгер и Стабблфилд (2004, стр. 165–191, 333–381),
    • Нильссон (1998, глава 19)
  92. ^ теория принятия решений и анализ решений :
    • Рассел и Норвиг (2021 г., глава 16–18),
    • Пул, Макворт и Гебель (1998, стр. 381–394).
  93. ^ Теория ценности информации :
    • Рассел и Норвиг (2021, §16.6)
  94. ^ Марковские процессы принятия решений и динамические сети принятия решений :
    • Рассел и Норвиг (2021, глава 17)
  95. ^ abc Стохастические временные модели:
    • Рассел и Норвиг (2021, глава 14)
    Скрытая марковская модель :
    • Рассел и Норвиг (2021, §14.3)
    Фильтры Калмана :
    • Рассел и Норвиг (2021, §14.4)
    Динамические байесовские сети :
    • Рассел и Норвиг (2021, §14.5)
  96. ^ Теория игр и проектирование механизмов :
    • Рассел и Норвиг (2021, глава 18)
  97. ^ Байесовские сети :
    • Рассел и Норвиг (2021 г., §12.5–12.6, §13.4–13.5, §14.3–14.5, §16.5, §20.2–20.3),
    • Пул, Макворт и Гебель (1998, стр. 361–381),
    • Люгер и Стабблфилд (2004, стр. ~182–190, ≈363–379),
    • Нильссон (1998, глава 19.3–4)
  98. ^ Домингос (2015), глава 6.
  99. ^ Алгоритм байесовского вывода :
    • Рассел и Норвиг (2021 г., §13.3–13.5),
    • Пул, Макворт и Гебель (1998, стр. 361–381),
    • Люгер и Стабблфилд (2004, стр. ~363–379),
    • Нильссон (1998, главы 19.4 и 7)
  100. ^ Домингос (2015), с. 210.
  101. ^ Байесовское обучение и алгоритм максимизации ожидания :
    • Рассел и Норвиг (2021, глава 20),
    • Пул, Макворт и Гебель (1998, стр. 424–433),
    • Нильссон (1998, глава 20)
    • Домингуш (2015, стр. 210)
  102. ^ Байесовская теория принятия решений и байесовские сети принятия решений :
    • Рассел и Норвиг (2021, §16.5)
  103. ^ Статистические методы обучения и классификаторы :
    • Рассел и Норвиг (2021, глава 20),
  104. ^ Деревья решений :
    • Рассел и Норвиг (2021, §19.3)
    • Домингуш (2015, стр. 88)
  105. ^ Непараметрические модели обучения, такие как K-ближайший сосед и машины опорных векторов :
    • Рассел и Норвиг (2021, §19.7)
    • Домингос (2015, стр. 187) (к-ближайший сосед)
    • Домингос (2015, стр. 88) (методы ядра)
  106. ^ Домингос (2015), с. 152.
  107. ^ Наивный байесовский классификатор :
    • Рассел и Норвиг (2021, §12.6)
    • Домингуш (2015, стр. 152)
  108. ^ ab Нейронные сети:
    • Рассел и Норвиг (2021, глава 21),
    • Домингос (2015, глава 4)
  109. ^ Вычисление градиента в вычислительных графах, обратное распространение ошибки , автоматическое дифференцирование :
    • Рассел и Норвиг (2021, §21.2),
    • Люгер и Стабблфилд (2004, стр. 467–474),
    • Нильссон (1998, глава 3.3)
  110. ^ Теорема об универсальной аппроксимации :
    • Рассел и Норвиг (2021, стр. 752)
    Теорема:
    • Цыбенко (1988)
    • Хорник, Стинчкомб и Уайт (1989)
  111. ^ Нейронные сети прямого распространения :
    • Рассел и Норвиг (2021, §21.1)
  112. ^ Рекуррентные нейронные сети :
    • Рассел и Норвиг (2021, §21.6)
  113. ^ Перцептроны :
    • Рассел и Норвиг (2021, стр. 21, 22, 683, 22)
  114. ^ ab Глубокое обучение :
    • Рассел и Норвиг (2021, глава 21)
    • Гудфеллоу, Бенджио и Курвиль (2016)
    • Хинтон и др. (2016)
    • Шмидхубер (2015)
  115. ^ Сверточные нейронные сети :
    • Рассел и Норвиг (2021, §21.3)
  116. ^ Дэн и Ю (2014), стр. 199–200.
  117. ^ Чиресан, Мейер и Шмидхубер (2012).
  118. ^ Рассел и Норвиг (2021), с. 751.
  119. ^ abcdefg Рассел и Норвиг (2021), с. 785.
  120. ^ аб Шмидхубер (2022), §5.
  121. ^ аб Шмидхубер (2022), §6.
  122. ^ abc Шмидхубер (2022), §7.
  123. ^ Шмидхубер (2022), §8.
  124. ^ Шмидхубер (2022), §2.
  125. ^ Шмидхубер (2022), §3.
  126. ^ Цитируется по Кристиану (2020, стр. 22).
  127. ^ Смит (2023).
  128. ^ «Объяснение: Генеративный ИИ». 9 ноября 2023 г.
  129. ^ «Инструменты написания искусственного интеллекта и создания контента» . Технологии преподавания и обучения Массачусетского технологического института Слоана . Проверено 25 декабря 2023 г.
  130. ^ Мармуйе (2023).
  131. ^ Кобелус (2019).
  132. Томасон, Джеймс (21 мая 2024 г.). «Восстание Mojo: возрождение языков программирования, ориентированных на искусственный интеллект». ВенчурБит . Проверено 26 мая 2024 г.
  133. Водецки, Бен (5 мая 2023 г.). «7 языков программирования искусственного интеллекта, которые вам нужно знать». ИИ-бизнес .
  134. ^ Давенпорт, Т; Калакота, Р. (июнь 2019 г.). «Потенциал искусственного интеллекта в здравоохранении». Будущее Здоровьеc Дж . 6 (2): 94–98. doi : 10.7861/futurehosp.6-2-94. ПМК 6616181 . ПМИД  31363513. 
  135. ^ Аб Бакс, Моник; Торп, Джордан; Романов, Валентин (декабрь 2023 г.). «Будущее персонализированной сердечно-сосудистой медицины требует 3D- и 4D-печати, стволовых клеток и искусственного интеллекта». Границы в сенсорах . 4 . дои : 10.3389/fsens.2023.1294721 . ISSN  2673-5067.
  136. ^ Джампер, Дж; Эванс, Р; Притцель, А (2021). «Высокоточное предсказание структуры белка с помощью AlphaFold». Природа . 596 (7873): 583–589. Бибкод : 2021Natur.596..583J. дои : 10.1038/s41586-021-03819-2. ПМЦ 8371605 . ПМИД  34265844. 
  137. ^ «ИИ открывает новый класс антибиотиков для уничтожения устойчивых к лекарствам бактерий» . 20 декабря 2023 г.
  138. ^ «ИИ ускоряет разработку лекарств от болезни Паркинсона в десять раз» . Кембриджский университет. 17 апреля 2024 г.
  139. ^ Хорн, Роберт И.; Анджеевска, Ева А.; Алам, Парвез; Бротзакис, З. Фейдон; Шривастава, Анкит; Обер, Алиса; Новинска, Магдалена; Грегори, Ребекка С.; Стаатс, Роксин; Поссенти, Андреа; Чиа, Шон; Сорманни, Пьетро; Гетти, Бернардино; Коги, Байрон; Ноулз, Туомас П.Дж.; Вендруколо, Микеле (17 апреля 2024 г.). «Открытие мощных ингибиторов агрегации α-синуклеина с использованием структурного итеративного обучения». Химическая биология природы . 20 (5). Природа: 634–645. дои : 10.1038/s41589-024-01580-x. ПМЦ 11062903 . ПМИД  38632492. 
  140. ^ Грант, Юджин Ф.; Ларднер, Рекс (25 июля 1952 г.). «Городской разговор - Это». Житель Нью-Йорка . ISSN  0028-792X . Проверено 28 января 2024 г.
  141. Андерсон, Марк Роберт (11 мая 2017 г.). «Двадцать лет спустя после матча Deep Blue против Каспарова: как шахматный матч положил начало революции больших данных». Разговор . Проверено 28 января 2024 г.
  142. ^ Маркофф, Джон (16 февраля 2011 г.). «Компьютер побеждает в игре «Jeopardy!»: это не тривиально» . Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 28 января 2024 г.
  143. Байфорд, Сэм (27 мая 2017 г.). «AlphaGo уходит из соревнований по го после победы над номером один в мире со счетом 3–0». Грань . Проверено 28 января 2024 г.
  144. ^ Браун, Ноам; Сандхольм, Туомас (30 августа 2019 г.). «Сверхчеловеческий ИИ для многопользовательского покера». Наука . 365 (6456): 885–890. Бибкод : 2019Sci...365..885B. дои : 10.1126/science.aay2400. ISSN  0036-8075. ПМИД  31296650.
  145. ^ «MuZero: Освоение го, шахмат, сёги и Atari без правил». Гугл ДипМайнд . 23 декабря 2020 г. Проверено 28 января 2024 г.
  146. ^ Образец, Ян (30 октября 2019 г.). «ИИ становится гроссмейстером в «чертовски сложном» StarCraft II». Хранитель . ISSN  0261-3077 . Проверено 28 января 2024 г.
  147. ^ Вурман, PR; Барретт, С.; Кавамото, К. (2022). «Обгоняйте водителей-чемпионов Gran Turismo с помощью глубокого обучения с подкреплением». Природа . 602 (7896): 223–228. Бибкод : 2022Natur.602..223W. дои : 10.1038/s41586-021-04357-7. ПМИД  35140384.
  148. Уилкинс, Алекс (13 марта 2024 г.). «ИИ Google учится играть в видеоигры с открытым миром, наблюдая за ними». Новый учёный . Проверено 21 июля 2024 г.
  149. ^ Мэтью Финио и Аманда Дауни: Учебник IBM Think 2024, «Что такое искусственный интеллект (ИИ) в финансах?» 8 декабря 2023 г.
  150. ^ Аб Цао, Лунбин (2020). «ИИ в финансах: обзор». Электронный журнал ССРН . дои : 10.2139/ssrn.3647625. ISSN  1556-5068.
  151. ^ М. Николас Дж. Фирзли: журнал Pensions Age/European Pensions, «Искусственный интеллект: спросите отрасль», май, июнь 2024 г., https://videovoice.org/ai-in-finance-innovation-entrepreneurship-vs-over-regulation- с актом-искусственного-интеллекта-ЕС-не-работает-как-задумано/
  152. ^ abc Исследовательская служба Конгресса (2019). Искусственный интеллект и национальная безопасность (PDF) . Вашингтон, округ Колумбия: Исследовательская служба Конгресса.PD-уведомление
  153. ^ аб Слюсарь, Вадим (2019). «Искусственный интеллект как основа будущих сетей управления». Исследовательские ворота . дои : 10.13140/RG.2.2.30247.50087.
  154. ^ Найт, Уилл. «США и 30 других стран согласились установить барьеры для военного ИИ». Проводной . ISSN  1059-1028 . Проверено 24 января 2024 г.
  155. Марселин, Марко (27 мая 2023 г.). «ChatGPT: большинство американцев знают об этом, но мало кто на самом деле использует чат-бота с искусственным интеллектом». PCMag . Проверено 28 января 2024 г.
  156. Лу, Донна (31 марта 2023 г.). «Дезинформация, ошибки и Папа в пуховике: что может – и не может – сделать быстро развивающийся ИИ». Хранитель . ISSN  0261-3077 . Проверено 28 января 2024 г.
  157. Херст, Люк (23 мая 2023 г.). «Как фейковое изображение взрыва в Пентагоне, опубликованное в Твиттере, вызвало настоящий спад на Уолл-стрит». Евроньюс . Проверено 28 января 2024 г.
  158. ^ Рэнсботам, Сэм; Кирон, Дэвид; Герберт, Филипп; Ривз, Мартин (6 сентября 2017 г.). «Изменение бизнеса с помощью искусственного интеллекта». Обзор менеджмента Слоана MIT . Архивировано из оригинала 13 февраля 2024 года.
  159. ^ Сан, Юран; Чжао, Силэй; Ловреглио, Руджеро; Кулиговски, Эрика (1 января 2024 г.), Насер, М.З. (редактор), «8 - ИИ для крупномасштабного моделирования эвакуации: обещания и проблемы», Интерпретируемое машинное обучение для анализа, проектирования, оценки и принятия обоснованных решений в сфере гражданского строительства. Инфраструктура , Серия публикаций Woodhead Publishing по гражданскому и строительному проектированию, Woodhead Publishing, стр. 185–204, ISBN 978-0-12-824073-1, получено 28 июня 2024 г.
  160. ^ Гомаа, Ислам; Адельзаде, Масуд; Гвинн, Стивен; Спенсер, Брюс; Ко, Юн; Бенишу, Нуреддин; Ма, Чуньюн; Эльсаган, Нур; Дуонг, Дана; Залок, Эхав; Кинатедер, Макс (1 ноября 2021 г.). «Система интеллектуальной системы обнаружения пожара и эвакуации». Огненная техника . 57 (6): 3179–3185. дои : 10.1007/s10694-021-01157-3. ISSN  1572-8099.
  161. ^ Чжао, Силэй; Ловреглио, Руджеро; Нильссон, Дэниел (1 мая 2020 г.). «Моделирование и интерпретация принятия решений перед эвакуацией с использованием машинного обучения». Автоматизация в строительстве . 113 : 103140. doi : 10.1016/j.autcon.2020.103140. ISSN  0926-5805.
  162. ^ Симонит (2016).
  163. ^ Рассел и Норвиг (2021), с. 987.
  164. ^ Ласковский (2023).
  165. ^ ГАО (2022).
  166. ^ Валинский (2019).
  167. ^ Рассел и Норвиг (2021), с. 991.
  168. ^ Рассел и Норвиг (2021), стр. 991–992.
  169. ^ Кристиан (2020), с. 63.
  170. ^ Винсент (2022).
  171. ^ Копель, Мэтью. «Услуги по авторским правам: добросовестное использование». Библиотека Корнеллского университета . Проверено 26 апреля 2024 г.
  172. ^ Берджесс, Мэтт. «Как предотвратить использование ваших данных для обучения ИИ». Проводной . ISSN  1059-1028 . Проверено 26 апреля 2024 г.
  173. ^ Райснер (2023).
  174. ^ Альтер и Харрис (2023).
  175. ^ «Подготовка инновационной экосистемы к использованию ИИ. Инструментарий политики в области интеллектуальной собственности» (PDF) . ВОИС .
  176. Хаммонд, Джордж (27 декабря 2023 г.). «Крупные технологические компании тратят на стартапы в области искусственного интеллекта больше, чем венчурные компании». Арс Техника . Архивировано из оригинала 10 января 2024 года.
  177. Вонг, Маттео (24 октября 2023 г.). «Будущее искусственного интеллекта — это ГОМА» . Атлантический океан . Архивировано из оригинала 5 января 2024 года.
  178. ^ «Большие технологии и стремление к доминированию ИИ» . Экономист . 26 марта 2023 г. Архивировано из оригинала 29 декабря 2023 г.
  179. Фунг, Брайан (19 декабря 2023 г.). «Где можно выиграть битву за доминирование над ИИ». CNN Бизнес . Архивировано из оригинала 13 января 2024 года.
  180. Мец, Кейд (5 июля 2023 г.). «В эпоху искусственного интеллекта маленьким ребятам из сферы технологий нужны большие друзья». Нью-Йорк Таймс .
  181. ^ «Электричество 2024 – Анализ». МЭА . 24 января 2024 г. Проверено 13 июля 2024 г.
  182. Калверт, Брайан (28 марта 2024 г.). «ИИ уже использует столько же энергии, сколько маленькая страна. Это только начало». Вокс . Нью-Йорк, штат Нью-Йорк.
  183. ^ Халпер, Эван; О'Донован, Кэролайн (21 июня 2024 г.). «ИИ истощает энергосистему. Технологические компании ищут чудо-решение». Вашингтон Пост .
  184. ^ Давенпорт, Карли. «Центры обработки данных искусственного интеллекта и грядущий всплеск спроса на электроэнергию YS» (PDF) . Голдман Сакс .
  185. Райан, Кэрол (12 апреля 2024 г.). «Энергопотребляющий искусственный интеллект — это также будущее энергосбережения». Уолл Стрит Джорнал . Доу Джонс.
  186. Хиллер, Дженнифер (1 июля 2024 г.). «Технологическая индустрия хочет заблокировать ядерную энергетику для искусственного интеллекта». Уолл Стрит Джорнал . Доу Джонс.
  187. ^ Никас (2018).
  188. ^ Рейни, Ли; Китер, Скотт; Перрен, Эндрю (22 июля 2019 г.). «Доверие и недоверие в Америке». Исследовательский центр Пью . Архивировано из оригинала 22 февраля 2024 года.
  189. ^ Уильямс (2023).
  190. ^ Тейлор и Херн (2023).
  191. ^ аб Роуз (2023).
  192. ^ CNA (2019).
  193. ^ Гоффри (2008), с. 17.
  194. ^ Бердал и др. (2023 г.); Гоффри (2008, стр. 17); Роуз (2023 г.); Рассел и Норвиг (2021, стр. 995)
  195. ^ Алгоритмическая предвзятость и справедливость (машинное обучение) :
    • Рассел и Норвиг (2021 г., раздел 27.3.3)
    • Кристиан (2020, Справедливость)
  196. ^ Кристиан (2020), с. 25.
  197. ^ ab Рассел и Норвиг (2021), с. 995.
  198. ^ Грант и Хилл (2023).
  199. ^ Ларсон и Ангвин (2016).
  200. ^ Кристиан (2020), с. 67–70.
  201. ^ Кристиан (2020, стр. 67–70); Рассел и Норвиг (2021, стр. 993–994)
  202. ^ Рассел и Норвиг (2021, стр. 995); Липартито (2011, стр. 36); Гудман и Флаксман (2017, стр. 6); Кристиан (2020, стр. 39–40, 65)
  203. ^ Цитируется по Кристиану (2020, стр. 65).
  204. ^ Рассел и Норвиг (2021, стр. 994); Кристиан (2020, стр. 40, 80–81)
  205. ^ Цитируется по Кристиану (2020, стр. 80).
  206. ^ Докрилл (2022).
  207. ^ Образец (2017).
  208. ^ «Черный ящик ИИ». 16 июня 2023 г.
  209. ^ Кристиан (2020), с. 110.
  210. ^ Кристиан (2020), стр. 88–91.
  211. ^ Кристиан (2020, стр. 83); Рассел и Норвиг (2021, стр. 997)
  212. ^ Кристиан (2020), с. 91.
  213. ^ Кристиан (2020), с. 83.
  214. ^ Верма (2021).
  215. ^ Ротман (2020).
  216. ^ Кристиан (2020), стр. 105–108.
  217. ^ Кристиан (2020), стр. 108–112.
  218. Ропек, Лукас (21 мая 2024 г.). «Новые антропные исследования проливают свет на« черный ящик »ИИ». Гизмодо . Проверено 23 мая 2024 г.
  219. ^ Рассел и Норвиг (2021), с. 989.
  220. ^ аб Рассел и Норвиг (2021), стр. 987–990.
  221. ^ Рассел и Норвиг (2021), с. 988.
  222. ^ Робицки (2018); Сайнато (2015)
  223. ^ Харари (2018).
  224. ^ Бакли, Крис; Мозур, Пол (22 мая 2019 г.). «Как Китай использует высокотехнологичную слежку для подчинения меньшинств». Нью-Йорк Таймс .
  225. ^ «Нарушение безопасности выявило китайскую систему наблюдения за умным городом» . 3 мая 2019 года. Архивировано из оригинала 7 марта 2021 года . Проверено 14 сентября 2020 г.
  226. ^ Урбина и др. (2022).
  227. ^ аб Э. Макгоги, «Смогут ли роботы автоматизировать вашу работу?» Полная занятость, базовый доход и экономическая демократия »(2022) 51 (3) Журнал промышленного права 511–559. Архивировано 27 мая 2023 г. в Wayback Machine.
  228. ^ Форд и Колвин (2015); Макгои (2022)
  229. ^ IGM Чикаго (2017).
  230. ^ Арнц, Грегори и Зиран (2016), с. 33.
  231. ^ Лор (2017); Фрей и Осборн (2017); Арнц, Грегори и Зиран (2016, стр. 33)
  232. Чжоу, Виола (11 апреля 2023 г.). «ИИ уже занимает работу иллюстраторов видеоигр в Китае». Остальной мир . Проверено 17 августа 2023 г.
  233. Картер, Джастин (11 апреля 2023 г.). «Сообщается, что китайская индустрия игрового искусства уничтожена растущим использованием искусственного интеллекта» . Разработчик игр . Проверено 17 августа 2023 г.
  234. ^ Моргенштерн (2015).
  235. ^ Махдави (2017); Томпсон (2014)
  236. Тарнофф, Бен (4 августа 2023 г.). «Уроки Элизы». Еженедельник Гардиан . стр. 34–39.
  237. ^ Селлан-Джонс (2014).
  238. ^ Рассел и Норвиг 2021, с. 1001.
  239. ^ Бостром (2014).
  240. ^ Рассел (2019).
  241. ^ Бостром (2014); Мюллер и Бостром (2014); Бостром (2015).
  242. ^ Харари (2023).
  243. ^ Мюллер и Бостром (2014).
  244. ^ Опасения лидеров по поводу экзистенциальных рисков ИИ примерно в 2015 году:
    • Роулинсон (2015)
    • Холли (2015)
    • Гиббс (2014)
    • Сайнато (2015)
  245. ^ ««Крестный отец искусственного интеллекта» рассказывает о влиянии и потенциале нового ИИ» . Новости CBS . 25 марта 2023 года. Архивировано из оригинала 28 марта 2023 года . Проверено 28 марта 2023 г.
  246. Питтис, Дон (4 мая 2023 г.). «Канадский лидер в области искусственного интеллекта Джеффри Хинтон накапливает опасения по поводу захвата компьютеров» . ЦБК .
  247. ^ «Шанс 50 на 50», что ИИ перехитрит человечество, говорит Джеффри Хинтон - BNN Bloomberg . Блумберг БНН . 14 июня 2024 г. Проверено 6 июля 2024 г.
  248. ^ Вэлэнс (2023).
  249. Тейлор, Джош (7 мая 2023 г.). «Рост искусственного интеллекта неизбежен, но его не следует бояться», — говорит «отец ИИ». Хранитель . Проверено 26 мая 2023 г.
  250. Колтон, Эмма (7 мая 2023 г.). «Отец ИИ» говорит, что опасения в отношении технологий неуместны: «Вы не можете остановить это»». Фокс Ньюс . Проверено 26 мая 2023 г.
  251. Джонс, Хесси (23 мая 2023 г.). «Юрген Шмидхубер, известный «отец современного искусственного интеллекта», говорит, что работа всей его жизни не приведет к антиутопии» . Форбс . Проверено 26 мая 2023 г.
  252. МакМорроу, Райан (19 декабря 2023 г.). «Эндрю Нг: «Считаем ли мы, что миру лучше, если у него больше или меньше интеллекта?»». Файнэншл Таймс . Проверено 30 декабря 2023 г.
  253. Леви, Стивен (22 декабря 2023 г.). «Как не быть глупым насчет искусственного интеллекта, с Яном Лекуном». Проводной . Проверено 30 декабря 2023 г.
  254. ^ Аргументы о том, что ИИ не представляет собой неминуемый риск:
    • Брукс (2014)
    • Гейст (2015)
    • Мадригал (2015)
    • Ли (2014)
  255. ^ Аб Кристиан (2020), стр. 67, 73.
  256. ^ Юдковский (2008).
  257. ^ Аб Андерсон и Андерсон (2011).
  258. ^ АААИ (2014).
  259. ^ Уоллах (2010).
  260. ^ Рассел (2019), с. 173.
  261. ^ Стюарт, Эшли; Мелтон, Моника. «Генеральный директор Hugging Face говорит, что он сосредоточен на создании «устойчивой модели» для стартапа с открытым исходным кодом в области искусственного интеллекта стоимостью 4,5 миллиарда долларов». Бизнес-инсайдер . Проверено 14 апреля 2024 г.
  262. Виггерс, Кайл (9 апреля 2024 г.). «Инструменты Google с открытым исходным кодом для поддержки разработки моделей искусственного интеллекта». ТехКранч . Проверено 14 апреля 2024 г.
  263. Небеса, Уилл Дуглас (12 мая 2023 г.). «Бум искусственного интеллекта с открытым исходным кодом основан на подачках крупных технологических компаний. Как долго он продлится?». Обзор технологий Массачусетского технологического института . Проверено 14 апреля 2024 г.
  264. Бродский, Саша (19 декабря 2023 г.). «Новая языковая модель Mistral AI нацелена на превосходство открытого исходного кода». ИИ-бизнес .
  265. Эдвардс, Бендж (22 февраля 2024 г.). «Stability анонсирует Stable Diffusion 3, генератор изображений нового поколения с искусственным интеллектом». Арс Техника . Проверено 14 апреля 2024 г.
  266. Маршалл, Мэтт (29 января 2024 г.). «Как предприятия используют LLM с открытым исходным кодом: 16 примеров». ВенчурБит .
  267. Пайпер, Келси (2 февраля 2024 г.). «Должны ли мы сделать наши самые мощные модели искусственного интеллекта открытыми для всех?». Вокс . Проверено 14 апреля 2024 г.
  268. ^ Институт Алана Тьюринга (2019). «Понимание этики и безопасности искусственного интеллекта» (PDF) .
  269. ^ Институт Алана Тьюринга (2023). «Этика и управление ИИ на практике» (PDF) .
  270. ^ Флориди, Лучано; Коулс, Джош (23 июня 2019 г.). «Единая структура пяти принципов искусственного интеллекта в обществе». Гарвардский обзор науки о данных . 1 (1). дои : 10.1162/99608f92.8cd550d1 . S2CID  198775713.
  271. ^ Бурук, Бану; Экмекчи, Перихан Элиф; Арда, Берна (1 сентября 2020 г.). «Критический взгляд на руководящие принципы ответственного и заслуживающего доверия искусственного интеллекта». Медицина, здравоохранение и философия . 23 (3): 387–399. дои : 10.1007/s11019-020-09948-1. ISSN  1572-8633. PMID  32236794. S2CID  214766800.
  272. ^ Камила, Манодж Кумар; Джасротия, Сахил Сингх (1 января 2023 г.). «Этические проблемы развития искусственного интеллекта: признание рисков». Международный журнал этики и систем . перед печатью (перед печатью). doi : 10.1108/IJOES-05-2023-0107. ISSN  2514-9369. S2CID  259614124.
  273. ^ «Институт безопасности ИИ выпускает новую платформу оценки безопасности ИИ» . Правительство Великобритании. 10 мая 2024 г. Проверено 14 мая 2024 г.
  274. ^ Регулирование ИИ для снижения рисков:
    • Беррихилл и др. (2019)
    • Барфилд и Пагалло (2018)
    • Ипхофен и Критикос (2019)
    • Виртц, Вейерер и Гейер (2018)
    • Буйтен (2019)
  275. ^ аб Винсент (2023).
  276. ^ Стэнфордский университет (2023).
  277. ^ abcd ЮНЕСКО (2021).
  278. ^ Киссинджер (2021).
  279. ^ Альтман, Брокман и Суцкевер (2023).
  280. ^ Новости VOA (25 октября 2023 г.). «ООН объявляет о создании консультативного органа по искусственному интеллекту».
  281. ^ Эдвардс (2023).
  282. ^ Касперович (2023).
  283. ^ Фокс Ньюс (2023).
  284. Милмо, Дэн (3 ноября 2023 г.). «Надежда или ужас? Великие дебаты об искусственном интеллекте, разделившие его пионеров». Еженедельник Гардиан . стр. 10–12.
  285. ^ «Декларация Блетчли стран, принявших участие в саммите по безопасности ИИ, 1–2 ноября 2023 г.» . GOV.UK. ​1 ноября 2023 года. Архивировано из оригинала 1 ноября 2023 года . Проверено 2 ноября 2023 г.
  286. ^ «Страны соглашаются на безопасное и ответственное развитие передового ИИ в знаковой Декларации Блетчли» . GOV.UK (пресс-релиз). Архивировано из оригинала 1 ноября 2023 года . Проверено 1 ноября 2023 г.
  287. ^ «Второй глобальный саммит по искусственному интеллекту обеспечивает обязательства компаний по обеспечению безопасности» . Рейтер. 21 мая 2024 г. Проверено 23 мая 2024 г.
  288. ^ «Передовые обязательства по безопасности ИИ, Саммит AI в Сеуле, 2024» . gov.uk. 21 мая 2024 года. Архивировано из оригинала 23 мая 2024 года . Проверено 23 мая 2024 г.
  289. ^ ab Russell & Norvig 2021, стр. 2021. 9.
  290. ^ "Google книги ngram" .
  291. ^ Непосредственные предшественники ИИ:
    • МакКордак (2004, стр. 51–107)
    • Кревье (1993, стр. 27–32).
    • Рассел и Норвиг (2021, стр. 8–17)
    • Моравец (1988, стр. 3)
  292. ^ ab Рассел и Норвиг (2021), с. 17.
  293. ^ ab Оригинальная публикация Тьюринга о тесте Тьюринга в разделе « Вычислительная техника и интеллект »:
    • Тьюринг (1950)
    Историческое влияние и философские последствия:
    • Хаугеланд (1985, стр. 6–9)
    • Кревье (1993, стр. 24)
    • МакКордак (2004, стр. 70–71)
    • Рассел и Норвиг (2021, стр. 2, 984)
  294. ^ Кревье (1993), стр. 47–49.
  295. ^ Рассел и Норвиг (2003), с. 17.
  296. ^ Рассел и Норвиг (2003), с. 18.
  297. ^ Ньюквист (1994), стр. 86–86.
  298. ^ Саймон (1965, стр. 96), цитируется по Crevier (1993, стр. 109).
  299. ^ Мински (1967, стр. 2), цитируется по Crevier (1993, стр. 109).
  300. ^ Рассел и Норвиг (2021), с. 21.
  301. ^ Лайтхилл (1973).
  302. ^ NRC 1999, стр. 212–213.
  303. ^ Рассел и Норвиг (2021), с. 22.
  304. ^ Экспертные системы :
    • Рассел и Норвиг (2021, стр. 23, 292)
    • Люгер и Стабблфилд (2004, стр. 227–331)
    • Нильссон (1998, глава 17.4)
    • МакКордак (2004, стр. 327–335, 434–435)
    • Кревье (1993, стр. 145–162, 197–203)
    • Ньюквист (1994, стр. 155–183).
  305. ^ Рассел и Норвиг (2021), с. 24.
  306. ^ Нильссон (1998), с. 7.
  307. ^ МакКордак (2004), стр. 454–462.
  308. ^ Моравец (1988).
  309. ^ Аб Брукс (1990).
  310. ^ Развивающая робототехника :
    • Венг и др. (2001)
    • Лунгарелла и др. (2003)
    • Асада и др. (2009)
    • Удейер (2010)
  311. ^ Рассел и Норвиг (2021), с. 25.
  312. ^
    • Кревье (1993, стр. 214–215).
    • Рассел и Норвиг (2021, стр. 24, 26)
  313. ^ Рассел и Норвиг (2021), с. 26.
  314. ^ Формальные и узкие методы, принятые в 1990-е годы:
    • Рассел и Норвиг (2021, стр. 24–26)
    • МакКордак (2004, стр. 486–487)
  315. ^ ИИ широко использовался в конце 1990-х:
    • Курцвейл (2005, стр. 265)
    • НРК (1999, стр. 216–222)
    • Ньюквист (1994, стр. 189–201).
  316. ^ Вонг (2023).
  317. ^ Закон Мура и ИИ:
    • Рассел и Норвиг (2021, стр. 14, 27)
  318. ^ abc Кларк (2015b).
  319. ^ Большие данные :
    • Рассел и Норвиг (2021, стр. 26)
  320. Сагар, Рам (3 июня 2020 г.). «OpenAI выпускает GPT-3, самую большую модель на данный момент» . Журнал Analytics India . Архивировано из оригинала 4 августа 2020 года . Проверено 15 марта 2023 г.
  321. ^ ДиФелициантонио (2023).
  322. ^ Госвами (2023).
  323. ^ аб Тьюринг (1950), с. 1.
  324. ^ Тьюринг (1950), В разделе «Аргумент от сознания».
  325. ^ Рассел и Норвиг (2021), с. 3.
  326. ^ Создатель (2006).
  327. ^ Маккарти (1999).
  328. ^ Минский (1986).
  329. ^ «Что такое искусственный интеллект (ИИ)?». Облачная платформа Google . Архивировано из оригинала 31 июля 2023 года . Проверено 16 октября 2023 г.
  330. ^ Нильссон (1983), с. 10.
  331. ^ Хаугеланд (1985), стр. 112–117.
  332. ^ Гипотеза системы физических символов:
    • Ньюэлл и Саймон (1976, стр. 116)
    Историческая значимость:
    • МакКордак (2004, стр. 153)
    • Рассел и Норвиг (2021, стр. 19)
  333. ^ Парадокс Моравеца :
    • Моравец (1988, стр. 15–16).
    • Минский (1986, с. 29)
    • Пинкер (2007, стр. 190–191)
  334. ^ Критика ИИ Дрейфусом :
    • Дрейфус (1972)
    • Дрейфус и Дрейфус (1986)
    Историческое значение и философские последствия:
    • Кревье (1993, стр. 120–132).
    • МакКордак (2004, стр. 211–239)
    • Рассел и Норвиг (2021, стр. 981–982)
    • Фирн (2007, глава 3)
  335. ^ Кревье (1993), с. 125.
  336. ^ Лэнгли (2011).
  337. ^ Кац (2012).
  338. ^ Аккуратность против неряшливости , исторические дебаты:
    • МакКордак (2004, стр. 421–424, 486–489)
    • Кревье (1993, стр. 168)
    • Нильссон (1983, стр. 10–11)
    • Рассел и Норвиг (2021, стр. 24)
    Классический пример «неряшливого» подхода к разведке:
    • Минский (1986)
    Современный пример аккуратного ИИ и его стремлений в 21 веке:
    • Домингос (2015)
  339. ^ Пенначин и Герцель (2007).
  340. ^ Аб Робертс (2016).
  341. ^ Рассел и Норвиг (2021), с. 986.
  342. ^ Чалмерс (1995).
  343. ^ Деннетт (1991).
  344. ^ Хорст (2005).
  345. ^ Сирл (1999).
  346. ^ Сирл (1980), с. 1.
  347. ^ Рассел и Норвиг (2021), с. 9817.
  348. ^ Аргумент Сирла в китайской комнате :
    • Сирл (1980). Оригинальное изложение мысленного эксперимента Сирлом.
    • Сирл (1999).
    Обсуждение:
    • Рассел и Норвиг (2021, стр. 985)
    • МакКордак (2004, стр. 443–445)
    • Кревье (1993, стр. 269–271).
  349. Лейт, Сэм (7 июля 2022 г.). «Ник Бостром: Как мы можем быть уверены, что машина не находится в сознании?». Зритель . Проверено 23 февраля 2024 г.
  350. ^ abc Томсон, Джонни (31 октября 2022 г.). «Почему у роботов нет прав?». Большое Думай . Проверено 23 февраля 2024 г.
  351. ^ аб Кейтман, Брайан (24 июля 2023 г.). «ИИ должен бояться людей». Время . Проверено 23 февраля 2024 г.
  352. Вонг, Джефф (10 июля 2023 г.). «Что лидерам нужно знать о правах роботов». Компания Фаст .
  353. Херн, Алекс (12 января 2017 г.). «Придайте роботам статус личности, - утверждает комитет ЕС». Хранитель . ISSN  0261-3077 . Проверено 23 февраля 2024 г.
  354. Дови, Дана (14 апреля 2018 г.). «Эксперты не думают, что у роботов должны быть права». Newsweek . Проверено 23 февраля 2024 г.
  355. Кадди, Алиса (13 апреля 2018 г.). «Права роботов нарушают права человека, предупреждают эксперты ЕС». Евроньюс . Проверено 23 февраля 2024 г.
  356. ^ Взрыв интеллекта и технологическая сингулярность :
    • Рассел и Норвиг (2021, стр. 1004–1005)
    • Омохундро (2008)
    • Курцвейл (2005)
    «Интеллектуальный взрыв» Эй Джей Гуда
    • Хорошо (1965)
    «Необычность» Вернора Винджа
    • Виндж (1993)
  357. ^ Рассел и Норвиг (2021), с. 1005.
  358. ^ Трансгуманизм :
    • Моравец (1988)
    • Курцвейл (2005)
    • Рассел и Норвиг (2021, стр. 1005)
  359. ^ ИИ как эволюция:
  360. ^ ИИ в мифе:
    • МакКордак (2004, стр. 4–5)
  361. ^ МакКордак (2004), стр. 340–400.
  362. ^ Бутаццо (2001).
  363. ^ Андерсон (2008).
  364. ^ МакКоли (2007).
  365. ^ Гальван (1997).

Учебники по искусственному интеллекту

Два наиболее широко используемых учебника в 2023 году (см. Открытую программу):

Это были четыре наиболее широко используемых учебника по ИИ в 2008 году:

Более поздние издания:

История ИИ

Другие источники

дальнейшее чтение

Внешние ссылки