stringtranslate.com

Искусственный интеллект

Видео (доступны субтитры), обобщающее тему искусственного интеллекта и представляющее некоторые этические последствия.

Искусственный интеллект ( ИИ ) — это интеллект машин или программного обеспечения , в отличие от интеллекта людей или других животных. Это область компьютерных наук , которая разрабатывает и изучает интеллектуальные машины. Такие машины можно назвать ИИ.

Технология искусственного интеллекта широко используется в промышленности, правительстве и науке. Некоторые громкие приложения: продвинутые поисковые системы в Интернете (например, Google Search ), системы рекомендаций (используемые YouTube , Amazon и Netflix ), понимание человеческой речи (например, Google Assistant , Siri и Alexa ), беспилотные автомобили. (например, Waymo ), генеративные и творческие инструменты ( ChatGPT и AI art ), а также сверхчеловеческая игра и анализ в стратегических играх (таких как шахматы и Го ). [1]

Алан Тьюринг был первым человеком, проведшим серьезные исследования в области, которую он назвал машинным интеллектом. [2] Искусственный интеллект был основан как академическая дисциплина в 1956 году. [3] Эта область прошла через несколько циклов оптимизма [4] [5] , за которыми последовали разочарования и потеря финансирования. [6] [7] Финансирование и интерес значительно возросли после 2012 года, когда глубокое обучение превзошло все предыдущие методы искусственного интеллекта, [8] и после 2017 года с архитектурой- трансформером . [9] Это привело к весне ИИ в начале 2020-х годов, когда компании, университеты и лаборатории, преимущественно базирующиеся в Соединенных Штатах, стали пионерами значительных достижений в области искусственного интеллекта. [10]

Различные подобласти исследований ИИ сосредоточены вокруг конкретных целей и использования определенных инструментов. Традиционные цели исследований ИИ включают рассуждение , представление знаний , планирование , обучение , обработку естественного языка , восприятие и поддержку робототехники . [a] Общий интеллект (способность выполнять любую задачу, которую может выполнить человек) входит в число долгосрочных целей этой области. [11]

Чтобы решить эти проблемы, исследователи ИИ адаптировали и интегрировали широкий спектр методов решения проблем, включая поисковую и математическую оптимизацию , формальную логику, искусственные нейронные сети и методы, основанные на статистике , исследовании операций и экономике . [b] ИИ также опирается на психологию , лингвистику , философию , нейробиологию и другие области. [12]

Цели

Общая проблема моделирования (или создания) интеллекта разбита на подзадачи. Они состоят из определенных черт или способностей, которые исследователи ожидают от интеллектуальной системы. Описанные ниже черты получили наибольшее внимание и охватывают сферу исследований ИИ. [а]

Рассуждение, решение проблем

Ранние исследователи разработали алгоритмы, имитирующие пошаговые рассуждения, которые люди используют, когда решают головоломки или делают логические выводы. [13] К концу 1980-х и 1990-м годам были разработаны методы работы с неопределенной или неполной информацией с использованием концепций теории вероятности и экономики . [14]

Многие из этих алгоритмов недостаточны для решения больших задач рассуждения, потому что они испытывают «комбинаторный взрыв»: они становились экспоненциально медленнее по мере того, как проблемы становились больше. [15] Даже люди редко используют пошаговые выводы, которые могли смоделировать ранние исследования ИИ. Они решают большинство своих проблем, используя быстрые и интуитивные суждения. [16] Точные и эффективные рассуждения — нерешенная проблема.

Представление знаний

Онтология представляет знания как набор концепций внутри предметной области и отношений между этими концепциями.

Представление знаний и инженерия знаний [17] позволяют программам ИИ разумно отвечать на вопросы и делать выводы о фактах реального мира. Формальные представления знаний используются при индексировании и поиске на основе контента, [18] интерпретации сцен, [19] поддержке клинических решений, [20] обнаружении знаний (извлечение «интересных» и практических выводов из больших баз данных) [21] и других областях. . [22]

База знаний — это совокупность знаний, представленная в форме, которую может использовать программа. Онтология — это набор объектов, отношений, концепций и свойств, используемых в определенной области знаний . [23] Базы знаний должны представлять такие вещи, как: объекты, свойства, категории и отношения между объектами; [24] ситуации, события, состояния и время; [25] причины и следствия; [26] знание о знании (то, что мы знаем о том, что знают другие люди); [27] рассуждения по умолчанию (вещи, которые люди предполагают, являются истинными, пока им не скажут иначе, и останутся истинными, даже когда другие факты меняются); [28] и многие другие аспекты и области знаний.

Среди наиболее сложных проблем представления знаний можно назвать: широту знаний здравого смысла (набор атомарных фактов, известных среднестатистическому человеку, огромен); [29] и субсимволическая форма большинства здравомыслящих знаний (многое из того, что знают люди, не представлено в виде «фактов» или «утверждений», которые они могли бы выразить устно). [16] Существует также сложность приобретения знаний , проблема получения знаний для приложений ИИ. [с]

Планирование и принятие решений

«Агент» — это все, что воспринимает и совершает действия в мире. Рациональный агент имеет цели или предпочтения и предпринимает действия для их достижения. [d] [32] При автоматизированном планировании у агента есть конкретная цель. [33] При автоматизированном принятии решений у агента есть предпочтения: есть ситуации, в которых он предпочел бы оказаться, а некоторых ситуаций он пытается избежать. Агент, принимающий решения, присваивает каждой ситуации число (называемое « полезностью »), которое измеряет, насколько агент предпочитает ее. Для каждого возможного действия он может рассчитать « ожидаемую полезность »: полезность всех возможных результатов действия, взвешенную по вероятности того, что результат произойдет. Затем он может выбрать действие с максимальной ожидаемой полезностью. [34]

При классическом планировании агент точно знает, каким будет эффект любого действия. [35] Однако в большинстве задач реального мира агент может не быть уверен в ситуации, в которой он находится (она «неизвестна» или «ненаблюдаема»), и он может не знать наверняка, что произойдет после каждого возможного действия ( оно не «детерминировано»). Он должен выбрать действие, сделав вероятностное предположение, а затем повторно оценить ситуацию, чтобы увидеть, сработало ли действие. [36]

В некоторых задачах предпочтения агента могут быть неопределенными, особенно если в решении участвуют другие агенты или люди. Их можно изучить (например, с помощью обратного обучения с подкреплением ), или агент может искать информацию для улучшения своих предпочтений. [37] Теорию ценности информации можно использовать для взвешивания ценности исследовательских или экспериментальных действий. [38] Пространство возможных будущих действий и ситуаций обычно непреодолимо велико, поэтому агенты должны предпринимать действия и оценивать ситуации, не зная, каким будет результат.

Марковский процесс принятия решений имеет модель перехода, которая описывает вероятность того, что конкретное действие изменит состояние определенным образом, и функцию вознаграждения , которая определяет полезность каждого состояния и стоимость каждого действия. Политика связывает решение с каждым возможным состоянием . Политика может быть рассчитана (например, путем итерации ), быть эвристической или ее можно изучить. [39]

Теория игр описывает рациональное поведение нескольких взаимодействующих агентов и используется в программах ИИ, которые принимают решения с участием других агентов. [40]

Обучение

Машинное обучение — это исследование программ, которые могут автоматически улучшить свою производительность при выполнении определенной задачи. [41] Он был частью ИИ с самого начала. [э]

Существует несколько видов машинного обучения. Обучение без учителя анализирует поток данных, находит закономерности и делает прогнозы без какого-либо другого руководства. [44] Обучение с учителем требует, чтобы человек сначала помечал входные данные, и существует две основные разновидности: классификация (когда программа должна научиться предсказывать, к какой категории принадлежат входные данные) и регрессия (когда программа должна выводить числовую функцию на основе при цифровом вводе). [45]

При обучении с подкреплением агент вознаграждается за хорошие ответы и наказывается за плохие. Агент учится выбирать ответы, которые классифицируются как «хорошие». [46] Трансферное обучение — это когда знания, полученные при решении одной проблемы, применяются к новой проблеме. [47] Глубокое обучение — это тип машинного обучения, при котором входные данные обрабатываются через биологически созданные искусственные нейронные сети для всех этих типов обучения. [48]

Теория компьютерного обучения может оценивать учащихся по сложности вычислений , по сложности выборки (сколько данных требуется) или по другим понятиям оптимизации . [49]

Обработка естественного языка

Обработка естественного языка (NLP) [50] позволяет программам читать, писать и общаться на человеческих языках, таких как английский . Конкретные проблемы включают распознавание речи , синтез речи , машинный перевод , извлечение информации , поиск информации и ответы на вопросы . [51]

Ранние работы, основанные на порождающей грамматике и семантических сетях Ноама Хомского , имели трудности с устранением смысловой неоднозначности [f] , если только они не ограничивались небольшими областями, называемыми « микромирами » (из-за проблемы знания здравого смысла [29] ). Маргарет Мастерман считала, что именно значение, а не грамматика, является ключом к пониманию языков, и что основой вычислительной структуры языка должны быть тезаурусы , а не словари.

Современные методы глубокого обучения для НЛП включают встраивание слов (представление слов, как правило, в виде векторов , кодирующих их значение), [52] преобразователи (архитектура глубокого обучения, использующая механизм внимания ) [53] и другие. [54] В 2019 году генеративные предварительно обученные языковые модели-трансформеры (или «GPT») начали генерировать связный текст, [55] [56] , а к 2023 году эти модели смогли получить оценки человеческого уровня на экзамене SAT . test, GRE test и многие другие реальные приложения. [57]

Восприятие

Машинное восприятие — это способность использовать данные от датчиков (таких как камеры, микрофоны, беспроводные сигналы, активный лидар , гидролокатор, радар и тактильные датчики ) для определения аспектов мира. Компьютерное зрение — это способность анализировать визуальную информацию. [58]

Эта область включает в себя распознавание речи , [59] классификацию изображений , [60] распознавание лиц , распознавание объектов , [61] и роботизированное восприятие . [62]

Социальный интеллект

Kismet , голова робота, созданная в 1990-х годах; машина, способная распознавать и моделировать эмоции. [63]

Аффективные вычисления — это междисциплинарный комплекс, включающий системы, которые распознают, интерпретируют, обрабатывают или моделируют человеческие чувства, эмоции и настроение . [64] Например, некоторые виртуальные помощники запрограммированы разговаривать разговорно или даже шутливо подшучивать; это делает их более чувствительными к эмоциональной динамике человеческого взаимодействия или иным образом облегчает взаимодействие человека с компьютером .

Однако это дает наивным пользователям нереальное представление об интеллекте существующих компьютерных агентов. [65] Умеренные успехи, связанные с аффективными вычислениями, включают текстовый анализ настроений и, в последнее время, мультимодальный анализ настроений , в котором ИИ классифицирует аффекты, отображаемые субъектом, записанным на видео. [66]

Общий интеллект

Машина с общим искусственным интеллектом должна быть способна решать широкий спектр задач с широтой и универсальностью, аналогичной человеческому интеллекту. [11]

Техники

Исследования ИИ используют широкий спектр методов для достижения вышеуказанных целей. [б]

Поиск и оптимизация

ИИ может решить многие проблемы, разумно перебирая множество возможных решений. [67] В ИИ используются два совершенно разных типа поиска: поиск в пространстве состояний и локальный поиск .

Государственный космический поиск

Поиск в пространстве состояний просматривает дерево возможных состояний, чтобы попытаться найти целевое состояние. [68] Например, алгоритмы планирования просматривают деревья целей и подцелей, пытаясь найти путь к целевой цели, этот процесс называется анализом средств и результатов . [69]

Простого исчерпывающего поиска [70] редко бывает достаточно для решения большинства реальных задач: пространство поиска (количество мест для поиска) быстро вырастает до астрономических цифр . В результате поиск выполняется слишком медленно или никогда не завершается. [15] « Эвристика » или «эмпирические правила» могут помочь расставить приоритеты в выборе, который с большей вероятностью приведет к достижению цели. [71]

Состязательный поиск используется для игровых программ, таких как шахматы или го. Он просматривает дерево возможных ходов и контрходов в поисках выигрышной позиции. [72]

Локальный поиск

Иллюстрация градиентного спуска для трех разных отправных точек. Два параметра (представленные координатами плана) корректируются для минимизации функции потерь (высоты).

Локальный поиск использует математическую оптимизацию для поиска решения проблемы. Он начинается с некоторой формы предположения и постепенно совершенствует его. [73]

Градиентный спуск — это тип локального поиска, который оптимизирует набор числовых параметров путем постепенной их корректировки для минимизации функции потерь . Варианты градиентного спуска обычно используются для обучения нейронных сетей. [74]

Другой тип локального поиска — эволюционные вычисления , целью которых является итеративное улучшение набора возможных решений путем «мутации» и «рекомбинации» их, отбирая только наиболее приспособленных для выживания в каждом поколении. [75]

Процессы распределенного поиска могут координироваться с помощью алгоритмов роевого интеллекта . Двумя популярными роевыми алгоритмами, используемыми в поиске, являются оптимизация роя частиц (вдохновленная птичьими стаями ) и оптимизация колонии муравьев (вдохновленная муравьиными следами ). [76]

Логика

Формальная логика используется для рассуждений и представления знаний . [77] Формальная логика существует в двух основных формах: логика высказываний (которая оперирует утверждениями, которые являются истинными или ложными, и использует логические связки, такие как «и», «или», «не» и «подразумевается») [78] и предикат. логика (которая также оперирует объектами, предикатами и отношениями и использует кванторы , такие как « Каждый X есть Y » и «Есть некоторые X , которые являются Y »). [79]

Логический вывод (или дедукция ) — это процесс доказательства нового утверждения ( заключения ) на основе других утверждений, истинность которых уже известна (посылок ) . [80] Логическая база знаний также обрабатывает запросы и утверждения как особый случай вывода. [81] Правило вывода описывает , какой этап доказательства является допустимым . Самым общим правилом вывода является разрешение . [82] Умозаключение можно свести к поиску пути, ведущего от посылок к выводам, где каждый шаг представляет собой применение правила вывода . [83] Вывод, выполненный таким образом, неразрешим, за исключением коротких доказательств в ограниченных областях. Эффективного, мощного и общего метода обнаружено не было.

Нечеткая логика присваивает «степень истинности» от 0 до 1. Таким образом, она может обрабатывать расплывчатые и частично истинные утверждения. [84] Немонотонные логики предназначены для обработки рассуждений по умолчанию . [28] Для описания многих сложных областей были разработаны другие специализированные версии логики (см. представление знаний выше).

Вероятностные методы для неопределенных рассуждений

Простая байесовская сеть с соответствующими таблицами условной вероятности .

Многие проблемы ИИ (в том числе рассуждения, планирование, обучение, восприятие и робототехника) требуют от агента работы с неполной или неопределенной информацией. Исследователи искусственного интеллекта разработали ряд инструментов для решения этих проблем, используя методы теории вероятностей и экономики. [85]

Байесовские сети [86] представляют собой очень общий инструмент, который можно использовать для решения многих задач, включая рассуждение (с использованием алгоритма байесовского вывода ), [g] [88] обучение (с использованием алгоритма максимизации ожидания ), [h] [90] планирование (с использованием сетей принятия решений ) [91] и восприятие (с использованием динамических байесовских сетей ). [92]

Вероятностные алгоритмы также могут использоваться для фильтрации, прогнозирования, сглаживания и поиска объяснений потоков данных, помогая системам восприятия анализировать процессы, происходящие во времени (например, скрытые модели Маркова или фильтры Калмана ). [92]

Были разработаны точные математические инструменты, которые анализируют, как агент может делать выбор и планировать, используя теорию принятия решений , анализ решений , [93] и теорию ценности информации . [94] Эти инструменты включают такие модели, как марковские процессы принятия решений , [95] динамические сети принятия решений , [92] теория игр и проектирование механизмов . [96]

Кластеризация данных об извержениях Old Faithful с максимизацией ожиданий начинается со случайного предположения, но затем успешно сходится к точной кластеризации двух физически различных режимов извержения.

Классификаторы и статистические методы обучения

Простейшие приложения ИИ можно разделить на два типа: классификаторы (например, «если блестит, то ромб»), с одной стороны, и контроллеры (например, «если алмаз, то поднимите»), с другой стороны. Классификаторы [97] — это функции, которые используют сопоставление с образцом для определения наиболее близкого соответствия. Их можно доработать на основе выбранных примеров с помощью обучения с учителем . Каждый шаблон (также называемый « наблюдением ») помечен определенным предопределенным классом. Все наблюдения в сочетании с их метками классов известны как набор данных . Когда получено новое наблюдение, оно классифицируется на основе предыдущего опыта. [45]

Существует множество видов классификаторов. Дерево решений — это самый простой и наиболее широко используемый алгоритм символьного машинного обучения. [98] Алгоритм K-ближайшего соседа был наиболее широко используемым аналоговым ИИ до середины 1990-х годов, а методы ядра , такие как машина опорных векторов (SVM), вытеснили k-ближайшего соседа в 1990-х годах. [99] Наивный байесовский классификатор, как сообщается, является «наиболее широко используемым обучающим устройством» [100] в Google, отчасти из-за его масштабируемости. [101] Нейронные сети также используются в качестве классификаторов. [102]

Искусственные нейронные сети

Нейронная сеть — это взаимосвязанная группа узлов, подобная обширной сети нейронов в человеческом мозге .

Искусственная нейронная сеть основана на наборе узлов, также известных как искусственные нейроны , которые в общих чертах моделируют нейроны биологического мозга. Он обучен распознавать закономерности, и после обучения он сможет распознавать эти закономерности в свежих данных. Есть вход, как минимум один скрытый слой узлов и выход. Каждый узел применяет функцию, и как только вес пересекает указанный порог, данные передаются на следующий уровень. Сеть обычно называется глубокой нейронной сетью, если она имеет как минимум два скрытых слоя. [102]

Алгоритмы обучения нейронных сетей используют локальный поиск для выбора весов, которые дадут правильный результат для каждого входного сигнала во время обучения. Наиболее распространенным методом обучения является алгоритм обратного распространения ошибки . [103] Нейронные сети учатся моделировать сложные взаимосвязи между входными и выходными данными и находить закономерности в данных. Теоретически нейронная сеть может изучить любую функцию. [104]

В нейронных сетях прямого распространения сигнал проходит только в одном направлении. [105] Рекуррентные нейронные сети подают выходной сигнал обратно на вход, что позволяет кратковременно запоминать предыдущие входные события. Долговременная краткосрочная память является наиболее успешной сетевой архитектурой для рекуррентных сетей. [106] Перцептроны [107] используют только один слой нейронов, глубокое обучение [108] использует несколько слоев.Сверточные нейронные сети усиливают связь между нейронами, находящимися «близко» друг к другу — это особенно важно при обработке изображений , где локальный набор нейронов должен идентифицировать «край» , прежде чем сеть сможет идентифицировать объект. [109]

Глубокое обучение

Глубокое обучение [108] использует несколько слоев нейронов между входами и выходами сети. Несколько слоев могут постепенно извлекать функции более высокого уровня из необработанных входных данных. Например, при обработке изображений нижние уровни могут идентифицировать края, а более высокие уровни могут идентифицировать понятия, относящиеся к человеку, такие как цифры, буквы или лица. [110]

Глубокое обучение значительно улучшило производительность программ во многих важных областях искусственного интеллекта, включая компьютерное зрение , распознавание речи , обработку естественного языка , классификацию изображений [111] и другие. Причина, по которой глубокое обучение так хорошо работает во многих приложениях, по состоянию на 2023 год неизвестна . был описан многими людьми еще в 1950-х годах) [i] но из-за двух факторов: невероятного увеличения мощности компьютера (включая стократное увеличение скорости за счет перехода на графические процессоры ) и доступности огромных объемов обучения данные, особенно гигантские наборы данных, используемые для эталонного тестирования, такие как ImageNet . [Дж]

GPT

Генеративные предварительно обученные преобразователи (GPT) — это большие языковые модели , основанные на семантических отношениях между словами в предложениях ( обработка естественного языка ). Текстовые модели GPT предварительно обучаются на большом массиве текста, который может быть взят из Интернета. Предварительное обучение заключается в предсказании следующего токена (токеном обычно является слово, подслово или знак препинания). В ходе этого предварительного обучения модели GPT накапливают знания о мире, а затем могут генерировать человеческий текст, неоднократно прогнозируя следующий токен. Как правило, последующий этап обучения делает модель более правдивой, полезной и безвредной, обычно с помощью метода, называемого обучением с подкреплением на основе обратной связи с человеком (RLHF). Текущие модели GPT по-прежнему склонны генерировать ложные сведения, называемые « галлюцинациями », хотя это можно уменьшить с помощью RLHF и качественных данных. Они используются в чат-ботах , которые позволяют задать вопрос или запросить задачу простым текстом. [121] [122]

Текущие модели и сервисы включают: Bard , ChatGPT , Grok , Claude , Copilot и LLaMA . [123] Мультимодальные модели GPT могут обрабатывать различные типы данных ( модальности ), такие как изображения, видео, звук и текст. [124]

Специализированное оборудование и программное обеспечение

В конце 2010-х годов графические процессоры (ГП), которые все чаще разрабатывались с учетом особенностей ИИ и использовались со специализированным программным обеспечением TensorFlow , заменили ранее использовавшиеся центральные процессоры (ЦП) в качестве доминирующего средства для крупномасштабных (коммерческих и академических) проектов. обучение моделей машинного обучения . [125] Исторически использовались специализированные языки, такие как Lisp , Prolog , Python и другие.

Приложения

Технологии искусственного интеллекта и машинного обучения используются в большинстве важнейших приложений 2020-х годов, включая: поисковые системы (такие как Google Search ), таргетинг онлайн-рекламы , системы рекомендаций (предлагаемые Netflix , YouTube или Amazon ), привлечение интернет-трафика , таргетированную рекламу. ( AdSense , Facebook ), виртуальные помощники (такие как Siri или Alexa ), автономные транспортные средства (включая дроны , ADAS и беспилотные автомобили ), автоматический языковой перевод ( Microsoft Translator , Google Translate ), распознавание лиц ( Apple Face ID или DeepFace от Microsoft и FaceNet от Google ) и маркировка изображений (используется Facebook , iPhoto от Apple и TikTok ).

Здоровье и медицина

Применение ИИ в медицине и медицинских исследованиях потенциально может улучшить уход за пациентами и качество их жизни. [126] Через призму клятвы Гиппократа медицинские работники этически обязаны использовать ИИ, если приложения могут более точно диагностировать и лечить пациентов.

Для медицинских исследований ИИ является важным инструментом обработки и интеграции больших данных . Это особенно важно для развития органоидной и тканевой инженерии , где микроскопическая визуализация используется в качестве ключевого метода производства. [127] Было высказано предположение, что ИИ может преодолеть несоответствие в финансировании, выделяемом на различные области исследований. [127] Новые инструменты ИИ могут углубить наше понимание биомедицинских путей. Например, AlphaFold 2 (2021) продемонстрировал способность аппроксимировать трехмерную структуру белка за часы, а не за месяцы. [128] В 2023 году сообщалось, что открытие лекарств под руководством ИИ помогло найти класс антибиотиков, способных убивать два разных типа устойчивых к лекарствам бактерий. [129]

Игры

Игровые программы используются с 1950-х годов для демонстрации и тестирования самых передовых методов искусственного интеллекта. [130] Deep Blue стала первой компьютерной шахматной системой, победившей действующего чемпиона мира по шахматам Гарри Каспарова 11 мая 1997 года . [131] В 2011 году в игре Jeopardy! викторина-шоу показательный матч, вопросно -ответная система IBM , Уотсон , победилдва величайших Jeopardy! чемпионы Брэд Раттер и Кен Дженнингс со значительным отрывом. [132] В марте 2016 года AlphaGo выиграла 4 из 5 игр в го в матче с чемпионом по го Ли Седолем , став первой компьютерной системой игры в го, обыгравшей профессионального игрока в го без гандикапов . Затем в 2017 году он победил Кэ Цзе , который был лучшим игроком в го в мире. [133] Другие программы обрабатывают игры с несовершенной информацией , например, программа для игры в покер Pluribus [134] . DeepMind разработала все более общие модели обучения с подкреплением , такие как MuZero , которые можно обучить играть в шахматы, го или игры Atari . [135] В 2019 году AlphaStar из DeepMind достигла уровня гроссмейстера в StarCraft II , особенно сложной стратегической игре в реальном времени, которая предполагает неполное знание того, что происходит на карте. [136] В 2021 году ИИ-агент участвовал в соревновании PlayStation Gran Turismo, победив четырех лучших в мире водителей Gran Turismo, используя глубокое обучение с подкреплением. [137]

Военный

Различные страны внедряют военные приложения ИИ. Основные приложения расширяют возможности управления и контроля , связи, датчиков, интеграции и совместимости. Исследования направлены на сбор и анализ разведывательной информации, логистику, кибероперации, информационные операции, а также полуавтономные и автономные транспортные средства . Технологии искусственного интеллекта обеспечивают координацию датчиков и исполнительных устройств, обнаружение и идентификацию угроз, маркировку позиций противника, захват целей , координацию и устранение конфликтов в распределенных совместных огнях между объединенными в сеть боевыми машинами с участием пилотируемых и беспилотных групп. ИИ был задействован в военных операциях в Ираке и Сирии.

В ноябре 2023 года вице-президент США Камала Харрис обнародовала подписанную 31 страной декларацию, устанавливающую ограничения на использование IA в военных целях. Обязательства включают в себя проведение юридических проверок для обеспечения соответствия военного ИИ международному праву, а также осторожность и прозрачность при разработке этой технологии. [138]

Генеративный ИИ

Винсент Ван Гог в акварели, созданный с помощью генеративного программного обеспечения искусственного интеллекта

В начале 2020-х годов генеративный искусственный интеллект получил широкое распространение. В марте 2023 года 58% взрослых американцев слышали о ChatGPT и 14% пробовали его. [139] Возрастающий реализм и простота использования генераторов текста в изображения на основе искусственного интеллекта , таких как Midjourney , DALL-E и Stable Diffusion, вызвали тенденцию к вирусным фотографиям, созданным с помощью искусственного интеллекта. Широкое внимание привлекли фейковая фотография Папы Франциска в белом пуховике, вымышленный арест Дональда Трампа и мистификация нападения на Пентагон , а также использование в профессиональном творчестве. [140] [141]

Отраслевые задачи

Существуют также тысячи успешных приложений ИИ, используемых для решения конкретных проблем в конкретных отраслях или учреждениях. В опросе 2017 года каждая пятая компания сообщила, что внедрила искусственный интеллект в некоторые предложения или процессы. [142] Несколько примеров — хранение энергии , медицинская диагностика, военная логистика, приложения, прогнозирующие результат судебных решений, внешняя политика или управление цепочками поставок.

В сельском хозяйстве ИИ помог фермерам определить области, которые нуждаются в ирригации, удобрении, обработке пестицидами или повышении урожайности. Агрономы используют ИИ для проведения исследований и разработок. Искусственный интеллект использовался для прогнозирования времени созревания таких культур, как томаты, мониторинга влажности почвы, управления сельскохозяйственными роботами, проведения прогнозной аналитики, классификации эмоций, вызываемых домашним скотом, свиней, автоматизации теплиц, обнаружения болезней и вредителей, а также экономии воды.

Искусственный интеллект используется в астрономии для анализа растущих объемов доступных данных и приложений, в основном для «классификации, регрессии, кластеризации, прогнозирования, генерации, открытия и развития новых научных идей», например, для открытия экзопланет, прогнозирования солнечной активности и различие между сигналами и инструментальными эффектами в гравитационно-волновой астрономии. Его также можно использовать для деятельности в космосе, такой как исследование космоса, включая анализ данных космических миссий, принятие научных решений по космическим кораблям в режиме реального времени, предотвращение космического мусора и более автономную работу.

Этика

ИИ, как и любая мощная технология, имеет потенциальные преимущества и потенциальные риски. ИИ может способствовать развитию науки и находить решения серьезных проблем: Демис Хассабис из Deep Mind надеется «разгадать интеллект, а затем использовать его для решения всего остального». [143] Однако по мере того, как использование ИИ стало широко распространенным, было выявлено несколько непредвиденных последствий и рисков. [144]

Любой, кто хочет использовать машинное обучение как часть реальных производственных систем, должен учитывать этику в своих процессах обучения ИИ и стремиться избегать предвзятости. Это особенно актуально при использовании алгоритмов ИИ, которые по своей сути необъяснимы в глубоком обучении. [145]

Риски и вред

Конфиденциальность и авторские права

Алгоритмы машинного обучения требуют больших объемов данных. Методы, используемые для получения этих данных, вызвали обеспокоенность по поводу конфиденциальности , слежки и авторских прав .

Технологические компании собирают широкий спектр данных от своих пользователей, включая онлайн-активность, данные геолокации, видео и аудио. [146] Например, для создания алгоритмов распознавания речи Amazon записала миллионы частных разговоров и позволила временным сотрудникам прослушивать и расшифровывать некоторые из них. [147] Мнения об этой широко распространенной слежке варьируются от тех, кто считает ее неизбежным злом , до тех, для кого она явно неэтична и нарушает право на неприкосновенность частной жизни . [148]

Разработчики ИИ утверждают, что это единственный способ предоставлять ценные приложения. и разработали несколько методов, которые пытаются сохранить конфиденциальность при получении данных, таких как агрегирование данных , деидентификация и дифференциальная конфиденциальность . [149] С 2016 года некоторые эксперты по конфиденциальности, такие как Синтия Дворк , начали рассматривать конфиденциальность с точки зрения справедливости . Брайан Кристиан написал, что эксперты перешли «от вопроса «что они знают» к вопросу «что они с этим делают». [150]

Генеративный ИИ часто обучается на нелицензированных произведениях, защищенных авторским правом, в том числе в таких областях, как изображения или компьютерный код; выходные данные затем используются на основании « добросовестного использования ». Кроме того, владельцы веб-сайтов, которые не хотят, чтобы их контент, защищенный авторским правом, индексировался или «очищался» с помощью ИИ, могут добавить код на свой сайт, как вы бы это сделали, если бы вы не хотели, чтобы ваш веб-сайт индексировался поисковой системой, которая в настоящее время доступна определенным такие сервисы, как OpenAI . Эксперты расходятся во мнениях относительно того, насколько хорошо и при каких обстоятельствах это обоснование будет иметь силу в судах; соответствующие факторы могут включать «цель и характер использования произведения, защищенного авторским правом» и «влияние на потенциальный рынок произведения, защищенного авторским правом». [151] В 2023 году ведущие авторы (в том числе Джон Гришэм и Джонатан Франзен ) подали в суд на компании, занимающиеся ИИ, за использование их работ для обучения генеративному ИИ. [152] [153]

Дезинформация

YouTube , Facebook и другие используют системы рекомендаций , чтобы направлять пользователей к большему количеству контента. Целью этих программ искусственного интеллекта было максимальное вовлечение пользователей (то есть единственной целью было заставить людей следить за происходящим). ИИ узнал, что пользователи склонны выбирать дезинформацию , теории заговора и крайне предвзятый контент, и, чтобы удержать их на просмотре, ИИ рекомендовал больше такого контента. Пользователи также склонны смотреть больше контента на одну и ту же тему, поэтому ИИ направлял людей в пузыри фильтров , где они получали несколько версий одной и той же дезинформации. [154] Это убедило многих пользователей в правдивости дезинформации и в конечном итоге подорвало доверие к институтам, СМИ и правительству. [155] Программа ИИ правильно научилась максимизировать свою цель, но результат был вреден для общества. После выборов в США в 2016 году крупные технологические компании предприняли шаги по смягчению проблемы.

В 2022 году генеративный ИИ начал создавать изображения, аудио, видео и текст, неотличимые от реальных фотографий, записей, фильмов или человеческого письма. Злоумышленники могут использовать эту технологию для создания огромного количества дезинформации или пропаганды. [156] Пионер ИИ Джеффри Хинтон выразил обеспокоенность по поводу того, что ИИ, помимо других рисков, позволяет «авторитарным лидерам манипулировать своим электоратом» в больших масштабах. [157]

Алгоритмическая предвзятость и справедливость

Приложения машинного обучения будут предвзятыми, если они будут учиться на предвзятых данных. [158] Разработчики могут не знать о существовании предвзятости. [159] Смещение может быть вызвано способом выбора обучающих данных и способом развертывания модели. [160] [158] Если предвзятый алгоритм используется для принятия решений, которые могут серьезно навредить людям (как это может быть в медицине , финансах , наборе персонала , жилищном обеспечении или полиции ), тогда алгоритм может вызвать дискриминацию . [161] Справедливость в машинном обучении — это исследование того, как предотвратить вред, причиняемый алгоритмической предвзятостью. Это стало серьезной областью академических исследований в области ИИ. Исследователи обнаружили, что не всегда возможно определить «справедливость» так, чтобы это удовлетворило все заинтересованные стороны. [162]

28 июня 2015 года новая функция маркировки изображений в Google Фото ошибочно определила Джеки Алсина и его друга как «горилл», потому что они были черными. Система была обучена на наборе данных, который содержал очень мало изображений чернокожих людей, [163] проблема, называемая «несоответствием размера выборки». [164] Google «исправил» эту проблему, запретив системе помечать что-либо как «гориллу». Восемь лет спустя, в 2023 году, Google Photos все еще не смог идентифицировать гориллу, как и аналогичные продукты Apple, Facebook, Microsoft и Amazon. [165]

COMPAS – коммерческая программа, широко используемая судами США для оценки вероятности того, что обвиняемый станет рецидивистом . В 2016 году Джулия Ангвин из ProPublica обнаружила, что КОМПАС демонстрирует расовую предвзятость, несмотря на то, что программе не была указана расовая принадлежность обвиняемых. Хотя частота ошибок как для белых, так и для чернокожих была калибрована равной ровно 61%, ошибки для каждой расы были разными — система постоянно переоценивала вероятность того, что чернокожий человек совершит повторное правонарушение, и недооценивала вероятность того, что белый человек не совершит правонарушение. повторно обидеть. [166] В 2017 году несколько исследователей [k] показали, что COMPAS математически невозможно учесть все возможные меры справедливости, когда базовые показатели повторных правонарушений различаются для белых и чернокожих в данных. [168]

Программа может принимать предвзятые решения, даже если в данных явно не упоминается проблемный признак (например, «раса» или «пол»). Эта функция будет коррелировать с другими функциями (такими как «адрес», «история покупок» или «имя»), и программа будет принимать те же решения на основе этих функций, что и на основе «расы» или «пола». [169] Мориц Хардт сказал: «Самый убедительный факт в этой области исследований заключается в том, что справедливость через слепоту не работает». [170]

Критика COMPAS выявила более глубокую проблему неправильного использования ИИ. Модели машинного обучения созданы для того, чтобы делать «прогнозы», которые действительны только в том случае, если мы предполагаем, что будущее будет похоже на прошлое. Если они обучены на данных, которые включают результаты расистских решений в прошлом, модели машинного обучения должны предсказывать, что расистские решения будут приняты в будущем. К сожалению, если приложение затем использует эти прогнозы в качестве рекомендаций , некоторые из этих «рекомендаций», скорее всего, будут расистскими. [171] Таким образом, машинное обучение не очень подходит для принятия решений в областях, где есть надежда, что будущее будет лучше прошлого. Оно обязательно носит описательный, а не запретительный характер. [л]

Предвзятость и несправедливость могут остаться незамеченными, поскольку разработчики в основном белые и мужчины: среди инженеров ИИ около 4% — чернокожие, а 20% — женщины. [164]

На своей конференции по справедливости, подотчетности и прозрачности 2022 года (ACM FAccT 2022) Ассоциация вычислительной техники в Сеуле, Южная Корея, представила и опубликовала результаты, в которых рекомендуется, чтобы до тех пор, пока системы искусственного интеллекта и робототехники не будут продемонстрированы как свободные от ошибок предвзятости, они небезопасно, а использование самообучающихся нейронных сетей, обученных на огромных нерегулируемых источниках ошибочных интернет-данных, следует ограничить. [173]

Отсутствие прозрачности

Лидарный испытательный автомобиль для автономного вождения

Многие системы искусственного интеллекта настолько сложны, что их разработчики не могут объяснить, как они принимают решения. [174] Особенно с глубокими нейронными сетями , в которых существует большое количество нелинейных связей между входными и выходными данными. Но существуют некоторые популярные методы объяснения. [175]

Было много случаев, когда программа машинного обучения прошла строгие тесты, но, тем не менее, узнала нечто иное, чем то, что планировали программисты. Например, было обнаружено, что система, которая может идентифицировать кожные заболевания лучше, чем медицинские работники, на самом деле имеет сильную тенденцию классифицировать изображения с линейкой как «раковые», поскольку изображения злокачественных новообразований обычно включают линейку, показывающую масштаб. [176] Другая система машинного обучения, разработанная для эффективного распределения медицинских ресурсов, классифицирует пациентов с астмой как людей с «низким риском» смерти от пневмонии. Наличие астмы на самом деле является серьезным фактором риска, но, поскольку пациенты, страдающие астмой, обычно получают гораздо больше медицинской помощи, согласно данным обучения, их смерть относительно маловероятна. Корреляция между астмой и низким риском смерти от пневмонии была реальной, но вводящей в заблуждение. [177]

Люди, пострадавшие от решения алгоритма, имеют право на объяснение . Врачи, например, обязаны четко и полностью объяснять причины любого принимаемого ими решения. [ необходимы разъяснения ] [178] Ранние проекты Общего регламента ЕС по защите данных в 2016 году содержали прямое заявление о том, что это право существует. [m] Эксперты отрасли отметили, что это нерешенная проблема, решения которой не видно. Регуляторы утверждали, что тем не менее вред реален: если проблема не имеет решения, инструменты не следует использовать. [179]

DARPA учредило программу XAI («Объяснимый искусственный интеллект») в 2014 году, чтобы попытаться решить эти проблемы. [180]

Существует несколько потенциальных решений проблемы прозрачности. SHAP помогает визуализировать вклад каждой функции в выходные данные. [181] LIME может локально аппроксимировать модель более простой, интерпретируемой моделью. [182] Многозадачное обучение обеспечивает большое количество результатов в дополнение к целевой классификации. Эти другие выходные данные могут помочь разработчикам понять, чему научилась сеть. [183] ​​Деконволюция , DeepDream и другие генеративные методы могут позволить разработчикам видеть, чему научились различные уровни глубокой сети, и выдавать выходные данные, которые могут указывать на то, что изучает сеть. [184]

Конфликты, наблюдение и вооруженный ИИ

Смертоносное автономное оружие — это машина, которая обнаруживает, выбирает и поражает человеческие цели без присмотра человека. [n] К 2015 году более пятидесяти стран, как сообщалось, исследовали боевых роботов. [186] Это оружие считается особенно опасным по нескольким причинам: если оно убивает невиновного человека, неясно, кого следует привлечь к ответственности , маловероятно, что оно будет надежно выбирать цели, и, если оно будет производиться в больших масштабах, оно потенциально станет оружием массовое уничтожение . [187] В 2014 году 30 стран (включая Китай) поддержали запрет на автономное оружие в соответствии с Конвенцией ООН о конкретных видах обычного оружия , однако США и другие страны с этим не согласились. [188]

ИИ предоставляет ряд инструментов, которые особенно полезны для авторитарных правительств: интеллектуальные шпионские программы , распознавание лиц и голоса позволяют широкомасштабное наблюдение ; такая слежка позволяет машинному обучению классифицировать потенциальных врагов государства и не дать им скрыться; системы рекомендаций могут точно нацеливаться на пропаганду и дезинформацию для достижения максимального эффекта; дипфейки и генеративный искусственный интеллект помогают создавать дезинформацию; Передовой ИИ может сделать авторитарное централизованное принятие решений более конкурентоспособным по сравнению с либеральными и децентрализованными системами, такими как рынки . [189]

Системы распознавания лиц с использованием искусственного интеллекта используются для массовой слежки , особенно в Китае. [190] [191] В 2019 году в Бангалоре, Индия, были внедрены светофоры, управляемые искусственным интеллектом. Эта система использует камеры для мониторинга плотности трафика и регулировки времени сигнала в зависимости от интервала, необходимого для освобождения трафика. [192] Террористы, преступники и государства-изгои могут использовать ИИ в качестве оружия, например передовые средства цифровой войны и смертоносное автономное оружие . Искусственный интеллект с машинным обучением также способен создавать десятки тысяч токсичных молекул за считанные часы. [193]

Технологическая безработица

С самого начала развития искусственного интеллекта существовали аргументы, например, выдвинутые Джозефом Вайценбаумом , о том, должны ли на самом деле задачи, которые могут быть выполнены компьютерами, выполняться ими, учитывая разницу между компьютерами и людьми, а также между количественный расчет и качественное суждение, основанное на стоимости. [194]

Экономисты часто подчеркивали риски увольнений из ИИ и высказывали предположения о безработице, если не будет адекватной социальной политики для полной занятости. [195]

В прошлом технологии имели тенденцию скорее увеличивать, чем сокращать общую занятость, но экономисты признают, что с ИИ «мы находимся на неизведанной территории». [196] Опрос экономистов показал разногласия относительно того, приведет ли растущее использование роботов и искусственного интеллекта к существенному увеличению долгосрочной безработицы , но в целом они согласны с тем, что это может принести чистую выгоду, если перераспределить прирост производительности . [197] Оценки риска различаются; например, в 2010-х годах Майкл Осборн и Карл Бенедикт Фрей подсчитали, что 47% рабочих мест в США подвергаются «высокому риску» потенциальной автоматизации, в то время как в отчете ОЭСР только 9% рабочих мест в США классифицируются как «высокие риски». [o] [199] Методология спекуляций о будущих уровнях занятости подвергалась критике за отсутствие доказательной базы и за то, что подразумевается, что технологии, а не социальная политика, создают безработицу, а не увольнения. [195]

В отличие от предыдущих волн автоматизации, многие рабочие места среднего класса могут быть ликвидированы искусственным интеллектом; В 2015 году журнал The Economist заявил, что «беспокойство о том, что ИИ может сделать с рабочими местами белых воротничков то же, что паровая энергия сделала с рабочими во время промышленной революции», «стоит отнестись серьезно». [200] Профессии, подверженные крайнему риску, варьируются от помощников юристов до поваров фаст-фуда, в то время как спрос на рабочие места, вероятно, увеличится для профессий, связанных с уходом, от личного здравоохранения до духовенства. [201]

В апреле 2023 года сообщалось, что 70% рабочих мест для китайских иллюстраторов видеоигр были сокращены из-за генеративного искусственного интеллекта. [202] [203]

Экзистенциальный риск

Утверждалось, что ИИ станет настолько мощным, что человечество может необратимо потерять над ним контроль. Это может, как заявил физик Стивен Хокинг , « означать конец человечества ». [204] Этот сценарий был обычным явлением в научной фантастике, когда компьютер или робот внезапно развивает человеческое «самосознание» (или «чувственность» или «сознание») и становится злонамеренным персонажем. [p] Эти научно-фантастические сценарии вводят в заблуждение по нескольким причинам.

Во-первых, ИИ не требует, чтобы человеческое «чувство» представляло собой экзистенциальный риск. Современные программы искусственного интеллекта ставят перед собой конкретные цели и используют обучение и интеллект для их достижения. Философ Ник Бостром утверждал, что если дать достаточно мощному ИИ практически любую цель, он может решить уничтожить человечество для ее достижения (он использовал пример менеджера фабрики по производству скрепок ). [206] Стюарт Рассел приводит пример домашнего робота, который пытается найти способ убить своего владельца, чтобы предотвратить его отключение от сети, мотивируя это тем, что «вы не сможете принести кофе, если вы мертвы». [207] Чтобы быть безопасным для человечества, сверхинтеллект должен быть искренне связан с моралью и ценностями человечества, чтобы он «фундаментально был на нашей стороне». [208]

Во-вторых, Юваль Ной Харари утверждает, что ИИ не требует тела робота или физического контроля, чтобы представлять экзистенциальный риск. Существенные части цивилизации не являются физическими. Такие вещи, как идеологии , законы , правительство , деньги и экономика, созданы из языка ; они существуют, потому что есть истории, в которые верят миллиарды людей. Нынешняя распространенность дезинформации предполагает, что ИИ может использовать язык, чтобы убедить людей поверить во что угодно, даже совершить разрушительные действия. [209]

Мнения среди экспертов и инсайдеров отрасли неоднозначны: значительная часть их как обеспокоена, так и не обеспокоена риском, исходящим от возможного сверхразумного ИИ. [210] Такие личности, как Стивен Хокинг , Билл Гейтс и Илон Маск , выражали обеспокоенность по поводу экзистенциального риска, связанного с ИИ. [211]

В начале 2010-х годов эксперты утверждали, что риски в будущем слишком далеки, чтобы требовать проведения исследований, или что люди будут представлять ценность с точки зрения сверхразумной машины. [212] Однако после 2016 года изучение текущих и будущих рисков и возможных решений стало серьезным направлением исследований. [213]

Пионеры ИИ, в том числе Фей-Фей Ли , Джеффри Хинтон , Йошуа Бенджио , Синтия Бризил , Рана эль Калиуби , Демис Хассабис , Джой Буоламвини и Сэм Альтман , выразили обеспокоенность по поводу рисков ИИ. В 2023 году многие ведущие эксперты в области ИИ выступили с совместным заявлением, что «Снижение риска исчезновения ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война». [214]

Другие исследователи, однако, высказались в пользу менее антиутопической точки зрения. Пионер ИИ Юрген Шмидхубер не подписал совместное заявление, подчеркнув, что в 95% всех случаев исследования ИИ направлены на то, чтобы сделать «человеческую жизнь дольше, здоровее и проще». [215] Хотя инструменты, которые сейчас используются для улучшения жизни, также могут быть использованы злоумышленниками, «они также могут быть использованы против плохих актеров». [216] [217] Эндрю Нг также утверждал, что «было бы ошибкой поддаться шумихе вокруг ИИ, связанной с судным днем, и что регуляторы, которые это сделают, принесут пользу только корыстным интересам». [218] Янн ЛеКун «высмеивает антиутопические сценарии своих сверстников, включающие усиленную дезинформацию и даже, в конечном итоге, вымирание человечества». [219]

Ограничение ИИ

Возможные варианты ограничения ИИ включают: использование встроенной этики или конституционного ИИ, где компании или правительства могут добавить политику, ограничение высоких уровней вычислительной мощности при обучении, ограничение возможности переписывать собственную кодовую базу, ограничение определенных методов ИИ, но не в обучении. этап, открытый исходный код (прозрачность) или проприетарный (может быть более ограниченный), модель резервного копирования с избыточностью, ограничение безопасности, конфиденциальности и авторских прав, ограничение или контроль памяти, мониторинг в реальном времени, анализ рисков, аварийное отключение, строгое моделирование и тестирование, сертификация модели, оценка известных уязвимостей, ограничение учебных материалов, ограничение доступа к Интернету, определение условий использования.

Этические машины и согласованность

Дружественный ИИ — это машины, которые с самого начала были разработаны для минимизации рисков и принятия решений, приносящих пользу людям. Элиэзер Юдковски , придумавший этот термин, утверждает, что разработка дружественного ИИ должна быть более высоким приоритетом исследований: это может потребовать больших инвестиций и должно быть завершено до того, как ИИ станет экзистенциальным риском. [220]

У машин, обладающих интеллектом, есть потенциал использовать свой интеллект для принятия этических решений. Область машинной этики предоставляет машинам этические принципы и процедуры для решения этических дилемм. [221] Область машинной этики также называется вычислительной моралью, [221] и была основана на симпозиуме AAAI в 2005 году. [222]

Другие подходы включают «искусственные моральные агенты» Венделла Уоллаха [223] и три принципа Стюарта Дж. Рассела для разработки доказуемо полезных машин. [224]

Рамки

Этическая допустимость проектов искусственного интеллекта может быть проверена при проектировании, разработке и внедрении системы ИИ. Структура искусственного интеллекта, такая как Care and Act Framework, содержащая значения SUM, разработанная Институтом Алана Тьюринга, тестирует проекты в четырех основных областях: [225] [226]

Другие разработки в области этических норм включают, среди прочего, решения, принятые на конференции Асиломар , Монреальскую декларацию об ответственном ИИ и инициативу IEEE по этике автономных систем; [227] Однако эти принципы не обходятся без критики, особенно в отношении избранных людей, способствующих этим основам. [228]

Содействие благополучию людей и сообществ, на которые влияют эти технологии, требует рассмотрения социальных и этических последствий на всех этапах проектирования, разработки и внедрения системы ИИ, а также сотрудничества между должностными лицами, такими как специалисты по обработке данных, менеджеры по продуктам, инженеры по обработке данных, специалисты по предметной области. специалисты и менеджеры по доставке. [229]

Регулирование

Саммит по безопасности ИИ
В 2023 году состоялся первый глобальный саммит по безопасности ИИ, на котором была принята декларация, призывающая к международному сотрудничеству.

Регулирование искусственного интеллекта — это разработка политики и законов государственного сектора для продвижения и регулирования искусственного интеллекта (ИИ); следовательно, это связано с более широким регулированием алгоритмов. [230] Нормативно-правовая и политическая среда в области ИИ является новой проблемой в юрисдикциях по всему миру. [231] Согласно AI Index в Стэнфорде , ежегодное количество законов, связанных с ИИ, принятых в 127 странах, принявших участие в исследовании, выросло с одного, принятого в 2016 году, до 37, принятых только в 2022 году. [232] [233] В период с 2016 по 2020 год более 30 стран приняли специальные стратегии в области ИИ. [234] Большинство государств-членов ЕС опубликовали национальные стратегии в области искусственного интеллекта, а также Канада, Китай, Индия, Япония, Маврикий, Российская Федерация, Саудовская Аравия, Объединенные Арабские Эмираты, США и Вьетнам. Другие, в том числе Бангладеш, Малайзия и Тунис, находились в процессе разработки собственной стратегии искусственного интеллекта. [234] Глобальное партнерство по искусственному интеллекту было запущено в июне 2020 года, заявив о необходимости разработки ИИ в соответствии с правами человека и демократическими ценностями, чтобы обеспечить общественное доверие к этой технологии. [234] Генри Киссинджер , Эрик Шмидт и Дэниел Хуттенлохер опубликовали в ноябре 2021 года совместное заявление с призывом создать правительственную комиссию по регулированию ИИ. [235] В 2023 году лидеры OpenAI опубликовали рекомендации по управлению сверхинтеллектом, что, по их мнению, может произойти менее чем через 10 лет. [236] В 2023 году ООН также создала консультативный орган для предоставления рекомендаций по управлению ИИ; В состав этого органа входят руководители технологических компаний, правительственные чиновники и ученые. [237]

Согласно опросу Ipsos 2022 года , отношение к ИИ сильно различалось в зависимости от страны; 78% граждан Китая и только 35% американцев согласились, что «продукты и услуги, использующие ИИ, имеют больше преимуществ, чем недостатков». [232] Опрос Reuters /Ipsos , проведенный в 2023 году, показал, что 61% американцев согласны, а 22% не согласны с тем, что ИИ представляет угрозу для человечества. [238] В опросе Fox News 2023 года 35% американцев сочли «очень важным», а еще 41% сочли «несколько важным» регулирование ИИ со стороны федерального правительства, по сравнению с 13%, ответившими «не очень важно». и 8% ответили «совсем не важно». [239] [240]

В ноябре 2023 года в Блетчли-Парке в Великобритании прошел первый глобальный саммит по безопасности ИИ , на котором обсуждались краткосрочные и долгосрочные риски ИИ, а также возможность создания обязательных и добровольных нормативных рамок. [241] 28 стран, включая США, Китай и Европейский Союз, в начале саммита опубликовали декларацию, призывающую к международному сотрудничеству для решения проблем и рисков, связанных с искусственным интеллектом. [242] [243]

История

Изучение механического или «формального» рассуждения началось с философов и математиков древности. Изучение логики привело непосредственно к теории вычислений Алана Тьюринга , которая предполагала, что машина, перетасовывая такие простые символы, как «0» и «1», может имитировать как математический вывод, так и формальные рассуждения, известную как Церковь Церкви . – Диссертация Тьюринга . [244] Это, наряду с одновременными открытиями в кибернетике и теории информации , побудило исследователей рассмотреть возможность создания «электронного мозга». [д] [246]

Алан Тьюринг думал о машинном интеллекте, по крайней мере, еще в 1941 году, когда он распространил статью о машинном интеллекте, которая могла стать самой ранней статьей в области искусственного интеллекта – хотя сейчас она утеряна. [2] Первой доступной статьей, общепризнанной как «ИИ», была разработка Маккаллуша и Питта для «искусственных нейронов» , полных по Тьюрингу, в 1943 году – первая математическая модель нейронной сети. [247] На эту статью повлияла более ранняя статья Тьюринга « О вычислимых числах » 1936 года, в которой использовались аналогичные логические «нейроны» с двумя состояниями, но он был первым, кто применил ее к функциям нейронов. [2]

Термин «машинный интеллект» использовался Аланом Тьюрингом при его жизни, а после его смерти в 1954 году его позже часто называли «искусственным интеллектом». В 1950 году Тьюринг опубликовал самую известную из своих работ « Вычислительная техника и интеллект » — статью представил широкой публике свою концепцию того, что сейчас известно как тест Тьюринга . Затем последовали три радиопередачи Тьюринга об искусственном интеллекте, лекции: «Интеллектуальные машины, еретическая теория», «Могут ли цифровые компьютеры мыслить»? и панельная дискуссия «Можно ли сказать, что автоматические вычислительные машины думают». К 1956 году в Великобритании компьютерная разведка активно развивалась уже более десяти лет; самые ранние программы искусственного интеллекта были написаны здесь в 1951–1952 годах. [2]

В 1951 году с использованием компьютера Ferranti Mark 1 Манчестерского университета были написаны программы для шашек и шахмат, в которых можно было играть против компьютера. [248] Область американских исследований ИИ была основана на семинаре в Дартмутском колледже в 1956 году. [r] [3] Участники стали лидерами исследований ИИ в 1960-х годах. [s] Они и их студенты создали программы, которые пресса назвала «удивительными»: [t] компьютеры изучали стратегии игры в шашки , решали текстовые задачи по алгебре, доказывали логические теоремы и говорили по-английски. [u] [4] Лаборатории искусственного интеллекта были созданы в ряде университетов Великобритании и США в конце 1950-х — начале 1960-х годов. [2]

Однако они недооценили сложность проблемы. [v] Правительства США и Великобритании прекратили исследовательские исследования в ответ на критику сэра Джеймса Лайтхилла [253] и продолжающееся давление со стороны Конгресса США с целью финансирования более продуктивных проектов . Книга Мински и Паперта «Перцептроны» была воспринята как доказательство того, что искусственные нейронные сети никогда не будут полезны для решения реальных задач, что полностью дискредитировало этот подход. [254] Последовала « зима ИИ », период, когда получение финансирования для проектов ИИ было затруднено. [6]

В начале 1980-х годов исследования ИИ были возрождены благодаря коммерческому успеху экспертных систем , [255] формы программы ИИ, которая имитировала знания и аналитические навыки людей-экспертов. К 1985 году рынок искусственного интеллекта превысил миллиард долларов. В то же время японский компьютерный проект пятого поколения вдохновил правительства США и Великобритании восстановить финансирование академических исследований . [5] Однако, начиная с краха рынка Lisp-машин в 1987 году, ИИ снова потерял репутацию, и началась вторая, более продолжительная зима. [7]

Многие исследователи начали сомневаться в том, что нынешние практики смогут имитировать все процессы человеческого познания, особенно восприятие , робототехнику, обучение и распознавание образов . [256] Ряд исследователей начали изучать «субсимволические» подходы. [257] Исследователи робототехники , такие как Родни Брукс , отвергли «представление» в целом и сосредоточились непосредственно на разработке машин, которые движутся и выживают. [w] Джудея Перл , Лофти Заде и другие разработали методы, которые обрабатывали неполную и неопределенную информацию, делая разумные предположения, а не точную логику. [85] [262] Но самым важным событием стало возрождение « коннекционизма », включая исследования нейронных сетей , Джеффри Хинтоном и другими. [263] В 1990 году Ян ЛеКун успешно показал, что сверточные нейронные сети могут распознавать рукописные цифры, что стало первым из многих успешных применений нейронных сетей. [264]

ИИ постепенно восстановил свою репутацию в конце 1990-х и начале 21 века, используя формальные математические методы и находя конкретные решения конкретных проблем. Эта « узкая » и «формальная» направленность позволила исследователям получать поддающиеся проверке результаты и сотрудничать с другими областями (такими как статистика , экономика и математика ). [265] К 2000 году решения, разработанные исследователями искусственного интеллекта, получили широкое распространение, хотя в 1990-е годы их редко называли «искусственным интеллектом». [266]

Некоторые академические исследователи были обеспокоены тем, что ИИ больше не преследует первоначальную цель — создание универсальных, полностью интеллектуальных машин. Примерно начиная с 2002 года они основали подразделение общего искусственного интеллекта (или «AGI»), в котором к 2010-м годам было несколько хорошо финансируемых учреждений. [11]

Глубокое обучение начало доминировать в отрасли в 2012 году и было внедрено во всех сферах. [8] Для многих конкретных задач от других методов отказались. [x] Успех глубокого обучения был основан как на усовершенствовании аппаратного обеспечения ( более быстрые компьютеры , [268] графические процессоры , облачные вычисления [269] ), так и на доступе к большим объемам данных [270] (включая тщательно подобранные наборы данных, [269] такие как ImageNet ).

Успех глубокого обучения привел к огромному увеличению интереса и финансирования ИИ. [y] Объем исследований в области машинного обучения (измеренный по общему количеству публикаций) увеличился на 50% в 2015–2019 годах, [234] и ВОИС сообщила, что ИИ является самой плодовитой новой технологией с точки зрения количества патентных заявок и выданных патентов. патенты. [271] По данным AI Impacts, примерно в 2022 году только в США около 50 миллиардов долларов ежегодно инвестировалось в ИИ, и около 20% новых выпускников докторских программ в области компьютерных наук в США специализировались в области ИИ; [272] В 2022 году в США существовало около 800 000 вакансий, связанных с «ИИ». [273] Подавляющее большинство достижений произошло в Соединенных Штатах , где их компании, университеты и исследовательские лаборатории проводят исследования в области искусственного интеллекта. [10]

В 2016 году вопросы справедливости и неправильного использования технологий оказались в центре внимания конференций по машинному обучению, количество публикаций значительно увеличилось, появилось финансирование, и многие исследователи переориентировали свою карьеру на эти проблемы. Проблема выравнивания стала серьезной областью академических исследований. [213]

Философия

Определение искусственного интеллекта

Алан Тьюринг написал в 1950 году: «Я предлагаю рассмотреть вопрос: могут ли машины думать?» [274] Он посоветовал изменить вопрос с «думает ли машина» на «может ли машина демонстрировать разумное поведение». [274] Он разработал тест Тьюринга, который измеряет способность машины имитировать человеческий разговор. [275] Поскольку мы можем только наблюдать за поведением машины, не имеет значения, «на самом деле» она думает или буквально обладает «разумом». Тьюринг отмечает, что мы не можем определить эти вещи о других людях [z] , но «обычно существует вежливое соглашение, согласно которому все думают» [276]

Рассел и Норвиг согласны с Тьюрингом в том, что ИИ следует определять с точки зрения «действия», а не «мышления». [277] Однако им очень важно, чтобы в тесте машины сравнивались с людьми . « Тексты по авиационной технике , — писали они, — не определяют цель своей области как создание «машин, которые летают настолько точно, как голуби , что могут обмануть других голубей » . [278] Основатель искусственного интеллекта Джон Маккарти согласился, написав, что « искусственные интеллект по определению не является симуляцией человеческого интеллекта». [279]

Маккарти определяет интеллект как «вычислительную часть способности достигать целей в мире». [280] Другой основатель ИИ, Марвин Мински , также определяет его как «способность решать сложные проблемы». [281] Эти определения рассматривают интеллект как четко определенные проблемы с четко определенными решениями, где и сложность проблемы, и производительность программы являются прямыми мерами «интеллекта» машины, а не какие-либо другие философские дискуссии. требуется или даже невозможен.

Другое определение было принято Google, [282] крупным практиком в области искусственного интеллекта. Это определение предусматривает способность систем синтезировать информацию как проявление интеллекта, аналогично тому, как это определяется в биологическом интеллекте.

Оценка подходов к ИИ

Никакая устоявшаяся объединяющая теория или парадигма не направляла исследования ИИ на протяжении большей части его истории. [aa] Беспрецедентный успех статистического машинного обучения в 2010-х годах затмил все другие подходы (настолько, что некоторые источники, особенно в деловом мире, используют термин «искусственный интеллект» для обозначения «машинного обучения с нейронными сетями»). Этот подход в основном субсимволический , мягкий и узкий (см. ниже). Критики утверждают, что будущим поколениям исследователей ИИ, возможно, придется вернуться к этим вопросам.

Символический ИИ и его пределы

Символический ИИ (или « GOFAI ») [284] имитировал сознательные рассуждения высокого уровня, которые люди используют, когда решают головоломки, выражают юридические рассуждения и занимаются математикой. Они очень успешно справлялись с «умными» задачами, такими как алгебра или тесты на IQ. В 1960-х годах Ньюэлл и Саймон предложили гипотезу системы физических символов : «Система физических символов обладает необходимыми и достаточными средствами общего разумного действия». [285]

Однако символический подход не справился со многими задачами, которые люди легко решают, такими как обучение, распознавание объекта или здравое рассуждение. Парадокс Моравца заключается в открытии того, что «интеллектуальные» задачи высокого уровня были легкими для ИИ, а «инстинктивные» задачи низкого уровня были чрезвычайно трудными. [286] Философ Хьюберт Дрейфус с 1960-х годов утверждал , что человеческий опыт зависит от бессознательного инстинкта, а не от сознательного манипулирования символами, и от «чувства» ситуации, а не от явного символического знания. [287] Хотя его аргументы были высмеяны и проигнорированы, когда они были впервые представлены, в конечном итоге исследования ИИ пришли к его мнению. [аб] [16]

Проблема не решена: субсимволические рассуждения могут совершать многие из тех же непостижимых ошибок, что и человеческая интуиция, например алгоритмическая предвзятость . Критики, такие как Ноам Хомский, утверждают, что продолжение исследований символического ИИ по-прежнему будет необходимо для достижения общего интеллекта, [289] [290] отчасти потому, что субсимволический ИИ представляет собой отход от объяснимого ИИ : может быть трудно или невозможно понять, почему современная статистическая программа искусственного интеллекта приняла конкретное решение. Развивающаяся область нейросимволического искусственного интеллекта пытается соединить два подхода.

Аккуратный против неряшливого

«Чистые» надеются, что разумное поведение описывается с использованием простых и элегантных принципов (таких как логика , оптимизация или нейронные сети ). «Неряшливы» ожидают, что это обязательно потребует решения большого количества несвязанных между собой задач. Чистоплотные защищают свои программы с теоретической строгостью, неряшливые полагаются главным образом на постепенное тестирование, чтобы увидеть, работают ли они. Этот вопрос активно обсуждался в 1970-е и 1980-е годы, [291] но в конечном итоге был признан неактуальным. Современный ИИ имеет элементы и того, и другого.

Мягкие и жесткие вычисления

Для многих важных задач найти доказуемо правильное или оптимальное решение сложно . [15] Мягкие вычисления — это набор методов, включая генетические алгоритмы , нечеткую логику и нейронные сети , которые терпимы к неточностям, неопределенности, частичной истине и приближению. Мягкие вычисления были представлены в конце 1980-х годов, и наиболее успешные программы искусственного интеллекта в 21 веке являются примерами мягких вычислений с нейронными сетями.

Узкий и общий ИИ

Исследователи ИИ разделились во мнениях относительно того, следует ли напрямую преследовать цели искусственного общего интеллекта и сверхинтеллекта или решать как можно больше конкретных проблем ( узкий ИИ ) в надежде, что эти решения косвенно приведут к долгосрочным целям в этой области. [292] [293] Общий интеллект трудно определить и измерить, а современный ИИ добился более проверяемых успехов, сосредоточив внимание на конкретных проблемах и конкретных решениях. Экспериментальное подразделение общего искусственного интеллекта изучает исключительно эту область.

Машинное сознание, разум и разум

Философия разума не знает, может ли машина обладать разумом , сознанием и психическими состояниями в том же смысле, что и люди. В этом вопросе учитывается внутренний опыт машины, а не ее внешнее поведение. Основные исследования в области искусственного интеллекта считают этот вопрос неактуальным, поскольку он не влияет на цели этой области: создание машин, которые могут решать проблемы с помощью интеллекта. Рассел и Норвиг добавляют, что «дополнительный проект по созданию машины, обладающей таким же сознанием, как и люди, — это не тот проект, за который мы готовы взяться». [294] Однако этот вопрос стал центральным в философии разума. Это также, как правило, центральный вопрос, обсуждаемый в области искусственного интеллекта в художественной литературе .

Сознание

Дэвид Чалмерс выделил две проблемы в понимании разума, которые он назвал «сложными» и «легкими» проблемами сознания. [295] Самая простая задача — понять, как мозг обрабатывает сигналы, строит планы и контролирует поведение. Сложная проблема состоит в том, чтобы объяснить, как это ощущается или почему это вообще должно ощущаться как-то, предполагая, что мы правы, думая, что это действительно что-то ощущается (иллюзоризм сознания Деннета говорит, что это иллюзия). Обработку информации человеком легко объяснить, однако субъективный опыт человека объяснить сложно. Например, легко представить человека, страдающего дальтонизмом, который научился определять, какие объекты в его поле зрения являются красными, но неясно, что потребуется, чтобы человек знал, как выглядит красный цвет . [296]

Компьютерализм и функционализм

Компьютерализм — это позиция в философии разума , согласно которой человеческий разум — это система обработки информации, а мышление — это форма вычислений. Компьютерализм утверждает, что отношения между разумом и телом аналогичны или идентичны отношениям между программным обеспечением и оборудованием и, таким образом, могут быть решением проблемы разума и тела . Эта философская позиция была вдохновлена ​​работами исследователей искусственного интеллекта и ученых-когнитивистов в 1960-х годах и первоначально была предложена философами Джерри Фодором и Хилари Патнэм . [297]

Философ Джон Сирл охарактеризовал эту позицию как « сильный ИИ »: «Правильно запрограммированный компьютер с правильными входами и выходами, таким образом, будет обладать разумом точно в том же смысле, в котором разум есть у людей». [ac] Серл опровергает это утверждение своим аргументом о китайской комнате, который пытается показать, что, даже если машина идеально имитирует человеческое поведение, все равно нет оснований предполагать, что она также обладает разумом. [301]

Права роботов

Если у машины есть разум и субъективный опыт, то она также может обладать разумом (способностью чувствовать), и в этом случае она также может страдать ; утверждалось, что это может дать ему определенные права. [302] Любые гипотетические права роботов будут лежать в одном ряду с правами животных и правами человека. [303] Этот вопрос рассматривался в художественной литературе на протяжении веков, [304] и сейчас рассматривается, например, Калифорнийским Институтом Будущего ; однако критики утверждают, что дискуссия преждевременна. [305]

Будущее

Сверхинтеллект и сингулярность

Сверхинтеллект — это гипотетический агент, обладающий интеллектом, намного превосходящим интеллект самого яркого и одаренного человеческого разума. [293]

Если бы исследования в области общего искусственного интеллекта привели к созданию достаточно интеллектуального программного обеспечения, оно могло бы перепрограммировать и улучшить себя. Усовершенствованное программное обеспечение будет еще лучше самосовершенствоваться, что приведет к тому, что И.Дж. Гуд назвал « интеллектуальным взрывом », а Вернор Виндж — « сингулярностью ». [306]

Однако технологии не могут совершенствоваться экспоненциально бесконечно и обычно следуют S-образной кривой , замедляясь, когда достигают физических пределов возможностей технологии. [307]

Трансгуманизм

Конструктор роботов Ганс Моравец , кибернетик Кевин Уорвик и изобретатель Рэй Курцвейл предсказали, что люди и машины в будущем сольются в киборгов , которые будут более способными и могущественными, чем оба. Эта идея, названная трансгуманизмом, имеет корни у Олдоса Хаксли и Роберта Эттингера . [308]

Эдвард Фредкин утверждает, что «искусственный интеллект — это следующий этап эволюции», идея, впервые предложенная Сэмюэлем Батлером в книге « Дарвин среди машин » еще в 1863 году и развитая Джорджем Дайсоном в его одноименной книге в 1863 году. 1998. [309]

В фантастике

Само слово «робот» было придумано Карелом Чапекам в его пьесе « RUR» 1921 года , название означает «Универсальные роботы Россум».

Искусственные существа, способные мыслить, появлялись в качестве средств повествования с античных времен [310] и были постоянной темой в научной фантастике . [311]

Общий образ в этих произведениях начался с «Франкенштейна » Мэри Шелли , где человеческое творение становится угрозой для своих хозяев. Сюда входят такие работы, как «Космическая одиссея 2001 года» Артура Кларка и Стэнли Кубрика (обе 1968 года) с HAL 9000 , смертоносным компьютером, управляющим космическим кораблем Discovery One , а также «Терминатор» (1984 год) и «Матрица» (1999 год). ). Напротив, редкие верные роботы, такие как Горт из « Дня, когда Земля остановилась» (1951) и Бишоп из «Чужих» (1986), менее заметны в популярной культуре. [312]

Айзек Азимов представил Три закона робототехники во многих книгах и рассказах, в первую очередь в серии «Мультивак» об одноименном сверхразумном компьютере. Законы Азимова часто поднимаются во время непрофессиональных дискуссий по этике машин; [313] хотя почти все исследователи искусственного интеллекта знакомы с законами Азимова через массовую культуру, они обычно считают эти законы бесполезными по многим причинам, одной из которых является их двусмысленность. [314]

В нескольких работах ИИ используется, чтобы заставить нас ответить на фундаментальный вопрос о том, что делает нас людьми, показывая нам искусственные существа, обладающие способностью чувствовать и, следовательно, страдать. Это появляется в фильме Карела Чапека « RUR » , фильмах «Искусственный интеллект ИИ » и «Из машины» , а также в романе « Мечтают ли андроиды об электроовцах?» , Филип К. Дик . Дик рассматривает идею о том, что наше понимание человеческой субъективности меняется благодаря технологиям, созданным с помощью искусственного интеллекта. [315]

Смотрите также

Заметки с пояснениями

  1. ^ ab Этот список интеллектуальных качеств основан на темах, охватываемых основными учебниками по искусственному интеллекту, в том числе: Рассел и Норвиг (2021 г.), Люгер и Стабблфилд (2004 г.), Пул, Макворт и Гебель (1998 г.) и Нильссон (1998 г.).
  2. ^ ab Этот список инструментов основан на темах, охватываемых основными учебниками по искусственному интеллекту, в том числе: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) и Nilsson (1998).
  3. ^ Это одна из причин того, что экспертные системы оказались неэффективными для сбора знаний. [30] [31]
  4. ^ «Рациональный агент» — общий термин, используемый в экономике , философии и теоретическом искусственном интеллекте. Он может относиться ко всему, что направляет его поведение для достижения целей, например, к человеку, животному, корпорации, нации или, в случае ИИ, к компьютерной программе.
  5. Алан Тьюринг обсуждал центральную роль обучения еще в 1950 году в своей классической статье « Вычислительная техника и интеллект ». [42] В 1956 году на первой летней конференции по искусственному интеллекту в Дартмуте Рэй Соломонов написал доклад о вероятностном машинном обучении без учителя: «Машина индуктивного вывода». [43]
  6. ^ См. AI Winter § Машинный перевод и отчет ALPAC за 1966 год.
  7. ^ По сравнению с символической логикой формальный байесовский вывод требует больших вычислительных затрат. Чтобы вывод был осуществимым, большинство наблюдений должны быть условно независимыми друг от друга. AdSense использует байесовскую сеть с более чем 300 миллионами ребер, чтобы определить, какую рекламу показывать. [87]
  8. ^ Максимизация ожидания, один из самых популярных алгоритмов в машинном обучении, позволяет выполнять кластеризацию при наличии неизвестных скрытых переменных . [89]
  9. ^ Некоторые формы глубоких нейронных сетей (без специального алгоритма обучения) были описаны: Алан Тьюринг (1948); [113] Фрэнк Розенблатт (1957); [113] Карл Стейнбух и Роджер Дэвид Джозеф (1961). [114] Глубокие или рекуррентные сети, которые обучались (или использовали градиентный спуск), были разработаны: Эрнстом Изингом и Вильгельмом Ленцем (1925); [115] Оливер Селфридж (1959); [114] Алексей Ивахненко и Валентин Лапа (1965); [115] Каору Накано (1977); [116] Сюн-Ичи Амари (1972); [116] Джон Джозеф Хопфилд (1982). [116] Обратное распространение ошибки было независимо открыто: Генри Дж. Келли (1960); [113] Артур Э. Брайсон (1962); [113] Стюарт Дрейфус (1962); [113] Артур Э. Брайсон и Ю-Чи Хо (1969); [113] Сеппо Линнаинмаа (1970); [117] Пол Вербос (1974). [113] Фактически, обратное распространение ошибки и градиентный спуск являются прямым применением цепного правила Готфрида Лейбница в исчислении (1676), [118] и по существу идентичны (для одного слоя) методу наименьших квадратов , независимо разработанному Иоганном Карлом. Фридрих Гаусс (1795 г.) и Адриен-Мари Лежандр (1805 г.). [119] Вероятно, есть много других, которые еще предстоит открыть историкам науки.
  10. Джеффри Хинтон сказал о своей работе над нейронными сетями в 1990-х годах: «Наши размеченные наборы данных были в тысячи раз слишком малы. [И] наши компьютеры были в миллионы раз медленнее» [120]
  11. ^ Включая Джона Кляйнберга ( Корнелл ), Сэндила Муллайнатана ( Чикагский университет ), Синтии Чулдеховой ( Карнеги-Меллон ) и Сэма Корбетта-Дэвиса ( Стэнфорд ) [167]
  12. ^ Мориц Хардт (директор Института интеллектуальных систем Макса Планка ) утверждает, что машинное обучение «в корне неправильный инструмент для многих областей, где вы пытаетесь разработать меры и механизмы, которые изменят мир». [172]
  13. ^ Когда закон был принят в 2018 году, он все еще содержал форму этого положения.
  14. ^ Это определение Организации Объединенных Наций , которое также включает в себя такие вещи, как наземные мины . [185]
  15. ^ См. таблицу 4; 9% — это средний показатель по ОЭСР и США. [198]
  16. ^ Иногда его называют « робопокалипсисом ». [205]
  17. ^ «Электронный мозг» — термин, использовавшийся в прессе примерно в то время. [245]
  18. Дэниел Кревье писал: «Конференция общепризнана официальной датой рождения новой науки». [249] Рассел и Норвиг назвали конференцию «зарождением искусственного интеллекта». [247]
  19. Рассел и Норвиг писали: «В течение следующих 20 лет в этой области будут доминировать эти люди и их ученики». [250]
  20. Рассел и Норвиг писали: «Это было удивительно, когда компьютер делал что-то умное». [251]
  21. ^ Описанные программы - это программа шашек Артура Сэмюэля для IBM 701 , STUDENT Дэниела Боброу , Теоретик логики Ньюэлла и Саймона и SHRDLU Терри Винограда .
  22. ^ Рассел и Норвиг пишут: «почти во всех случаях эти ранние системы терпели неудачу при решении более сложных задач» [252]
  23. ^ Воплощенные подходы к ИИ [258] отстаивались Гансом Моравецом [259] и Родни Бруксом [260] и имели много названий: Nouvelle AI . [260] Развивающая робототехника , [261]
  24. Маттео Вонг писал в The Atlantic : «В то время как на протяжении десятилетий в таких областях компьютерных наук, как обработка естественного языка, компьютерное зрение и робототехника, использовались совершенно разные методы, теперь все они используют метод программирования, называемый «глубоким обучением». , их код и подходы стали более похожими, а их модели легче интегрировать друг в друга». [267]
  25. Джек Кларк написал в Bloomberg : «После пятидесяти лет тихих прорывов в области искусственного интеллекта 2015 год стал знаковым. Компьютеры стали умнее и обучаются быстрее, чем когда-либо», и отметил, что количество программных проектов, использующих машинное обучение, Google увеличился с «спорадического использования» в 2012 году до более чем 2700 проектов в 2015 году. [269]
  26. ^ См. «Проблему других умов».
  27. Нильс Нильссон писал в 1983 году: «Проще говоря, в этой области существуют широкие разногласия по поводу того, что такое ИИ». [283]
  28. Дэниел Кревье писал, что «время доказало точность и проницательность некоторых комментариев Дрейфуса. Если бы он сформулировал их менее агрессивно, предлагаемые ими конструктивные действия могли бы быть предприняты гораздо раньше». [288]
  29. Сирл представил это определение «сильного ИИ» в 1999 году. [298] Первоначальная формулировка Сирла гласила: «Правильно запрограммированный компьютер на самом деле является разумом в том смысле, что можно буквально сказать, что компьютеры с правильными программами понимают и имеют другие когнитивные состояния». ." [299] Сильный ИИ аналогично определяется Расселом и Норвигом : «Сильный ИИ – утверждение, что машины, которые это делают, на самом деле думают (а не моделируют мышление)». [300]

Рекомендации

  1. ^ Google (2016).
  2. ^ abcde Коупленд, Дж., изд. (2004). Сущность Тьюринга: идеи, породившие компьютерную эпоху . Оксфорд, Англия: Clarendon Press. ISBN 0-19-825079-7.
  3. ^ аб Дартмутская мастерская :
    • Рассел и Норвиг (2021, стр. 18)
    • МакКордак (2004, стр. 111–136)
    • НРК (1999, стр. 200–201)
    Предложение:
    • Маккарти и др. (1955)
  4. ^ ab Успешные программы 1960-х годов:
    • МакКордак (2004, стр. 243–252)
    • Кревье (1993, стр. 52–107).
    • Моравец (1988, стр. 9)
    • Рассел и Норвиг (2021, стр. 19–21)
  5. ^ ab Инициативы по финансированию в начале 1980-х годов: Проект пятого поколения (Япония), Алви (Великобритания), Корпорация микроэлектроники и компьютерных технологий (США), Инициатива стратегических вычислений (США):
    • МакКордак (2004, стр. 426–441)
    • Кревье (1993, стр. 161–162, 197–203, 211, 240)
    • Рассел и Норвиг (2021, стр. 23)
    • НРК (1999, стр. 210–211)
    • Ньюквист (1994, стр. 235–248).
  6. ^ ab Первая зима AI , отчет Лайтхилла , поправка Мэнсфилда
    • Кревье (1993, стр. 115–117).
    • Рассел и Норвиг (2021, стр. 21–22)
    • НРК (1999, стр. 212–213)
    • Хау (1994)
    • Ньюквист (1994, стр. 189–201)
  7. ^ ab Вторая зима AI :
    • Рассел и Норвиг (2021, стр. 24)
    • МакКордак (2004, стр. 430–435)
    • Кревье (1993, стр. 209–210).
    • НРК (1999, стр. 214–216)
    • Ньюквист (1994, стр. 301–318).
  8. ^ ab Революция глубокого обучения , AlexNet :
    • Гольдман (2022)
    • Рассел и Норвиг (2021, стр. 26)
    • МакКинси (2018)
  9. ^ Тэйвс (2023).
  10. ^ аб Франк (2023).
  11. ^ abc Общий искусственный интеллект :
    • Рассел и Норвиг (2021, стр. 32–33, 1020–1021)
    Предложение по современной версии:
    • Пенначин и Герцель (2007)
    Предупреждения о чрезмерной специализации в области ИИ от ведущих исследователей:
    • Нильссон (1995)
    • Маккарти (2007)
    • Бил и Уинстон (2009)
  12. ^ Рассел и Норвиг (2021, §1.2).
  13. ^ Решение задач, решение головоломок, игры и дедукции:
    • Рассел и Норвиг (2021 г., главы 3–5)
    • Рассел и Норвиг (2021, глава 6) ( удовлетворение ограничений )
    • Пул, Макворт и Гебель (1998, главы 2, 3, 7, 9)
    • Люгер и Стабблфилд (2004, главы 3, 4, 6, 8)
    • Нильссон (1998, глава 7–12)
  14. ^ Неопределенные рассуждения:
    • Рассел и Норвиг (2021 г., главы 12–18)
    • Пул, Макворт и Гебель (1998, стр. 345–395).
    • Люгер и Стабблфилд (2004, стр. 333–381)
    • Нильссон (1998, глава 7–12)
  15. ^ abc Неразрешимость, эффективность и комбинаторный взрыв :
    • Рассел и Норвиг (2021, стр. 21)
  16. ^ abc Психологические доказательства распространенности субсимволических рассуждений и знаний:
    • Канеман (2011)
    • Дрейфус и Дрейфус (1986)
    • Уэйсон и Шапиро (1966)
    • Канеман, Слович и Тверски (1982)
  17. ^ Представление знаний и инженерия знаний :
    • Рассел и Норвиг (2021, глава 10)
    • Пул, Макворт и Гебель (1998, стр. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345)
    • Люгер и Стабблфилд (2004, стр. 227–243),
    • Нильссон (1998, глава 17.1–17.4, 18)
  18. ^ Смоляр и Чжан (1994).
  19. ^ Нойманн и Мёллер (2008).
  20. ^ Куперман, Райхли и Бейли (2006).
  21. ^ МакГарри (2005).
  22. ^ Бертини, Дель Бимбо и Торниай (2006).
  23. ^ Рассел и Норвиг (2021), стр. 272.
  24. ^ Представление категорий и отношений: Семантические сети , логика описания , наследование (включая фреймы и скрипты ):
    • Рассел и Норвиг (2021 г., §10.2 и 10.5),
    • Пул, Макворт и Гебель (1998, стр. 174–177),
    • Люгер и Стабблфилд (2004, стр. 248–258),
    • Нильссон (1998, глава 18.3)
  25. ^ Представление событий и времени: исчисление ситуаций , исчисление событий , беглое исчисление (включая решение проблемы фрейма ):
    • Рассел и Норвиг (2021, §10.3),
    • Пул, Макворт и Гебель (1998, стр. 281–298),
    • Нильссон (1998, глава 18.2)
  26. ^ Причинное исчисление :
    • Пул, Макворт и Гебель (1998, стр. 335–337).
  27. ^ Представление знаний о знаниях: исчисление убеждений, модальная логика :
    • Рассел и Норвиг (2021, §10.4),
    • Пул, Макворт и Гебель (1998, стр. 275–277).
  28. ^ ab Рассуждение по умолчанию , Проблема фрейма , логика по умолчанию , немонотонная логика , ограничение , предположение о замкнутом мире , похищение :
    • Рассел и Норвиг (2021, §10.6)
    • Пул, Макворт и Гебель (1998, стр. 248–256, 323–335)
    • Люгер и Стабблфилд (2004, стр. 335–363)
    • Нильссон (1998, ~18.3.3)
    (Пул и др. относят похищение к «рассуждению по умолчанию». Люгер и др. относят это к «неопределенному обоснованию»).
  29. ^ ab Широта здравых знаний:
    • Ленат и Гуха (1989, Введение)
    • Кревье (1993, стр. 113–114),
    • Моравец (1988, стр. 13),
    • Рассел и Норвиг (2021, стр. 241, 385, 982) ( проблема квалификации )
  30. ^ Ньюквист (1994), с. 296.
  31. ^ Кревье (1993), стр. 204–208.
  32. ^ Рассел и Норвиг (2021), с. 528.
  33. ^ Автоматизированное планирование :
    • Рассел и Норвиг (2021, глава 11).
  34. ^ Автоматизированное принятие решений , Теория принятия решений :
    • Рассел и Норвиг (2021 г., глава 16–18).
  35. ^ Классическое планирование :
    • Рассел и Норвиг (2021 г., раздел 11.2).
  36. ^ Бездатчиковое или «соответствующее» планирование, условное планирование, перепланирование (также известное как онлайн-планирование):
    • Рассел и Норвиг (2021 г., раздел 11.5).
  37. ^ Неопределенные предпочтения:
    • Рассел и Норвиг (2021, раздел 16.7)
    Обучение с обратным подкреплением :
    • Рассел и Норвиг (2021, раздел 22.6)
  38. ^ Теория ценности информации :
    • Рассел и Норвиг (2021 г., раздел 16.6).
  39. ^ Марковский процесс принятия решения :
    • Рассел и Норвиг (2021, глава 17).
  40. ^ Теория игр и теория многоагентных решений:
    • Рассел и Норвиг (2021 г., глава 18).
  41. ^ Обучение :
    • Рассел и Норвиг (2021 г., глава 19–22)
    • Пул, Макворт и Гебель (1998, стр. 397–438).
    • Люгер и Стабблфилд (2004, стр. 385–542)
    • Нильссон (1998, гл. 3.3, 10.3, 17.5, 20)
  42. ^ Тьюринг (1950).
  43. ^ Соломонов (1956).
  44. ^ Обучение без присмотра :
  45. ^ ab Обучение под наблюдением :
    • Рассел и Норвиг (2021, §19.2) (определение)
    • Рассел и Норвиг (2021, глава 19–20) (Методы)
  46. ^ Обучение с подкреплением :
    • Рассел и Норвиг (2021, глава 22)
    • Люгер и Стабблфилд (2004, стр. 442–449)
  47. ^ Передача обучения :
    • Рассел и Норвиг (2021, стр. 281)
    • Экономист (2016)
  48. ^ «Искусственный интеллект (ИИ): что такое ИИ и как он работает? | Встроенный». встроенный.com . Проверено 30 октября 2023 г.
  49. ^ Теория вычислительного обучения :
    • Рассел и Норвиг (2021, стр. 672–674)
    • Джордан и Митчелл (2015)
  50. ^ Обработка естественного языка (НЛП):
    • Рассел и Норвиг (2021 г., главы 23–24)
    • Пул, Макворт и Гебель (1998, стр. 91–104).
    • Люгер и Стабблфилд (2004, стр. 591–632)
  51. ^ Подзадачи НЛП :
    • Рассел и Норвиг (2021, стр. 849–850)
  52. ^ Рассел и Норвиг (2021), с. 856–858.
  53. ^ Диксон (2022).
  54. ^ Современные статистические подходы и подходы к глубокому обучению в НЛП :
    • Рассел и Норвиг (2021, глава 24)
    • Камбрия и Уайт (2014)
  55. ^ Винсент (2019).
  56. ^ Рассел и Норвиг (2021), с. 875–878.
  57. ^ Бушвик (2023).
  58. ^ Компьютерное зрение :
    • Рассел и Норвиг (2021, глава 25)
    • Нильссон (1998, глава 6)
  59. ^ Рассел и Норвиг (2021), стр. 849–850.
  60. ^ Рассел и Норвиг (2021), стр. 895–899.
  61. ^ Рассел и Норвиг (2021), стр. 899–901.
  62. ^ Рассел и Норвиг (2021), стр. 931–938.
  63. ^ MIT AIL (2014).
  64. ^ Аффективные вычисления :
    • Тро (1993)
    • Эдельсон (1991)
    • Тао и Тан (2005)
    • Скасселлати (2002)
  65. ^ Уодделл (2018).
  66. ^ Пория и др. (2017).
  67. ^ Алгоритмы поиска :
    • Рассел и Норвиг (2021 г., главы 3–5)
    • Пул, Макворт и Гебель (1998, стр. 113–163).
    • Люгер и Стабблфилд (2004, стр. 79–164, 193–219)
    • Нильссон (1998, глава 7–12)
  68. ^ Поиск в пространстве состояний :
    • Рассел и Норвиг (2021, глава 3)
  69. ^ Рассел и Норвиг (2021), §11.2.
  70. ^ Неинформированный поиск ( поиск в ширину , поиск в глубину и поиск в пространстве общего состояния ):
    • Рассел и Норвиг (2021, §3.4)
    • Пул, Макворт и Гебель (1998, стр. 113–132).
    • Люгер и Стабблфилд (2004, стр. 79–121)
    • Нильссон (1998, глава 8)
  71. ^ Эвристический или информированный поиск (например, жадный « сначала лучший» и A* ):
    • Рассел и Норвиг (2021, раздел 3.5)
    • Пул, Макворт и Гебель (1998, стр. 132–147).
    • Пул и Макворт (2017, §3.6)
    • Люгер и Стабблфилд (2004, стр. 133–150)
  72. ^ Состязательный поиск :
    • Рассел и Норвиг (2021, глава 5)
  73. ^ Локальный поиск или поиск по « оптимизации »:
    • Рассел и Норвиг (2021, глава 4)
  74. Сингх Чаухан, Нагеш (18 декабря 2020 г.). «Алгоритмы оптимизации в нейронных сетях». КДнаггетс . Проверено 13 января 2024 г.
  75. ^ Эволюционные вычисления :
    • Рассел и Норвиг (2021, §4.1.2)
  76. ^ Меркл и Миддендорф (2013).
  77. ^ Логика :
    • Рассел и Норвиг (2021 г., главы 6–9)
    • Люгер и Стабблфилд (2004, стр. 35–77)
    • Нильссон (1998, глава 13–16)
  78. ^ Пропозициональная логика :
    • Рассел и Норвиг (2021, глава 6)
    • Люгер и Стабблфилд (2004, стр. 45–50)
    • Нильссон (1998, глава 13)
  79. ^ Логика первого порядка и такие функции, как равенство :
    • Рассел и Норвиг (2021, глава 7)
    • Пул, Макворт и Гебель (1998, стр. 268–275),
    • Люгер и Стабблфилд (2004, стр. 50–62),
    • Нильссон (1998, глава 15)
  80. ^ Логический вывод :
    • Рассел и Норвиг (2021, глава 10)
  81. ^ Рассел и Норвиг (2021), §8.3.1.
  82. ^ Разрешение и унификация :
    • Рассел и Норвиг (2021 г., §7.5.2, §9.2, §9.5)
  83. ^ Прямая цепочка , обратная цепочка , предложения Хорна и логический вывод в виде поиска:
    • Рассел и Норвиг (2021, §9.3, §9.4)
    • Пул, Макворт и Гебель (1998, стр. ~46–52)
    • Люгер и Стабблфилд (2004, стр. 62–73)
    • Нильссон (1998, главы 4.2, 7.2)
  84. ^ Нечеткая логика :
    • Рассел и Норвиг (2021, стр. 214, 255, 459)
    • Научный американец (1999)
  85. ^ ab Стохастические методы для неопределенных рассуждений:
    • Рассел и Норвиг (2021 г., главы 12–18 и 20),
    • Пул, Макворт и Гебель (1998, стр. 345–395),
    • Люгер и Стабблфилд (2004, стр. 165–191, 333–381),
    • Нильссон (1998, глава 19)
  86. ^ Байесовские сети :
    • Рассел и Норвиг (2021 г., §12.5–12.6, §13.4–13.5, §14.3–14.5, §16.5, §20.2–20.3),
    • Пул, Макворт и Гебель (1998, стр. 361–381),
    • Люгер и Стабблфилд (2004, стр. ~182–190, ≈363–379),
    • Нильссон (1998, глава 19.3–4)
  87. ^ Домингос (2015), глава 6.
  88. ^ Алгоритм байесовского вывода :
    • Рассел и Норвиг (2021 г., §13.3–13.5),
    • Пул, Макворт и Гебель (1998, стр. 361–381),
    • Люгер и Стабблфилд (2004, стр. ~363–379),
    • Нильссон (1998, главы 19.4 и 7)
  89. ^ Домингос (2015), с. 210.
  90. ^ Байесовское обучение и алгоритм максимизации ожидания :
    • Рассел и Норвиг (2021, глава 20),
    • Пул, Макворт и Гебель (1998, стр. 424–433),
    • Нильссон (1998, глава 20)
    • Домингуш (2015, стр. 210)
  91. ^ Байесовская теория принятия решений и байесовские сети принятия решений :
    • Рассел и Норвиг (2021, §16.5)
  92. ^ abc Стохастические временные модели:
    • Рассел и Норвиг (2021, глава 14)
    Скрытая марковская модель :
    • Рассел и Норвиг (2021, §14.3)
    Фильтры Калмана :
    • Рассел и Норвиг (2021, §14.4)
    Динамические байесовские сети :
    • Рассел и Норвиг (2021, §14.5)
  93. ^ теория принятия решений и анализ решений :
    • Рассел и Норвиг (2021 г., глава 16–18),
    • Пул, Макворт и Гебель (1998, стр. 381–394).
  94. ^ Теория ценности информации :
    • Рассел и Норвиг (2021, §16.6)
  95. ^ Марковские процессы принятия решений и динамические сети принятия решений :
    • Рассел и Норвиг (2021, глава 17)
  96. ^ Теория игр и проектирование механизмов :
    • Рассел и Норвиг (2021, глава 18)
  97. ^ Статистические методы обучения и классификаторы :
    • Рассел и Норвиг (2021, глава 20),
  98. ^ Деревья решений :
    • Рассел и Норвиг (2021, §19.3)
    • Домингуш (2015, стр. 88)
  99. ^ Непараметрические модели обучения, такие как K-ближайший сосед и машины опорных векторов :
    • Рассел и Норвиг (2021, §19.7)
    • Домингуш (2015, стр. 187) (к-ближайший сосед)
    • Домингос (2015, стр. 88) (методы ядра)
  100. ^ Домингос (2015), с. 152.
  101. ^ Наивный байесовский классификатор :
    • Рассел и Норвиг (2021, §12.6)
    • Домингуш (2015, стр. 152)
  102. ^ ab Нейронные сети:
    • Рассел и Норвиг (2021, глава 21),
    • Домингос (2015, глава 4)
  103. ^ Вычисление градиента в вычислительных графах, обратное распространение ошибки , автоматическое дифференцирование :
    • Рассел и Норвиг (2021, §21.2),
    • Люгер и Стабблфилд (2004, стр. 467–474),
    • Нильссон (1998, глава 3.3)
  104. ^ Теорема об универсальной аппроксимации :
    • Рассел и Норвиг (2021, стр. 752)
    Теорема:
    • Цыбенко (1988)
    • Хорник, Стинчкомб и Уайт (1989)
  105. ^ Нейронные сети прямого распространения :
    • Рассел и Норвиг (2021, §21.1)
  106. ^ Рекуррентные нейронные сети :
    • Рассел и Норвиг (2021, §21.6)
  107. ^ Перцептроны :
    • Рассел и Норвиг (2021, стр. 21, 22, 683, 22)
  108. ^ ab Глубокое обучение :
    • Рассел и Норвиг (2021, глава 21)
    • Гудфеллоу, Бенджио и Курвиль (2016)
    • Хинтон и др. (2016)
    • Шмидхубер (2015)
  109. ^ Сверточные нейронные сети :
    • Рассел и Норвиг (2021, §21.3)
  110. ^ Дэн и Ю (2014), стр. 199–200.
  111. ^ Чиресан, Мейер и Шмидхубер (2012).
  112. ^ Рассел и Норвиг (2021), с. 751.
  113. ^ abcdefg Рассел и Норвиг (2021), с. 785.
  114. ^ аб Шмидхубер (2022), §5.
  115. ^ аб Шмидхубер (2022), §6.
  116. ^ abc Шмидхубер (2022), §7.
  117. ^ Шмидхубер (2022), §8.
  118. ^ Шмидхубер (2022), §2.
  119. ^ Шмидхубер (2022), §3.
  120. ^ Цитируется по Кристиану (2020, стр. 22).
  121. ^ Смит (2023).
  122. ^ «Объяснение: Генеративный ИИ». 9 ноября 2023 г.
  123. ^ «Инструменты написания искусственного интеллекта и создания контента» . Технологии преподавания и обучения Массачусетского технологического института Слоана . Проверено 25 декабря 2023 г.
  124. ^ Мармуйе (2023).
  125. ^ Кобелус (2019).
  126. ^ Давенпорт, Т; Калакота, Р. (июнь 2019 г.). «Потенциал искусственного интеллекта в здравоохранении». Будущее Здоровьеc Дж . 6 (2): 94–98. doi : 10.7861/futurehosp.6-2-94. ПМК 6616181 . ПМИД  31363513. 
  127. ^ Аб Бакс, Моник; Торп, Джордан; Романов, Валентин (декабрь 2023 г.). «Будущее персонализированной сердечно-сосудистой медицины требует 3D- и 4D-печати, стволовых клеток и искусственного интеллекта». Границы в сенсорах . 4 . дои : 10.3389/fsens.2023.1294721 . ISSN  2673-5067.
  128. ^ Джампер, Дж; Эванс, Р; Притцель, А (2021). «Высокоточное предсказание структуры белка с помощью AlphaFold». Природа . 596 (7873): 583–589. Бибкод : 2021Natur.596..583J. дои : 10.1038/s41586-021-03819-2. ПМЦ 8371605 . ПМИД  34265844. 
  129. ^ «ИИ открывает новый класс антибиотиков для уничтожения устойчивых к лекарствам бактерий» . 20 декабря 2023 г.
  130. ^ Грант, Юджин Ф.; Ларднер, Рекс (25 июля 1952 г.). «Городской разговор - Это». Житель Нью-Йорка . ISSN  0028-792X . Проверено 28 января 2024 г.
  131. Андерсон, Марк Роберт (11 мая 2017 г.). «Двадцать лет спустя после матча Deep Blue против Каспарова: как шахматный матч положил начало революции больших данных». Разговор . Проверено 28 января 2024 г.
  132. ^ Маркофф, Джон (16 февраля 2011 г.). «Компьютер побеждает в игре «Jeopardy!»: Это не тривиально». Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 28 января 2024 г.
  133. Байфорд, Сэм (27 мая 2017 г.). «AlphaGo уходит из соревнований по го после победы над первой ракеткой мира со счетом 3–0». Грань . Проверено 28 января 2024 г.
  134. ^ Браун, Ноам; Сандхольм, Туомас (30 августа 2019 г.). «Сверхчеловеческий ИИ для многопользовательского покера». Наука . 365 (6456): 885–890. дои : 10.1126/science.aay2400. ISSN  0036-8075.
  135. ^ «MuZero: Освоение го, шахмат, сёги и Atari без правил». Гугл ДипМайнд . 23 декабря 2020 г. Проверено 28 января 2024 г.
  136. ^ Образец, Ян (30 октября 2019 г.). «ИИ становится гроссмейстером в «чертовски сложном» StarCraft II». Хранитель . ISSN  0261-3077 . Проверено 28 января 2024 г.
  137. ^ Вурман, PR; Барретт, С.; Кавамото, К. (2022). «Обгоняйте водителей-чемпионов Gran Turismo с помощью глубокого обучения с подкреплением». Природа 602 . 602 (7896): 223–228. дои : 10.1038/s41586-021-04357-7.
  138. ^ Найт, Уилл. «США и 30 других стран согласились установить барьеры для военного ИИ». Проводной . ISSN  1059-1028 . Проверено 24 января 2024 г.
  139. Марселин, Марко (27 мая 2023 г.). «ChatGPT: большинство американцев знают об этом, но мало кто на самом деле использует чат-бота с искусственным интеллектом». PCMag . Проверено 28 января 2024 г.
  140. Лу, Донна (31 марта 2023 г.). «Дезинформация, ошибки и Папа в пуховике: что может – и не может – сделать быстро развивающийся ИИ». Хранитель . ISSN  0261-3077 . Проверено 28 января 2024 г.
  141. ^ «Фальшивое изображение взрыва в Пентагоне вызывает настоящий спад на Уолл-стрит» . Евроньюс . 23 мая 2023 г. Проверено 28 января 2024 г.
  142. ^ Рэнсботэм, Сэм; Кирон, Дэвид; Герберт, Филипп; Ривз, Мартин (6 сентября 2017 г.). «Изменение бизнеса с помощью искусственного интеллекта». Обзор менеджмента Слоана MIT .
  143. ^ Симонит (2016).
  144. ^ Рассел и Норвиг (2021), с. 987.
  145. ^ Ласковский (2023).
  146. ^ ГАО (2022).
  147. ^ Валинский (2019).
  148. ^ Рассел и Норвиг (2021), с. 991.
  149. ^ Рассел и Норвиг (2021), с. 991–992.
  150. ^ Кристиан (2020), с. 63.
  151. ^ Винсент (2022).
  152. ^ Райснер (2023).
  153. ^ Альтер и Харрис (2023).
  154. ^ Никас (2018).
  155. ^ «Доверие и недоверие в Америке». 22 июля 2019 г.
  156. ^ Уильямс (2023).
  157. ^ Тейлор и Херн (2023).
  158. ^ аб Роуз (2023).
  159. ^ CNA (2019).
  160. ^ Гоффри (2008), с. 17.
  161. ^ Бердал и др. (2023 г.); Гоффри (2008, стр. 17); Роуз (2023 г.); Рассел и Норвиг (2021, стр. 995)
  162. ^ Алгоритмическая предвзятость и справедливость (машинное обучение) :
    • Рассел и Норвиг (2021 г., раздел 27.3.3)
    • Кристиан (2020, Справедливость)
  163. ^ Кристиан (2020), с. 25.
  164. ^ ab Рассел и Норвиг (2021), с. 995.
  165. ^ Грант и Хилл (2023).
  166. ^ Ларсон и Ангвин (2016).
  167. ^ Кристиан (2020), с. 67–70.
  168. ^ Кристиан (2020, стр. 67–70); Рассел и Норвиг (2021, стр. 993–994)
  169. ^ Рассел и Норвиг (2021, стр. 995); Липартито (2011, стр. 36); Гудман и Флаксман (2017, стр. 6); Кристиан (2020, стр. 39–40, 65)
  170. ^ Цитируется по Кристиану (2020, стр. 65).
  171. ^ Рассел и Норвиг (2021, стр. 994); Кристиан (2020, стр. 40, 80–81)
  172. ^ Цитируется по Кристиану (2020, стр. 80).
  173. ^ Докрилл (2022).
  174. ^ Образец (2017).
  175. ^ «Черный ящик ИИ». 16 июня 2023 г.
  176. ^ Кристиан (2020), с. 110.
  177. ^ Кристиан (2020), стр. 88–91.
  178. ^ Кристиан (2020, стр. 83); Рассел и Норвиг (2021, стр. 997)
  179. ^ Кристиан (2020), с. 91.
  180. ^ Кристиан (2020), с. 83.
  181. ^ Верма (2021).
  182. ^ Ротман (2020).
  183. ^ Кристиан (2020), с. 105-108.
  184. ^ Кристиан (2020), стр. 108–112.
  185. ^ Рассел и Норвиг (2021), с. 989.
  186. ^ Робицки (2018); Сайнато (2015)
  187. ^ Рассел и Норвиг (2021), с. 987-990.
  188. ^ Рассел и Норвиг (2021), с. 988.
  189. ^ Харари (2018).
  190. ^ Бакли, Крис; Мозур, Пол (22 мая 2019 г.). «Как Китай использует высокотехнологичную слежку для подчинения меньшинств». Нью-Йорк Таймс .
  191. ^ «Нарушение безопасности выявило китайскую систему наблюдения за умным городом» . 3 мая 2019 г. Архивировано из оригинала 7 марта 2021 г. Проверено 14 сентября 2020 г.
  192. ^ «Светофоры с искусственным интеллектом скоро будут установлены в Бангалоре» . СледующийBigWhat . 24 сентября 2019 г. Проверено 1 октября 2019 г.
  193. ^ Урбина и др. (2022).
  194. Тарнофф, Бен (4 августа 2023 г.). «Уроки Элизы». Еженедельник Гардиан . стр. 34–9.
  195. ^ аб Э. МакГоги, «Смогут ли роботы автоматизировать вашу работу?» Полная занятость, базовый доход и экономическая демократия »(2022) 51 (3) Журнал промышленного права 511–559. Архивировано 27 мая 2023 г. в Wayback Machine.
  196. ^ Форд и Колвин (2015); Макгои (2022)
  197. ^ IGM Чикаго (2017).
  198. ^ Арнц, Грегори и Зиран (2016), с. 33.
  199. ^ Лор (2017); Фрей и Осборн (2017); Арнц, Грегори и Зиран (2016, стр. 33)
  200. ^ Моргенштерн (2015).
  201. ^ Махдави (2017); Томпсон (2014)
  202. Чжоу, Виола (11 апреля 2023 г.). «ИИ уже занимает работу иллюстраторов видеоигр в Китае». Остальной мир . Проверено 17 августа 2023 г.
  203. Картер, Джастин (11 апреля 2023 г.). «Сообщается, что китайская индустрия игрового искусства уничтожена растущим использованием искусственного интеллекта» . Разработчик игр . Проверено 17 августа 2023 г.
  204. ^ Селлан-Джонс (2014).
  205. ^ Рассел и Норвиг 2021, с. 1001.
  206. ^ Бостром (2014).
  207. ^ Рассел (2019).
  208. ^ Бостром (2014); Мюллер и Бостром (2014); Бостром (2015).
  209. ^ Харари (2023).
  210. ^ Мюллер и Бостром (2014).
  211. ^ Опасения лидеров по поводу экзистенциальных рисков ИИ примерно в 2015 году:
    • Роулинсон (2015)
    • Холли (2015)
    • Гиббс (2014)
    • Сайнато (2015)
  212. ^ Аргументы о том, что ИИ не представляет собой неминуемый риск:
    • Брукс (2014)
    • Гейст (2015)
    • Мадригал (2015)
    • Ли (2014)
  213. ^ Аб Кристиан (2020), стр. 67, 73.
  214. ^ Вэлэнс (2023).
  215. Тейлор, Джош (7 мая 2023 г.). «Рост искусственного интеллекта неизбежен, но его не следует бояться», — говорит «отец ИИ». Хранитель . Проверено 26 мая 2023 г.
  216. Колтон, Эмма (7 мая 2023 г.). «Отец ИИ» говорит, что опасения в отношении технологий неуместны: «Вы не можете остановить это»». Фокс Ньюс . Проверено 26 мая 2023 г.
  217. Джонс, Хесси (23 мая 2023 г.). «Юрген Шмидхубер, известный «отец современного искусственного интеллекта», говорит, что работа всей его жизни не приведет к антиутопии» . Форбс . Проверено 26 мая 2023 г.
  218. МакМорроу, Райан (19 декабря 2023 г.). «Эндрю Нг: «Считаем ли мы, что миру лучше, если у него больше или меньше интеллекта?»». Файнэншл Таймс . Проверено 30 декабря 2023 г.
  219. Леви, Стивен (22 декабря 2023 г.). «Как не быть глупым насчет искусственного интеллекта, с Яном Лекуном». Проводной . Проверено 30 декабря 2023 г.
  220. ^ Юдковский (2008).
  221. ^ Аб Андерсон и Андерсон (2011).
  222. ^ АААИ (2014).
  223. ^ Уоллах (2010).
  224. ^ Рассел (2019), с. 173.
  225. ^ Институт Алана Тьюринга (2019). «Понимание этики и безопасности искусственного интеллекта» (PDF) .
  226. ^ Институт Алана Тьюринга (2023). «Этика и управление ИИ на практике» (PDF) .
  227. ^ Флориди, Лучано; Коулс, Джош (23 июня 2019 г.). «Единая структура пяти принципов искусственного интеллекта в обществе». Гарвардский обзор науки о данных . 1 (1). дои : 10.1162/99608f92.8cd550d1 . S2CID  198775713.
  228. ^ Бурук, Бану; Экмекчи, Перихан Элиф; Арда, Берна (1 сентября 2020 г.). «Критический взгляд на руководящие принципы ответственного и заслуживающего доверия искусственного интеллекта». Медицина, здравоохранение и философия . 23 (3): 387–399. дои : 10.1007/s11019-020-09948-1. ISSN  1572-8633. PMID  32236794. S2CID  214766800.
  229. ^ Камила, Манодж Кумар; Джасротия, Сахил Сингх (1 января 2023 г.). «Этические проблемы развития искусственного интеллекта: признание рисков». Международный журнал этики и систем . перед печатью (перед печатью). doi : 10.1108/IJOES-05-2023-0107. ISSN  2514-9369. S2CID  259614124.
  230. ^ Регулирование ИИ для снижения рисков:
    • Беррихилл и др. (2019)
    • Барфилд и Пагалло (2018)
    • Ипхофен и Критикос (2019)
    • Виртц, Вейерер и Гейер (2018)
    • Буйтен (2019)
  231. ^ аб Винсент (2023).
  232. ^ Стэнфордский университет (2023).
  233. ^ abcd ЮНЕСКО (2021).
  234. ^ Киссинджер (2021).
  235. ^ Альтман, Брокман и Суцкевер (2023).
  236. ^ Новости VOA (25 октября 2023 г.). «ООН объявляет о создании консультативного органа по искусственному интеллекту».
  237. ^ Эдвардс (2023).
  238. ^ Касперович (2023).
  239. ^ Фокс Ньюс (2023).
  240. Милмо, Дэн (3 ноября 2023 г.). «Надежда или ужас? Великие дебаты об искусственном интеллекте, разделившие его пионеров». Еженедельник Гардиан . стр. 10–12.
  241. ^ «Декларация Блетчли стран, принявших участие в саммите по безопасности ИИ, 1-2 ноября 2023 г.» . GOV.UK. _ 1 ноября 2023 года. Архивировано из оригинала 1 ноября 2023 года . Проверено 2 ноября 2023 г.
  242. ^ «Страны соглашаются на безопасное и ответственное развитие передового ИИ в знаковой Декларации Блетчли» . GOV.UK (пресс-релиз). Архивировано из оригинала 1 ноября 2023 года . Проверено 1 ноября 2023 г.
  243. ^ Берлински (2000).
  244. ^ "Google книги ngram" .
  245. ^ Непосредственные предшественники ИИ:
    • МакКордак (2004, стр. 51–107)
    • Кревье (1993, стр. 27–32).
    • Рассел и Норвиг (2021, стр. 8–17)
    • Моравец (1988, стр. 3)
  246. ^ ab Рассел и Норвиг (2021), с. 17.
  247. ^ См. «Краткую историю вычислений» на AlanTuring.net.
  248. ^ Кревье (1993), стр. 47–49.
  249. ^ Рассел и Норвиг (2003), с. 17.
  250. ^ Рассел и Норвиг (2003), с. 18.
  251. ^ Рассел и Норвиг (2021), с. 21.
  252. ^ Лайтхилл (1973).
  253. ^ Рассел и Норвиг (2021), с. 22.
  254. ^ Экспертные системы :
    • Рассел и Норвиг (2021, стр. 23, 292)
    • Люгер и Стабблфилд (2004, стр. 227–331)
    • Нильссон (1998, глава 17.4)
    • МакКордак (2004, стр. 327–335, 434–435)
    • Кревье (1993, стр. 145–62, 197–203)
    • Ньюквист (1994, стр. 155–183).
  255. ^ Рассел и Норвиг (2021), с. 24.
  256. ^ Нильссон (1998), с. 7.
  257. ^ МакКордак (2004), стр. 454–462.
  258. ^ Моравец (1988).
  259. ^ Аб Брукс (1990).
  260. ^ Развивающая робототехника :
    • Венг и др. (2001)
    • Лунгарелла и др. (2003)
    • Асада и др. (2009)
    • Удейер (2010)
  261. ^ Рассел и Норвиг (2021), с. 25.
  262. ^
    • Кревье (1993, стр. 214–215).
    • Рассел и Норвиг (2021, стр. 24, 26)
  263. ^ Рассел и Норвиг (2021), с. 26.
  264. ^ Формальные и узкие методы, принятые в 1990-е годы:
    • Рассел и Норвиг (2021, стр. 24–26)
    • МакКордак (2004, стр. 486–487)
  265. ^ ИИ широко использовался в конце 1990-х:
    • Курцвейл (2005, стр. 265)
    • НРК (1999, стр. 216–222)
    • Ньюквист (1994, стр. 189–201)
  266. ^ Вонг (2023).
  267. ^ Закон Мура и ИИ:
    • Рассел и Норвиг (2021, стр. 14, 27)
  268. ^ abc Кларк (2015b).
  269. ^ Большие данные :
    • Рассел и Норвиг (2021, стр. 26)
  270. ^ «Интеллектуальная собственность и передовые технологии». ВОИС . Архивировано из оригинала 2 апреля 2022 года . Проверено 30 марта 2022 г.
  271. ^ ДиФелициантонио (2023).
  272. ^ Госвами (2023).
  273. ^ аб Тьюринг (1950), с. 1.
  274. ^ Оригинальная публикация Тьюринга о тесте Тьюринга в книге « Вычислительная техника и интеллект »:
    • Тьюринг (1950)
    Историческое влияние и философские последствия:
    • Хаугеланд (1985, стр. 6–9)
    • Кревье (1993, стр. 24)
    • МакКордак (2004, стр. 70–71)
    • Рассел и Норвиг (2021, стр. 2 и 984)
  275. ^ Тьюринг (1950), В разделе «Аргумент от сознания».
  276. ^ Рассел и Норвиг (2021), гл. 2.
  277. ^ Рассел и Норвиг (2021), с. 3.
  278. ^ Создатель (2006).
  279. ^ Маккарти (1999).
  280. ^ Минский (1986).
  281. ^ «Что такое искусственный интеллект (ИИ)?». Облачная платформа Google . Архивировано из оригинала 31 июля 2023 года . Проверено 16 октября 2023 г.
  282. ^ Нильссон (1983), с. 10.
  283. ^ Хаугеланд (1985), стр. 112–117.
  284. ^ Гипотеза системы физических символов:
    • Ньюэлл и Саймон (1976, стр. 116)
    Историческая значимость:
    • МакКордак (2004, стр. 153)
    • Рассел и Норвиг (2021, стр. 19)
  285. ^ Парадокс Моравеца :
    • Моравец (1988, стр. 15–16).
    • Минский (1986, с. 29)
    • Пинкер (2007, стр. 190–91)
  286. ^ Критика ИИ Дрейфусом :
    • Дрейфус (1972)
    • Дрейфус и Дрейфус (1986)
    Историческое значение и философские последствия:
    • Кревье (1993, стр. 120–132).
    • МакКордак (2004, стр. 211–239)
    • Рассел и Норвиг (2021, стр. 981–982)
    • Фирн (2007, глава 3)
  287. ^ Кревье (1993), с. 125.
  288. ^ Лэнгли (2011).
  289. ^ Кац (2012).
  290. ^ Аккуратность против неряшливости , исторические дебаты:
    • МакКордак (2004, стр. 421–424, 486–489)
    • Кревье (1993, стр. 168)
    • Нильссон (1983, стр. 10–11)
    • Рассел и Норвиг (2021, стр. 24)
    Классический пример «неряшливого» подхода к разведке:
    • Минский (1986)
    Современный пример аккуратного ИИ и его стремлений в 21 веке:
    • Домингос (2015)
  291. ^ Пенначин и Герцель (2007).
  292. ^ Аб Робертс (2016).
  293. ^ Рассел и Норвиг (2021), с. 986.
  294. ^ Чалмерс (1995).
  295. ^ Деннетт (1991).
  296. ^ Хорст (2005).
  297. ^ Сирл (1999).
  298. ^ Сирл (1980), с. 1.
  299. ^ Рассел и Норвиг (2021), с. 9817.
  300. ^ Аргумент Сирла в китайской комнате :
    • Сирл (1980). Оригинальное изложение мысленного эксперимента Сирлом.
    • Сирл (1999).
    Обсуждение:
    • Рассел и Норвиг (2021, стр. 985)
    • МакКордак (2004, стр. 443–445)
    • Кревье (1993, стр. 269–271).
  301. ^ Права роботов :
  302. ^ Эванс (2015).
  303. ^ МакКордак (2004), стр. 19–25.
  304. ^ Хендерсон (2007).
  305. ^ Взрыв интеллекта и технологическая сингулярность :
    • Рассел и Норвиг (2021, стр. 1004–1005)
    • Омохундро (2008)
    • Курцвейл (2005)
    «Интеллектуальный взрыв» Эй Джей Гуда
    • Хорошо (1965)
    «Необычность» Вернора Винджа
    • Виндж (1993)
  306. ^ Рассел и Норвиг (2021), с. 1005.
  307. ^ Трансгуманизм :
    • Моравец (1988)
    • Курцвейл (2005)
    • Рассел и Норвиг (2021, стр. 1005)
  308. ^ ИИ как эволюция:
  309. ^ ИИ в мифе:
    • МакКордак (2004, стр. 4–5)
  310. ^ МакКордак (2004), стр. 340–400.
  311. ^ Бутаццо (2001).
  312. ^ Андерсон (2008).
  313. ^ МакКоли (2007).
  314. ^ Гальван (1997).

Учебники по искусственному интеллекту

Два наиболее широко используемых учебника в 2023 году (см. Открытую программу).

Это были четыре наиболее широко используемых учебника по ИИ в 2008 году:

Более поздние издания.

История ИИ

Другие источники

дальнейшее чтение

Внешние ссылки