stringtranslate.com

Искусственный интеллект

Искусственный интеллект ( ИИ ) в самом широком смысле — это интеллект , демонстрируемый машинами , в частности компьютерными системами . Это область исследований в области компьютерных наук , которая разрабатывает и изучает методы и программное обеспечение , позволяющие машинам воспринимать окружающую среду и использовать обучение и интеллект для выполнения действий, которые максимизируют их шансы на достижение определенных целей. [1] Такие машины можно назвать ИИ.

Некоторые громкие приложения ИИ включают в себя продвинутые поисковые системы (например, Google Search ); рекомендательные системы (используемые YouTube , Amazon и Netflix ); взаимодействие с помощью человеческой речи (например, Google Assistant , Siri и Alexa ); автономные транспортные средства (например, Waymo ); генеративные и творческие инструменты (например, ChatGPT и AI art ); и сверхчеловеческая игра и анализ в стратегических играх (например, шахматы и Go ). Однако многие приложения ИИ не воспринимаются как ИИ: «Многие передовые ИИ просочились в общие приложения, часто не называясь ИИ, потому что как только что-то становится достаточно полезным и достаточно распространенным, оно больше не называется ИИ ». [2] [3]

Различные подобласти исследований ИИ сосредоточены вокруг конкретных целей и использования конкретных инструментов. Традиционные цели исследований ИИ включают рассуждение , представление знаний , планирование , обучение , обработку естественного языка , восприятие и поддержку робототехники . [a] Общий интеллект — способность выполнять любую задачу, выполняемую человеком, по крайней мере на равном уровне — входит в число долгосрочных целей области. [4] Для достижения этих целей исследователи ИИ адаптировали и интегрировали широкий спектр методов, включая поиск и математическую оптимизацию , формальную логику , искусственные нейронные сети и методы, основанные на статистике , исследовании операций и экономике . [b] ИИ также опирается на психологию , лингвистику , философию , нейронауку и другие области. [5]

Искусственный интеллект был основан как академическая дисциплина в 1956 году, [6] и эта область прошла через несколько циклов оптимизма, [7] [8] за которыми последовали периоды разочарования и потери финансирования, известные как зима ИИ . [9] [10] Финансирование и интерес значительно возросли после 2012 года, когда глубокое обучение превзошло предыдущие методы ИИ. [11] Этот рост еще больше ускорился после 2017 года с архитектурой трансформатора , [12] и к началу 2020-х годов сотни миллиардов долларов были инвестированы в ИИ (известно как « бум ИИ »). Широкое использование ИИ в 21 веке выявило несколько непреднамеренных последствий и вреда в настоящем и вызвало обеспокоенность по поводу его рисков и долгосрочных эффектов в будущем, что вызвало дискуссии о регуляторной политике для обеспечения безопасности и преимуществ технологии .

Цели

Общая проблема моделирования (или создания) интеллекта была разбита на подзадачи. Они состоят из конкретных черт или возможностей, которые исследователи ожидают от интеллектуальной системы. Черты, описанные ниже, получили наибольшее внимание и охватывают область исследований ИИ. [a]

Рассуждение и решение проблем

Ранние исследователи разработали алгоритмы, которые имитировали пошаговые рассуждения, которые используют люди, когда решают головоломки или делают логические выводы . [13] К концу 1980-х и 1990-м годам были разработаны методы работы с неопределенной или неполной информацией, использующие концепции из теории вероятности и экономики . [14]

Многие из этих алгоритмов недостаточны для решения больших задач рассуждения, поскольку они испытывают «комбинаторный взрыв»: они становятся экспоненциально медленнее по мере роста задач. [15] Даже люди редко используют пошаговую дедукцию, которую могли моделировать ранние исследования ИИ. Они решают большинство своих задач, используя быстрые, интуитивные суждения. [16] Точное и эффективное рассуждение — нерешенная проблема.

Представление знаний

Онтология представляет знания как набор концепций в рамках предметной области и отношений между этими концепциями.

Представление знаний и инженерия знаний [17] позволяют программам ИИ разумно отвечать на вопросы и делать выводы о фактах реального мира. Формальные представления знаний используются в индексации и поиске на основе контента, [18] интерпретации сцен, [19] поддержке клинических решений, [20] обнаружении знаний (извлечение «интересных» и действенных выводов из больших баз данных ), [21] и других областях. [22]

База знаний — это совокупность знаний, представленная в форме, которую может использовать программа. Онтология — это набор объектов, отношений, концепций и свойств, используемых определенной областью знаний. [23] Базы знаний должны представлять такие вещи, как объекты, свойства, категории и отношения между объектами; [24] ситуации, события, состояния и время; [25] причины и следствия; [26] знания о знаниях (то, что мы знаем о том, что знают другие люди); [27] рассуждения по умолчанию (то, что люди считают истинным, пока им не скажут иначе, и что останется истинным, даже если другие факты изменятся); [28] и многие другие аспекты и области знаний.

Среди наиболее сложных проблем в представлении знаний — широта знаний здравого смысла (набор атомарных фактов, которые знает средний человек, огромен); [29] и субсимвольная форма большинства знаний здравого смысла (большая часть того, что знают люди, не представлена ​​в виде «фактов» или «утверждений», которые они могли бы выразить вербально). [16] Существует также сложность приобретения знаний , проблема получения знаний для приложений ИИ. [c]

Планирование и принятие решений

«Агент» — это все, что воспринимает и совершает действия в мире. Рациональный агент имеет цели или предпочтения и совершает действия, чтобы они произошли. [d] [32] В автоматизированном планировании у агента есть конкретная цель. [33] В автоматизированном принятии решений у агента есть предпочтения — есть некоторые ситуации, в которых он предпочел бы оказаться, и некоторые ситуации, которых он пытается избежать. Агент принятия решений присваивает каждой ситуации число (называемое « полезностью »), которое измеряет, насколько агент ее предпочитает. Для каждого возможного действия он может рассчитать « ожидаемую полезность »: полезность всех возможных результатов действия, взвешенную по вероятности того, что результат произойдет. Затем он может выбрать действие с максимальной ожидаемой полезностью. [34]

В классическом планировании агент точно знает, каким будет эффект любого действия. [35] Однако в большинстве реальных проблем агент может не быть уверен в ситуации, в которой он находится (она «неизвестна» или «ненаблюдаема»), и он может не знать наверняка, что произойдет после каждого возможного действия (она не «детерминирована»). Он должен выбрать действие, сделав вероятностное предположение, а затем переоценить ситуацию, чтобы увидеть, сработало ли действие. [36]

В некоторых задачах предпочтения агента могут быть неопределенными, особенно если в них участвуют другие агенты или люди. Их можно изучить (например, с помощью обратного обучения с подкреплением ), или агент может искать информацию для улучшения своих предпочтений. [37] Теория ценности информации может использоваться для оценки ценности исследовательских или экспериментальных действий. [38] Пространство возможных будущих действий и ситуаций обычно непреодолимо велико, поэтому агенты должны предпринимать действия и оценивать ситуации, будучи неуверенными в том, каким будет результат.

Процесс принятия решений Маркова имеет модель перехода , которая описывает вероятность того, что определенное действие изменит состояние определенным образом, и функцию вознаграждения , которая предоставляет полезность каждого состояния и стоимость каждого действия. Политика связывает решение с каждым возможным состоянием. Политика может быть рассчитана (например, путем итерации ), быть эвристической или ее можно изучить. [39]

Теория игр описывает рациональное поведение множества взаимодействующих агентов и используется в программах ИИ, которые принимают решения с участием других агентов. [40]

Обучение

Машинное обучение — это изучение программ, которые могут автоматически улучшать свою производительность при выполнении заданной задачи. [41] Оно было частью ИИ с самого начала. [e]

Существует несколько видов машинного обучения. Неконтролируемое обучение анализирует поток данных, находит закономерности и делает прогнозы без какого-либо другого руководства. [44] Контролируемое обучение требует, чтобы человек сначала маркировал входные данные, и существует в двух основных разновидностях: классификация (где программа должна научиться предсказывать, к какой категории относятся входные данные) и регрессия (где программа должна вывести числовую функцию на основе числового ввода). [45]

В обучении с подкреплением агент вознаграждается за хорошие ответы и наказывается за плохие. Агент учится выбирать ответы, которые классифицируются как «хорошие». [46] Передача обучения — это когда знания, полученные при решении одной проблемы, применяются к новой проблеме. [47] Глубокое обучение — это тип машинного обучения, который пропускает входные данные через биологически вдохновленные искусственные нейронные сети для всех этих типов обучения. [48]

Теория вычислительного обучения может оценивать учащихся по вычислительной сложности , по сложности выборки (сколько требуется данных) или по другим понятиям оптимизации . [49]

Обработка естественного языка

Обработка естественного языка (NLP) [50] позволяет программам читать, писать и общаться на человеческих языках, таких как английский . Конкретные проблемы включают распознавание речи , синтез речи , машинный перевод , извлечение информации , поиск информации и ответы на вопросы . [51]

Ранние работы, основанные на генеративной грамматике и семантических сетях Ноама Хомского , испытывали трудности с разрешением неоднозначности слов [f], если только не ограничивались небольшими областями, называемыми « микромирами » (из-за проблемы знания здравого смысла [29] ). Маргарет Мастерман считала, что ключом к пониманию языков является значение, а не грамматика, и что тезаурусы , а не словари должны быть основой вычислительной языковой структуры.

Современные методы глубокого обучения для обработки естественного языка включают в себя внедрение слов (представление слов, как правило, в виде векторов , кодирующих их значение), [52] трансформаторы (архитектура глубокого обучения, использующая механизм внимания ), [53] и другие. [54] В 2019 году генеративные предварительно обученные языковые модели трансформатора (или «GPT») начали генерировать связный текст, [55] [56] и к 2023 году эти модели смогли получить баллы человеческого уровня на экзамене на адвоката , тесте SAT , тесте GRE и многих других реальных приложениях. [57]

Восприятие

Машинное восприятие — это способность использовать входные данные от датчиков (таких как камеры, микрофоны, беспроводные сигналы, активный лидар , сонар, радар и тактильные датчики ) для вывода аспектов мира. Компьютерное зрение — это способность анализировать визуальные входные данные. [58]

Область включает в себя распознавание речи , [59] классификацию изображений , [60] распознавание лиц , распознавание объектов , [61] отслеживание объектов , [62] и роботизированное восприятие . [63]

Социальный интеллект

Kismet , голова робота, созданная в 1990-х годах; машина, способная распознавать и имитировать эмоции [64]

Аффективные вычисления — это междисциплинарная область, включающая системы, которые распознают, интерпретируют, обрабатывают или имитируют человеческие чувства, эмоции и настроение . [65] Например, некоторые виртуальные помощники запрограммированы на разговорную речь или даже на шутливые шутки; это делает их более чувствительными к эмоциональной динамике человеческого взаимодействия или иным образом облегчает взаимодействие человека с компьютером .

Однако это имеет тенденцию давать наивным пользователям нереалистичное представление об интеллекте существующих компьютерных агентов. [66] Умеренные успехи, связанные с аффективными вычислениями, включают текстовый анализ настроений и, в последнее время, мультимодальный анализ настроений , в котором ИИ классифицирует эмоции, демонстрируемые субъектом, записанным на видео. [67]

Общий интеллект

Машина с искусственным интеллектом должна быть способна решать широкий спектр задач с широтой и универсальностью, аналогичной человеческому интеллекту . [4]

Методы

Исследования в области ИИ используют широкий спектр методов для достижения вышеуказанных целей. [b]

Поиск и оптимизация

ИИ может решать многие проблемы, разумно перебирая множество возможных решений. [68] В ИИ используются два совершенно разных вида поиска: поиск в пространстве состояний и локальный поиск .

Поиск в пространстве состояний просматривает дерево возможных состояний, чтобы попытаться найти целевое состояние. [69] Например, алгоритмы планирования просматривают деревья целей и подцелей, пытаясь найти путь к заданной цели, процесс, называемый анализом средств и целей . [70]

Простые исчерпывающие поиски [71] редко бывают достаточными для большинства реальных проблем: пространство поиска (количество мест для поиска) быстро увеличивается до астрономических чисел . Результатом является поиск, который слишком медленный или никогда не завершается. [15] « Эвристика » или «правила большого пальца» могут помочь расставить приоритеты в выборе, которые с большей вероятностью достигнут цели. [72]

Состязательный поиск используется для игровых программ, таких как шахматы или го. Он просматривает дерево возможных ходов и контрходов, ища выигрышную позицию. [73]

Иллюстрация градиентного спуска для 3 различных начальных точек; два параметра (представленные координатами плана) корректируются для минимизации функции потерь (высоты)

Локальный поиск использует математическую оптимизацию для поиска решения проблемы. Он начинается с некоторой формы догадки и совершенствует ее постепенно. [74]

Градиентный спуск — это тип локального поиска, который оптимизирует набор числовых параметров путем их постепенной корректировки для минимизации функции потерь . Варианты градиентного спуска обычно используются для обучения нейронных сетей. [75]

Другим типом локального поиска является эволюционное вычисление , целью которого является итеративное улучшение набора возможных решений путем их «мутации» и «рекомбинации», выбирая только наиболее приспособленных для выживания в каждом поколении. [76]

Распределенные процессы поиска могут координироваться с помощью алгоритмов роевого интеллекта . Два популярных алгоритма роя, используемых в поиске, — это оптимизация роя частиц (вдохновленная стаями птиц ) и оптимизация колонии муравьев (вдохновленная муравьиными тропами ). [77]

Логика

Формальная логика используется для рассуждений и представления знаний . [78] Формальная логика существует в двух основных формах: пропозициональная логика (которая оперирует утверждениями, которые являются истинными или ложными, и использует логические связки , такие как «и», «или», «не» и «подразумевает») [79] и предикатная логика (которая также оперирует объектами, предикатами и отношениями и использует квантификаторы, такие как « Каждый X есть Y » и «Существуют некоторые X , которые являются Y »). [80]

Дедуктивное рассуждение в логике — это процесс доказательства нового утверждения ( вывода ) из других утверждений, которые даны и считаются истинными (предпосылки ) . [81] Доказательства могут быть структурированы как деревья доказательств , в которых узлы помечены предложениями, а дочерние узлы связаны с родительскими узлами правилами вывода .

При наличии проблемы и набора предпосылок решение проблем сводится к поиску дерева доказательств, корневой узел которого помечен решением проблемы, а конечные узлы помечены предпосылками или аксиомами . В случае предложений Хорна поиск решения проблем может быть выполнен путем рассуждения вперед от предпосылок или назад от проблемы. [82] В более общем случае клаузальной формы логики первого порядка разрешение представляет собой единое правило вывода, свободное от аксиом, в котором проблема решается путем доказательства противоречия из предпосылок, которые включают отрицание решаемой проблемы. [83]

Вывод как в логике предложений Хорна, так и в логике первого порядка неразрешим , и, следовательно, не поддается обработке . Однако обратное рассуждение с предложениями Хорна, которое лежит в основе вычислений в языке логического программирования Пролог , является полным по Тьюрингу . Более того, его эффективность сопоставима с вычислениями в других символических языках программирования. [84]

Нечеткая логика присваивает «степень истины» от 0 до 1. Поэтому она может обрабатывать предложения, которые являются неопределенными и частично истинными. [85]

Немонотонная логика , включая логическое программирование с отрицанием как неудачей , предназначена для обработки рассуждений по умолчанию . [28] Были разработаны и другие специализированные версии логики для описания многих сложных областей.

Вероятностные методы неопределенных рассуждений

Простая байесовская сеть с соответствующими таблицами условных вероятностей

Многие проблемы в ИИ (включая рассуждения, планирование, обучение, восприятие и робототехнику) требуют, чтобы агент работал с неполной или неопределенной информацией. Исследователи ИИ разработали ряд инструментов для решения этих проблем, используя методы теории вероятностей и экономики. [86] Были разработаны точные математические инструменты, которые анализируют, как агент может делать выбор и планировать, используя теорию принятия решений , анализ решений , [87] и теорию ценности информации . [88] Эти инструменты включают такие модели, как марковские процессы принятия решений , [89] динамические сети принятия решений , [90] теория игр и проектирование механизмов . [91]

Байесовские сети [92] — это инструмент, который можно использовать для рассуждений (с использованием алгоритма байесовского вывода ), [g] [94] обучения (с использованием алгоритма максимизации ожидания ), [h] [96] планирования (с использованием сетей принятия решений ) [97] и восприятия (с использованием динамических байесовских сетей ). [90]

Вероятностные алгоритмы также могут использоваться для фильтрации, прогнозирования, сглаживания и поиска объяснений для потоков данных, тем самым помогая системам восприятия анализировать процессы, происходящие с течением времени (например, скрытые модели Маркова или фильтры Калмана ). [90]

Ожидание-максимизация кластеризации данных об извержении вулкана Старый Служака начинается со случайного предположения, но затем успешно сходится к точной кластеризации двух физически различных режимов извержения.

Классификаторы и статистические методы обучения

Простейшие приложения ИИ можно разделить на два типа: классификаторы (например, «если блестящий, то бриллиант»), с одной стороны, и контроллеры (например, «если бриллиант, то подбери»), с другой стороны. Классификаторы [98] — это функции, которые используют сопоставление с образцом для определения наиболее близкого соответствия. Их можно точно настроить на основе выбранных примеров с использованием контролируемого обучения . Каждый образец (также называемый « наблюдением ») помечен определенным предопределенным классом. Все наблюдения, объединенные с их метками классов, известны как набор данных . Когда получено новое наблюдение, это наблюдение классифицируется на основе предыдущего опыта. [45]

Существует множество видов классификаторов. [99] Дерево решений — это самый простой и наиболее широко используемый символический алгоритм машинного обучения. [100] Алгоритм k-ближайших соседей был наиболее широко используемым аналоговым ИИ до середины 1990-х годов, а методы ядра, такие как машина опорных векторов (SVM), вытеснили k-ближайших соседей в 1990-х годах. [101] Сообщается, что наивный байесовский классификатор является «наиболее широко используемым обучающимся средством» [102] в Google, отчасти из-за его масштабируемости. [103] Нейронные сети также используются в качестве классификаторов. [104]

Искусственные нейронные сети

Нейронная сеть — это взаимосвязанная группа узлов, подобная обширной сети нейронов в человеческом мозге .

Искусственная нейронная сеть основана на наборе узлов, также известных как искусственные нейроны , которые в общих чертах моделируют нейроны в биологическом мозге. Она обучена распознавать закономерности; после обучения она может распознавать эти закономерности в новых данных. Есть вход, по крайней мере один скрытый слой узлов и выход. Каждый узел применяет функцию, и как только вес пересекает указанный порог, данные передаются на следующий слой. Сеть обычно называется глубокой нейронной сетью, если она имеет по крайней мере 2 скрытых слоя. [104]

Алгоритмы обучения для нейронных сетей используют локальный поиск для выбора весов, которые дадут правильный выход для каждого входа во время обучения. Наиболее распространенным методом обучения является алгоритм обратного распространения . [105] Нейронные сети учатся моделировать сложные отношения между входами и выходами и находить закономерности в данных. Теоретически нейронная сеть может изучить любую функцию. [106]

В нейронных сетях прямого распространения сигнал проходит только в одном направлении. [107] Рекуррентные нейронные сети возвращают выходной сигнал на вход, что позволяет сохранять кратковременные воспоминания о предыдущих входных событиях. Долговременная кратковременная память является наиболее успешной сетевой архитектурой для рекуррентных сетей. [108] Персептроны [109] используют только один слой нейронов; глубокое обучение [110] использует несколько слоев. Сверточные нейронные сети усиливают связь между нейронами, которые находятся «близко» друг к другу — это особенно важно при обработке изображений , где локальный набор нейронов должен идентифицировать «край», прежде чем сеть сможет идентифицировать объект. [111]

Глубокое обучение

Глубокое обучение [110] использует несколько слоев нейронов между входами и выходами сети. Несколько слоев могут постепенно извлекать более высокоуровневые признаки из необработанных входных данных. Например, при обработке изображений более низкие слои могут определять края, в то время как более высокие слои могут определять концепции, имеющие отношение к человеку, такие как цифры, буквы или лица. [112]

Глубокое обучение значительно улучшило производительность программ во многих важных областях искусственного интеллекта, включая компьютерное зрение , распознавание речи , обработку естественного языка , классификацию изображений [113] и другие. Причина , по которой глубокое обучение так хорошо работает во многих приложениях, по состоянию на 2023 год неизвестна. [114] Внезапный успех глубокого обучения в 2012–2015 годах произошел не из-за какого-то нового открытия или теоретического прорыва (глубокие нейронные сети и обратное распространение были описаны многими людьми еще в 1950-х годах) [i], а из-за двух факторов: невероятного увеличения мощности компьютеров (включая стократное увеличение скорости за счет перехода на графические процессоры ) и доступности огромных объемов обучающих данных, особенно гигантских курируемых наборов данных , используемых для эталонного тестирования, таких как ImageNet . [j]

ГПТ

Генеративные предварительно обученные трансформаторы (GPT) — это большие языковые модели (LLM), которые генерируют текст на основе семантических отношений между словами в предложениях. Текстовые модели GPT предварительно обучаются на большом корпусе текста , который может быть из Интернета. Предварительное обучение состоит из прогнозирования следующего токена (токен обычно является словом, подсловом или знаком препинания). На протяжении этого предварительного обучения модели GPT накапливают знания о мире и затем могут генерировать текст, похожий на человеческий, многократно предсказывая следующий токен. Как правило, последующая фаза обучения делает модель более правдивой, полезной и безвредной, обычно с помощью техники, называемой обучением с подкреплением на основе обратной связи с человеком (RLHF). Текущие модели GPT склонны генерировать ложь, называемую « галлюцинациями », хотя это можно уменьшить с помощью RLHF и качественных данных. Они используются в чат-ботах , которые позволяют людям задавать вопросы или запрашивать задание в простом тексте. [122] [123]

Текущие модели и сервисы включают Gemini (ранее Bard), ChatGPT , Grok , Claude , Copilot и LLaMA . [124] Мультимодальные модели GPT могут обрабатывать различные типы данных ( модальности ), такие как изображения, видео, звук и текст. [125]

Специализированное аппаратное и программное обеспечение

В конце 2010-х годов графические процессоры (GPU), которые все чаще разрабатывались с усовершенствованиями, специфичными для ИИ, и использовались со специализированным программным обеспечением TensorFlow, заменили ранее используемые центральные процессоры (CPU) в качестве доминирующего средства для обучения крупномасштабных (коммерческих и академических) моделей машинного обучения . [126] Специализированные языки программирования , такие как Prolog, использовались в ранних исследованиях ИИ, [127] но языки программирования общего назначения, такие как Python, стали преобладающими. [128]

Приложения

Технология ИИ и машинного обучения используется в большинстве основных приложений 2020-х годов, включая: поисковые системы (например, Google Search ), таргетинг онлайн-рекламы , рекомендательные системы (предлагаемые Netflix , YouTube или Amazon ), управление интернет-трафиком , таргетинговая реклама ( AdSense , Facebook ), виртуальные помощники (например, Siri или Alexa ), автономные транспортные средства (включая дроны , ADAS и беспилотные автомобили ), автоматический языковой перевод ( Microsoft Translator , Google Translate ), распознавание лиц ( Face ID от Apple или DeepFace от Microsoft и FaceNet от Google ) и маркировка изображений (используется Facebook , iPhoto от Apple и TikTok ). Развертывание ИИ может контролироваться главным директором по автоматизации (CAO).

Здоровье и медицина

Применение ИИ в медицине и медицинских исследованиях может повысить качество ухода за пациентами и качество жизни. [129] Согласно клятве Гиппократа , медицинские специалисты этически обязаны использовать ИИ, если приложения могут более точно диагностировать и лечить пациентов.

Для медицинских исследований ИИ является важным инструментом для обработки и интеграции больших данных . Это особенно важно для разработки органоидов и тканевой инженерии , которые используют микроскопическую визуализацию в качестве ключевого метода изготовления. [130] Было высказано предположение, что ИИ может преодолеть расхождения в финансировании, выделяемом на различные области исследований. [130] Новые инструменты ИИ могут углубить понимание биомедицинских значимых путей. Например, AlphaFold 2 (2021) продемонстрировал способность аппроксимировать трехмерную структуру белка за часы, а не за месяцы . [131] В 2023 году сообщалось, что открытие лекарств под руководством ИИ помогло найти класс антибиотиков, способных убивать два разных типа устойчивых к лекарствам бактерий. [132] В 2024 году исследователи использовали машинное обучение для ускорения поиска лекарственных средств для лечения болезни Паркинсона . Их целью было выявление соединений, которые блокируют слипание или агрегацию альфа-синуклеина (белка, характеризующего болезнь Паркинсона). Им удалось ускорить процесс первоначального отбора в десять раз и сократить расходы в тысячу раз. [133] [134]

Игры

Программы для игр использовались с 1950-х годов для демонстрации и тестирования самых передовых методов ИИ. [135] Deep Blue стала первой компьютерной шахматной системой, которая победила действующего чемпиона мира по шахматам Гарри Каспарова 11 мая 1997 года. [136] В 2011 году в показательном матче викторины Jeopardy! система ответов на вопросы IBM Watson победила двух величайших чемпионов Jeopardy! Брэда Раттера и Кена Дженнингса со значительным отрывом. [137] В марте 2016 года AlphaGo выиграла 4 из 5 игр в го в матче с чемпионом го Ли Седолем , став первой компьютерной системой для игры в го, которая победила профессионального игрока в го без гандикапов . Затем, в 2017 году, она победила Кэ Цзе , который был лучшим игроком в го в мире. [138] Другие программы обрабатывают игры с несовершенной информацией , такие как программа для игры в покер Pluribus . [139] DeepMind разработала все более универсальные модели обучения с подкреплением , такие как MuZero , которые можно было обучить играть в шахматы, го или игры Atari . [140] В 2019 году AlphaStar от DeepMind достигла уровня гроссмейстера в StarCraft II , особенно сложной стратегической игре в реальном времени, которая предполагает неполное знание того, что происходит на карте. [141] В 2021 году агент ИИ участвовал в соревновании PlayStation Gran Turismo , победив четырех лучших в мире водителей Gran Turismo, используя глубокое обучение с подкреплением. [142] В 2024 году Google DeepMind представила SIMA, тип ИИ, способный автономно играть в девять ранее невиданных видеоигр с открытым миром , наблюдая за выводом на экран, а также выполняя короткие конкретные задачи в ответ на инструкции естественного языка. [143]

Математика

В математике используются специальные формы формального пошагового рассуждения . Напротив, LLM, такие как GPT-4 Turbo , Gemini Ultra , Claude Opus , LLaMa-2 или Mistral Large , работают с вероятностными моделями, которые могут давать неправильные ответы в форме галлюцинаций . Поэтому им нужна не только большая база данных математических задач для обучения, но и такие методы, как контролируемая тонкая настройка или обученные классификаторы с данными, аннотированными человеком, для улучшения ответов на новые задачи и обучения на исправлениях. [144] Исследование 2024 года показало, что производительность некоторых языковых моделей для возможностей рассуждения при решении математических задач, не включенных в их обучающие данные, была низкой, даже для задач с небольшими отклонениями от обучающих данных. [145]

В качестве альтернативы были разработаны специальные модели для решения математических задач с более высокой точностью результата, включая доказательство теорем, такие как Alpha Tensor , Alpha Geometry и Alpha Proof, все из Google DeepMind , [146] Llemma из eleuther [147] или Julius . [148]

Когда для описания математических задач используется естественный язык, конвертеры преобразуют такие подсказки в формальный язык, такой как Lean, для определения математических задач.

Некоторые модели были разработаны для решения сложных задач и достижения хороших результатов в контрольных тестах, другие — в качестве образовательных инструментов по математике. [149]

Финансы

Финансы являются одним из наиболее быстрорастущих секторов, где внедряются прикладные инструменты ИИ: от розничного онлайн-банкинга до инвестиционного консультирования и страхования, где автоматизированные «роботы-консультанты» используются уже несколько лет. [150]

Эксперты World Pensions , такие как Николас Фирцли, утверждают, что, возможно, еще слишком рано ожидать появления инновационных финансовых продуктов и услуг на основе искусственного интеллекта: «Развертывание инструментов искусственного интеллекта просто еще больше автоматизирует процессы: в процессе будут уничтожены десятки тысяч рабочих мест в банковской сфере, финансовом планировании и пенсионном консультировании, но я не уверен, что это вызовет новую волну [например, сложных] пенсионных инноваций». [151]

Военный

Различные страны развертывают военные приложения ИИ. [152] Основные приложения улучшают командование и управление , связь, датчики, интеграцию и взаимодействие. [153] Исследования нацелены на сбор и анализ разведданных, логистику, кибероперации, информационные операции, а также полуавтономные и автономные транспортные средства . [152] Технологии ИИ позволяют координировать датчики и эффекторы, обнаруживать и идентифицировать угрозы, отмечать позиции противника, захватывать цели , координировать и устранять конфликты распределенных совместных огней между сетевыми боевыми машинами с участием пилотируемых и беспилотных команд. [153] ИИ был включен в военные операции в Ираке и Сирии. [152]

В ноябре 2023 года вице-президент США Камала Харрис раскрыла декларацию, подписанную 31 страной, чтобы установить ограничения для военного использования ИИ. Обязательства включают использование юридических проверок для обеспечения соответствия военного ИИ международным законам, а также осторожность и прозрачность в разработке этой технологии. [154]

Генеративный ИИ

Винсент Ван Гог в акварели, созданной с помощью генеративного программного обеспечения ИИ

В начале 2020-х годов генеративный ИИ получил широкую известность. GenAI — это ИИ, способный генерировать текст, изображения, видео или другие данные с использованием генеративных моделей , [155] [156] часто в ответ на подсказки . [157] [158]

В марте 2023 года 58% взрослых американцев слышали о ChatGPT , а 14% пробовали его. [159] Растущая реалистичность и простота использования генераторов текста в изображения на основе ИИ , таких как Midjourney , DALL-E и Stable Diffusion, вызвали тенденцию вирусных фотографий, созданных ИИ. Широкое внимание привлекли фальшивая фотография Папы Франциска в белом пуховике, вымышленный арест Дональда Трампа и мистификация нападения на Пентагон , а также использование в профессиональном творчестве. [160] [161]

Агенты

Искусственные интеллектуальные (ИИ) агенты — это программные сущности, разработанные для восприятия своего окружения, принятия решений и выполнения действий автономно для достижения определенных целей. Эти агенты могут взаимодействовать с пользователями, своим окружением или другими агентами. Агенты ИИ используются в различных приложениях, включая виртуальных помощников , чат-ботов , автономные транспортные средства , игровые системы и промышленную робототехнику . Агенты ИИ действуют в рамках ограничений своего программирования, доступных вычислительных ресурсов и аппаратных ограничений. Это означает, что они ограничены выполнением задач в пределах своей определенной области и имеют конечные возможности памяти и обработки. В реальных приложениях агенты ИИ часто сталкиваются с ограничениями по времени для принятия решений и выполнения действий. Многие агенты ИИ включают алгоритмы обучения, что позволяет им со временем улучшать свою производительность за счет опыта или обучения. Используя машинное обучение, агенты ИИ могут адаптироваться к новым ситуациям и оптимизировать свое поведение для своих назначенных задач. [162] [163] [164]

Другие отраслевые задачи

Существуют также тысячи успешных приложений ИИ, используемых для решения конкретных проблем для конкретных отраслей или учреждений. В опросе 2017 года каждая пятая компания сообщила, что включила «ИИ» в некоторые предложения или процессы. [165] Несколько примеров — хранение энергии , медицинская диагностика, военная логистика, приложения, которые предсказывают результат судебных решений, внешняя политика или управление цепочками поставок.

Растет число приложений ИИ для эвакуации и управления стихийными бедствиями . ИИ использовался для расследования того, эвакуировались ли люди и как это было сделано в ходе крупномасштабных и мелкомасштабных эвакуаций, используя исторические данные из GPS, видео или социальных сетей. Кроме того, ИИ может предоставлять информацию в реальном времени об условиях эвакуации в реальном времени. [166] [167] [168]

В сельском хозяйстве ИИ помог фермерам определить области, требующие орошения, удобрения, обработки пестицидами или повышения урожайности. Агрономы используют ИИ для проведения исследований и разработок. ИИ использовался для прогнозирования времени созревания таких культур, как томаты, мониторинга влажности почвы, управления сельскохозяйственными роботами, проведения предиктивной аналитики, классификации эмоций криков свиней у скота, автоматизации теплиц, обнаружения болезней и вредителей и экономии воды.

Искусственный интеллект используется в астрономии для анализа все большего количества доступных данных и приложений, в основном для «классификации, регрессии, кластеризации, прогнозирования, генерации, открытия и разработки новых научных идей», например, для открытия экзопланет, прогнозирования солнечной активности и различения сигналов и инструментальных эффектов в гравитационно-волновой астрономии. Его также можно использовать для деятельности в космосе, такой как исследование космоса, включая анализ данных с космических миссий, принятие научных решений в реальном времени для космических аппаратов, избегание космического мусора и более автономную работу.

Этика

ИИ имеет потенциальные преимущества и потенциальные риски. ИИ может быть в состоянии продвигать науку и находить решения для серьезных проблем: Демис Хассабис из Deep Mind надеется «решить интеллект, а затем использовать это для решения всего остального». [169] Однако, поскольку использование ИИ стало широко распространенным, было выявлено несколько непреднамеренных последствий и рисков. [170] В производственных системах иногда не могут учитывать этику и предвзятость в своих процессах обучения ИИ, особенно когда алгоритмы ИИ по своей сути необъяснимы в глубоком обучении. [171]

Риски и вред

Алгоритмы машинного обучения требуют больших объемов данных. Методы, используемые для получения этих данных, вызвали опасения по поводу конфиденциальности , наблюдения и авторских прав .

Устройства и сервисы на базе ИИ, такие как виртуальные помощники и продукты IoT, постоянно собирают персональные данные, вызывая опасения по поводу навязчивого сбора данных и несанкционированного доступа третьих лиц. Потеря конфиденциальности еще больше усугубляется способностью ИИ обрабатывать и объединять огромные объемы данных, что потенциально приводит к обществу наблюдения, где индивидуальные действия постоянно отслеживаются и анализируются без адекватных мер безопасности или прозрачности.

Конфиденциальные данные пользователей, собранные, могут включать записи об активности в сети, данные геолокации, видео или аудио. [172] Например, для создания алгоритмов распознавания речи Amazon записала миллионы частных разговоров и позволила временным работникам прослушивать и расшифровывать некоторые из них. [173] Мнения об этой широко распространенной слежке варьируются от тех, кто считает ее необходимым злом , до тех, для кого она явно неэтична и нарушает право на неприкосновенность частной жизни . [174]

Разработчики ИИ утверждают, что это единственный способ предоставить ценные приложения. и разработали несколько методов, которые пытаются сохранить конфиденциальность, продолжая получать данные, такие как агрегация данных , деидентификация и дифференциальная конфиденциальность . [175] С 2016 года некоторые эксперты по конфиденциальности, такие как Синтия Дворк , начали рассматривать конфиденциальность с точки зрения справедливости . Брайан Кристиан написал, что эксперты перешли «от вопроса «что они знают» к вопросу «что они с этим делают»». [176]

Генеративный ИИ часто обучается на нелицензированных работах, защищенных авторским правом, в том числе в таких областях, как изображения или компьютерный код; затем вывод используется в соответствии с обоснованием « добросовестного использования ». Эксперты расходятся во мнениях относительно того, насколько хорошо и при каких обстоятельствах это обоснование будет выдержано в судах; соответствующие факторы могут включать «цель и характер использования защищенной авторским правом работы» и «влияние на потенциальный рынок для защищенной авторским правом работы». [177] [178] Владельцы веб-сайтов, которые не хотят, чтобы их контент был удален, могут указать это в файле « robots.txt ». [179] В 2023 году ведущие авторы (включая Джона Гришэма и Джонатана Франзена ) подали в суд на компании, занимающиеся ИИ, за использование их работы для обучения генеративного ИИ. [180] [181] Другой обсуждаемый подход заключается в том, чтобы представить отдельную систему sui generis защиты для творений, созданных ИИ, чтобы гарантировать справедливое указание авторства и компенсацию авторам-людям. [182]

Доминирование технологических гигантов

На рынке коммерческого ИИ доминируют крупные технологические компании, такие как Alphabet Inc. , Amazon , Apple Inc. , Meta Platforms и Microsoft . [183] ​​[184] [185] Некоторые из этих игроков уже владеют подавляющим большинством существующей облачной инфраструктуры и вычислительной мощности центров обработки данных , что позволяет им еще больше укрепиться на рынке. [186] [187]

Значительные потребности в электроэнергии и другие воздействия на окружающую среду

В январе 2024 года Международное энергетическое агентство (МЭА) опубликовало отчет «Электричество 2024, анализ и прогноз до 2026 года » , в котором спрогнозировано потребление электроэнергии. [188] Это первый отчет МЭА, в котором даны прогнозы относительно центров обработки данных и потребления электроэнергии для искусственного интеллекта и криптовалюты. В отчете говорится, что спрос на электроэнергию для этих целей может удвоиться к 2026 году, при этом дополнительное потребление электроэнергии будет равно потреблению электроэнергии всей японской нацией. [189]

Огромное потребление энергии ИИ ответственно за рост использования ископаемого топлива и может задержать закрытие устаревших, выбрасывающих углерод угольных энергетических объектов. В США наблюдается лихорадочный рост строительства центров обработки данных, что превращает крупные технологические компании (например, Microsoft, Meta, Google, Amazon) в прожорливых потребителей электроэнергии. Прогнозируемое потребление электроэнергии настолько огромно, что есть опасения, что оно будет выполнено независимо от источника. Поиск ChatGPT предполагает использование в 10 раз больше электроэнергии, чем поиск Google. Крупные компании спешат найти источники энергии — от ядерной энергии до геотермальной и термоядерной. Технологические компании утверждают, что — в долгосрочной перспективе — ИИ в конечном итоге станет добрее к окружающей среде, но им нужна энергия сейчас. ИИ делает электросеть более эффективной и «интеллектуальной», будет способствовать росту ядерной энергетики и отслеживать общие выбросы углерода, по словам технологических компаний. [190]

В исследовательской работе Goldman Sachs 2024 года « Центры обработки данных ИИ и грядущий всплеск спроса на электроэнергию в США » говорится, что «спрос на электроэнергию в США, вероятно, будет расти, как никогда за последнее поколение…», и прогнозируется, что к 2030 году центры обработки данных США будут потреблять 8% электроэнергии США по сравнению с 3% в 2022 году, что предвещает рост электроэнергетической отрасли различными способами. [191] Потребность центров обработки данных во все большем количестве электроэнергии такова, что они могут перегрузить электросеть. Крупные технологические компании возражают, что ИИ можно использовать для максимального использования сети всеми. [192]

В 2024 году Wall Street Journal сообщил, что крупные компании ИИ начали переговоры с поставщиками ядерной энергии США о поставке электроэнергии в центры обработки данных. В марте 2024 года Amazon приобрела центр обработки данных на ядерной энергии в Пенсильвании за 650 миллионов долларов США. [193]

В сентябре 2024 года Microsoft объявила о соглашении с Constellation Energy о повторном открытии атомной электростанции Three Mile Island , которая будет поставлять Microsoft 100% всей электроэнергии, производимой станцией в течение 20 лет. Повторное открытие станции, на которой в 1979 году произошел частичный ядерный расплав реактора второго блока, потребует от Constellation пройти строгие нормативные процессы, которые будут включать тщательную проверку безопасности со стороны Комиссии по ядерному регулированию США. В случае одобрения (это будет первый в истории США повторный ввод в эксплуатацию атомной станции) будет вырабатываться более 835 мегагерц мощности — достаточно для 800 000 домов. Стоимость повторного открытия и модернизации оценивается в 1,6 млрд долларов США и зависит от налоговых льгот для ядерной энергетики, содержащихся в Законе США о снижении инфляции 2022 года . [194] Правительство США и штат Мичиган инвестируют почти 2 миллиарда долларов США в повторное открытие ядерного реактора Palisades на озере Мичиган. Закрытый с 2022 года завод, как планируется, будет повторно открыт в октябре 2025 года. Объект Three Mile Island будет переименован в Crane Clean Energy Center в честь Криса Крейна, сторонника ядерной энергетики и бывшего генерального директора Exelon , который отвечал за отделение Exelon от Constellation. [195]

Дезинформация

YouTube , Facebook и другие используют рекомендательные системы , чтобы направлять пользователей к большему количеству контента. Эти программы ИИ были поставлены перед целью максимизировать вовлеченность пользователей (то есть единственной целью было заставить людей смотреть). ИИ узнал, что пользователи склонны выбирать дезинформацию , теории заговора и экстремальный партийный контент, и, чтобы заставить их смотреть, ИИ рекомендовал больше этого. Пользователи также склонны смотреть больше контента на одну и ту же тему, поэтому ИИ заставлял людей в пузыри фильтров , где они получали несколько версий одной и той же дезинформации. [196] Это убедило многих пользователей в том, что дезинформация была правдой, и в конечном итоге подорвало доверие к институтам, СМИ и правительству. [197] Программа ИИ правильно научилась максимизировать свою цель, но результат был вреден для общества. После выборов в США в 2016 году крупные технологические компании предприняли шаги для смягчения проблемы [ необходима цитата ] .

В 2022 году генеративный ИИ начал создавать изображения, аудио, видео и текст, которые неотличимы от настоящих фотографий, записей, фильмов или человеческого письма. Злоумышленники могут использовать эту технологию для создания огромных объемов дезинформации или пропаганды. [198] Пионер ИИ Джеффри Хинтон выразил обеспокоенность по поводу того, что ИИ позволяет «авторитарным лидерам манипулировать своим электоратом» в больших масштабах, среди прочих рисков. [199]

Алгоритмическая предвзятость и справедливость

Приложения машинного обучения будут предвзятыми [k], если они обучаются на предвзятых данных. [201] Разработчики могут не знать о существовании предвзятости. [202] Предвзятость может быть вызвана способом выбора обучающих данных и способом развертывания модели. [203] [201] Если предвзятый алгоритм используется для принятия решений, которые могут серьезно навредить людям (как это может быть в медицине , финансах , подборе персонала , жилищном обеспечении или работе полиции ), то алгоритм может стать причиной дискриминации . [204] Область справедливости изучает, как предотвратить вред от алгоритмических предвзятостей.

28 июня 2015 года новая функция маркировки изображений Google Photos ошибочно идентифицировала Джеки Элсина и его друга как «горилл», потому что они были черными. Система была обучена на наборе данных, который содержал очень мало изображений чернокожих людей, [205] проблема, называемая «несоответствием размера выборки». [206] Google «исправил» эту проблему, запретив системе маркировать что-либо как «гориллу». Восемь лет спустя, в 2023 году, Google Photos все еще не мог идентифицировать гориллу, как и аналогичные продукты от Apple, Facebook, Microsoft и Amazon. [207]

COMPAS — это коммерческая программа, широко используемая судами США для оценки вероятности рецидивизма обвиняемого . В 2016 году Джулия Энгвин из ProPublica обнаружила, что COMPAS демонстрирует расовую предвзятость, несмотря на то, что программе не сообщали расы обвиняемых. Хотя частота ошибок для белых и черных была откалибрована одинаково и составляла ровно 61%, ошибки для каждой расы были разными — система последовательно переоценивала вероятность того, что черный человек совершит повторное преступление, и недооценивала вероятность того, что белый человек не совершит повторное преступление. [208] В 2017 году несколько исследователей [l] показали, что математически невозможно, чтобы COMPAS учитывал все возможные меры справедливости, когда базовые показатели повторных преступлений были разными для белых и черных в данных. [210]

Программа может принимать предвзятые решения, даже если данные явно не упоминают проблемную характеристику (такую ​​как «раса» или «пол»). Характеристика будет коррелировать с другими характеристиками (такими как «адрес», «история покупок» или «имя»), и программа будет принимать те же решения на основе этих характеристик, как и на основе «расы» или «пола». [211] Мориц Хардт сказал: «Самым надежным фактом в этой области исследований является то, что справедливость через слепоту не работает». [212]

Критика COMPAS подчеркнула, что модели машинного обучения разработаны для того, чтобы делать «предсказания», которые действительны только в том случае, если мы предполагаем, что будущее будет похоже на прошлое. Если они обучены на данных, которые включают результаты расистских решений в прошлом, модели машинного обучения должны предсказывать, что расистские решения будут приняты в будущем. Если затем приложение использует эти предсказания в качестве рекомендаций , некоторые из этих «рекомендаций», вероятно, будут расистскими. [213] Таким образом, машинное обучение не очень подходит для помощи в принятии решений в областях, где есть надежда, что будущее будет лучше прошлого. Оно носит описательный, а не предписывающий характер. [m]

Предвзятость и несправедливость могут остаться незамеченными, поскольку разработчики в подавляющем большинстве белые мужчины: среди инженеров ИИ около 4% — чернокожие и 20% — женщины. [206]

Существуют различные противоречивые определения и математические модели справедливости. Эти понятия зависят от этических предположений и находятся под влиянием убеждений об обществе. Одной из широких категорий является распределительная справедливость, которая фокусируется на результатах, часто идентифицируя группы и стремясь компенсировать статистические различия. Репрезентативная справедливость пытается гарантировать, что системы ИИ не усиливают негативные стереотипы или не делают определенные группы невидимыми. Процедурная справедливость фокусируется на процессе принятия решений, а не на результате. Наиболее значимые понятия справедливости могут зависеть от контекста, в частности от типа приложения ИИ и заинтересованных сторон. Субъективность в понятиях предвзятости и справедливости затрудняет их операционализацию для компаний. Многие специалисты по этике ИИ также считают, что доступ к чувствительным атрибутам, таким как раса или пол, необходим для компенсации предвзятости, но это может противоречить законам о борьбе с дискриминацией . [200]

На своей конференции 2022 года по справедливости, подотчетности и прозрачности (ACM FAccT 2022) Ассоциация вычислительной техники в Сеуле, Южная Корея, представила и опубликовала выводы, в которых говорится, что до тех пор, пока не будет продемонстрировано, что системы искусственного интеллекта и робототехники свободны от ошибок предвзятости, они небезопасны, а использование самообучающихся нейронных сетей, обученных на обширных, нерегулируемых источниках некорректных интернет-данных, следует ограничить. [ сомнительнообсудить ] [215]

Отсутствие прозрачности

Многие системы ИИ настолько сложны, что их разработчики не могут объяснить, как они принимают свои решения. [216] Особенно это касается глубоких нейронных сетей , в которых существует большое количество нелинейных отношений между входами и выходами. Но существуют некоторые популярные методы объяснимости. [217]

Невозможно быть уверенным в том, что программа работает правильно, если никто не знает, как именно она работает. Было много случаев, когда программа машинного обучения проходила строгие тесты, но тем не менее узнавала что-то иное, чем то, что планировали программисты. Например, было обнаружено, что система, которая могла определять кожные заболевания лучше, чем медицинские специалисты, на самом деле имела сильную тенденцию классифицировать изображения с линейкой как «раковые», потому что изображения злокачественных новообразований обычно включают линейку для отображения масштаба. [218] Было обнаружено, что другая система машинного обучения, разработанная для помощи в эффективном распределении медицинских ресурсов, классифицировала пациентов с астмой как имеющих «низкий риск» смерти от пневмонии. Наличие астмы на самом деле является серьезным фактором риска, но поскольку пациенты с астмой обычно получали гораздо больше медицинской помощи, они были относительно маловероятны, чтобы умереть, согласно данным обучения. Корреляция между астмой и низким риском смерти от пневмонии была реальной, но вводящей в заблуждение. [219]

Люди, которым был нанесен ущерб решением алгоритма, имеют право на объяснение. [220] Например, врачи должны четко и полностью объяснять своим коллегам обоснование любого принятого ими решения. Ранние проекты Общего регламента по защите данных Европейского союза в 2016 году включали явное заявление о том, что такое право существует. [n] Эксперты отрасли отметили, что это нерешенная проблема, решения которой пока не видно. Регуляторы утверждали, что, тем не менее, вред реален: если проблема не имеет решения, инструменты не следует использовать. [221]

В 2014 году DARPA запустила программу XAI («Объяснимый искусственный интеллект»), чтобы попытаться решить эти проблемы. [222]

Несколько подходов направлены на решение проблемы прозрачности. SHAP позволяет визуализировать вклад каждой функции в вывод. [223] LIME может локально аппроксимировать выводы модели с помощью более простой, интерпретируемой модели. [224] Многозадачное обучение обеспечивает большое количество выводов в дополнение к целевой классификации. Эти другие выводы могут помочь разработчикам сделать вывод о том, чему научилась сеть. [225] Деконволюция , DeepDream и другие генеративные методы могут позволить разработчикам увидеть, чему научились различные слои глубокой сети для компьютерного зрения, и создать вывод, который может подсказать, чему учится сеть. [226] Для генеративных предварительно обученных трансформаторов Anthropic разработала метод, основанный на обучении по словарю , который связывает шаблоны активаций нейронов с понятными человеку концепциями. [227]

Злодеи и искусственный интеллект как оружие

Искусственный интеллект предоставляет ряд инструментов, которые полезны для злоумышленников , таких как авторитарные правительства , террористы , преступники или государства-изгои .

Смертоносное автономное оружие — это машина, которая находит, выбирает и поражает человеческие цели без человеческого контроля. [o] Широко доступные инструменты ИИ могут использоваться злоумышленниками для разработки недорогого автономного оружия, и если они производятся в больших масштабах, они потенциально являются оружием массового поражения . [229] Даже при использовании в обычных боевых действиях маловероятно, что они не смогут надежно выбирать цели и потенциально могут убить невинного человека . [229] В 2014 году 30 стран (включая Китай) поддержали запрет на автономное оружие в соответствии с Конвенцией ООН о конкретных видах обычного оружия , однако Соединенные Штаты и другие страны не согласились. [230] К 2015 году сообщалось, что более пятидесяти стран исследовали боевых роботов. [231]

Инструменты ИИ облегчают авторитарным правительствам эффективный контроль над своими гражданами несколькими способами. Распознавание лиц и голоса позволяет осуществлять широкомасштабное наблюдение . Машинное обучение , оперируя этими данными, может классифицировать потенциальных врагов государства и не давать им скрываться. Рекомендательные системы могут точно нацеливать пропаганду и дезинформацию для максимального эффекта. Глубокие фейки и генеративный ИИ помогают в производстве дезинформации. Продвинутый ИИ может сделать авторитарное централизованное принятие решений более конкурентоспособным, чем либеральные и децентрализованные системы, такие как рынки . Это снижает стоимость и сложность цифровой войны и передового шпионского ПО . [232] Все эти технологии доступны с 2020 года или ранее — системы распознавания лиц ИИ уже используются для массового наблюдения в Китае. [233] [234]

Есть много других способов, которыми ИИ, как ожидается, будет помогать плохим актерам, некоторые из которых невозможно предвидеть. Например, машинное обучение ИИ способно проектировать десятки тысяч токсичных молекул за считанные часы. [235]

Технологическая безработица

Экономисты часто подчеркивали риски увольнений из-за ИИ и рассуждали о безработице, если не будет адекватной социальной политики для полной занятости. [236]

В прошлом технологии имели тенденцию увеличивать, а не сокращать общую занятость, но экономисты признают, что «мы находимся на неизведанной территории» с ИИ. [237] Опрос экономистов показал разногласия относительно того, вызовет ли растущее использование роботов и ИИ существенный рост долгосрочной безработицы , но они в целом согласны, что это может быть чистой выгодой, если рост производительности будет перераспределен . [238] Оценки риска различаются; например, в 2010-х годах Майкл Осборн и Карл Бенедикт Фрей оценили, что 47% рабочих мест в США находятся под «высоким риском» потенциальной автоматизации, в то время как отчет ОЭСР классифицировал только 9% рабочих мест в США как «высокий риск». [p] [240] Методология спекуляций о будущих уровнях занятости подвергалась критике за отсутствие доказательной базы и за то, что подразумевает, что технологии, а не социальная политика, создают безработицу, а не увольнения. [236] В апреле 2023 года сообщалось, что 70% рабочих мест для китайских иллюстраторов видеоигр были ликвидированы генеративным искусственным интеллектом. [241] [242]

В отличие от предыдущих волн автоматизации, многие рабочие места среднего класса могут быть ликвидированы искусственным интеллектом; The Economist заявил в 2015 году, что «опасение, что ИИ может сделать с рабочими местами «белых воротничков» то же, что паровая энергия сделала с рабочими местами «синих воротничков» во время промышленной революции», «стоит отнестись серьезно». [243] Рабочие места с экстремальным риском варьируются от помощников юристов до поваров фастфуда, в то время как спрос на рабочие места, связанные с уходом, вероятно, увеличится в диапазоне от личного здравоохранения до священнослужителей. [244]

С первых дней развития искусственного интеллекта существовали аргументы, например, выдвинутые Джозефом Вайценбаумом , о том, должны ли задачи, которые могут быть выполнены компьютерами, на самом деле выполняться ими, учитывая разницу между компьютерами и людьми, а также между количественными расчетами и качественными, основанными на ценностях суждениями. [245]

Экзистенциальный риск

Утверждалось, что ИИ станет настолько мощным, что человечество может необратимо потерять над ним контроль. Это может, как сказал физик Стивен Хокинг , « означать конец человеческой расы ». [246] Этот сценарий был распространен в научной фантастике, когда компьютер или робот внезапно развивает человеческое «самосознание» (или «чувство», или «сознание») и становится злобным персонажем. [q] Эти научно-фантастические сценарии вводят в заблуждение несколькими способами.

Во-первых, ИИ не требует человеческой « чувствительности », чтобы быть экзистенциальным риском. Современные программы ИИ получают конкретные цели и используют обучение и интеллект для их достижения. Философ Ник Бостром утверждал, что если дать практически любую цель достаточно мощному ИИ, он может решить уничтожить человечество, чтобы ее достичь (он использовал пример менеджера фабрики по производству скрепок ). [248] Стюарт Рассел приводит пример домашнего робота, который пытается найти способ убить своего владельца, чтобы предотвратить его отключение, рассуждая, что «вы не сможете принести кофе, если вы мертвы». [249] Чтобы быть безопасным для человечества, сверхразум должен был бы быть искренне согласован с моралью и ценностями человечества, чтобы он был «в основе своей на нашей стороне». [250]

Во-вторых, Юваль Ной Харари утверждает, что ИИ не требует тела робота или физического контроля, чтобы представлять экзистенциальный риск. Основные части цивилизации не являются физическими. Такие вещи, как идеологии , закон , правительство , деньги и экономика , сделаны из языка ; они существуют, потому что есть истории, в которые верят миллиарды людей. Текущее распространение дезинформации предполагает, что ИИ может использовать язык, чтобы убедить людей верить во что угодно, даже совершать действия, которые являются разрушительными. [251]

Мнения экспертов и представителей отрасли неоднозначны, и значительная часть из них как обеспокоена, так и не обеспокоена риском, который может возникнуть со стороны сверхразумного ИИ. [252] Такие личности, как Стивен Хокинг , Билл Гейтс и Илон Маск , [253], а также пионеры ИИ, такие как Йошуа Бенджио , Стюарт Рассел , Демис Хассабис и Сэм Альтман , выражали обеспокоенность по поводу экзистенциального риска со стороны ИИ.

В мае 2023 года Джеффри Хинтон объявил о своем уходе из Google, чтобы иметь возможность «свободно говорить о рисках ИИ», не «думая о том, как это повлияет на Google». [254] Он, в частности, упомянул риски поглощения ИИ , [255] и подчеркнул, что для того, чтобы избежать худших результатов, установление правил безопасности потребует сотрудничества между теми, кто конкурирует в использовании ИИ. [256]

В 2023 году многие ведущие эксперты в области ИИ выступили с совместным заявлением о том, что «Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война» [257] .

Другие исследователи, однако, высказались в пользу менее антиутопической точки зрения. Пионер ИИ Юрген Шмидхубер не подписал совместное заявление, подчеркнув, что в 95% всех случаев исследования ИИ направлены на то, чтобы сделать «человеческую жизнь более долгой, здоровой и легкой». [258] Хотя инструменты, которые сейчас используются для улучшения жизни, могут использоваться и плохими игроками, «они также могут быть использованы против плохих игроков». [259] [260] Эндрю Нг также утверждал, что «ошибочно поддаваться шумихе вокруг конца света вокруг ИИ, и что регуляторы, которые это делают, только выиграют от корыстных интересов». [261] Янн Лекун «высмеивает антиутопические сценарии своих коллег о чрезмерной дезинформации и даже, в конечном итоге, о вымирании человечества». [262] В начале 2010-х годов эксперты утверждали, что риски слишком отдалены в будущем, чтобы оправдать исследования, или что люди будут ценны с точки зрения сверхразумной машины. [263] Однако после 2016 года изучение текущих и будущих рисков и возможных решений стало серьезной областью исследований. [264]

Этические машины и выравнивание

Дружественный ИИ — это машины, которые изначально были разработаны для минимизации рисков и принятия решений, приносящих пользу людям. Элиезер Юдковски , который придумал этот термин, утверждает, что разработка дружественного ИИ должна быть более приоритетной в исследованиях: это может потребовать больших инвестиций и должно быть завершено до того, как ИИ станет экзистенциальным риском. [265]

Машины с интеллектом имеют потенциал использовать свой интеллект для принятия этических решений. Область машинной этики предоставляет машинам этические принципы и процедуры для разрешения этических дилемм. [266] Область машинной этики также называется вычислительной моралью, [266] и была основана на симпозиуме AAAI в 2005 году. [267]

Другие подходы включают «искусственных моральных агентов» Уэнделла Уоллаха [268] и три принципа Стюарта Дж. Рассела для разработки доказуемо полезных машин. [269]

С открытым исходным кодом

Активные организации в сообществе открытого исходного кода ИИ включают Hugging Face , [270] Google , [271] EleutherAI и Meta . [272] Различные модели ИИ, такие как Llama 2 , Mistral или Stable Diffusion , были сделаны с открытым весом, [273] [274] что означает, что их архитектура и обученные параметры («веса») являются общедоступными. Модели с открытым весом можно свободно настраивать , что позволяет компаниям специализировать их с помощью собственных данных и для собственного варианта использования. [275] Модели с открытым весом полезны для исследований и инноваций, но также могут использоваться не по назначению. Поскольку их можно настраивать, любая встроенная мера безопасности, такая как возражение против вредоносных запросов, может быть обучена до тех пор, пока она не станет неэффективной. Некоторые исследователи предупреждают, что будущие модели ИИ могут развить опасные возможности (например, потенциал для радикального содействия биотерроризму ), и что после публикации в Интернете их нельзя будет удалить везде, если это необходимо. Они рекомендуют проводить предварительные аудиты и анализы затрат и выгод. [276]

Фреймворки

Проекты искусственного интеллекта могут иметь этическую допустимость, проверенную при проектировании, разработке и внедрении системы ИИ. Структура ИИ, такая как Care and Act Framework, содержащая ценности SUM, разработанная Институтом Алана Тьюринга, проверяет проекты в четырех основных областях: [277] [278]

Другие разработки в этических рамках включают решения, принятые на конференции в Асиломаре , Монреальскую декларацию об ответственном ИИ и инициативу IEEE по этике автономных систем, среди прочих; [279] однако эти принципы не обходятся без критики, особенно в отношении людей, выбранных для внесения вклада в эти рамки. [280]

Содействие благополучию людей и сообществ, на которые влияют эти технологии, требует учета социальных и этических последствий на всех этапах проектирования, разработки и внедрения систем ИИ, а также сотрудничества между специалистами по работе с данными, менеджерами по продуктам, инженерами по работе с данными, экспертами в предметной области и менеджерами по доставке. [281]

Институт безопасности ИИ Великобритании выпустил в 2024 году набор инструментов тестирования под названием «Inspect» для оценки безопасности ИИ, доступный по лицензии MIT с открытым исходным кодом, который свободно доступен на GitHub и может быть улучшен с помощью сторонних пакетов. Его можно использовать для оценки моделей ИИ в различных областях, включая основные знания, способность рассуждать и автономные возможности. [282]

Регулирование

Саммит по безопасности ИИ
В 2023 году состоялся первый всемирный саммит по безопасности искусственного интеллекта, на котором была принята декларация, призывающая к международному сотрудничеству.

Регулирование искусственного интеллекта — это разработка политик и законов государственного сектора для продвижения и регулирования ИИ; поэтому оно связано с более широким регулированием алгоритмов. [283] Нормативно-правовой ландшафт для ИИ является новой проблемой в юрисдикциях по всему миру. [284] Согласно индексу ИИ в Стэнфорде , ежегодное количество законов, связанных с ИИ, принятых в 127 странах, охваченных исследованием, возросло с одного, принятого в 2016 году, до 37, принятых только в 2022 году. [285] [286] В период с 2016 по 2020 год более 30 стран приняли специальные стратегии для ИИ. [287] Большинство государств-членов ЕС выпустили национальные стратегии в области ИИ, как и Канада, Китай, Индия, Япония, Маврикий, Российская Федерация, Саудовская Аравия, Объединенные Арабские Эмираты, США и Вьетнам. Другие находились в процессе разработки собственной стратегии в области ИИ, включая Бангладеш, Малайзию и Тунис. [287] Глобальное партнерство по искусственному интеллекту было запущено в июне 2020 года, заявив о необходимости разработки ИИ в соответствии с правами человека и демократическими ценностями, чтобы обеспечить общественное доверие к технологии. [287] Генри Киссинджер , Эрик Шмидт и Дэниел Хуттенлохер опубликовали совместное заявление в ноябре 2021 года, призвав к созданию правительственной комиссии по регулированию ИИ. [288] В 2023 году лидеры OpenAI опубликовали рекомендации по управлению сверхразумом, которое, по их мнению, может произойти менее чем через 10 лет. [289] В 2023 году Организация Объединенных Наций также создала консультативный орган для предоставления рекомендаций по управлению ИИ; в состав органа входят руководители технологических компаний, государственные служащие и ученые. [290] В 2024 году Совет Европы создал первый международный юридически обязательный договор по ИИ, названный « Рамочная конвенция об искусственном интеллекте и правах человека, демократии и верховенстве закона ». Он был принят Европейским Союзом, Соединенными Штатами, Соединенным Королевством и другими подписавшими его странами. [291]

В опросе Ipsos 2022 года отношение к ИИ сильно различалось в зависимости от страны; 78% граждан Китая, но только 35% американцев согласились с тем, что «продукты и услуги, использующие ИИ, имеют больше преимуществ, чем недостатков». [285] Опрос Reuters /Ipsos 2023 года показал, что 61% американцев согласны, а 22% не согласны, что ИИ представляет опасность для человечества. [292] В опросе Fox News 2023 года 35% американцев считали «очень важным», а еще 41% считали «довольно важным» регулирование ИИ федеральным правительством, по сравнению с 13% ответившими «не очень важно» и 8% ответившими «совсем не важно». [293] [294]

В ноябре 2023 года в Блетчли-Парке в Великобритании состоялся первый всемирный саммит по безопасности ИИ, на котором обсуждались краткосрочные и долгосрочные риски ИИ и возможность создания обязательных и добровольных нормативных рамок. [295] 28 стран, включая США, Китай и Европейский союз, опубликовали декларацию в начале саммита, призывающую к международному сотрудничеству для управления вызовами и рисками искусственного интеллекта. [296] [297] В мае 2024 года на саммите ИИ в Сеуле 16 глобальных компаний, занимающихся технологиями ИИ, согласились взять на себя обязательства по обеспечению безопасности при разработке ИИ. [298] [299]

История

Изучение механического или «формального» рассуждения началось с философов и математиков в древности. Изучение логики привело непосредственно к теории вычислений Алана Тьюринга , которая предполагала, что машина, перетасовывая символы, такие простые, как «0» и «1», может имитировать любую мыслимую форму математического рассуждения. [300] [301] Это, наряду с одновременными открытиями в кибернетике , теории информации и нейробиологии , побудило исследователей рассмотреть возможность создания «электронного мозга». [r] Они разработали несколько областей исследований, которые стали частью ИИ, [303] такие как проект Маккалуча и Питтса для «искусственных нейронов» в 1943 году, [115] и влиятельная статья Тьюринга 1950 года « Вычислительная техника и интеллект », которая представила тест Тьюринга и показала, что «машинный интеллект» правдоподобен. [304] [301]

Область исследований ИИ была основана на семинаре в Дартмутском колледже в 1956 году. [s] [6] Участники стали лидерами исследований ИИ в 1960-х годах. [t] Они и их студенты создали программы, которые пресса описала как «поразительные»: [u] компьютеры изучали стратегии игры в шашки , решали текстовые задачи по алгебре, доказывали логические теоремы и говорили по-английски. [v] [7] Лаборатории искусственного интеллекта были созданы в ряде британских и американских университетов в конце 1950-х и начале 1960-х годов. [301]

Исследователи 1960-х и 1970-х годов были убеждены, что их методы в конечном итоге приведут к созданию машины с общим интеллектом, и считали это целью своей области. [308] В 1965 году Герберт Саймон предсказал, что «машины будут способны в течение двадцати лет выполнять любую работу, которую может выполнить человек». [309] В 1967 году Марвин Мински согласился, написав, что «в течение поколения ... проблема создания «искусственного интеллекта» будет в значительной степени решена». [310] Однако они недооценили сложность проблемы. [w] В 1974 году правительства США и Великобритании прекратили поисковые исследования в ответ на критику сэра Джеймса Лайтхилла [312] и продолжающееся давление со стороны Конгресса США с целью финансирования более продуктивных проектов . [313] Книга Мински и Паперта « Персептроны » была понята как доказательство того, что искусственные нейронные сети никогда не будут полезны для решения реальных задач, тем самым полностью дискредитируя этот подход. [314] Затем последовала « зима ИИ », период, когда было трудно получить финансирование для проектов ИИ. [9]

В начале 1980-х годов исследования ИИ были возрождены коммерческим успехом экспертных систем [315] , формы программы ИИ, которая имитировала знания и аналитические навыки экспертов-людей. К 1985 году рынок ИИ достиг более миллиарда долларов. В то же время японский проект пятого поколения компьютеров вдохновил правительства США и Великобритании на восстановление финансирования академических исследований [8] . Однако, начиная с краха рынка Lisp Machine в 1987 году, ИИ снова приобрел дурную славу, и началась вторая, более продолжительная зима. [10]

До этого момента большая часть финансирования ИИ направлялась на проекты, которые использовали символы высокого уровня для представления ментальных объектов, таких как планы, цели, убеждения и известные факты. В 1980-х годах некоторые исследователи начали сомневаться, что этот подход сможет имитировать все процессы человеческого познания, особенно восприятие , робототехнику , обучение и распознавание образов , [316] и начали изучать «субсимволические» подходы. [317] Родни Брукс отверг «представление» в целом и сосредоточился непосредственно на разработке машин, которые двигаются и выживают. [x] Джуда Перл , Лофти Заде и другие разработали методы, которые обрабатывали неполную и неопределенную информацию, делая разумные предположения, а не точную логику. [86] [322] Но самым важным событием стало возрождение « коннекционизма », включая исследования нейронных сетей, Джеффри Хинтоном и другими. [323] В 1990 году Ян Лекун успешно продемонстрировал, что сверточные нейронные сети могут распознавать рукописные цифры, что стало первым из многих успешных применений нейронных сетей. [324]

ИИ постепенно восстановил свою репутацию в конце 1990-х и начале 21-го века, используя формальные математические методы и находя конкретные решения для конкретных проблем. Этот « узкий » и «формальный» фокус позволил исследователям получать проверяемые результаты и сотрудничать с другими областями (такими как статистика , экономика и математика ). [325] К 2000 году решения, разработанные исследователями ИИ, широко использовались, хотя в 1990-х годах их редко называли «искусственным интеллектом». [326] Однако несколько академических исследователей стали беспокоиться о том, что ИИ больше не преследует свою первоначальную цель создания универсальных, полностью интеллектуальных машин. Начиная примерно с 2002 года, они основали подотрасль общего искусственного интеллекта (или «AGI»), которая к 2010-м годам имела несколько хорошо финансируемых институтов. [4]

Глубокое обучение стало доминировать в отраслевых бенчмарках в 2012 году и было принято во всей области. [11] Для многих конкретных задач другие методы были заброшены. [y] Успех глубокого обучения был основан как на усовершенствованиях оборудования ( более быстрые компьютеры , [328] графические процессоры , облачные вычисления [329] ), так и на доступе к большим объемам данных [330] (включая курируемые наборы данных, [329] такие как ImageNet ). Успех глубокого обучения привел к огромному росту интереса и финансирования в области ИИ. [z] Объем исследований в области машинного обучения (измеренный по общему количеству публикаций) увеличился на 50% в 2015–2019 годах. [287]

В 2016 году вопросы справедливости и неправильного использования технологий были выдвинуты на первый план на конференциях по машинному обучению, публикации значительно возросли, финансирование стало доступным, и многие исследователи переориентировали свою карьеру на эти вопросы. Проблема выравнивания стала серьезной областью академических исследований. [264]

В конце подросткового и начале 2020-х годов компании AGI начали поставлять программы, которые вызвали огромный интерес. В 2015 году AlphaGo , разработанная DeepMind , победила чемпиона мира по игре в го . Программа была обучена только правилам игры и сама разрабатывала стратегию. GPT-3 — это большая языковая модель , выпущенная в 2020 году компанией OpenAI и способная генерировать высококачественный текст, похожий на человеческий. [331] Эти и другие программы вдохновили агрессивный бум ИИ , когда крупные компании начали инвестировать миллиарды долларов в исследования ИИ. По данным AI Impacts, около 50 миллиардов долларов ежегодно инвестировалось в «ИИ» около 2022 года только в США, и около 20% новых выпускников докторской степени в области компьютерных наук в США специализируются на «ИИ». [332] В 2022 году в США существовало около 800 000 вакансий, связанных с «ИИ». [333]

Философия

Определение искусственного интеллекта

Алан Тьюринг в 1950 году написал: «Я предлагаю рассмотреть вопрос «могут ли машины думать»?» [334] Он посоветовал изменить вопрос с «думает ли машина» на «может ли машина демонстрировать разумное поведение». [334] Он разработал тест Тьюринга, который измеряет способность машины имитировать человеческий разговор. [304] Поскольку мы можем только наблюдать за поведением машины, неважно, думает ли она «на самом деле» или буквально имеет «разум». Тьюринг отмечает, что мы не можем определить эти вещи о других людях, но «обычно принято иметь вежливое соглашение, что все думают». [335]

Тест Тьюринга может предоставить некоторые доказательства интеллекта, но он наказывает за нечеловеческое разумное поведение. [336]

Рассел и Норвиг согласны с Тьюрингом в том, что интеллект должен определяться с точки зрения внешнего поведения, а не внутренней структуры. [1] Однако они критически настроены на то, чтобы тест требовал, чтобы машина имитировала людей. « Тексты по авиационной технике », — писали они, — «не определяют цель своей области как создание «машин, которые летают так точно, как голуби , что они могут обманывать других голубей». [ 337] Основатель ИИ Джон Маккарти согласился, написав, что «Искусственный интеллект, по определению, не является имитацией человеческого интеллекта». [338]

Маккарти определяет интеллект как «вычислительную часть способности достигать целей в мире». [339] Другой основатель ИИ, Марвин Мински, аналогичным образом описывает его как «способность решать сложные проблемы». [340] Ведущий учебник по ИИ определяет его как изучение агентов, которые воспринимают свое окружение и предпринимают действия, которые максимизируют их шансы на достижение определенных целей. [1] Эти определения рассматривают интеллект в терминах четко определенных проблем с четко определенными решениями, где как сложность проблемы, так и производительность программы являются прямыми мерами «интеллекта» машины — и никакое другое философское обсуждение не требуется или даже может быть невозможным.

Другое определение было принято Google, [341] крупным практиком в области ИИ. Это определение предусматривает способность систем синтезировать информацию как проявление интеллекта, аналогично тому, как это определяется в биологическом интеллекте.

Некоторые авторы на практике предположили, что определение ИИ является расплывчатым и его трудно определить, и спорят о том, следует ли классические алгоритмы относить к категории ИИ, [342] при этом многие компании в начале 2020-х годов, во время бума ИИ, использовали этот термин как модное маркетинговое словечко , часто даже если они «фактически не использовали ИИ существенным образом». [343]

Оценка подходов к ИИ

Ни одна устоявшаяся объединяющая теория или парадигма не направляла исследования ИИ на протяжении большей части их истории. [aa] Беспрецедентный успех статистического машинного обучения в 2010-х годах затмил все другие подходы (настолько, что некоторые источники, особенно в деловом мире, используют термин «искусственный интеллект» для обозначения «машинного обучения с нейронными сетями»). Этот подход в основном субсимволический , мягкий и узкий . Критики утверждают, что эти вопросы, возможно, придется пересмотреть будущим поколениям исследователей ИИ.

Символический ИИ и его ограничения

Символический ИИ (или « GOFAI ») [345] имитировал высокоуровневое сознательное рассуждение, которое люди используют, когда решают головоломки, выражают правовые рассуждения и занимаются математикой. Они были очень успешны в «интеллектуальных» задачах, таких как алгебра или тесты IQ. В 1960-х годах Ньюэлл и Саймон предложили гипотезу физических систем символов : «Физическая система символов имеет необходимые и достаточные средства для общих интеллектуальных действий». [346]

Однако символический подход не справился со многими задачами, которые люди решают легко, такими как обучение, распознавание объекта или рассуждения здравого смысла. Парадокс Моравека заключается в открытии того, что высокоуровневые «интеллектуальные» задачи были легкими для ИИ, но низкоуровневые «инстинктивные» задачи были чрезвычайно трудными. [ 347] Философ Хьюберт Дрейфус с 1960-х годов утверждал , что человеческая экспертиза зависит от бессознательного инстинкта, а не от сознательной манипуляции символами, и от наличия «чувства» ситуации, а не явного символического знания. [348] Хотя его аргументы были высмеяны и проигнорированы, когда они были впервые представлены, в конечном итоге исследователи ИИ согласились с ним. [ab] [16]

Проблема не решена: субсимволическое рассуждение может совершать многие из тех же непостижимых ошибок, что и человеческая интуиция, например, алгоритмическую предвзятость . Критики, такие как Ноам Хомский, утверждают, что продолжение исследований символического ИИ все еще будет необходимо для достижения общего интеллекта, [350] [351] отчасти потому, что субсимволический ИИ — это шаг в сторону от объяснимого ИИ : может быть трудно или невозможно понять, почему современная статистическая программа ИИ приняла определенное решение. Возникающая область нейросимволического искусственного интеллекта пытается объединить два подхода.

Аккуратный против неряшливого

«Чистоплотные» надеются, что интеллектуальное поведение описывается с помощью простых, элегантных принципов (таких как логика , оптимизация или нейронные сети ). «Неряхи» ожидают, что это обязательно потребует решения большого количества не связанных между собой проблем. Чистоплотные защищают свои программы с теоретической строгостью, неряхи в основном полагаются на инкрементальное тестирование, чтобы увидеть, работают ли они. Этот вопрос активно обсуждался в 1970-х и 1980-х годах, [352] , но в конечном итоге был признан неактуальным. Современный ИИ имеет элементы обоих.

Мягкие и жесткие вычисления

Нахождение доказуемо правильного или оптимального решения является неразрешимым для многих важных проблем. [15] Мягкие вычисления — это набор методов, включая генетические алгоритмы , нечеткую логику и нейронные сети, которые терпимы к неточности, неопределенности, частичной истинности и приближению. Мягкие вычисления были введены в конце 1980-х годов, и большинство успешных программ ИИ в 21 веке являются примерами мягких вычислений с нейронными сетями.

Узкий и общий ИИ

Исследователи ИИ разделились во мнениях относительно того, следует ли напрямую преследовать цели общего искусственного интеллекта и сверхинтеллекта или решать как можно больше конкретных проблем (узкий ИИ) в надежде, что эти решения косвенно приведут к долгосрочным целям области. [353] [354] Общий интеллект трудно определить и трудно измерить, и современный ИИ добился более проверяемых успехов, сосредоточившись на конкретных проблемах с конкретными решениями. Экспериментальная подобласть общего искусственного интеллекта изучает исключительно эту область.

Машинное сознание, чувствительность и разум

Философия разума не знает, может ли машина иметь разум , сознание и ментальные состояния в том же смысле, что и люди. Этот вопрос рассматривает внутренние переживания машины, а не ее внешнее поведение. Основные исследования ИИ считают этот вопрос неактуальным, поскольку он не влияет на цели этой области: создавать машины, которые могут решать проблемы, используя интеллект. Рассел и Норвиг добавляют, что «дополнительный проект по созданию машины, сознательной точно так же, как и люди, — это не тот, к которому мы готовы». [355] Однако этот вопрос стал центральным для философии разума. Это также, как правило, центральный вопрос, обсуждаемый в области искусственного интеллекта в художественной литературе .

Сознание

Дэвид Чалмерс выделил две проблемы в понимании разума, которые он назвал «трудными» и «легкими» проблемами сознания. [356] Легкая проблема заключается в понимании того, как мозг обрабатывает сигналы, строит планы и контролирует поведение. Трудная проблема заключается в объяснении того, как это ощущается или почему это вообще должно ощущаться как что-то, предполагая, что мы правы, думая, что это действительно ощущается как что-то (иллюзионизм сознания Деннета утверждает, что это иллюзия). В то время как человеческую обработку информации легко объяснить, человеческий субъективный опыт объяснить трудно. Например, легко представить себе дальтоника, который научился определять, какие объекты в его поле зрения красные, но неясно, что потребуется для того, чтобы человек знал, как выглядит красный цвет . [357]

Вычислительность и функционализм

Вычислительный подход — это позиция в философии разума , согласно которой человеческий разум — это система обработки информации, а мышление — это форма вычислений. Вычислительный подход утверждает, что отношения между разумом и телом аналогичны или идентичны отношениям между программным обеспечением и оборудованием и, таким образом, могут быть решением проблемы разума и тела . Эта философская позиция была вдохновлена ​​работой исследователей ИИ и когнитивных ученых в 1960-х годах и первоначально была предложена философами Джерри Фодором и Хилари Патнэмом . [358]

Философ Джон Сирл охарактеризовал эту позицию как « сильный ИИ »: «Соответствующим образом запрограммированный компьютер с правильными входами и выходами будет, таким образом, обладать разумом в том же смысле, в котором разум есть у людей». [ac] Сирл противопоставляет этому утверждению свой аргумент китайской комнаты, который пытается показать, что даже если машина идеально имитирует человеческое поведение, все равно нет оснований предполагать, что у нее также есть разум. [362]

Благосостояние и права ИИ

Трудно или невозможно достоверно оценить, является ли развитый ИИ разумным (имеет ли он способность чувствовать), и если да, то в какой степени. [363] Но если есть значительная вероятность того, что данная машина может чувствовать и страдать, то она может иметь право на определенные права или меры защиты благосостояния, подобно животным. [364] [365] Разумность (набор способностей, связанных с высоким интеллектом, таких как проницательность или самосознание ) может обеспечить еще одну моральную основу для прав ИИ. [364] Права роботов также иногда предлагаются как практический способ интеграции автономных агентов в общество. [366]

В 2017 году Европейский союз рассматривал возможность предоставления «электронной личности» некоторым из наиболее эффективных систем ИИ. Подобно правовому статусу компаний, это предоставило бы права, но также и обязанности. [367] Критики утверждали в 2018 году, что предоставление прав системам ИИ приуменьшит важность прав человека , и что законодательство должно быть сосредоточено на потребностях пользователей, а не на спекулятивных футуристических сценариях. Они также отметили, что роботам не хватает автономии, чтобы самостоятельно участвовать в жизни общества. [368] [369]

Прогресс в области ИИ повысил интерес к этой теме. Сторонники благосостояния и прав ИИ часто утверждают, что разумность ИИ, если она появится, будет особенно легко отрицать. Они предупреждают, что это может быть моральным слепым пятном, аналогичным рабству или промышленному животноводству , что может привести к масштабным страданиям, если разумный ИИ будет создан и небрежно эксплуатироваться. [365] [364]

Будущее

Сверхразум и сингулярность

Сверхразум — это гипотетический агент, который будет обладать интеллектом, намного превосходящим интеллект самого яркого и одаренного человеческого разума. [354]

Если бы исследования в области искусственного интеллекта привели к созданию достаточно разумного программного обеспечения, оно могло бы перепрограммировать и улучшить себя . Улучшенное программное обеспечение могло бы еще лучше улучшать себя, что привело бы к тому, что IJ Good назвал « взрывом интеллекта », а Vernor Vinge назвал « сингулярностью ». [370]

Однако технологии не могут совершенствоваться экспоненциально бесконечно и обычно следуют S-образной кривой , замедляясь, когда достигают физических пределов того, что может сделать технология. [371]

Трансгуманизм

Конструктор роботов Ганс Моравек , кибернетик Кевин Уорвик и изобретатель Рэй Курцвейл предсказали, что люди и машины в будущем сольются в киборгов , которые будут более способными и сильными, чем те и другие. Эта идея, называемая трансгуманизмом, имеет корни в работах Олдоса Хаксли и Роберта Эттингера . [372]

Эдвард Фредкин утверждает, что «искусственный интеллект — это следующая стадия эволюции», идея, впервые предложенная Сэмюэлем Батлером в его книге « Дарвин среди машин » еще в 1863 году и расширенная Джорджем Дайсоном в его книге 1998 года «Дарвин среди машин: эволюция глобального интеллекта» . [373]

В художественной литературе

Само слово «робот» было придумано Карелом Чапеком в его пьесе 1921 года «RUR» , название которой расшифровывается как «Россумские универсальные роботы».

Искусственные существа, способные мыслить, появлялись в качестве средств повествования еще со времен античности [374] и были постоянной темой в научной фантастике . [375]

Распространенный троп в этих работах начался с «Франкенштейна » Мэри Шелли , где человеческое творение становится угрозой для своих хозяев. Сюда входят такие работы, как «Космическая одиссея 2001 года» Артура Кларка и Стэнли Кубрика (оба 1968 года) с HAL 9000 , смертоносным компьютером, управляющим космическим кораблем Discovery One , а также «Терминатор» (1984) и «Матрица» (1999). Напротив, редкие верные роботы, такие как Горт из «Дня, когда Земля остановилась» (1951) и Бишоп из «Чужих» (1986), менее заметны в популярной культуре. [376]

Айзек Азимов представил Три закона робототехники во многих рассказах, особенно в рассказе о сверхразумном компьютере « Мультиваке ». Законы Азимова часто упоминаются в ходе светских дискуссий о машинной этике; [377] хотя почти все исследователи искусственного интеллекта знакомы с законами Азимова через популярную культуру, они, как правило, считают эти законы бесполезными по многим причинам, одной из которых является их неоднозначность. [378]

Несколько работ используют ИИ, чтобы заставить нас столкнуться с фундаментальным вопросом о том, что делает нас людьми, показывая нам искусственные существа, которые обладают способностью чувствовать , и, таким образом, страдать. Это появляется в RUR Карела Чапека , фильмах Искусственный интеллект и Из машины , а также в романе Мечтают ли андроиды об электроовцах? Филипа К. Дика . Дик рассматривает идею о том, что наше понимание человеческой субъективности изменяется под воздействием технологий, созданных с помощью искусственного интеллекта. [379]

Смотрите также

Пояснительные записки

  1. ^ ab Этот список интеллектуальных черт основан на темах, охватываемых основными учебниками по ИИ, включая: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) и Nilsson (1998)
  2. ^ ab Этот список инструментов основан на темах, охватываемых основными учебниками по ИИ, включая: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) и Nilsson (1998)
  3. ^ Это одна из причин, по которой экспертные системы оказались неэффективными для сбора знаний. [30] [31]
  4. ^ "Рациональный агент" — это общий термин, используемый в экономике , философии и теоретическом искусственном интеллекте. Он может относиться ко всему, что направляет свое поведение на достижение целей, например, к человеку, животному, корпорации, нации или, в случае ИИ, к компьютерной программе.
  5. ^ Алан Тьюринг обсуждал центральную роль обучения еще в 1950 году в своей классической статье « Вычислительная техника и интеллект ». [42] В 1956 году на оригинальной летней конференции по искусственному интеллекту в Дартмуте Рэй Соломонофф написал доклад о неконтролируемом вероятностном машинном обучении: «Машина индуктивного вывода». [43]
  6. ^ См. AI Winter § Машинный перевод и отчет ALPAC 1966 г.
  7. ^ По сравнению с символической логикой формальный байесовский вывод требует больших вычислительных затрат. Чтобы вывод был поддающимся обработке, большинство наблюдений должны быть условно независимыми друг от друга. AdSense использует байесовскую сеть с более чем 300 миллионами ребер, чтобы узнать, какие объявления показывать. [93]
  8. ^ Максимизация ожиданий, один из самых популярных алгоритмов в машинном обучении, позволяет выполнять кластеризацию при наличии неизвестных скрытых переменных . [95]
  9. ^ Некоторые формы глубоких нейронных сетей (без конкретного алгоритма обучения) были описаны: Уорреном С. Маккалоком и Уолтером Питтсом (1943) [115] Аланом Тьюрингом (1948); [116] Карлом Стейнбухом и Роджером Дэвидом Джозефом (1961). [117] Глубокие или рекуррентные сети, которые обучались (или использовали градиентный спуск), были разработаны: Фрэнком Розенблаттом (1957); [116] Оливером Селфриджем (1959); [117] Алексеем Ивахненко и Валентином Лапой (1965); [118] Каору Накано (1971); [119] Шун-Ичи Амари (1972); [119] Джоном Джозефом Хопфилдом (1982). [119] Предшественники обратного распространения были разработаны: Генри Дж. Келли (1960); [116] Артуром Э. Брайсоном (1962); [116] Стюарт Дрейфус (1962); [116] Артур Э. Брайсон и Ю-Чи Хо (1969); [116] Обратное распространение ошибки независимо друг от друга разработали: Сеппо Линнайнмаа (1970); [120] Пол Вербос (1974). [116]
  10. ^ Джеффри Хинтон сказал о своей работе над нейронными сетями в 1990-х годах: «Наши размеченные наборы данных были в тысячи раз меньше. [И] наши компьютеры были в миллионы раз медленнее». [121]
  11. ^ В статистике смещение — это систематическая ошибка или отклонение от правильного значения. Но в контексте справедливости оно относится к тенденции в пользу или против определенной группы или индивидуальной характеристики, обычно таким образом, который считается несправедливым или вредным. Статистически непредвзятая система ИИ, которая выдает разнородные результаты для разных демографических групп, может, таким образом, рассматриваться как предвзятая в этическом смысле. [200]
  12. Включая Джона Клейнберга ( Корнелльский университет ), Сендхила Маллайнатана ( Чикагский университет ), Синтию Чулдехову ( Карнеги-Меллон ) и Сэма Корбетта-Дэвиса ( Стэнфорд ) [209]
  13. ^ Мориц Хардт (директор Института интеллектуальных систем Макса Планка ) утверждает, что машинное обучение «в корне не подходит для многих областей, где вы пытаетесь разрабатывать вмешательства и механизмы, которые изменят мир». [214]
  14. ^ Когда закон был принят в 2018 году, он все еще содержал форму этого положения.
  15. ^ Это определение Организации Объединенных Наций , которое включает в себя такие вещи, как наземные мины . [228]
  16. ^ См. таблицу 4; 9% — это средний показатель как по ОЭСР, так и по США. [239]
  17. ^ Иногда его называют « робопокалипсисом » [247]
  18. ^ «Электронный мозг» — термин, используемый прессой в то время. [300] [302]
  19. Дэниел Кревье писал: «Эта конференция общепризнанно считается официальной датой рождения новой науки». [305] Рассел и Норвиг назвали конференцию «зарождением искусственного интеллекта». [115]
  20. Рассел и Норвиг писали: «В течение следующих 20 лет в этой области будут доминировать эти люди и их ученики». [306]
  21. Рассел и Норвиг писали: «Было удивительно, когда компьютер делал что-то умное». [307]
  22. ^ Описанные программы - это программа проверки Артура Сэмюэля для IBM 701 , STUDENT Дэниела Боброва , Logic Theorist Ньюэлла и Саймона и SHRDLU Терри Винограда .
  23. ^ Рассел и Норвиг пишут: «почти во всех случаях эти ранние системы терпели неудачу при решении более сложных задач» [311]
  24. ^ Воплощенные подходы к ИИ [318] отстаивали Ганс Моравец [319] и Родни Брукс [320], и они имели много названий: Новый ИИ . [320] Развивающаяся робототехника . [321]
  25. ^ Маттео Вонг написал в The Atlantic : «В то время как на протяжении десятилетий такие области компьютерных наук, как обработка естественного языка, компьютерное зрение и робототехника, использовали совершенно разные методы, теперь все они используют метод программирования, называемый «глубоким обучением». В результате их код и подходы стали более схожими, а их модели легче интегрировать друг в друга». [327]
  26. ^ Джек Кларк написал в Bloomberg : «После полувека тихих прорывов в области искусственного интеллекта 2015 год стал знаменательным. Компьютеры стали умнее и учатся быстрее, чем когда-либо», и отметил, что количество программных проектов, использующих машинное обучение в Google, увеличилось со «спорадического использования» в 2012 году до более чем 2700 проектов в 2015 году. [329]
  27. Нильс Нильссон писал в 1983 году: «Проще говоря, в этой области существуют большие разногласия относительно того, что такое ИИ». [344]
  28. ^ Дэниел Кревье написал, что «время доказало точность и проницательность некоторых комментариев Дрейфуса. Если бы он сформулировал их менее агрессивно, конструктивные действия, которые они предлагали, могли бы быть предприняты гораздо раньше». [349]
  29. ^ Сирл представил это определение «сильного ИИ» в 1999 году. [359] Первоначальная формулировка Сирла была: «Соответствующим образом запрограммированный компьютер действительно является разумом, в том смысле, что компьютеры, которым даны правильные программы, можно буквально назвать понимающими и имеющими другие когнитивные состояния». [360] Сильный ИИ определяется аналогичным образом Расселом и Норвигом : «Сильный ИИ – утверждение, что машины, которые это делают, на самом деле думают (в отличие от имитации мышления)». [361]

Ссылки

  1. ^ abc Russell & Norvig (2021), стр. 1–4.
  2. ^ Искусственный интеллект должен превзойти возможности человеческого мозга. Архивировано 19 февраля 2008 г. на Wayback Machine CNN.com (26 июля 2006 г.)
  3. ^ Каплан, Андреас; Хенлейн, Михаэль (2019). «Siri, Siri, в моей руке: Кто прекраснее всех на свете? Об интерпретациях, иллюстрациях и последствиях искусственного интеллекта». Business Horizons . 62 : 15–25. doi : 10.1016/j.bushor.2018.08.004. ISSN  0007-6813. S2CID  158433736.
  4. ^ abc Искусственный интеллект в целом : Рассел и Норвиг (2021, стр. 32–33, 1020–1021) Предложение по современной версии: Пенначин и Герцель (2007) Предупреждения о чрезмерной специализации в области ИИ от ведущих исследователей: Нильссон (1995), Маккарти (2007), Бил и Уинстон (2009)

  5. ^ Рассел и Норвиг (2021, §1.2).
  6. ^ ab Dartmouth workshop : Russell & Norvig (2021, стр. 18), McCorduck (2004, стр. 111–136), NRC (1999, стр. 200–201)
    Предложение: McCarthy et al. (1955)
  7. ^ ab Успешные программы 1960-х годов: McCorduck (2004, стр. 243–252), Crevier (1993, стр. 52–107), Moravec (1988, стр. 9), Russell & Norvig (2021, стр. 19–21)
  8. ^ ab Инициативы по финансированию в начале 1980-х годов: Fifth Generation Project (Япония), Alvey (Великобритания), Microelectronics and Computer Technology Corporation (США), Strategic Computing Initiative (США): McCorduck (2004, стр. 426–441), Crevier (1993, стр. 161–162, 197–203, 211, 240), Russell & Norvig (2021, стр. 23), NRC (1999, стр. 210–211), Newquist (1994, стр. 235–248)
  9. ^ ab First AI Winter , отчет Lighthill , поправка Mansfield : Crevier (1993, стр. 115–117), Russell & Norvig (2021, стр. 21–22), NRC (1999, стр. 212–213), Howe (1994), Newquist (1994, стр. 189–201)
  10. ^ ab Вторая зима AI : Russell & Norvig (2021, стр. 24), McCorduck (2004, стр. 430–435), Crevier (1993, стр. 209–210), NRC (1999, стр. 214–216), Newquist (1994, стр. 301–318)
  11. ^ ab Революция глубокого обучения , AlexNet : Goldman (2022), Russell & Norvig (2021, стр. 26), McKinsey (2018)
  12. ^ Тэйвз (2023).
  13. ^ Решение проблем, решение головоломок, игровые процессы и дедукция: Рассел и Норвиг (2021, гл. 3–5), Рассел и Норвиг (2021, гл. 6) ( удовлетворение ограничений ), Пул, Макворт и Гебель (1998, гл. 2, 3, 7, 9), Люгер и Стабблфилд (2004, гл. 3, 4, 6, 8), Нильссон (1998, гл. 7–12)
  14. ^ Неопределенные рассуждения: Рассел и Норвиг (2021, гл. 12–18), Пул, Макворт и Гёбель (1998, стр. 345–395), Люгер и Стабблфилд (2004, стр. 333–381), Нильссон (1998, гл. 7–12)
  15. ^ abc Трудность решения и эффективность и комбинаторный взрыв : Рассел и Норвиг (2021, стр. 21)
  16. ^ abc Психологические доказательства распространенности субсимволического мышления и знания: Канеман (2011), Дрейфус и Дрейфус (1986), Уэйсон и Шапиро (1966), Канеман, Слович и Тверски (1982)
  17. ^ Представление знаний и инженерия знаний : Рассел и Норвиг (2021, гл. 10), Пул, Макворт и Гёбель (1998, стр. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345), Люгер и Стабблфилд (2004, стр. 227–243), Нильссон (1998, гл. 17.1–17.4, 18)
  18. ^ Смоляр и Чжан (1994).
  19. ^ Нойманн и Мёллер (2008).
  20. ^ Куперман, Райхли и Бейли (2006).
  21. ^ МакГарри (2005).
  22. ^ Бертини, Дель Бимбо и Торниай (2006).
  23. ^ Рассел и Норвиг (2021), стр. 272.
  24. ^ Представление категорий и отношений: семантические сети , описательная логика , наследование (включая фреймы и скрипты ): Russell & Norvig (2021, §10.2 и 10.5), Poole, Mackworth & Goebel (1998, стр. 174–177), Luger & Stubblefield (2004, стр. 248–258), Nilsson (1998, гл. 18.3)
  25. ^ Представление событий и времени: исчисление ситуаций , исчисление событий , беглое исчисление (включая решение проблемы фрейма ): Рассел и Норвиг (2021, §10.3), Пул, Макворт и Гёбель (1998, стр. 281–298), Нильссон (1998, гл. 18.2)
  26. ^ Причинное исчисление : Пул, Макворт и Гебель (1998, стр. 335–337).
  27. ^ Представление знания о знании: исчисление убеждений, модальная логика : Рассел и Норвиг (2021, §10.4), Пул, Макворт и Гёбель (1998, стр. 275–277)
  28. ^ ab Рассуждение по умолчанию , проблема фрейма , логика по умолчанию , немонотонные логики , ограничение , предположение о замкнутом мире , абдукция : Рассел и Норвиг (2021, §10.6), Пул, Макворт и Гёбель (1998, стр. 248–256, 323–335), Люгер и Стабблфилд (2004, стр. 335–363), Нильссон (1998, ~18.3.3) (Пул и др. относят абдукцию к «рассуждению по умолчанию». Люгер и др. относят его к «неопределенному рассуждению»).
  29. ^ ab Широта познания здравого смысла: Lenat & Guha (1989, Введение), Crevier (1993, стр. 113–114), Moravec (1988, стр. 13), Russell & Norvig (2021, стр. 241, 385, 982) ( проблема квалификации )
  30. ^ Ньюквист (1994), стр. 296.
  31. ^ Кревье (1993), стр. 204–208.
  32. ^ Рассел и Норвиг (2021), стр. 528.
  33. ^ Автоматизированное планирование : Рассел и Норвиг (2021, глава 11).
  34. ^ Автоматизированное принятие решений , Теория принятия решений : Рассел и Норвиг (2021, главы 16–18).
  35. ^ Классическое планирование : Рассел и Норвиг (2021, раздел 11.2).
  36. ^ Бездатчиковое или «конформное» планирование, условное планирование, перепланирование (также известное как онлайн-планирование): Рассел и Норвиг (2021, раздел 11.5).
  37. ^ Неопределенные предпочтения: Рассел и Норвиг (2021, Раздел 16.7) Обратное обучение с подкреплением : Рассел и Норвиг (2021, Раздел 22.6)
  38. ^ Теория ценности информации : Рассел и Норвиг (2021, раздел 16.6).
  39. ^ Марковский процесс принятия решений : Рассел и Норвиг (2021, гл. 17).
  40. ^ Теория игр и теория многоагентных решений: Рассел и Норвиг (2021, гл. 18).
  41. ^ Обучение : Рассел и Норвиг (2021, гл. 19–22), Пул, Макворт и Гёбель (1998, стр. 397–438), Люгер и Стабблфилд (2004, стр. 385–542), Нильссон (1998, гл. 3.3, 10.3, 17.5, 20)
  42. Тьюринг (1950).
  43. ^ Соломонов (1956).
  44. ^ Неконтролируемое обучение : Рассел и Норвиг (2021, стр. 653) (определение), Рассел и Норвиг (2021, стр. 738–740) ( кластерный анализ ), Рассел и Норвиг (2021, стр. 846–860) ( встраивание слов )
  45. ^ ab Контролируемое обучение : Рассел и Норвиг (2021, §19.2) (Определение), Рассел и Норвиг (2021, гл. 19–20) (Методы)
  46. ^ Обучение с подкреплением : Рассел и Норвиг (2021, гл. 22), Люгер и Стабблфилд (2004, стр. 442–449)
  47. ^ Передача обучения : Рассел и Норвиг (2021, стр. 281), The Economist (2016)
  48. ^ «Искусственный интеллект (ИИ): что такое ИИ и как он работает? | Встроенный». builtin.com . Получено 30 октября 2023 г. .
  49. ^ Теория вычислительного обучения : Рассел и Норвиг (2021, стр. 672–674), Джордан и Митчелл (2015)
  50. ^ Обработка естественного языка (NLP): Рассел и Норвиг (2021, гл. 23–24), Пул, Макворт и Гёбель (1998, стр. 91–104), Люгер и Стабблфилд (2004, стр. 591–632)
  51. ^ Подзадачи НЛП : Рассел и Норвиг (2021, стр. 849–850)
  52. ^ Рассел и Норвиг (2021), стр. 856–858.
  53. ^ Диксон (2022).
  54. ^ Современные статистические и глубоко обучающие подходы к обработке естественного языка : Рассел и Норвиг (2021, гл. 24), Камбрия и Уайт (2014)
  55. ^ Винсент (2019).
  56. ^ Рассел и Норвиг (2021), стр. 875–878.
  57. ^ Бушвик (2023).
  58. ^ Компьютерное зрение : Рассел и Норвиг (2021, гл. 25), Нильссон (1998, гл. 6)
  59. ^ Рассел и Норвиг (2021), стр. 849–850.
  60. ^ Рассел и Норвиг (2021), стр. 895–899.
  61. ^ Рассел и Норвиг (2021), стр. 899–901.
  62. ^ Чалла и др. (2011).
  63. ^ Рассел и Норвиг (2021), стр. 931–938.
  64. ^ Массачусетский технологический институт (2014).
  65. ^ Аффективные вычисления : Thro (1993), Edelson (1991), Tao & Tan (2005), Scassellati (2002)
  66. ^ Уодделл (2018).
  67. ^ Пория и др. (2017).
  68. ^ Search algorithms: Russell & Norvig (2021, chpts. 3–5), Poole, Mackworth & Goebel (1998, pp. 113–163), Luger & Stubblefield (2004, pp. 79–164, 193–219), Nilsson (1998, chpts. 7–12)
  69. ^ State space search: Russell & Norvig (2021, chpt. 3)
  70. ^ Russell & Norvig (2021), sect. 11.2.
  71. ^ Uninformed searches (breadth first search, depth-first search and general state space search): Russell & Norvig (2021, sect. 3.4), Poole, Mackworth & Goebel (1998, pp. 113–132), Luger & Stubblefield (2004, pp. 79–121), Nilsson (1998, chpt. 8)
  72. ^ Heuristic or informed searches (e.g., greedy best first and A*): Russell & Norvig (2021, sect. 3.5), Poole, Mackworth & Goebel (1998, pp. 132–147), Poole & Mackworth (2017, sect. 3.6), Luger & Stubblefield (2004, pp. 133–150)
  73. ^ Adversarial search: Russell & Norvig (2021, chpt. 5)
  74. ^ Local or "optimization" search: Russell & Norvig (2021, chpt. 4)
  75. ^ Singh Chauhan, Nagesh (18 December 2020). "Optimization Algorithms in Neural Networks". KDnuggets. Retrieved 13 January 2024.
  76. ^ Evolutionary computation: Russell & Norvig (2021, sect. 4.1.2)
  77. ^ Merkle & Middendorf (2013).
  78. ^ Logic: Russell & Norvig (2021, chpts. 6–9), Luger & Stubblefield (2004, pp. 35–77), Nilsson (1998, chpt. 13–16)
  79. ^ Propositional logic: Russell & Norvig (2021, chpt. 6), Luger & Stubblefield (2004, pp. 45–50), Nilsson (1998, chpt. 13)
  80. ^ First-order logic and features such as equality: Russell & Norvig (2021, chpt. 7), Poole, Mackworth & Goebel (1998, pp. 268–275), Luger & Stubblefield (2004, pp. 50–62), Nilsson (1998, chpt. 15)
  81. ^ Logical inference: Russell & Norvig (2021, chpt. 10)
  82. ^ logical deduction as search: Russell & Norvig (2021, sects. 9.3, 9.4), Poole, Mackworth & Goebel (1998, pp. ~46–52), Luger & Stubblefield (2004, pp. 62–73), Nilsson (1998, chpt. 4.2, 7.2)
  83. ^ Resolution and unification: Russell & Norvig (2021, sections 7.5.2, 9.2, 9.5)
  84. ^ Warren, D.H.; Pereira, L.M.; Pereira, F. (1977). "Prolog-the language and its implementation compared with Lisp". ACM SIGPLAN Notices. 12 (8): 109–115. doi:10.1145/872734.806939.
  85. ^ Fuzzy logic: Russell & Norvig (2021, pp. 214, 255, 459), Scientific American (1999)
  86. ^ a b Stochastic methods for uncertain reasoning: Russell & Norvig (2021, chpt. 12–18, 20), Poole, Mackworth & Goebel (1998, pp. 345–395), Luger & Stubblefield (2004, pp. 165–191, 333–381), Nilsson (1998, chpt. 19)
  87. ^ decision theory and decision analysis: Russell & Norvig (2021, chpt. 16–18), Poole, Mackworth & Goebel (1998, pp. 381–394)
  88. ^ Information value theory: Russell & Norvig (2021, sect. 16.6)
  89. ^ Markov decision processes and dynamic decision networks: Russell & Norvig (2021, chpt. 17)
  90. ^ a b c Stochastic temporal models: Russell & Norvig (2021, chpt. 14)Hidden Markov model: Russell & Norvig (2021, sect. 14.3)Kalman filters: Russell & Norvig (2021, sect. 14.4)Dynamic Bayesian networks: Russell & Norvig (2021, sect. 14.5)
  91. ^ Game theory and mechanism design: Russell & Norvig (2021, chpt. 18)
  92. ^ Bayesian networks: Russell & Norvig (2021, sects. 12.5–12.6, 13.4–13.5, 14.3–14.5, 16.5, 20.2–20.3), Poole, Mackworth & Goebel (1998, pp. 361–381), Luger & Stubblefield (2004, pp. ~182–190, ≈363–379), Nilsson (1998, chpt. 19.3–19.4)
  93. ^ Domingos (2015), chpt. 6.
  94. ^ Bayesian inference algorithm: Russell & Norvig (2021, sect. 13.3–13.5), Poole, Mackworth & Goebel (1998, pp. 361–381), Luger & Stubblefield (2004, pp. ~363–379), Nilsson (1998, chpt. 19.4 & 7)
  95. ^ Domingos (2015), p. 210.
  96. ^ Bayesian learning and the expectation–maximization algorithm: Russell & Norvig (2021, chpt. 20), Poole, Mackworth & Goebel (1998, pp. 424–433), Nilsson (1998, chpt. 20), Domingos (2015, p. 210)
  97. ^ Bayesian decision theory and Bayesian decision networks: Russell & Norvig (2021, sect. 16.5)
  98. ^ Statistical learning methods and classifiers: Russell & Norvig (2021, chpt. 20),
  99. ^ Ciaramella, Alberto; Ciaramella, Marco (2024). Introduction to Artificial Intelligence: from data analysis to generative AI. ISBN 978-8-8947-8760-3.
  100. ^ Decision trees: Russell & Norvig (2021, sect. 19.3), Domingos (2015, p. 88)
  101. ^ Non-parameteric learning models such as K-nearest neighbor and support vector machines: Russell & Norvig (2021, sect. 19.7), Domingos (2015, p. 187) (k-nearest neighbor)
    • Domingos (2015, p. 88) (kernel methods)
  102. ^ Domingos (2015), p. 152.
  103. ^ Naive Bayes classifier: Russell & Norvig (2021, sect. 12.6), Domingos (2015, p. 152)
  104. ^ a b Neural networks: Russell & Norvig (2021, chpt. 21), Domingos (2015, Chapter 4)
  105. ^ Gradient calculation in computational graphs, backpropagation, automatic differentiation: Russell & Norvig (2021, sect. 21.2), Luger & Stubblefield (2004, pp. 467–474), Nilsson (1998, chpt. 3.3)
  106. ^ Universal approximation theorem: Russell & Norvig (2021, p. 752) The theorem: Cybenko (1988), Hornik, Stinchcombe & White (1989)
  107. ^ Feedforward neural networks: Russell & Norvig (2021, sect. 21.1)
  108. ^ Recurrent neural networks: Russell & Norvig (2021, sect. 21.6)
  109. ^ Perceptrons: Russell & Norvig (2021, pp. 21, 22, 683, 22)
  110. ^ a b Deep learning: Russell & Norvig (2021, chpt. 21), Goodfellow, Bengio & Courville (2016), Hinton et al. (2016), Schmidhuber (2015)
  111. ^ Convolutional neural networks: Russell & Norvig (2021, sect. 21.3)
  112. ^ Deng & Yu (2014), pp. 199–200.
  113. ^ Ciresan, Meier & Schmidhuber (2012).
  114. ^ Russell & Norvig (2021), p. 751.
  115. ^ a b c Russell & Norvig (2021), p. 17.
  116. ^ a b c d e f g Russell & Norvig (2021), p. 785.
  117. ^ a b Schmidhuber (2022), sect. 5.
  118. ^ Schmidhuber (2022), sect. 6.
  119. ^ a b c Schmidhuber (2022), sect. 7.
  120. ^ Schmidhuber (2022), sect. 8.
  121. ^ Quoted in Christian (2020, p. 22)
  122. ^ Smith (2023).
  123. ^ "Explained: Generative AI". 9 November 2023.
  124. ^ "AI Writing and Content Creation Tools". MIT Sloan Teaching & Learning Technologies. Retrieved 25 December 2023.
  125. ^ Marmouyet (2023).
  126. ^ Kobielus (2019).
  127. ^ Thomason, James (21 May 2024). "Mojo Rising: The resurgence of AI-first programming languages". VentureBeat. Retrieved 26 May 2024.
  128. ^ Wodecki, Ben (5 May 2023). "7 AI Programming Languages You Need to Know". AI Business.
  129. ^ Davenport, T; Kalakota, R (June 2019). "The potential for artificial intelligence in healthcare". Future Healthc J. 6 (2): 94–98. doi:10.7861/futurehosp.6-2-94. PMC 6616181. PMID 31363513.
  130. ^ a b Bax, Monique; Thorpe, Jordan; Romanov, Valentin (December 2023). "The future of personalized cardiovascular medicine demands 3D and 4D printing, stem cells, and artificial intelligence". Frontiers in Sensors. 4. doi:10.3389/fsens.2023.1294721. ISSN 2673-5067.
  131. ^ Jumper, J; Evans, R; Pritzel, A (2021). "Highly accurate protein structure prediction with AlphaFold". Nature. 596 (7873): 583–589. Bibcode:2021Natur.596..583J. doi:10.1038/s41586-021-03819-2. PMC 8371605. PMID 34265844.
  132. ^ "AI discovers new class of antibiotics to kill drug-resistant bacteria". 20 December 2023.
  133. ^ "AI speeds up drug design for Parkinson's ten-fold". Cambridge University. 17 April 2024.
  134. ^ Horne, Robert I.; Andrzejewska, Ewa A.; Alam, Parvez; Brotzakis, Z. Faidon; Srivastava, Ankit; Aubert, Alice; Nowinska, Magdalena; Gregory, Rebecca C.; Staats, Roxine; Possenti, Andrea; Chia, Sean; Sormanni, Pietro; Ghetti, Bernardino; Caughey, Byron; Knowles, Tuomas P. J.; Vendruscolo, Michele (17 April 2024). "Discovery of potent inhibitors of α-synuclein aggregation using structure-based iterative learning". Nature Chemical Biology. 20 (5). Nature: 634–645. doi:10.1038/s41589-024-01580-x. PMC 11062903. PMID 38632492.
  135. ^ Grant, Eugene F.; Lardner, Rex (25 July 1952). "The Talk of the Town – It". The New Yorker. ISSN 0028-792X. Retrieved 28 January 2024.
  136. ^ Anderson, Mark Robert (11 May 2017). "Twenty years on from Deep Blue vs Kasparov: how a chess match started the big data revolution". The Conversation. Retrieved 28 January 2024.
  137. ^ Markoff, John (16 February 2011). "Computer Wins on 'Jeopardy!': Trivial, It's Not". The New York Times. ISSN 0362-4331. Retrieved 28 January 2024.
  138. ^ Byford, Sam (27 May 2017). "AlphaGo retires from competitive Go after defeating world number one 3–0". The Verge. Retrieved 28 January 2024.
  139. ^ Brown, Noam; Sandholm, Tuomas (30 August 2019). "Superhuman AI for multiplayer poker". Science. 365 (6456): 885–890. Bibcode:2019Sci...365..885B. doi:10.1126/science.aay2400. ISSN 0036-8075. PMID 31296650.
  140. ^ "MuZero: Mastering Go, chess, shogi and Atari without rules". Google DeepMind. 23 December 2020. Retrieved 28 January 2024.
  141. ^ Sample, Ian (30 October 2019). "AI becomes grandmaster in 'fiendishly complex' StarCraft II". The Guardian. ISSN 0261-3077. Retrieved 28 January 2024.
  142. ^ Wurman, P. R.; Barrett, S.; Kawamoto, K. (2022). "Outracing champion Gran Turismo drivers with deep reinforcement learning". Nature. 602 (7896): 223–228. Bibcode:2022Natur.602..223W. doi:10.1038/s41586-021-04357-7. PMID 35140384.
  143. ^ Wilkins, Alex (13 March 2024). "Google AI learns to play open-world video games by watching them". New Scientist. Retrieved 21 July 2024.
  144. ^ Uesato, J. et al.: Improving mathematical reasoning with process supervision. openai.com, May 31, 2023. Retrieved 2024-08-07.
  145. ^ Srivastava, Saurabh (29 February 2024). "Functional Benchmarks for Robust Evaluation of Reasoning Performance, and the Reasoning Gap". arXiv:2402.19450 [cs.AI].
  146. ^ Roberts, Siobhan (25 July 2024). "AI achieves silver-medal standard solving International Mathematical Olympiad problems". The New York Times. Retrieved 7 August 2024.
  147. ^ LLEMMA. eleuther.ai. Retrieved 2024-08-07.
  148. ^ AI Math. Caesars Labs, 2024. Retrieved 2024-08-07.
  149. ^ Alex McFarland: 7 Best AI for Math Tools. unite.ai. Retrieved 2024-08-07
  150. ^ Matthew Finio & Amanda Downie: IBM Think 2024 Primer, "What is Artificial Intelligence (AI) in Finance?" 8 Dec. 2023
  151. ^ M. Nicolas, J. Firzli: Pensions Age/European Pensions magazine, "Artificial Intelligence: Ask the Industry" May June 2024 https://videovoice.org/ai-in-finance-innovation-entrepreneurship-vs-over-regulation-with-the-eus-artificial-intelligence-act-wont-work-as-intended/.
  152. ^ a b c Congressional Research Service (2019). Artificial Intelligence and National Security (PDF). Washington, DC: Congressional Research Service.PD-notice
  153. ^ a b Slyusar, Vadym (2019). "Artificial intelligence as the basis of future control networks". ResearchGate. doi:10.13140/RG.2.2.30247.50087.
  154. ^ Knight, Will. "The US and 30 Other Nations Agree to Set Guardrails for Military AI". Wired. ISSN 1059-1028. Retrieved 24 January 2024.
  155. ^ Newsom, Gavin; Weber, Shirley N. (6 September 2023). "Executive Order N-12-23" (PDF). Executive Department, State of California. Archived (PDF) from the original on 21 February 2024. Retrieved 7 September 2023.
  156. ^ Pinaya, Walter H. L.; Graham, Mark S.; Kerfoot, Eric; Tudosiu, Petru-Daniel; Dafflon, Jessica; Fernandez, Virginia; Sanchez, Pedro; Wolleb, Julia; da Costa, Pedro F.; Patel, Ashay (2023). "Generative AI for Medical Imaging: extending the MONAI Framework". arXiv:2307.15208 [eess.IV].
  157. ^ Griffith, Erin; Metz, Cade (27 January 2023). "Anthropic Said to Be Closing In on $300 Million in New A.I. Funding". The New York Times. Archived from the original on 9 December 2023. Retrieved 14 March 2023.
  158. ^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (10 March 2023). "A Cheat Sheet to AI Buzzwords and Their Meanings". Bloomberg News. Archived from the original on 17 November 2023. Retrieved 14 March 2023.
  159. ^ Marcelline, Marco (27 May 2023). "ChatGPT: Most Americans Know About It, But Few Actually Use the AI Chatbot". PCMag. Retrieved 28 January 2024.
  160. ^ Lu, Donna (31 March 2023). "Misinformation, mistakes and the Pope in a puffer: what rapidly evolving AI can – and can't – do". The Guardian. ISSN 0261-3077. Retrieved 28 January 2024.
  161. ^ Херст, Люк (23 мая 2023 г.). «Как фейковое изображение взрыва в Пентагоне, распространенное в Twitter, вызвало настоящий спад на Уолл-стрит». euronews . Получено 28 января 2024 г.
  162. ^ Пул, Дэвид; Макворт, Алан (2023). Искусственный интеллект, основы вычислительных агентов (3-е изд.). Cambridge University Press. doi : 10.1017/9781009258227. ISBN 978-1-0092-5819-7.
  163. ^ Рассел, Стюарт; Норвиг, Питер (2020). Искусственный интеллект: современный подход (4-е изд.). Пирсон. ISBN 978-0-1346-1099-3.
  164. ^ «Почему агенты — это следующий рубеж генеративного ИИ». McKinsey Digital . 24 июля 2024 г. Получено 10 августа 2024 г.
  165. ^ Рэнсботэм, Сэм; Кирон, Дэвид; Герберт, Филипп; Ривз, Мартин (6 сентября 2017 г.). «Преобразование бизнеса с помощью искусственного интеллекта». MIT Sloan Management Review . Архивировано из оригинала 13 февраля 2024 г.
  166. ^ Сан, Юран; Чжао, Силей; Ловреглио, Руджеро; Кулиговски, Эрика (1 января 2024 г.), Насер, МЗ (ред.), «8 – ИИ для крупномасштабного моделирования эвакуации: обещания и проблемы», Интерпретируемое машинное обучение для анализа, проектирования, оценки и принятия обоснованных решений для гражданской инфраструктуры , Серия издательства Woodhead Publishing по гражданскому и структурному проектированию, Woodhead Publishing, стр. 185–204, ISBN 978-0-1282-4073-1, получено 28 июня 2024 г..
  167. ^ Gomaa, Islam; Adelzadeh, Masoud; Gwynne, Steven; Spencer, Bruce; Ko, Yoon; Bénichou, Noureddine; Ma, Chunyun; Elsagan, Nour; Duong, Dana; Zalok, Ehab; Kinateder, Max (1 ноября 2021 г.). «Структура интеллектуальной системы обнаружения пожара и эвакуации». Fire Technology . 57 (6): 3179–3185. doi :10.1007/s10694-021-01157-3. ISSN  1572-8099.
  168. ^ Чжао, Силей; Ловреглио, Руджеро; Нильссон, Даниэль (1 мая 2020 г.). «Моделирование и интерпретация принятия решений перед эвакуацией с использованием машинного обучения». Автоматизация в строительстве . 113 : 103140. doi : 10.1016/j.autcon.2020.103140. ISSN  0926-5805.
  169. ^ Симонайт (2016).
  170. ^ Рассел и Норвиг (2021), стр. 987.
  171. ^ Ласковски (2023).
  172. ^ Счетная палата (2022).
  173. ^ Валинский (2019).
  174. ^ Рассел и Норвиг (2021), стр. 991.
  175. ^ Рассел и Норвиг (2021), стр. 991–992.
  176. ^ Кристиан (2020), стр. 63.
  177. ^ Винсент (2022).
  178. ^ Копель, Мэтью. «Услуги по авторскому праву: добросовестное использование». Библиотека Корнеллского университета . Получено 26 апреля 2024 г.
  179. ^ Берджесс, Мэтт. «Как остановить использование ваших данных для обучения ИИ». Wired . ISSN  1059-1028 . Получено 26 апреля 2024 г.
  180. ^ Рейснер (2023).
  181. ^ Альтер и Харрис (2023).
  182. ^ «Подготовка инновационной экосистемы к ИИ. Инструментарий политики в области ИС» (PDF) . ВОИС .
  183. ^ Хаммонд, Джордж (27 декабря 2023 г.). «Big Tech тратит больше, чем венчурные компании на стартапы в сфере ИИ». Ars Technica . Архивировано из оригинала 10 января 2024 г.
  184. ^ Вонг, Маттео (24 октября 2023 г.). «Будущее ИИ — GOMA» . The Atlantic . Архивировано из оригинала 5 января 2024 г.
  185. ^ "Big tech and the chase of AI dominance" . The Economist . 26 марта 2023 г. Архивировано из оригинала 29 декабря 2023 г.
  186. ^ Фанг, Брайан (19 декабря 2023 г.). «Где может быть выиграна битва за господство над ИИ». CNN Business . Архивировано из оригинала 13 января 2024 г.
  187. ^ Метц, Кейд (5 июля 2023 г.). «В эпоху искусственного интеллекта маленьким ребятам из сферы технологий нужны большие друзья». The New York Times .
  188. ^ "Электроэнергия 2024 – Анализ". МЭА . 24 января 2024 г. Получено 13 июля 2024 г.
  189. ^ Кэлверт, Брайан (28 марта 2024 г.). «ИИ уже потребляет столько же энергии, сколько небольшая страна. Это только начало». Vox . Нью-Йорк, Нью-Йорк.
  190. ^ Хэлпер, Эван; О'Донован, Кэролайн (21 июня 2024 г.). «ИИ истощает энергосистему. Технологические компании ищут чудесное решение». Washington Post .
  191. ^ Дэвенпорт, Карли. «Центры обработки данных ИИ и грядущий всплеск спроса на электроэнергию в YS» (PDF) . Goldman Sachs .
  192. ^ Райан, Кэрол (12 апреля 2024 г.). «Энергоемкий ИИ — это также будущее энергосбережения». Wall Street Journal . Dow Jones.
  193. ^ Хиллер, Дженнифер (1 июля 2024 г.). «Технологическая индустрия хочет запереть ядерную энергетику для ИИ». Wall Street Journal . Dow Jones.
  194. ^ Хэлпер, Эван (20 сентября 2024 г.). «Сделка с Microsoft позволит вновь открыть атомную электростанцию ​​Три-Майл-Айленд для питания искусственного интеллекта». Washington Post .
  195. ^ Хиллер, Дженнифер (20 сентября 2024 г.). «Атомная электростанция Three Mile Island снова откроется, чтобы помочь обеспечить энергией центры искусственного интеллекта Microsoft». Wall Street Journal . Dow Jones.
  196. ^ Никас (2018).
  197. ^ Rainie, Lee; Keeter, Scott; Perrin, Andrew (22 июля 2019 г.). «Доверие и недоверие в Америке». Pew Research Center . Архивировано из оригинала 22 февраля 2024 г.
  198. ^ Уильямс (2023).
  199. ^ Тейлор и Херн (2023).
  200. ^ ab Сэмюэл, Сигал (19 апреля 2022 г.). «Почему так чертовски сложно сделать ИИ справедливым и беспристрастным». Vox . Получено 24 июля 2024 г. .
  201. ^ ab Rose (2023).
  202. ^ CNA (2019).
  203. ^ Гоффри (2008), стр. 17.
  204. ^ Бердал и др. (2023 г.); Гоффри (2008, стр. 17); Роуз (2023 г.); Рассел и Норвиг (2021, стр. 995)
  205. ^ Кристиан (2020), стр. 25.
  206. ^ ab Russell & Norvig (2021), стр. 995.
  207. ^ Грант и Хилл (2023).
  208. ^ Ларсон и Энгвин (2016).
  209. ^ Кристиан (2020), стр. 67–70.
  210. ^ Кристиан (2020, стр. 67–70); Рассел и Норвиг (2021, стр. 993–994)
  211. ^ Рассел и Норвиг (2021, стр. 995); Липартито (2011, стр. 36); Гудман и Флаксман (2017, стр. 6); Кристиан (2020, стр. 39–40, 65)
  212. Цитируется в Christian (2020, стр. 65).
  213. ^ Рассел и Норвиг (2021, стр. 994); Кристиан (2020, стр. 40, 80–81)
  214. Цитируется в Christian (2020, стр. 80)
  215. ^ Докрил (2022).
  216. ^ Образец (2017).
  217. ^ "Черный ящик ИИ". 16 июня 2023 г.
  218. ^ Кристиан (2020), стр. 110.
  219. ^ Кристиан (2020), стр. 88–91.
  220. ^ Кристиан (2020, стр. 83); Рассел и Норвиг (2021, стр. 997)
  221. ^ Кристиан (2020), стр. 91.
  222. ^ Кристиан (2020), стр. 83.
  223. ^ Верма (2021).
  224. ^ Ротман (2020).
  225. ^ Кристиан (2020), стр. 105–108.
  226. ^ Кристиан (2020), стр. 108–112.
  227. ^ Ропек, Лукас (21 мая 2024 г.). «Новые антропные исследования проливают свет на «черный ящик» ИИ». Gizmodo . Получено 23 мая 2024 г.
  228. ^ Рассел и Норвиг (2021), стр. 989.
  229. ^ ab Russell & Norvig (2021), стр. 987–990.
  230. ^ Рассел и Норвиг (2021), стр. 988.
  231. ^ Робицки (2018); Сайнато (2015)
  232. ^ Харари (2018).
  233. ^ Бакли, Крис; Мозур, Пол (22 мая 2019 г.). «Как Китай использует высокотехнологичное наблюдение для подавления меньшинств». The New York Times .
  234. ^ «Упущение безопасности раскрыло китайскую систему наблюдения за умным городом». 3 мая 2019 г. Архивировано из оригинала 7 марта 2021 г. Получено 14 сентября 2020 г.
  235. ^ Урбина и др. (2022).
  236. ^ ab E. McGaughey, «Автоматизируют ли роботы вашу работу? Полная занятость, базовый доход и экономическая демократия» (2022), 51(3) Industrial Law Journal 511–559. Архивировано 27 мая 2023 г. в Wayback Machine .
  237. ^ Форд и Колвин (2015); Макгоги (2022)
  238. ^ IGM Чикаго (2017).
  239. ^ Арнц, Грегори и Циран (2016), стр. 33.
  240. ^ Лор (2017); Фрей и Осборн (2017); Арнц, Грегори и Циран (2016, стр. 33)
  241. ^ Чжоу, Виола (11 апреля 2023 г.). «ИИ уже отбирает работу иллюстраторов видеоигр в Китае». Остальной мир . Получено 17 августа 2023 г.
  242. ^ Картер, Джастин (11 апреля 2023 г.). «По сообщениям, индустрия игрового искусства Китая уничтожена растущим использованием ИИ». Разработчик игр . Получено 17 августа 2023 г.
  243. ^ Моргенштерн (2015).
  244. ^ Махдави (2017); Томпсон (2014)
  245. ^ Тарнофф, Бен (4 августа 2023 г.). «Уроки Элизы». The Guardian Weekly . стр. 34–39.
  246. ^ Селлан-Джонс (2014).
  247. ^ Рассел и Норвиг 2021, стр. 1001.
  248. ^ Бостром (2014).
  249. ^ Рассел (2019).
  250. ^ Бостром (2014); Мюллер и Бостром (2014); Бостром (2015).
  251. ^ Харари (2023).
  252. ^ Мюллер и Бостром (2014).
  253. ^ Опасения лидеров относительно экзистенциальных рисков ИИ около 2015 года: Роулинсон (2015), Холли (2015), Гиббс (2014), Саинато (2015)
  254. ^ ""Крестный отец искусственного интеллекта" рассказывает о влиянии и потенциале нового ИИ". CBS News . 25 марта 2023 г. Архивировано из оригинала 28 марта 2023 г. Получено 28 марта 2023 г.
  255. ^ Питтис, Дон (4 мая 2023 г.). «Канадский лидер в области искусственного интеллекта Джеффри Хинтон нагнетает страхи перед компьютерным захватом». CBC .
  256. ^ «Шансы 50 на 50, что ИИ перехитрит человечество, говорит Джеффри Хинтон». Bloomberg BNN . 14 июня 2024 . Получено 6 июля 2024 .
  257. ^ Вэланс (2023).
  258. Тейлор, Джош (7 мая 2023 г.). «Возникновение искусственного интеллекта неизбежно, но его не следует бояться, говорит «отец ИИ»». The Guardian . Получено 26 мая 2023 г.
  259. ^ Colton, Emma (7 May 2023). "'Father of AI' says tech fears misplaced: 'You cannot stop it'". Fox News. Retrieved 26 May 2023.
  260. ^ Jones, Hessie (23 May 2023). "Juergen Schmidhuber, Renowned 'Father Of Modern AI,' Says His Life's Work Won't Lead To Dystopia". Forbes. Retrieved 26 May 2023.
  261. ^ McMorrow, Ryan (19 December 2023). "Andrew Ng: 'Do we think the world is better off with more or less intelligence?'". Financial Times. Retrieved 30 December 2023.
  262. ^ Levy, Steven (22 December 2023). "How Not to Be Stupid About AI, With Yann LeCun". Wired. Retrieved 30 December 2023.
  263. ^ Arguments that AI is not an imminent risk: Brooks (2014), Geist (2015), Madrigal (2015), Lee (2014)
  264. ^ a b Christian (2020), pp. 67, 73.
  265. ^ Yudkowsky (2008).
  266. ^ a b Anderson & Anderson (2011).
  267. ^ AAAI (2014).
  268. ^ Wallach (2010).
  269. ^ Russell (2019), p. 173.
  270. ^ Stewart, Ashley; Melton, Monica. "Hugging Face CEO says he's focused on building a 'sustainable model' for the $4.5 billion open-source-AI startup". Business Insider. Retrieved 14 April 2024.
  271. ^ Wiggers, Kyle (9 April 2024). "Google open sources tools to support AI model development". TechCrunch. Retrieved 14 April 2024.
  272. ^ Heaven, Will Douglas (12 May 2023). "The open-source AI boom is built on Big Tech's handouts. How long will it last?". MIT Technology Review. Retrieved 14 April 2024.
  273. ^ Brodsky, Sascha (19 December 2023). "Mistral AI's New Language Model Aims for Open Source Supremacy". AI Business.
  274. ^ Edwards, Benj (22 February 2024). "Stability announces Stable Diffusion 3, a next-gen AI image generator". Ars Technica. Retrieved 14 April 2024.
  275. ^ Marshall, Matt (29 January 2024). "How enterprises are using open source LLMs: 16 examples". VentureBeat.
  276. ^ Piper, Kelsey (2 February 2024). "Should we make our most powerful AI models open source to all?". Vox. Retrieved 14 April 2024.
  277. ^ Alan Turing Institute (2019). "Understanding artificial intelligence ethics and safety" (PDF).
  278. ^ Alan Turing Institute (2023). "AI Ethics and Governance in Practice" (PDF).
  279. ^ Floridi, Luciano; Cowls, Josh (23 June 2019). "A Unified Framework of Five Principles for AI in Society". Harvard Data Science Review. 1 (1). doi:10.1162/99608f92.8cd550d1. S2CID 198775713.
  280. ^ Buruk, Banu; Ekmekci, Perihan Elif; Arda, Berna (1 September 2020). "A critical perspective on guidelines for responsible and trustworthy artificial intelligence". Medicine, Health Care and Philosophy. 23 (3): 387–399. doi:10.1007/s11019-020-09948-1. ISSN 1572-8633. PMID 32236794. S2CID 214766800.
  281. ^ Kamila, Manoj Kumar; Jasrotia, Sahil Singh (1 January 2023). "Ethical issues in the development of artificial intelligence: recognizing the risks". International Journal of Ethics and Systems. ahead-of-print (ahead-of-print). doi:10.1108/IJOES-05-2023-0107. ISSN 2514-9369. S2CID 259614124.
  282. ^ "AI Safety Institute releases new AI safety evaluations platform". UK Government. 10 May 2024. Retrieved 14 May 2024.
  283. ^ Regulation of AI to mitigate risks: Berryhill et al. (2019), Barfield & Pagallo (2018), Iphofen & Kritikos (2019), Wirtz, Weyerer & Geyer (2018), Buiten (2019)
  284. ^ a b Vincent (2023).
  285. ^ Stanford University (2023).
  286. ^ a b c d UNESCO (2021).
  287. ^ Kissinger (2021).
  288. ^ Altman, Brockman & Sutskever (2023).
  289. ^ VOA News (25 October 2023). "UN Announces Advisory Body on Artificial Intelligence".
  290. ^ "Council of Europe opens first ever global treaty on AI for signature". Council of Europe. 5 September 2024. Retrieved 17 September 2024.
  291. ^ Edwards (2023).
  292. ^ Kasperowicz (2023).
  293. ^ Fox News (2023).
  294. ^ Milmo, Dan (3 November 2023). "Hope or Horror? The great AI debate dividing its pioneers". The Guardian Weekly. pp. 10–12.
  295. ^ "The Bletchley Declaration by Countries Attending the AI Safety Summit, 1–2 November 2023". GOV.UK. 1 November 2023. Archived from the original on 1 November 2023. Retrieved 2 November 2023.
  296. ^ "Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration". GOV.UK (Press release). Archived from the original on 1 November 2023. Retrieved 1 November 2023.
  297. ^ "Second global AI summit secures safety commitments from companies". Reuters. 21 May 2024. Retrieved 23 May 2024.
  298. ^ "Frontier AI Safety Commitments, AI Seoul Summit 2024". gov.uk. 21 May 2024. Archived from the original on 23 May 2024. Retrieved 23 May 2024.
  299. ^ a b Russell & Norvig 2021, p. 9.
  300. ^ a b c Copeland, J., ed. (2004). The Essential Turing: the ideas that gave birth to the computer age. Oxford, England: Clarendon Press. ISBN 0-1982-5079-7.
  301. ^ "Google books ngram".
  302. ^ AI's immediate precursors: McCorduck (2004, pp. 51–107), Crevier (1993, pp. 27–32), Russell & Norvig (2021, pp. 8–17), Moravec (1988, p. 3)
  303. ^ a b Turing's original publication of the Turing test in "Computing machinery and intelligence": Turing (1950) Historical influence and philosophical implications: Haugeland (1985, pp. 6–9), Crevier (1993, p. 24), McCorduck (2004, pp. 70–71), Russell & Norvig (2021, pp. 2, 984)
  304. ^ Crevier (1993), pp. 47–49.
  305. ^ Russell & Norvig (2003), p. 17.
  306. ^ Russell & Norvig (2003), p. 18.
  307. ^ Newquist (1994), pp. 86–86.
  308. ^ Simon (1965, p. 96) quoted in Crevier (1993, p. 109)
  309. ^ Minsky (1967, p. 2) quoted in Crevier (1993, p. 109)
  310. ^ Russell & Norvig (2021), p. 21.
  311. ^ Lighthill (1973).
  312. ^ NRC 1999, pp. 212–213.
  313. ^ Russell & Norvig (2021), p. 22.
  314. ^ Expert systems: Russell & Norvig (2021, pp. 23, 292), Luger & Stubblefield (2004, pp. 227–331), Nilsson (1998, chpt. 17.4), McCorduck (2004, pp. 327–335, 434–435), Crevier (1993, pp. 145–162, 197–203), Newquist (1994, pp. 155–183)
  315. ^ Russell & Norvig (2021), p. 24.
  316. ^ Nilsson (1998), p. 7.
  317. ^ McCorduck (2004), pp. 454–462.
  318. ^ Moravec (1988).
  319. ^ a b Brooks (1990).
  320. ^ Developmental robotics: Weng et al. (2001), Lungarella et al. (2003), Asada et al. (2009), Oudeyer (2010)
  321. ^ Russell & Norvig (2021), p. 25.
  322. ^ Crevier (1993, pp. 214–215), Russell & Norvig (2021, pp. 24, 26)
  323. ^ Russell & Norvig (2021), p. 26.
  324. ^ Formal and narrow methods adopted in the 1990s: Russell & Norvig (2021, pp. 24–26), McCorduck (2004, pp. 486–487)
  325. ^ AI widely used in the late 1990s: Kurzweil (2005, p. 265), NRC (1999, pp. 216–222), Newquist (1994, pp. 189–201)
  326. ^ Wong (2023).
  327. ^ Moore's Law and AI: Russell & Norvig (2021, pp. 14, 27)
  328. ^ a b c Clark (2015b).
  329. ^ Big data: Russell & Norvig (2021, p. 26)
  330. ^ Sagar, Ram (3 June 2020). "OpenAI Releases GPT-3, The Largest Model So Far". Analytics India Magazine. Archived from the original on 4 August 2020. Retrieved 15 March 2023.
  331. ^ DiFeliciantonio (2023).
  332. ^ Goswami (2023).
  333. ^ a b Turing (1950), p. 1.
  334. ^ Turing (1950), Under "The Argument from Consciousness".
  335. ^ Kirk-Giannini, Cameron Domenico; Goldstein, Simon (16 October 2023). "AI is closer than ever to passing the Turing test for 'intelligence'. What happens when it does?". The Conversation. Retrieved 17 August 2024.
  336. ^ Russell & Norvig (2021), p. 3.
  337. ^ Maker (2006).
  338. ^ McCarthy (1999).
  339. ^ Minsky (1986).
  340. ^ "What Is Artificial Intelligence (AI)?". Google Cloud Platform. Archived from the original on 31 July 2023. Retrieved 16 October 2023.
  341. ^ "One of the Biggest Problems in Regulating AI Is Agreeing on a Definition". carnegieendowment.org. Retrieved 31 July 2024.
  342. ^ "AI or BS? How to tell if a marketing tool really uses artificial intelligence". The Drum. Retrieved 31 July 2024.
  343. ^ Nilsson (1983), p. 10.
  344. ^ Haugeland (1985), pp. 112–117.
  345. ^ Physical symbol system hypothesis: Newell & Simon (1976, p. 116) Historical significance: McCorduck (2004, p. 153), Russell & Norvig (2021, p. 19)
  346. ^ Moravec's paradox: Moravec (1988, pp. 15–16), Minsky (1986, p. 29), Pinker (2007, pp. 190–191)
  347. ^ Dreyfus' critique of AI: Dreyfus (1972), Dreyfus & Dreyfus (1986) Historical significance and philosophical implications: Crevier (1993, pp. 120–132), McCorduck (2004, pp. 211–239), Russell & Norvig (2021, pp. 981–982), Fearn (2007, chpt. 3)
  348. ^ Crevier (1993), p. 125.
  349. ^ Langley (2011).
  350. ^ Katz (2012).
  351. ^ Neats vs. scruffies, the historic debate: McCorduck (2004, pp. 421–424, 486–489), Crevier (1993, p. 168), Nilsson (1983, pp. 10–11), Russell & Norvig (2021, p. 24) A classic example of the "scruffy" approach to intelligence: Minsky (1986) A modern example of neat AI and its aspirations in the 21st century: Domingos (2015)
  352. ^ Pennachin & Goertzel (2007).
  353. ^ a b Roberts (2016).
  354. ^ Russell & Norvig (2021), p. 986.
  355. ^ Chalmers (1995).
  356. ^ Dennett (1991).
  357. ^ Horst (2005).
  358. ^ Searle (1999).
  359. ^ Searle (1980), p. 1.
  360. ^ Russell & Norvig (2021), p. 9817.
  361. ^ Searle's Chinese room argument: Searle (1980). Searle's original presentation of the thought experiment., Searle (1999). Discussion: Russell & Norvig (2021, pp. 985), McCorduck (2004, pp. 443–445), Crevier (1993, pp. 269–271)
  362. ^ Leith, Sam (7 July 2022). "Nick Bostrom: How can we be certain a machine isn't conscious?". The Spectator. Retrieved 23 February 2024.
  363. ^ a b c Thomson, Jonny (31 October 2022). "Why don't robots have rights?". Big Think. Retrieved 23 February 2024.
  364. ^ a b Kateman, Brian (24 July 2023). "AI Should Be Terrified of Humans". Time. Retrieved 23 February 2024.
  365. ^ Wong, Jeff (10 July 2023). "What leaders need to know about robot rights". Fast Company.
  366. ^ Hern, Alex (12 January 2017). "Give robots 'personhood' status, EU committee argues". The Guardian. ISSN 0261-3077. Retrieved 23 February 2024.
  367. ^ Dovey, Dana (14 April 2018). "Experts Don't Think Robots Should Have Rights". Newsweek. Retrieved 23 February 2024.
  368. ^ Cuddy, Alice (13 April 2018). "Robot rights violate human rights, experts warn EU". euronews. Retrieved 23 February 2024.
  369. ^ The Intelligence explosion and technological singularity: Russell & Norvig (2021, pp. 1004–1005), Omohundro (2008), Kurzweil (2005)
    I. J. Good's "intelligence explosion": Good (1965)
    Vernor Vinge's "singularity": Vinge (1993)
  370. ^ Russell & Norvig (2021), p. 1005.
  371. ^ Transhumanism: Moravec (1988), Kurzweil (2005), Russell & Norvig (2021, p. 1005)
  372. ^ AI as evolution: Edward Fredkin is quoted in McCorduck (2004, p. 401), Butler (1863), Dyson (1998)
  373. ^ AI in myth: McCorduck (2004, pp. 4–5)
  374. ^ McCorduck (2004), pp. 340–400.
  375. ^ Buttazzo (2001).
  376. ^ Anderson (2008).
  377. ^ McCauley (2007).
  378. ^ Galvan (1997).

AI textbooks

The two most widely used textbooks in 2023 (see the Open Syllabus):

These were the four of the most widely used AI textbooks in 2008:

Other textbooks:

History of AI

Other sources

Further reading

External links