stringtranslate.com

История искусственного интеллекта

История искусственного интеллекта ( ИИ ) началась в древности , с мифов, историй и слухов об искусственных существах, наделенных интеллектом или сознанием мастерами-ремесленниками. Изучение логики и формального рассуждения с древности до наших дней привело непосредственно к изобретению программируемого цифрового компьютера в 1940-х годах, машины, основанной на абстрактной сущности математических рассуждений. Это устройство и идеи, лежащие в его основе, вдохновили горстку ученых начать серьезно обсуждать возможность создания электронного мозга .

Область исследований ИИ была основана на семинаре, проведенном в кампусе Дартмутского колледжа летом 1956 года . [1] Участники семинара стали лидерами исследований ИИ на десятилетия. Многие из них предсказывали, что машины, столь же разумные, как люди, будут существовать в течение поколения. Правительство США выделило миллионы долларов на реализацию этой идеи. [2]

В конце концов, стало очевидно, что исследователи сильно недооценили сложность проекта. [3] В 1974 году критика со стороны Джеймса Лайтхилла и давление со стороны Конгресса США заставили правительства США и Великобритании прекратить финансирование ненаправленных исследований в области искусственного интеллекта. Семь лет спустя дальновидная инициатива японского правительства и успех экспертных систем оживили инвестиции в ИИ, и к концу 80-х годов отрасль выросла до миллиардов долларов. Однако энтузиазм инвесторов угас в 1990-х годах, и область подверглась критике в прессе и избегалась промышленностью (период, известный как « Зима ИИ »). Тем не менее, исследования и финансирование продолжали расти под другими названиями.

В начале 2000-х годов машинное обучение применялось к широкому кругу проблем в академической среде и промышленности. Успех был обусловлен доступностью мощного компьютерного оборудования, сбором огромных наборов данных и применением надежных математических методов. В 2012 году глубокое обучение оказалось прорывной технологией, затмившей все другие методы. Архитектура transformer дебютировала в 2017 году и использовалась для создания впечатляющих генеративных приложений ИИ. Инвестиции в ИИ резко возросли в 2020-х годах.

Прекурсоры

Мифические, вымышленные и спекулятивные предшественники

Миф и легенда

В греческой мифологии Талос был великаном из бронзы, который был стражем острова Крит. Он бросал валуны в корабли захватчиков и ежедневно совершал 3 круга по периметру острова. [4] Согласно «Библиотеке » псевдо-Аполлодора , Гефест выковал Талоса с помощью циклопа и преподнес автомат в качестве подарка Миносу . [5] В «Аргонавтике » Ясон и аргонавты победили Талоса, вытащив пробку у его ноги, из-за чего из его тела вытекла жизненная жидкость , и он стал безжизненным. [6]

Пигмалион был легендарным царем и скульптором греческой мифологии, широко представленным в «Метаморфозах» Овидия . В 10-й книге поэмы Овидия Пигмалион испытывает отвращение к женщинам, когда становится свидетелем того, как пропоэтиды занимаются проституцией. Несмотря на это, он приносит жертвы в храм Венеры, прося богиню привести ему женщину, похожую на статую, которую он вырезал. [7]

Средневековые легенды об искусственных существах

Изображение гомункула из «Фауста» Гете

В книге «О природе вещей » швейцарский алхимик Парацельс описывает процедуру, которая, как он утверждает, может изготовить «искусственного человека». Если поместить «сперму человека» в конский навоз и накормить ее «Тайной крови человека» через 40 дней, то смесь станет живым младенцем. [8]

Самое раннее письменное упоминание о создании големов встречается в трудах Элеазара бен Иуды из Вормса в начале 13 века. [9] В Средние века считалось, что оживление голема может быть достигнуто путем вставки листа бумаги с любым из имен Бога в рот глиняной фигуры. [10] В отличие от легендарных автоматов, таких как Brazen Heads , [11] голем не мог говорить. [12]

Таквин , искусственное создание жизни, было частой темой исмаилитских алхимических рукописей, особенно тех, которые приписываются Джабиру ибн Хайяну . Исламские алхимики пытались создать широкий спектр жизни посредством своей работы, начиная от растений и заканчивая животными. [13]

В «Фаусте: Вторая часть трагедии» Иоганна Вольфганга фон Гете алхимически созданный гомункул , которому суждено жить вечно в колбе, в которой он был создан, пытается родиться в полноценном человеческом теле. Однако при начале этой трансформации колба разбивается, и гомункул умирает. [14]

Современная фантастика

К 19 веку идеи об искусственных людях и мыслящих машинах стали популярной темой в художественной литературе. Известные работы, такие как «Франкенштейн » Мэри Шелли и «РУР» (универсальные роботы Россума) Карела Чапека [15], исследовали концепцию искусственной жизни. Спекулятивные эссе, такие как « Дарвин среди машин » Сэмюэля Батлера [16] и « Шахматист Мельцеля » Эдгара Аллана По [17], отражали растущий интерес общества к машинам с искусственным интеллектом. ИИ остается распространенной темой в научной фантастике и сегодня. [18]

Автоматы

Программируемые автоматы Аль-Джазари (1206 г. н.э.)

Реалистичные гуманоидные автоматы были построены мастерами многих цивилизаций, в том числе Яном Ши , [19] Героем Александрии , [20] Аль-Джазари , [21] Харуном аль-Рашидом , [22] Жаком де Вокансоном , [23] [24] Леонардо Торрес-и-Кеведо , [25] Пьер Жаке-Дро и Вольфганг фон Кемпелен . [26] [27]

Древнейшими известными автоматами были священные статуи Древнего Египта и Греции . [28] [29] Верующие верили, что мастер наделил эти фигуры вполне реальным разумом, способным на мудрость и эмоции — Гермес Трисмегист писал, что «открыв истинную природу богов, человек смог воспроизвести ее». [30] Английский ученый Александр Некхэм утверждал, что древнеримский поэт Вергилий построил дворец со статуями автоматов. [31]

В ранний современный период эти легендарные автоматы, как говорили, обладали магической способностью отвечать на задаваемые им вопросы. Позднесредневековый алхимик и протопротестант Роджер Бэкон , как предполагалось, изготовил медную голову , разработав легенду о том, что он был волшебником. [32] [33] Эти легенды были похожи на скандинавский миф о Голове Мимира . Согласно легенде, Мимир был известен своим интеллектом и мудростью и был обезглавлен в войне асов и ванов . Говорят, что Один «забальзамировал» голову травами и произнёс над ней заклинания, так что голова Мимира осталась способной говорить мудростью Одину. Затем Один держал голову возле себя для совета. [34]

Формальное рассуждение

Искусственный интеллект основан на предположении, что процесс человеческого мышления может быть механизирован. Изучение механического — или «формального» — рассуждения имеет долгую историю. Китайские , индийские и греческие философы разработали структурированные методы формальной дедукции к первому тысячелетию до нашей эры. Их идеи были развиты на протяжении веков такими философами, как Аристотель (который дал формальный анализ силлогизма ) , [35] Евклид (чьи «Начала» были моделью формального рассуждения), аль-Хорезми (который разработал алгебру и дал свое имя слову «алгоритм» ) и европейскими схоластами , такими как Уильям Оккам и Дунс Скот . [36]

Испанский философ Рамон Луллий (1232–1315) разработал несколько логических машин , предназначенных для производства знаний логическими средствами; [37] [38] Луллий описывал свои машины как механические сущности, которые могли объединять основные и неоспоримые истины с помощью простых логических операций, производимых машиной с помощью механических значений, таким образом, чтобы производить все возможные знания. [39] Работы Луллия оказали большое влияние на Готфрида Лейбница , который переработал его идеи. [40]

Готфрид Лейбниц , предположивший, что человеческий разум можно свести к механическому расчету

В XVII веке Лейбниц , Томас Гоббс и Рене Декарт исследовали возможность того, что вся рациональная мысль может быть сделана такой же систематической, как алгебра или геометрия. [41] Гоббс написал в «Левиафане» : «Ибо разум ... есть не что иное, как подсчет , то есть сложение и вычитание». [42] Лейбниц представлял себе универсальный язык рассуждений, characteristics of universalis , который свел бы аргументацию к расчету, так что «не было бы больше нужды в споре между двумя философами, чем между двумя бухгалтерами. Ибо было бы достаточно взять карандаши в руки, спуститься к своим грифельным доскам и сказать друг другу (с другом в качестве свидетеля, если они хотели): Давайте вычислим ». [43] Эти философы начали формулировать гипотезу физической символьной системы , которая стала руководящей верой исследований ИИ.

Изучение математической логики обеспечило существенный прорыв, который сделал искусственный интеллект правдоподобным. Основы были заложены такими работами, как «Законы мышления » Буля и «Бегрифсшрифт» Фреге . [ 44] Основываясь на системе Фреге , Рассел и Уайтхед представили формальную трактовку основ математики в своем шедевре « Principia Mathematica» в 1913 году. Вдохновленный успехом Рассела , Дэвид Гильберт бросил вызов математикам 1920-х и 30-х годов, чтобы они ответили на этот фундаментальный вопрос: «можно ли формализовать все математические рассуждения?» [36] На его вопрос ответили доказательство неполноты Гёделя , [ 45] машина Тьюринга [ 45] и лямбда -исчисление Чёрча . [a]

Фотография ENIAC, сделанная армией США в Школе электротехники Мура [47]

Их ответ был удивительным в двух отношениях. Во-первых, они доказали, что на самом деле существуют пределы того, чего может достичь математическая логика. Но во-вторых (и что более важно для ИИ) их работа предполагала, что в этих пределах любая форма математического рассуждения может быть механизирована. Тезис Чёрча-Тьюринга подразумевал, что механическое устройство, перетасовывающее символы, такие простые, как 0 и 1 , может имитировать любой мыслимый процесс математической дедукции. [45] Ключевым пониманием была машина Тьюринга — простая теоретическая конструкция, которая охватывала суть абстрактной манипуляции символами. [48] Это изобретение вдохновило нескольких учёных начать обсуждать возможность мыслящих машин.

Информатика

Вычислительные машины были спроектированы или построены в древности и на протяжении всей истории многими людьми, включая Готфрида Лейбница , [38] [49] Жозефа Мари Жаккара , [50] Чарльза Бэббиджа , [50] [51] Перси Ладгейта , [52] Леонардо Торреса Кеведо , [53] Ванивара Буша , [54] и других. Ада Лавлейс предположила, что машина Бэббиджа была «думающей или ... рассуждающей машиной», но предупредила: «Желательно остерегаться возможности возникновения преувеличенных идей относительно возможностей» машины. [55] [56]

Первые современные компьютеры были массивными машинами Второй мировой войны (такими как Z3 Конрада Цузе , Хит Робинсон и Колосс Алана Тьюринга , Атанасов и Берри , а также ABC и ENIAC в Университете Пенсильвании ). [57] ENIAC был основан на теоретической основе, заложенной Аланом Тьюрингом и разработанной Джоном фон Нейманом , [58] и оказался наиболее влиятельным. [57]

Рождение искусственного интеллекта (1941-56)

IBM 702 : компьютер, использовавшийся первым поколением исследователей ИИ.

Самые ранние исследования мыслящих машин были вдохновлены слиянием идей, которые стали распространенными в конце 1930-х, 1940-х и начале 1950-х годов. Недавние исследования в области неврологии показали, что мозг представляет собой электрическую сеть нейронов , которые активизируются импульсами «все или ничего». Кибернетика Норберта Винера описывала управление и устойчивость в электрических сетях. Теория информации Клода Шеннона описывала цифровые сигналы (т. е. сигналы «все или ничего»). Теория вычислений Алана Тьюринга показала , что любую форму вычислений можно описать в цифровом виде. Тесная связь между этими идеями предполагала, что возможно построить «электронный мозг».

В 1940-х и 50-х годах несколько ученых из разных областей (математика, психология, инженерия, экономика и политология) исследовали несколько направлений исследований, которые имели жизненно важное значение для последующих исследований ИИ. [59] Алан Тьюринг был одним из первых, кто серьезно исследовал теоретическую возможность «машинного интеллекта». [60] Область « исследований искусственного интеллекта » была основана как академическая дисциплина в 1956 году. [61]

Тест Тьюринга [62]

Тест Тьюринга

В 1950 году Тьюринг опубликовал знаменательную статью « Вычислительная техника и интеллект », в которой он размышлял о возможности создания мыслящих машин. [63] [b] В статье он отметил, что «мышление» трудно определить, и разработал свой знаменитый тест Тьюринга : если машина может поддерживать разговор (через телетайп ), который неотличим от разговора с человеком, то разумно сказать, что машина «думает». [64] Эта упрощенная версия проблемы позволила Тьюрингу убедительно доказать, что «мыслящая машина» по крайней мере правдоподобна , и статья ответила на все наиболее распространенные возражения против этого предложения. [65] Тест Тьюринга был первым серьезным предложением в философии искусственного интеллекта .

Искусственные нейронные сети

Уолтер Питтс и Уоррен Маккалок проанализировали сети идеализированных искусственных нейронов и показали, как они могут выполнять простые логические функции в 1943 году. Они были первыми, кто описал то, что позже исследователи назовут нейронной сетью . [66] На эту работу повлияла статья Тьюринга « О вычислимых числах » 1936 года, в которой использовались похожие двухстабильные булевы «нейроны», но она была первой, кто применил ее к нейронной функции. [60] Одним из студентов, вдохновленных Питтсом и Маккалоком, был Марвин Мински , который в то время был 24-летним аспирантом. В 1951 году Мински и Дин Эдмондс построили первую нейронную сетевую машину, SNARC . [67] Позже Мински стал одним из важнейших лидеров и новаторов в области ИИ.

Кибернетические роботы

Экспериментальные роботы, такие как черепахи В. Грея Уолтера и зверь Джона Хопкинса , были построены в 1950-х годах. Эти машины не использовали компьютеры, цифровую электронику или символическое мышление; они полностью контролировались аналоговыми схемами. [68]

Игровой ИИ

В 1951 году, используя машину Ferranti Mark 1 Манчестерского университета , Кристофер Стрейчи написал программу для игры в шашки [69], а Дитрих Принц написал программу для игры в шахматы. [70] Программа для игры в шашки Артура Сэмюэля , предмет его статьи 1959 года «Некоторые исследования в области машинного обучения с использованием игры в шашки», в конечном итоге достигла достаточного мастерства, чтобы бросить вызов уважаемому любителю. [71] Программа Сэмюэля была одним из первых применений того, что позже будет названо машинным обучением . [72] Игровой ИИ продолжал использоваться в качестве меры прогресса в области ИИ на протяжении всей его истории.

Символическое рассуждение и логик-теоретик

Герберт Саймон (слева) в шахматном матче против Аллена Ньюэлла, ок.  1958 г.

Когда в середине пятидесятых годов стал возможен доступ к цифровым компьютерам , несколько ученых инстинктивно поняли, что машина, которая может манипулировать числами, может также манипулировать символами и что манипулирование символами вполне может быть сущностью человеческой мысли. Это был новый подход к созданию думающих машин. [73] [74]

В 1955 году Аллен Ньюэлл и будущий лауреат Нобелевской премии Герберт А. Саймон создали « Logic Theorist » с помощью Дж. К. Шоу . Программа в конечном итоге доказала 38 из первых 52 теорем в Principia Mathematica Рассела и Уайтхеда и нашла новые и более элегантные доказательства для некоторых из них. [75] Саймон сказал, что они «решили почтенную проблему разума/тела , объяснив, как система, состоящая из материи, может обладать свойствами разума». [76] [c] Представленная ими парадигма символического рассуждения будет доминировать в исследованиях и финансировании ИИ до середины 90-х годов, а также вдохновит когнитивную революцию .

Дартмутская мастерская

Семинар в Дартмуте 1956 года стал ключевым событием, ознаменовавшим формальное начало ИИ как академической дисциплины. [61] Он был организован Марвином Мински и Джоном Маккарти при поддержке двух старших ученых Клода Шеннона и Натана Рочестера из IBM . В предложении о проведении конференции говорилось, что они намеревались проверить утверждение, что «каждый аспект обучения или любая другая характеристика интеллекта может быть настолько точно описан, что может быть создана машина для его имитации». [77] [d] Термин «Искусственный интеллект» был введен Джоном Маккарти на семинаре. [e] Среди участников были Рэй Соломонофф , Оливер Селфридж , Тренчард Мор , Артур Сэмюэл , Аллен Ньюэлл и Герберт А. Саймон , каждый из которых создал важные программы в течение первых десятилетий исследований ИИ. [83] [f] На семинаре Ньюэлл и Саймон дебютировали с «теоретиком логики». [84] Семинар стал моментом, когда ИИ обрел свое название, свою миссию, свой первый крупный успех и своих ключевых игроков, и широко считается рождением ИИ. [g]

Когнитивная революция

Осенью 1956 года Ньюэлл и Саймон также представили Logic Theorist на встрече Special Interest Group in Information Theory в Массачусетском технологическом институте (MIT). На той же встрече Ноам Хомский обсуждал свою генеративную грамматику , а Джордж Миллер описал свою эпохальную работу « Магическое число семь, плюс или минус два ». Миллер написал: «Я покинул симпозиум с убеждением, скорее интуитивным, чем рациональным, что экспериментальная психология, теоретическая лингвистика и компьютерное моделирование когнитивных процессов были частями большего целого». [86] [57]

Эта встреча стала началом « когнитивной революции » — междисциплинарного сдвига парадигмы в психологии, философии, информатике и нейронауке. Она вдохновила на создание подотраслей символического искусственного интеллекта , генеративной лингвистики , когнитивной науки , когнитивной психологии , когнитивной нейронауки и философских школ вычислительного и функционалистского подхода . Все эти области использовали родственные инструменты для моделирования разума, и результаты, полученные в одной области, были актуальны для других.

Когнитивный подход позволил исследователям рассматривать «ментальные объекты», такие как мысли, планы, цели, факты или воспоминания, часто анализируемые с использованием символов высокого уровня в функциональных сетях. Эти объекты были запрещены как «ненаблюдаемые» более ранними парадигмами, такими как бихевиоризм . [h] Символические ментальные объекты станут основным направлением исследований и финансирования ИИ на следующие несколько десятилетий.

Первые успехи (1956-1974)

Программы, разработанные в годы после Дартмутского семинара , для большинства людей были просто «поразительными»: [i] компьютеры решали текстовые алгебраические задачи, доказывали теоремы по геометрии и учились говорить по-английски. Мало кто в то время поверил бы, что такое «интеллектуальное» поведение машин вообще возможно. [90] [91] [89] Исследователи выражали огромный оптимизм в частной и печатной форме, предсказывая, что полностью интеллектуальная машина будет построена менее чем за 20 лет. [92] Правительственные агентства, такие как Агентство перспективных исследовательских проектов Министерства обороны США (DARPA, тогда известное как «ARPA»), вкладывали деньги в эту область. [93] Лаборатории искусственного интеллекта были созданы в ряде британских и американских университетов в конце 1950-х и начале 1960-х годов. [60]

Подходы

В конце 50-х и 1960-х годов было много успешных программ и новых направлений. Среди наиболее влиятельных были следующие:

Многие ранние программы ИИ использовали один и тот же базовый алгоритм . Чтобы достичь какой-то цели (например, выиграть игру или доказать теорему), они продвигались к ней шаг за шагом (делали ход или вывод), как будто прочесывая лабиринт, возвращаясь назад всякий раз, когда они достигали тупика. [94] Основная трудность заключалась в том, что для многих задач число возможных путей через «лабиринт» было астрономическим (ситуация, известная как « комбинаторный взрыв »). Исследователи сокращали пространство поиска, используя эвристики , которые исключали пути, которые вряд ли приведут к решению. [95]

Ньюэлл и Саймон попытались зафиксировать общую версию этого алгоритма в программе под названием « Общий решатель проблем ». [96] [97] Другие «поисковые» программы смогли выполнить впечатляющие задачи, такие как решение задач по геометрии и алгебре, такие как « Доказательство теорем геометрии» Герберта Гелернтера (1958) [98] и Символический автоматический интегратор (SAINT), написанный учеником Мински Джеймсом Слэглом в 1961 году. [99] [100] Другие программы искали цели и подцели для планирования действий, такие как система STRIPS , разработанная в Стэнфорде для управления поведением робота Шейки . [101]

Естественный язык

Пример семантической сети

Важной целью исследований ИИ является обеспечение возможности компьютерам общаться на естественных языках, таких как английский. Ранним успехом стала программа Дэниела Боброва STUDENT , которая могла решать текстовые задачи по алгебре в старших классах. [102]

Семантическая сеть представляет понятия (например, «дом», «дверь») как узлы, а отношения между понятиями как связи между узлами (например, «имеет-а»). Первая программа ИИ, использующая семантическую сеть, была написана Россом Куиллианом [103] , а наиболее успешной (и спорной) версией была теория концептуальной зависимости Роджера Шэнка . [ 104]

ELIZA Джозефа Вайценбаума могла вести разговоры, которые были настолько реалистичны, что пользователи иногда обманывались, думая, что они общаются с человеком, а не с компьютерной программой (см. эффект ELIZA ). Но на самом деле ELIZA просто давала заготовленный ответ или повторяла то, что ей говорили, перефразируя свой ответ с помощью нескольких правил грамматики. ELIZA была первым чатботом . [105] [106]

Микромиры

В конце 60-х годов Марвин Мински и Сеймур Паперт из Лаборатории искусственного интеллекта Массачусетского технологического института предложили, чтобы исследования ИИ были сосредоточены на искусственно простых ситуациях, известных как микромиры. [j] Они указали, что в успешных науках, таких как физика, основные принципы часто лучше всего понимались с помощью упрощенных моделей, таких как плоскости без трения или абсолютно твердые тела. Большая часть исследований была сосредоточена на « мире блоков », который состоит из цветных блоков различных форм и размеров, выстроенных на плоской поверхности. [107]

Эта парадигма привела к инновационной работе в области машинного зрения Джеральда Сассмана , Адольфо Гусмана, Дэвида Вальца (который изобрел « распространение ограничений ») и особенно Патрика Уинстона . В то же время Мински и Паперт построили роботизированную руку, которая могла складывать блоки, оживляя мир блоков. SHRDLU Терри Винограда мог общаться на обычных английских предложениях о микромире, планировать операции и выполнять их. [107]

Персептроны и ранние нейронные сети

В 1960-х годах финансирование в основном направлялось в лаборатории, исследующие символьный ИИ , однако несколько человек по-прежнему продолжали исследования в области нейронных сетей.

Персептрон Марк 1.

Персептрон , однослойная нейронная сеть , была представлена ​​в 1958 году Фрэнком Розенблаттом [108] (который был одноклассником Марвина Мински в Высшей школе наук в Бронксе ). [109] Как и большинство исследователей ИИ, он был оптимистичен относительно их возможностей, предсказывая, что персептрон «в конечном итоге сможет учиться, принимать решения и переводить языки». [110] Розенблатта в основном финансировало Управление военно-морских исследований . [111]

Бернард Видроу и его студент Тед Хофф построили ADALINE (1960) и MADALINE (1962), которые имели до 1000 регулируемых грузов. [112] [113] Группа в Стэнфордском исследовательском институте под руководством Чарльза А. Розена и Альфреда Э. (Теда) Брейна построили две нейросетевые машины, названные MINOS I (1960) и II (1963), в основном финансируемые Корпусом связи армии США . MINOS II [114] имел 6600 регулируемых грузов, [115] и управлялся компьютером SDS 910 в конфигурации под названием MINOS III (1968), который мог классифицировать символы на армейских картах и ​​распознавать рукописные символы на листах кодировки Fortran . [116] [117] Большая часть исследований нейронных сетей в этот ранний период включала создание и использование специального оборудования, а не моделирование на цифровых компьютерах. [k]

Однако, отчасти из-за отсутствия результатов, а отчасти из-за конкуренции со стороны исследований символического ИИ , проект MINOS лишился финансирования в 1966 году. Розенблатту не удалось обеспечить постоянное финансирование в 1960-х годах. [118] В 1969 году исследования внезапно прекратились с публикацией книги Мински и Паперта «Персептроны» 1969 года . [119] В ней говорилось о том, что существуют серьезные ограничения в том, что могут делать персептроны, и что предсказания Розенблатта были сильно преувеличены. Эффект книги заключался в том, что в течение 10 лет практически не финансировалось ни одно исследование в области коннекционизма . [120] Конкуренция за государственное финансирование закончилась победой подходов символического ИИ над нейронными сетями. [117] [118]

Минский (работавший над SNARC ) стал ярым противником чистого коннекционистского ИИ. Видроу (работавший над ADALINE ) обратился к адаптивной обработке сигналов. Группа SRI (работавшая над MINOS) обратилась к символическому ИИ и робототехнике. [117] [118]

Главной проблемой была невозможность обучения многослойных сетей (версии обратного распространения уже использовались в других областях, но они были неизвестны этим исследователям). [121] [120] Сообщество ИИ узнало об обратном распространении в 80-х годах, [122] и в 21 веке нейронные сети стали чрезвычайно успешными, оправдав все оптимистичные предсказания Розенблатта. Однако Розенблат не дожил до этого, поскольку погиб в результате несчастного случая на лодке в 1971 году. [123]

Оптимизм

Первое поколение исследователей ИИ сделало следующие прогнозы относительно своей работы:

Финансирование

В июне 1963 года MIT получил грант в размере 2,2 миллиона долларов от недавно созданного Агентства перспективных исследовательских проектов (ARPA, позже известного как DARPA ). Деньги были использованы для финансирования проекта MAC , который поглотил «Группу ИИ», основанную Мински и Маккарти пятью годами ранее. DARPA продолжало предоставлять 3 миллиона долларов каждый год до 70-х годов. [130] DARPA предоставило аналогичные гранты программе Ньюэлла и Саймона в Университете Карнеги-Меллона и Лаборатории ИИ Стэнфордского университета , основанной Джоном Маккарти в 1963 году. [131] Еще одна важная лаборатория ИИ была основана в Эдинбургском университете Дональдом Мичи в 1965 году. [132] Эти четыре учреждения продолжали оставаться основными центрами исследований ИИ и финансирования в академических кругах в течение многих лет. [133] [m]

Деньги были предоставлены с небольшими условиями: Дж. К. Р. Ликлайдер , тогдашний директор ARPA, считал, что его организация должна «финансировать людей, а не проекты!» и позволял исследователям заниматься любыми направлениями, которые могли бы их заинтересовать. [135] Это создало в MIT атмосферу свободы, которая породила культуру хакеров , [136] но этот подход «невмешательства» просуществовал недолго.

Первая зима ИИ (1974–1980)

В 1970-х годах ИИ подвергся критике и финансовым неудачам. Исследователи ИИ не смогли оценить сложность проблем, с которыми они столкнулись. Их огромный оптимизм невероятно поднял общественные ожидания, и когда обещанные результаты не материализовались, финансирование, направленное на ИИ, было резко сокращено. [137] Отсутствие успеха указывало на то, что методы, которые использовались исследователями ИИ в то время, были недостаточными для достижения их целей. [138] [139]

Однако эти неудачи не повлияли на рост и прогресс в этой области. Сокращение финансирования затронуло лишь несколько крупных лабораторий [140], а критика в значительной степени была проигнорирована. [141] Интерес широкой общественности к этой области продолжал расти, [140] число исследователей резко возросло, [140] и новые идеи были исследованы в логическом программировании , здравом смысле и многих других областях. Историк Томас Хейг утверждал в 2023 году, что зимы не было, [140] а исследователь ИИ Нильс Нильссон описал этот период как самое «захватывающее» время для работы в области ИИ. [142]

Проблемы

В начале семидесятых возможности программ ИИ были ограничены. Даже самые впечатляющие из них могли справиться только с тривиальными версиями проблем, которые они должны были решать; [n] все программы были, в некотором смысле, «игрушками». [144] Исследователи ИИ начали сталкиваться с несколькими ограничениями, которые будут преодолены только десятилетия спустя, и другими, которые все еще ставят эту область в тупик в 2020-х годах:

Уменьшение финансирования

Агентства, которые финансировали исследования ИИ, такие как британское правительство , DARPA и Национальный исследовательский совет (NRC), были разочарованы отсутствием прогресса и в конечном итоге прекратили почти все финансирование ненаправленных исследований ИИ. Эта тенденция началась в 1966 году, когда отчет Консультативного комитета по автоматической обработке языка (ALPAC) подверг критике усилия по машинному переводу. Потратив 20 миллионов долларов, NRC прекратил всю поддержку. [154] В 1973 году отчет Лайтхилла о состоянии исследований ИИ в Великобритании подверг критике неспособность ИИ достичь своих «грандиозных целей», что привело к сворачиванию исследований ИИ в этой стране. [155] (В отчете конкретно упоминалась проблема комбинаторного взрыва как причина неудач ИИ.) [139] [143] [s] DARPA была глубоко разочарована исследователями, работающими над программой исследований понимания речи в CMU, и отменила ежегодный грант в размере 3 миллионов долларов. [157] [t]

Ганс Моравец обвинил в кризисе нереалистичные прогнозы своих коллег. «Многие исследователи попали в паутину все большего преувеличения». [158] [u] Однако была и другая проблема: с момента принятия поправки Мэнсфилда в 1969 году DARPA находилось под все большим давлением, чтобы финансировать «ориентированные на миссию прямые исследования, а не базовые ненаправленные исследования». Финансирование творческих, свободных исследований, которые велись в 60-х годах, не будет поступать от DARPA, которое вместо этого направило деньги на конкретные проекты с четкими целями, такие как автономные танки и системы управления боем . [159] [v]

Крупнейшие лаборатории (MIT, Стэнфорд, CMU и Эдинбург) получали щедрую поддержку от своих правительств, и когда она была отменена, это были единственные места, которые серьезно пострадали от сокращения бюджета. Тысячи исследователей за пределами этих учреждений и еще больше тысяч, которые присоединялись к этой области, не были затронуты. [140]

Философская и этическая критика

Несколько философов решительно возражали против заявлений исследователей ИИ. Одним из первых был Джон Лукас , который утверждал, что теорема Гёделя о неполноте показала, что формальная система (например, компьютерная программа) никогда не сможет увидеть истинность определенных утверждений, в то время как человек может. [161] Хьюберт Дрейфус высмеял нарушенные обещания 1960-х годов и раскритиковал предположения об ИИ, утверждая, что человеческое рассуждение на самом деле включает в себя очень мало «обработки символов» и большую часть воплощенного , инстинктивного , бессознательного « знания как ». [w] [163] Аргумент Джона Сирла о китайской комнате , представленный в 1980 году, пытался показать, что нельзя сказать, что программа «понимает» символы, которые она использует (качество, называемое « преднамеренность »). Если символы не имеют значения для машины, утверждал Сирл, то машину нельзя описать как «мыслящую». [164]

Эти критические замечания не были восприняты всерьез исследователями ИИ. Такие проблемы, как неразрешимость и знание здравого смысла, казались гораздо более непосредственными и серьезными. Было неясно, какое значение имели « знать как » или « преднамеренность » для реальной компьютерной программы. Минский из MIT сказал о Дрейфусе и Сирле, что «они неправильно понимают, и их следует игнорировать». [165] Дрейфус, который также преподавал в MIT , получил холодный прием: позже он сказал, что исследователи ИИ «не осмелились показаться за обедом со мной». [166] Джозеф Вайценбаум , автор ELIZA , также был откровенным критиком позиций Дрейфуса, но он «намеренно дал понять, что [обращение его коллег по ИИ с Дрейфусом] не было способом обращения с человеком» [x] и было непрофессиональным и ребячливым. [168]

У Вайценбаума появились серьезные этические сомнения относительно ИИ, когда Кеннет Колби написал «компьютерную программу, которая может вести психотерапевтический диалог» на основе ELIZA. [169] [170] [y] Вайценбаум был обеспокоен тем, что Колби рассматривал бессмысленную программу как серьезный терапевтический инструмент. Началась вражда, и ситуация не улучшилась, когда Колби не признал Вайценбаума за его вклад в программу. В 1976 году Вайценбаум опубликовал «Мощь компьютеров и человеческий разум» , в которой утверждал, что неправильное использование искусственного интеллекта может обесценить человеческую жизнь. [172]

Логика в Стэнфорде, CMU и Эдинбурге

Логика была введена в исследования ИИ еще в 1958 году Джоном Маккарти в его предложении Advice Taker . [173] [98] В 1963 году Дж. Алан Робинсон открыл простой метод реализации дедукции на компьютерах, алгоритм резолюции и унификации . [98] Однако простые реализации, подобные тем, что были предприняты Маккарти и его учениками в конце 1960-х годов, были особенно неразрешимыми: программы требовали астрономического количества шагов для доказательства простых теорем. [173] [174] Более плодотворный подход к логике был разработан в 1970-х годах Робертом Ковальски в Эдинбургском университете , и вскоре это привело к сотрудничеству с французскими исследователями Аленом Кольмерауэром и Филиппом Русселем  [fr], которые создали успешный язык логического программирования Prolog . [175] Prolog использует подмножество логики ( предложения Хорна , тесно связанные с « правилами » и « правилами продукций »), которые допускают разрешимые вычисления. Правила продолжали оказывать влияние, обеспечивая основу для экспертных систем Эдварда Фейгенбаума и продолжающейся работы Аллена Ньюэлла и Герберта А. Саймона , которая привела к Soar и их объединенным теориям познания . [176]

Критики логического подхода, как и Дрейфус , отмечали, что люди редко используют логику при решении проблем. Эксперименты психологов, таких как Питер Уэйсон , Элеанор Рош , Амос Тверски , Дэниел Канеман и другие, предоставили доказательства. [z] Маккарти ответил, что то, что делают люди, не имеет значения. Он утверждал, что на самом деле нужны машины, которые могут решать проблемы, а не машины, которые думают так же, как люди. [aa]

«Антилогический» подход Массачусетского технологического института

Среди критиков подхода Маккарти были его коллеги по всей стране в Массачусетском технологическом институте . Марвин Мински , Сеймур Паперт и Роджер Шенк пытались решить такие проблемы, как «понимание историй» и «распознавание объектов», которые требовали , чтобы машина думала как человек. Чтобы использовать обычные понятия, такие как «стул» или «ресторан», им приходилось делать все те же нелогичные предположения, которые обычно делают люди. К сожалению, такие неточные понятия трудно представить в логике. Вместо этого Массачусетский технологический институт решил сосредоточиться на написании программ, которые решали заданную задачу без использования высокоуровневых абстрактных определений или общих теорий познания, и измерял производительность с помощью итеративного тестирования, а не аргументов из первых принципов. Шенк описал их «антилогические» подходы как неряшливые , в отличие от аккуратной парадигмы, используемой Маккарти , Ковальски , Фейгенбаумом , Ньюэллом и Саймоном . [177] [ab]

В 1975 году в основополагающей статье Мински отметил, что многие из его коллег-исследователей использовали тот же тип инструмента: фреймворк, который охватывает все наши предположения здравого смысла о чем-либо. Например, если мы используем концепцию птицы, есть совокупность фактов, которые сразу приходят на ум: мы можем предположить, что она летает, ест червей и так далее (ни одно из которых не верно для всех птиц). Мински связал эти предположения с общей категорией, и они могли быть унаследованы фреймами для подкатегорий и индивидов или переопределены по мере необходимости. Он назвал эти структуры фреймами . Шэнк использовал версию фреймов, которую он назвал « скриптами », чтобы успешно отвечать на вопросы о коротких рассказах на английском языке. [178] Фреймы в конечном итоге стали широко использоваться в программной инженерии под названием объектно-ориентированное программирование .

Логики приняли вызов. Пэт Хейс утверждал, что «большая часть «фреймов» — это просто новый синтаксис для частей логики первого порядка». Но он отметил, что «есть одна или две, по-видимому, незначительные детали, которые, однако, создают массу проблем, особенно значения по умолчанию». [179]

Рэй Рейтер признал, что «традиционные логики, такие как логика первого порядка, не обладают выразительной силой для адекватного представления знаний, требуемых для рассуждения по умолчанию». [180] Он предложил дополнить логику первого порядка предположением о замкнутом мире , что заключение выполняется (по умолчанию), если его противоположность не может быть доказана. Он показал, как такое предположение соответствует предположению здравого смысла, сделанному в рассуждениях с фреймами. Он также показал, что у него есть свой «процедурный эквивалент» в виде отрицания как неудачи в Prolog . Предположение о замкнутом мире, сформулированное Рейтером, «не является понятием первого порядка. (Это метапонятие.)» [180] Однако Кит Кларк показал, что отрицание как конечная неудача может пониматься как неявное рассуждение с определениями в логике первого порядка, включая предположение об уникальном имени , что разные термины обозначают разных людей. [181]

В конце 1970-х и на протяжении 1980-х годов были разработаны различные логики и расширения логики первого порядка как для отрицания как неудачи в логическом программировании , так и для рассуждений по умолчанию в более общем плане. В совокупности эти логики стали известны как немонотонные логики .

Бум (1980–1987)

В 1980-х годах корпорациями по всему миру была принята форма программы ИИ под названием « экспертные системы », и знания стали центром основных исследований ИИ. Правительства предоставили существенное финансирование, например, японский проект по созданию компьютеров пятого поколения и стратегическую вычислительную инициативу США . «В целом, индустрия ИИ выросла с нескольких миллионов долларов в 1980 году до миллиардов долларов в 1988 году». [122]

Экспертные системы становятся широко используемыми

Экспертная система — это программа, которая отвечает на вопросы или решает проблемы в определенной области знаний, используя логические правила , выведенные из знаний экспертов. [182] Самые ранние примеры были разработаны Эдвардом Фейгенбаумом и его учениками. Dendral , начатый в 1965 году, идентифицировал соединения по показаниям спектрометра. [183] ​​[120] MYCIN , разработанный в 1972 году, диагностировал инфекционные заболевания крови. [122] Они продемонстрировали осуществимость подхода.

Экспертные системы ограничили себя небольшой областью конкретных знаний (таким образом избегая проблемы знания здравого смысла ) [120] и их простая конструкция сделала относительно простым создание программ и их последующую модификацию после их внедрения. В целом, программы оказались полезными : то, чего ИИ не мог достичь до этого момента. [184]

В 1980 году в CMU была завершена экспертная система под названием R1 для Digital Equipment Corporation . Это был огромный успех: к 1986 году она экономила компании 40 миллионов долларов ежегодно. [185] Корпорации по всему миру начали разрабатывать и внедрять экспертные системы, и к 1985 году они тратили более миллиарда долларов на ИИ, большую часть из которых — на внутренние отделы ИИ. [186] Выросла отрасль, чтобы поддержать их, включая компании-разработчики оборудования, такие как Symbolics и Lisp Machines , и компании-разработчики программного обеспечения, такие как IntelliCorp и Aion . [187]

Увеличение государственного финансирования

В 1981 году Министерство международной торговли и промышленности Японии выделило 850 миллионов долларов на проект компьютеров пятого поколения . Их целью было написать программы и построить машины, которые могли бы вести разговоры, переводить языки, интерпретировать изображения и рассуждать как люди. [188] К большому огорчению нерях , они изначально выбрали Пролог в качестве основного языка программирования для проекта. [189]

Другие страны ответили новыми собственными программами. Великобритания начала проект Alvey стоимостью 350 миллионов фунтов стерлингов . [190] Консорциум американских компаний сформировал Корпорацию микроэлектроники и компьютерных технологий (или «MCC») для финансирования крупномасштабных проектов в области ИИ и информационных технологий. [191] [190] DARPA также отреагировало, основав Стратегическую вычислительную инициативу и утроив свои инвестиции в ИИ в период с 1984 по 1988 год. [192] [193]

Революция знаний

Сила экспертных систем исходила из экспертных знаний, которые они содержали. Они были частью нового направления в исследованиях ИИ, которое набирало обороты в 70-х годах. «Исследователи ИИ начали подозревать — неохотно, поскольку это нарушало научный канон бережливости , — что интеллект вполне может быть основан на способности использовать большие объемы разнообразных знаний разными способами», — пишет [194] Памела МакКордак . «[В]еличайший урок 1970-х годов заключался в том, что интеллектуальное поведение во многом зависело от работы со знаниями, иногда довольно подробными знаниями, в области, в которой лежит данная задача». [195] Системы, основанные на знаниях , и инженерия знаний стали основным направлением исследований ИИ в 1980-х годах. [196] Была надежда, что обширные базы данных решат проблему знания здравого смысла и обеспечат поддержку, которая требовалась для рассуждений здравого смысла .

В 1980-х годах некоторые исследователи попытались напрямую подойти к проблеме знания здравого смысла , создав огромную базу данных, которая содержала бы все обыденные факты, известные среднестатистическому человеку. Дуглас Ленат , создавший базу данных под названием Cyc , утверждал, что нет короткого пути — единственный способ для машин узнать значение человеческих понятий — это научить их, по одному понятию за раз, вручную. [197]

Новые направления в 1980-х годах

Хотя символическое представление знаний и логическое рассуждение создали полезные приложения в 80-х годах и получили огромное финансирование, они все еще не могли решить проблемы восприятия , робототехники , обучения и здравого смысла . Небольшое количество ученых и инженеров начали сомневаться в том, что символический подход когда-либо будет достаточным для этих задач, и разработали другие подходы, такие как « коннекционизм », робототехника , «мягкие» вычисления и обучение с подкреплением . Нильс Нильссон назвал эти подходы «субсимволическими».

Возрождение нейронных сетей: «коннекционизм»

Сеть Хопфилда с четырьмя узлами

В 1982 году физик Джон Хопфилд смог доказать, что форма нейронной сети (теперь называемая « сетью Хопфилда ») может обучаться и обрабатывать информацию, и доказуемо сходится после достаточного времени при любых фиксированных условиях. Это был прорыв, поскольку ранее считалось, что нелинейные сети, в общем, будут развиваться хаотично. [198] Примерно в то же время Джеффри Хинтон и Дэвид Румельхарт популяризировали метод обучения нейронных сетей, называемый « обратным распространением ». [ac] Эти две разработки помогли возродить исследование искусственных нейронных сетей . [122] [199]

Нейронные сети, наряду с несколькими другими подобными моделями, получили широкое внимание после публикации в 1986 году « Параллельной распределенной обработки », двухтомного сборника статей под редакцией Румельхарта и психолога Джеймса Макклелланда . Новое направление было названо « коннекционизмом », и между сторонниками символического ИИ «коннекционистами» разгорелись жаркие дебаты . [122] Хинтон назвал символы « светящимся эфиром ИИ» — то есть неработоспособной и вводящей в заблуждение моделью интеллекта. [122]

В 1990 году Ян Лекун из Bell Labs использовал сверточные нейронные сети для распознавания рукописных цифр. Система широко использовалась в 90-х годах для чтения почтовых индексов и персональных чеков. Это было первое по-настоящему полезное применение нейронных сетей. [200] [201]

Робототехника и воплощенный разум

Родни Брукс , Ханс Моравек и другие утверждали, что для того, чтобы продемонстрировать настоящий интеллект, машина должна иметь тело — она должна воспринимать, двигаться, выживать и взаимодействовать с миром. [202] Сенсомоторные навыки необходимы для навыков более высокого уровня, таких как рассуждения на основе здравого смысла . Их невозможно эффективно реализовать с помощью абстрактных символических рассуждений, поэтому ИИ должен решать проблемы восприятия, мобильности, манипуляции и выживания, вообще не используя символическое представление. Эти исследователи робототехники выступали за построение интеллекта «снизу вверх». [реклама]

Предшественником этой идеи был Дэвид Марр , который пришел в Массачусетский технологический институт в конце 1970-х годов с успешным опытом в теоретической нейронауке, чтобы возглавить группу, изучающую зрение . Он отверг все символические подходы ( как логику Маккарти , так и рамки Мински ), утверждая, что ИИ необходимо понять физический механизм зрения снизу вверх, прежде чем произойдет какая-либо символическая обработка. (Работа Марра была прервана лейкемией в 1980 году.) [204]

В своей статье 1990 года «Слоны не играют в шахматы» [205] исследователь робототехники Брукс напрямую нацелился на гипотезу физической символьной системы , утверждая, что символы не всегда необходимы, поскольку «мир является своей собственной лучшей моделью. Он всегда точно соответствует действительности. В нем всегда есть все детали, которые только можно узнать. Секрет в том, чтобы ощущать это соответствующим образом и достаточно часто». [206]

В 1980-х и 1990-х годах многие ученые-когнитивисты также отвергли модель обработки символов разумом и утверждали, что тело необходимо для рассуждений, теорию, названную « тезисом воплощенного разума ». [207]

Мягкие вычисления и вероятностные рассуждения

Мягкие вычисления используют методы, которые работают с неполной и неточной информацией. Они не пытаются давать точные, логические ответы, а дают результаты, которые только «вероятно» верны. Это позволило им решать проблемы, с которыми не справлялись точные символические методы. В прессе часто утверждалось, что эти инструменты могут «думать как человек». [208] [209]

Вероятностное рассуждение в интеллектуальных системах: сети правдоподобного вывода Джудеи Перл , влиятельная книга 1988 года [210], привнесла теорию вероятности и принятия решений в ИИ. [211] Нечеткая логика , разработанная Лофти Заде в 60-х годах, начала более широко использоваться в ИИ и робототехнике. Эволюционные вычисления и искусственные нейронные сети также обрабатывают неточную информацию и классифицируются как «мягкие». В 90-х и начале 2000-х годов были разработаны и введены в эксплуатацию многие другие инструменты мягких вычислений, включая байесовские сети , [211] скрытые марковские модели , [211] теорию информации и стохастическое моделирование . Эти инструменты, в свою очередь, зависели от передовых математических методов, таких как классическая оптимизация . Некоторое время в 1990-х и начале 2000-х годов эти мягкие инструменты изучались подразделом ИИ, называемым « вычислительный интеллект ». [212]

Обучение с подкреплением

Обучение с подкреплением [213] дает агенту вознаграждение каждый раз, когда он хорошо выполняет желаемое действие, и может давать отрицательное вознаграждение (или «наказание»), когда он выполняет плохо. Оно было описано в первой половине двадцатого века психологами, использовавшими модели животных, такими как Торндайк , [214] [215] Павлов [216] и Скиннер . [217] В 1950-х годах Алан Тьюринг [215] [218] и Артур Сэмюэл [215] предвидели роль обучения с подкреплением в ИИ.

Успешная и влиятельная исследовательская программа была проведена Ричардом Саттоном и Эндрю Барто в начале 1972 года. Их сотрудничество произвело революцию в изучении обучения с подкреплением и принятия решений за четыре десятилетия. [219] [220] В 1988 году Саттон описал машинное обучение в терминах теории принятия решений (т. е. процесса принятия решений Марковым ). Это дало предмету прочную теоретическую основу и доступ к большому объему теоретических результатов, разработанных в области исследования операций . [220]

Также в 1988 году Саттон и Барто разработали алгоритм обучения « временной разницы » (TD), в котором агент вознаграждается только тогда, когда его прогнозы о будущем показывают улучшение. Он значительно превзошел предыдущие алгоритмы. [221] Обучение TD использовал Джеральд Тезауро в 1992 году в программе TD-Gammon , которая играла в нарды так же хорошо, как и лучшие игроки-люди. Программа обучалась игре, играя против самой себя с нулевым предварительным знанием. [222] В интересном случае междисциплинарной конвергенции неврологи обнаружили в 1997 году, что система вознаграждения дофамина в мозге также использует версию алгоритма обучения TD. [223] [224] [225] Обучение TD станет очень влиятельным в 21 веке, оно будет использоваться как в AlphaGo , так и в AlphaZero . [226]

Бюст: вторая зима ИИ

Увлечение бизнес-сообщества ИИ росло и спало в 1980-х годах по классической схеме экономического пузыря . Поскольку десятки компаний потерпели крах, в деловом мире сложилось мнение, что технология нежизнеспособна. [227] Ущерб репутации ИИ сохранялся и в 21-м веке. Внутри отрасли не было единого мнения о причинах неспособности ИИ воплотить мечту об интеллекте человеческого уровня, которая захватила воображение мира в 1960-х годах. В совокупности все эти факторы помогли раздробить ИИ на конкурирующие подотрасли, сосредоточенные на конкретных проблемах или подходах, иногда даже под новыми названиями, которые скрывали запятнанную родословную «искусственного интеллекта». [228]

В течение следующих 20 лет ИИ последовательно предоставлял работающие решения для конкретных изолированных проблем. К концу 1990-х годов он использовался во всей технологической отрасли, хотя и несколько за кулисами. Успех был обусловлен ростом вычислительной мощности , сотрудничеством с другими областями (такими как математическая оптимизация и статистика ) и использованием самых высоких стандартов научной ответственности. К 2000 году ИИ достиг некоторых из своих самых старых целей. Область была и более осторожной, и более успешной, чем когда-либо.

ИИ зима

Термин « зима ИИ » был придуман исследователями, пережившими сокращение финансирования в 1974 году, когда они были обеспокоены тем, что энтузиазм в отношении экспертных систем вышел из-под контроля и что за этим непременно последует разочарование. [ae] Их опасения были вполне обоснованы: в конце 1980-х и начале 1990-х годов ИИ потерпел ряд финансовых неудач. [122]

Первым признаком перемены погоды стал внезапный крах рынка специализированного оборудования ИИ в 1987 году. Настольные компьютеры от Apple и IBM неуклонно набирали скорость и мощность, и в 1987 году они стали мощнее более дорогих машин Lisp, производимых Symbolics и другими. Больше не было веской причины покупать их. Целая индустрия стоимостью в полмиллиарда долларов была разрушена за одну ночь. [230]

В конце концов, самые ранние успешные экспертные системы, такие как XCON , оказались слишком дорогими в обслуживании. Их было трудно обновлять, они не могли обучаться, и они были « хрупкими » (т. е. они могли совершать гротескные ошибки при получении необычных входных данных). Экспертные системы оказались полезными, но только в нескольких особых контекстах. [231]

В конце 1980-х годов Стратегическая вычислительная инициатива сократила финансирование ИИ «глубоко и жестоко». Новое руководство DARPA решило, что ИИ — это не «следующая волна», и направило средства на проекты, которые, как казалось, с большей вероятностью дадут немедленные результаты. [232]

К 1991 году впечатляющий список целей, написанный в 1981 году для японского проекта пятого поколения, не был достигнут. Действительно, некоторые из них, например, «вести непринужденную беседу», не будут достигнуты еще 40 лет. Как и в случае с другими проектами ИИ, ожидания были намного выше того, что было возможно на самом деле. [233] [af]

Более 300 компаний, занимающихся ИИ, закрылись, обанкротились или были приобретены к концу 1993 года, что фактически положило конец первой коммерческой волне ИИ. [235] В 1994 году Х. П. Ньюквист заявил в The Brain Makers , что «ближайшее будущее искусственного интеллекта — в его коммерческой форме — по-видимому, отчасти зависит от продолжающегося успеха нейронных сетей». [235]

ИИ за кулисами

В 1990-х годах алгоритмы, изначально разработанные исследователями ИИ, начали появляться как части более крупных систем. ИИ решил множество очень сложных проблем [ag] , и их решения оказались полезными во всей технологической отрасли, [236] [237] такой как интеллектуальный анализ данных , промышленная робототехника , логистика, распознавание речи , [238] банковское программное обеспечение, [239] медицинская диагностика [239] и поисковая система Google . [240] [241]

Область ИИ получила мало или совсем не получила признания за эти успехи в 1990-х и начале 2000-х годов. Многие из величайших инноваций ИИ были сведены к статусу просто еще одного предмета в ящике с инструментами компьютерной науки. [242] Ник Бостром объясняет: «Многие передовые ИИ просочились в общие приложения, часто не называясь ИИ, потому что как только что-то становится достаточно полезным и достаточно распространенным, оно больше не называется ИИ». [239]

Многие исследователи в области ИИ в 1990-х годах намеренно называли свою работу другими названиями, такими как информатика , системы, основанные на знаниях , «когнитивные системы» или вычислительный интеллект . Отчасти это могло быть связано с тем, что они считали свою область принципиально отличной от ИИ, но также новые названия помогают обеспечить финансирование. [238] [243] [244] По крайней мере, в коммерческом мире невыполненные обещания ИИ Winter продолжали преследовать исследования ИИ в 2000-х годах, как сообщала New York Times в 2005 году: «Ученые-компьютерщики и инженеры-программисты избегали термина «искусственный интеллект», опасаясь, что их сочтут мечтателями с дикими глазами». [245]

Математическая строгость, более тесное сотрудничество и узкая направленность

Исследователи ИИ начали разрабатывать и использовать сложные математические инструменты больше, чем когда-либо в прошлом. [246] [247] Большинство новых направлений в ИИ в значительной степени опирались на математические модели, включая искусственные нейронные сети , вероятностные рассуждения , мягкие вычисления и обучение с подкреплением . В 90-х и 2000-х годах многие другие высоко математические инструменты были адаптированы для ИИ. Эти инструменты применялись к машинному обучению, восприятию и мобильности.

Было широко распространено понимание того, что многие из проблем, которые должен был решить ИИ, уже разрабатывались исследователями в таких областях, как статистика , математика , электротехника , экономика или исследование операций . Общий математический язык позволил как достичь более высокого уровня сотрудничества с более устоявшимися и успешными областями, так и достичь результатов, которые были измеримы и доказуемы; ИИ стал более строгой «научной» дисциплиной.

Другой ключевой причиной успеха в 90-х годах было то, что исследователи ИИ сосредоточились на конкретных проблемах с проверяемыми решениями (подход, который позже высмеяли как узкий ИИ ). Это давало полезные инструменты в настоящем, а не спекуляции о будущем.

Интеллектуальные агенты

Новая парадигма под названием « интеллектуальные агенты » получила широкое распространение в 1990-х годах. [248] [249] [ah] Хотя более ранние исследователи предлагали модульные подходы «разделяй и властвуй» к ИИ, [ai] интеллектуальный агент не достиг своей современной формы, пока Джуда Перл , Аллен Ньюэлл , Лесли П. Кэлблинг и другие не привнесли концепции из теории принятия решений и экономики в изучение ИИ. [250] Когда экономическое определение рационального агента было объединено с определением объекта или модуля в компьютерной науке , парадигма интеллектуального агента была завершена.

Интеллектуальный агент — это система, которая воспринимает окружающую среду и предпринимает действия, которые максимизируют ее шансы на успех. Согласно этому определению, простые программы, решающие определенные проблемы, являются «интеллектуальными агентами», как и люди и организации людей, такие как фирмы . Парадигма интеллектуального агента определяет исследования ИИ как «изучение интеллектуальных агентов». [aj] Это обобщение некоторых более ранних определений ИИ: оно выходит за рамки изучения человеческого интеллекта; оно изучает все виды интеллекта.

Парадигма дала исследователям лицензию на изучение отдельных проблем и несогласие с методами, но при этом сохраняла надежду, что их работа может быть объединена в архитектуру агента , способного к общему интеллекту. [251]

Вехи и закон Мура

11 мая 1997 года Deep Blue стала первой компьютерной шахматной системой, которая победила действующего чемпиона мира по шахматам Гарри Каспарова . [252] В 2005 году робот из Стэнфорда выиграл DARPA Grand Challenge , проехав автономно 131 милю по неотрепетированной пустынной трассе. Два года спустя команда из CMU выиграла DARPA Urban Challenge , автономно проехав 55 миль в городской среде, реагируя на опасности на дороге и соблюдая правила дорожного движения. [253]

Эти успехи были обусловлены не какой-то революционной новой парадигмой, а в основном утомительным применением инженерного мастерства и колоссальным ростом скорости и мощности компьютеров к 90-м годам. [ak] Фактически, компьютер Deep Blue был в 10 миллионов раз быстрее, чем Ferranti Mark 1 , который Кристофер Стрейчи учил играть в шахматы в 1951 году. [al] Этот резкий рост измеряется законом Мура , который предсказывает, что скорость и объем памяти компьютеров удваиваются каждые два года. Фундаментальная проблема «чистой компьютерной мощности» медленно преодолевалась.

Большие данные, глубокое обучение, AGI (2005–2017)

В первые десятилетия 21-го века доступ к большим объемам данных (известным как « большие данные »), более дешевые и быстрые компьютеры и передовые методы машинного обучения были успешно применены для решения многих проблем в экономике. Поворотным моментом стал успех глубокого обучения около 2012 года, который улучшил производительность машинного обучения для многих задач, включая обработку изображений и видео, анализ текста и распознавание речи. [255] Инвестиции в ИИ увеличились вместе с его возможностями, и к 2016 году рынок продуктов, оборудования и программного обеспечения, связанных с ИИ, достиг более 8 миллиардов долларов, а New York Times сообщила, что интерес к ИИ достиг «безумия». [256]

В 2002 году Бен Герцель и другие стали беспокоиться о том, что ИИ в значительной степени отказался от своей первоначальной цели создания универсальных, полностью интеллектуальных машин, и выступили в пользу более прямых исследований в области общего искусственного интеллекта . К середине 2010-х годов было основано несколько компаний и учреждений для изучения общего искусственного интеллекта (AGI), таких как OpenAI и DeepMind от Google . В тот же период новые идеи о сверхинтеллекте вызвали опасения, что ИИ представляет собой экзистенциальную угрозу . Риски и непреднамеренные последствия технологии ИИ стали областью серьезных академических исследований после 2016 года.

Большие данные и большие машины

Успех машинного обучения в 2000-х годах зависел от доступности огромных объемов обучающих данных и более быстрых компьютеров. [257] Рассел и Норвиг писали, что «улучшение производительности, полученное за счет увеличения размера набора данных на два или три порядка, перевешивает любое улучшение, которое можно было сделать, настроив алгоритм». [200] Джеффри Хинтон вспоминал, что еще в 90-х годах проблема заключалась в том, что «наши маркированные наборы данных были в тысячи раз меньше. [И] наши компьютеры были в миллионы раз медленнее». [258] К 2010 году это уже не было так.

Самые полезные данные в 2000-х годах поступали из курируемых, маркированных наборов данных, созданных специально для машинного обучения и ИИ. В 2007 году группа в UMass Amherst выпустила Labeled Faces in the Wild, аннотированный набор изображений лиц, который широко использовался для обучения и тестирования систем распознавания лиц в течение следующих нескольких десятилетий. [259] Фэй-Фэй Ли разработал ImageNet , базу данных из трех миллионов изображений, подписанных добровольцами с помощью Amazon Mechanical Turk . Выпущенная в 2009 году, она была полезным массивом обучающих данных и эталоном для тестирования следующего поколения систем обработки изображений. [260] [200] Google выпустила word2vec в 2013 году как ресурс с открытым исходным кодом. Он использовал большие объемы текстовых данных, извлеченных из Интернета, и встраивание слов для создания числового вектора для представления каждого слова. Пользователи были удивлены тем, насколько хорошо он способен улавливать значения слов, например, обычное сложение векторов давало бы эквивалентности вроде Китай + Река = Янцзы, Лондон + Англия-Франция = Париж. [261] Эта база данных, в частности, имела бы важное значение для разработки больших языковых моделей в конце 2010-х годов.

Взрывной рост интернета дал программам машинного обучения доступ к миллиардам страниц текста и изображений, которые можно было извлечь . А для решения конкретных задач соответствующие данные содержались в крупных частных базах данных. McKinsey Global Institute сообщил, что «к 2009 году почти все секторы экономики США имели в среднем не менее 200 терабайт хранимых данных». [262] Этот набор информации в 2000-х годах был известен как большие данные .

В феврале 2011 года в показательном матче викторины Jeopardy! система ответов на вопросы IBM , Watson , победила двух лучших чемпионов Jeopardy!, Брэда Раттера и Кена Дженнингса , со значительным отрывом. [263] Экспертные знания Watson были бы невозможны без информации, доступной в Интернете. [200]

Глубокое обучение

В 2012 году AlexNet , модель глубокого обучения , [am] разработанная Алексом Крижевским , выиграла конкурс ImageNet Large Scale Visual Recognition Challenge , допустив значительно меньше ошибок, чем победитель, занявший второе место. [265] [200] Крижевский работал с Джеффри Хинтоном в Университете Торонто . [an] Это был поворотный момент в машинном обучении: в течение следующих нескольких лет десятки других подходов к распознаванию изображений были заброшены в пользу глубокого обучения . [257]

Глубокое обучение использует многослойный персептрон . Хотя эта архитектура известна с 60-х годов, для ее работы требуется мощное оборудование и большие объемы обучающих данных. [266] До того, как они стали доступны, для повышения производительности систем обработки изображений требовались вручную созданные специальные функции, которые было трудно реализовать. [266] Глубокое обучение было проще и более общим. [ao]

Глубокое обучение применялось к десяткам проблем в течение следующих нескольких лет (таких как распознавание речи, машинный перевод, медицинская диагностика и игры). В каждом случае оно показало огромный прирост производительности. [257] В результате инвестиции и интерес к ИИ резко возросли. [257]

Проблема выравнивания

В 2000-х годах стало модно снова начать говорить о будущем ИИ, и несколько популярных книг рассматривали возможность сверхразумных машин и то, что они могут означать для человеческого общества. Некоторые из них были оптимистичными (например, «Сингулярность рядом » Рэя Курцвейла ), но другие предупреждали, что достаточно мощный ИИ представляет собой экзистенциальную угрозу человечеству, например, Ник Бостром и Элиезер Юдковски . [267] Тема широко освещалась в прессе, и многие ведущие интеллектуалы и политики прокомментировали этот вопрос.

Программы ИИ в 21 веке определяются их целями — конкретными мерами, которые они призваны оптимизировать. Влиятельная книга Ника Бострома 2005 года «Суперинтеллект» утверждала, что если не быть осторожным в определении этих целей, машина может причинить вред человечеству в процессе достижения цели. Стюарт Дж. Рассел использовал пример интеллектуального робота, который убивает своего владельца, чтобы предотвратить его отключение от сети, рассуждая «вы не можете принести кофе, если вы мертвы». [268] (Эта проблема известна под техническим термином « инструментальная конвергенция ».) Решение состоит в том, чтобы согласовать целевую функцию машины с целями ее владельца и человечества в целом. Таким образом, проблема смягчения рисков и непреднамеренных последствий ИИ стала известна как «проблема выравнивания ценностей» или выравнивание ИИ . [269]

В то же время системы машинного обучения начали иметь тревожные непреднамеренные последствия. Кэти О'Нил объяснила, как статистические алгоритмы были среди причин экономического краха 2008 года , [270] Джулия Энгвин из ProPublica утверждала, что система COMPAS , используемая системой уголовного правосудия, демонстрировала расовую предвзятость при некоторых мерах, [271] [ap] другие показали, что многие системы машинного обучения демонстрировали некоторую форму расовой предвзятости , [273] и было много других примеров опасных результатов, которые были результатом систем машинного обучения. [aq]

В 2016 году выборы Дональда Трампа и споры по поводу системы COMPAS выявили несколько проблем с текущей технологической инфраструктурой, включая дезинформацию, алгоритмы социальных сетей, разработанные для максимального вовлечения, неправомерное использование персональных данных и надежность прогностических моделей. [274] Вопросы справедливости и непреднамеренных последствий стали значительно более популярными на конференциях по ИИ, публикации значительно увеличились, финансирование стало доступным, и многие исследователи переориентировали свою карьеру на эти вопросы. Проблема согласования ценностей стала серьезной областью академических исследований. [275] [ar]

Исследования общего искусственного интеллекта

В начале 2000-х годов несколько исследователей были обеспокоены тем, что основной ИИ был слишком сосредоточен на «измеримой производительности в конкретных приложениях» [277] (известной как « узкий ИИ ») и отказался от первоначальной цели ИИ — создания универсальных, полностью интеллектуальных машин. Одним из первых критиков был Нильс Нильссон в 1995 году, и похожие мнения были опубликованы старейшинами в области ИИ Джоном Маккарти, Марвином Мински и Патриком Уинстоном в 2007-2009 годах. Мински организовал симпозиум по «ИИ человеческого уровня» в 2004 году. [277] Бен Герцель принял термин « искусственный общий интеллект » для новой подобласти, основав журнал и проводя конференции, начиная с 2008 года. [278] Новая область быстро росла, поддерживаемая продолжающимся успехом искусственных нейронных сетей и надеждой, что это ключ к AGI.

Несколько конкурирующих компаний, лабораторий и фондов были основаны для разработки AGI в 2010-х годах. DeepMind была основана в 2010 году тремя английскими учеными, Демисом Хассабисом , Шейном Леггом и Мустафой Сулейманом , при финансировании Питера Тиля и позднее Илона Маска . Основатели и финансисты были глубоко обеспокоены безопасностью ИИ и экзистенциальным риском ИИ . Основатели DeepMind имели личную связь с Юдковски, и Маск был среди тех, кто активно поднимал тревогу. [279] Хассабис был одновременно обеспокоен опасностями AGI и оптимистичен в отношении его мощи; он надеялся, что они смогут «решить проблему ИИ, а затем решить все остальное». [280]

В 2012 году к Джеффри Хинтону (который руководил исследованиями нейронных сетей с 80-х годов) обратилась компания Baidu , которая хотела нанять его и всех его студентов за огромную сумму. Хинтон решил провести аукцион, и на конференции по искусственному интеллекту в озере Тахо они продались Google за 44 миллиона долларов. Хассабис обратил на это внимание и продал DeepMind Google в 2014 году при условии, что компания не будет принимать военные контракты и будет контролироваться советом по этике. [279]

Ларри Пейдж из Google, в отличие от Маска и Хассабиса, был оптимистом относительно будущего ИИ. Маск и Пейдж ввязались в спор о риске AGI на вечеринке по случаю дня рождения Маска в 2015 году. Они были друзьями в течение десятилетий, но вскоре после этого перестали общаться. Маск посетил единственное заседание этического совета DeepMind, где стало ясно, что Google не заинтересована в смягчении вреда AGI. Разочарованный отсутствием своего влияния, он основал OpenAI в 2015 году, привлек Сэма Альтмана для управления ею и нанял лучших ученых. OpenAI начиналась как некоммерческая организация, «свободная от экономических стимулов, которые двигали Google и другие корпорации». [279] Маск снова разочаровался и покинул компанию в 2018 году. OpenAI обратилась к Microsoft за постоянной финансовой поддержкой, и Альтман и OpenAI сформировали коммерческую версию компании с финансированием более 1 миллиарда долларов. [279]

В 2021 году Дарио Амодеи и 14 других ученых покинули OpenAI из-за опасений, что компания ставит прибыль выше безопасности. Они основали Anthropic , которая вскоре получила $6 млрд финансирования от Microsoft и Google. [279]

The New York Times писала в 2023 году: «В основе этого соревнования лежит парадокс, требующий напряжения мозга. Люди, которые говорят, что больше всего беспокоятся об ИИ, являются одними из самых решительных в его создании и использовании его богатств. Они оправдывают свои амбиции твердой верой в то, что только они могут уберечь ИИ от угрозы Земле». [279]

Большие языковые модели, бум ИИ (2020–настоящее время)

Бум ИИ начался с первоначальной разработки ключевых архитектур и алгоритмов, таких как архитектура transformer в 2017 году, что привело к масштабированию и разработке больших языковых моделей, демонстрирующих человеческие черты знания, внимания и креативности. Новая эра ИИ началась около 2020–2023 годов с публичным выпуском масштабированных больших языковых моделей (LLM), таких как ChatGPT . [281]

Архитектура Transformer и большие языковые модели

В 2017 году исследователи Google предложили архитектуру transformer . Она использует механизм внимания и стала широко использоваться в больших языковых моделях. [282]

Большие языковые модели , основанные на трансформаторе, были разработаны компаниями AGI: OpenAI выпустила GPT-3 в 2020 году, а DeepMind выпустила Gato в 2022 году. Это базовые модели : они обучаются на огромных объемах немаркированных данных и могут быть адаптированы к широкому спектру последующих задач. [ необходима цитата ]

Эти модели могут обсуждать огромное количество тем и отображать общие знания. Возникает естественный вопрос: являются ли эти модели примером искусственного общего интеллекта ? Билл Гейтс скептически относился к новой технологии и шумихе, которая окружала AGI. Однако Альтман представил ему живую демонстрацию ChatGPT4, прошедшего расширенный тест по биологии. Гейтс был убежден. [279] В 2023 году Microsoft Research протестировала модель с большим количеством разнообразных задач и пришла к выводу, что «ее можно обоснованно рассматривать как раннюю (но все еще неполную) версию системы искусственного общего интеллекта (AGI)». [283]

Нейросимволический ИИ

DeepMind описывает свой подход как « нейросимволический », поскольку они используют глубокое обучение в сочетании с символическими методами. Например, AlphaZero использует глубокое обучение для оценки силы позиции и предложения политик (курсов действий), но использует поиск по дереву Монте-Карло для прогнозирования новых позиций. [ необходима цитата ]

Бум ИИ

Инвестиции в ИИ росли экспоненциально после 2020 года. [ необходима цитата ]

К середине 2024 года несколько финансовых компаний начали сомневаться в способности компаний ИИ окупать инвестиции . Некоторые наблюдатели [ кто? ] предположили, что ИИ переживает очередной пузырь . [ нужна цитата ]

Нобелевские премии 2004 года

В 2024 году Королевская шведская академия наук вручила Нобелевские премии в знак признания новаторского вклада в искусственный интеллект. Среди лауреатов были:

Смотрите также

Примечания

  1. ^ Лямбда -исчисление было особенно важно для ИИ, поскольку оно послужило источником вдохновения для Lisp (важнейшего языка программирования, использовавшегося в ИИ 20-го века). [46]
  2. ^ Алан Тьюринг думал о машинном интеллекте по крайней мере еще в 1941 году, когда он распространил статью о машинном интеллекте, которая могла быть самой ранней статьей в области ИИ — хотя сейчас она утеряна. За его статьей 1950 года последовали три радиопередачи Тьюринга об ИИ, две лекции «Интеллектуальные машины, еретическая теория» и «Могут ли цифровые компьютеры думать?» и панельная дискуссия «Можно ли сказать, что автоматические вычислительные машины думают?» [60]
  3. ^ Это было раннее изложение философской позиции, которую Джон Сирл позже назовет « гипотезой сильного ИИ »: машины могут обладать разумом так же, как и человеческие тела.
  4. ^ Дэниел Кревье писал: «[предложение] позже стало известно как «гипотеза физических символьных систем». [78] Гипотеза физических символьных систем была сформулирована и названа Ньюэллом и Саймоном в их статье о GPS . [79] Она включает в себя более конкретное определение «машины» как агента, который манипулирует символами.
  5. ^ «Я не буду ругаться, и я не видел этого раньше», — сказал Маккарти Памеле МакКордак в 1979 году. [80] Однако Маккарти также недвусмысленно заявил: «Я придумал этот термин» в интервью CNET . [81] Термин был выбран Маккарти, чтобы избежать ассоциаций с кибернетикой и влиянием Норберта Винера . «[О]дной из причин изобретения термина «искусственный интеллект» было желание избежать ассоциации с «кибернетикой». Его сосредоточенность на аналоговой обратной связи казалась ошибочной, и я хотел избежать необходимости либо принимать Норберта (не Роберта) Винера как гуру, либо спорить с ним». [82]
  6. ^ Памела МакКордак рассуждает о том, как выпускники Дартмутской конференции доминировали в первых двух десятилетиях исследований ИИ, называя их «невидимым колледжем». [83]
  7. Дэниел Кревье писал: «Эта конференция общепризнанно считается официальной датой рождения новой науки». [85]
  8. ^ Было несколько психологов, которые избегали бихевиоризма и приняли когнитивный подход до того, как он стал модным, например, Фредерик Бартлетт и Кеннет Крейг [87]
  9. ^ Рассел и Норвиг писали: «Это было поразительно, когда компьютер делал что-то хоть немного умное». [88] Основатель ИИ Джон Маккарти назвал это эпохой «Смотри, ма, рук нет!». [89]
  10. ^ Это позволило избежать проблемы знания здравого смысла, обсуждаемой ниже.
  11. ^ Разнообразие оборудования было особенно очевидно в различных технологиях, используемых при реализации регулируемых весов. Машины персептрона и SNARC использовали потенциометры, приводимые в движение электродвигателями. ADALINE использовал мемисторы , регулируемые гальванопокрытием , хотя они также использовали моделирование на компьютере IBM 1620. Машины MINOS использовали ферритовые сердечники с несколькими отверстиями в них, которые можно было индивидуально блокировать, причем степень блокировки представляла вес. [118]
  12. ^ Минский твердо уверен, что его неправильно процитировали. [128] [129]
  13. ^ МакКордак также отмечает, что финансирование в основном осуществлялось под руководством выпускников Дартмутской мастерской 1956 года. [134]
  14. Рассел и Норвиг писали: «Почти во всех случаях эти ранние системы не справлялись с более сложными задачами». [143]
  15. ^ Брюс Бьюкенен писал: «Ранние программы были неизбежно ограничены в области действия размером и скоростью памяти» [145]
  16. ^ История доказала правоту Моравека относительно приложений, таких как компьютерное зрение. Моравек подсчитал, что простое сопоставление возможностей обнаружения краев и движения сетчатки человека в реальном времени потребует компьютера общего назначения, способного выполнять 1000 миллионов инструкций в секунду (MIPS). В 1976 году самый быстрый суперкомпьютер, Cray-1 стоимостью 8 миллионов долларов , был способен выполнять только 130 MIPS, а типичный настольный компьютер имел 1 MIPS. По состоянию на 2011 год практические приложения компьютерного зрения требуют от 10 000 до 1 000 000 MIPS. [148]
  17. ^ Такие как проблемы фрейма , разветвления и квалификации , а также трудности рассуждения по умолчанию и устранения неоднозначности смысла слов .
  18. ^ Рассел и Норвиг пишут: «Мнoгие из концепций, которые мы называем в языке, при ближайшем рассмотрении не обладают логически определенными необходимыми и достаточными условиями, которые ранние исследователи ИИ надеялись зафиксировать в аксиоматической форме». [122]
  19. Джон Маккарти написал в ответ, что «проблема комбинаторного взрыва была осознана в ИИ с самого начала» [156]
  20. ^ Этот отчет основан на Crevier 1993, стр. 115–116. Другие взгляды включают McCorduck 2004, стр. 306–313 и NRC 1999 в разделе «Успехи в распознавании речи».
  21. ^ Моравец объясняет: «Их первоначальные обещания DARPA были слишком оптимистичными. Конечно, то, что они предоставили, значительно отстало от этого. Но они чувствовали, что не могут в своем следующем предложении обещать меньше, чем в первом, поэтому они пообещали больше». [158]
  22. ^ В то время как автономный танк потерпел неудачу, система управления боем (названная « DART ») оказалась чрезвычайно успешной, сэкономив миллиарды в первой войне в Персидском заливе , окупив инвестиции и оправдав прагматичную политику DARPA , по крайней мере, в том, что касается DARPA . [160]
  23. ^ «Знать-как» — термин Дрейфуса. Дрейфус проводит различие между «знанием как» и «знанием того», современная версия хайдеггеровского различия подручного и наличного . [162]
  24. ^ Вайценбаум сказал: «Я стал единственным членом сообщества ИИ, которого видели обедающим с Дрейфусом. И я намеренно дал понять, что их способ обращения с человеком недопустим». [167]
  25. ^ Колби и его коллеги позже также разработали «компьютерные симуляции параноидальных процессов ( PARRY )», подобные чатботам , чтобы «сделать понятными параноидальные процессы в явных терминах обработки символов». [171]
  26. ^ Уэйсон и Шапиро (1966) показали, что люди плохо справляются с полностью абстрактными задачами, но если переформулировать задачу так, чтобы она позволяла использовать интуитивный социальный интеллект , производительность резко улучшается. (См. задачу выбора Уэйсона ) Канеман, Слович и Тверски (1982) показали, что люди ужасно справляются с элементарными задачами, которые включают неопределенные рассуждения. (См. список когнитивных искажений для нескольких примеров). Работа Элинор Рош описана в Lakoff 1987. Канман опубликовал более общую теорию символического познания и других видов мышления в своей книге « Думай медленно… решай быстро» (2011)
  27. ^ Одним из первых примеров позиции Маккарти было заявление в журнале Science : «Это ИИ, поэтому нас не волнует, реален ли он психологически» (Kolata 1982), а недавно он повторил свою позицию на конференции AI@50 , где сказал: «Искусственный интеллект по определению не является симуляцией человеческого интеллекта» (Maker 2006).
  28. ^ Другой аспект конфликта был назван «процедурным/декларативным различием», но не оказал влияния на последующие исследования ИИ.
  29. ^ Версии обратного распространения были разработаны в нескольких областях, наиболее непосредственно как обратный режим автоматического дифференцирования, опубликованный Сеппо Линнайнмаа (1970). Он был применен к нейронным сетям в 1970-х годах Полом Вербосом . [121]
  30. ^ Ганс Моравец писал: «Я уверен, что этот путь снизу вверх к искусственному интеллекту однажды встретится с традиционным путем сверху вниз более чем на полпути, готовый предоставить реальную мировую компетентность и знание здравого смысла, которые были так удручающе неуловимы в программах рассуждений. Полностью интеллектуальные машины появятся, когда будет вбит метафорический золотой шип , объединяющий эти два усилия». [203]
  31. ^ AI winter впервые был использован в качестве названия семинара по этой теме для Ассоциации по развитию искусственного интеллекта . [229]
  32. МакКордак пишет: «Спустя два с половиной десятилетия мы видим, что японцы не достигли всех этих амбициозных целей». [234]
  33. ^ См . Применение искусственного интеллекта § Информатика
  34. ^ Рассел и Норвиг писали: «Точка зрения целостного агента теперь широко принята» [250]
  35. ^ Модель актора Карла Хьюитта предвосхитила современное определение интеллектуальных агентов. (Hewitt, Bishop & Steiger 1973) И Джон Дойл (Doyle 1983), и популярная классика Марвина Мински «Общество разума» (Minsky 1986) использовали слово «агент». Другие «модульные» предложения включали архитектуру категоризации Родни Брука , объектно-ориентированное программирование и другие.
  36. ^ Именно так наиболее широко используемые учебники 21-го века определяют искусственный интеллект, например, Рассел и Норвиг, 2021; Падхэм и Виникофф, 2004; Джонс, 2007; Пул и Макворт, 2017. [250]
  37. Рэй Курцвейл писал, что совершенствование компьютерных шахмат «обусловлено исключительно расширением возможностей компьютерного оборудования методом грубой силы». [254]
  38. ^ Время цикла Ferranti Mark 1 составляло 1,2 миллисекунды, что, возможно, эквивалентно примерно 833  флопсам . Deep Blue работал на 11,38  гигафлопс (и это даже не принимая во внимание специализированное оборудование Deep Blue для шахмат). Очень приблизительно, они отличаются на коэффициент 10 7 . [ необходима цитата ]
  39. ^ AlexNet имел 650 000 нейронов и обучался с использованием ImageNet , дополненной перевернутыми, обрезанными и тонированными изображениями. Модель также использовала технику исключения Джеффри Хинтона и выпрямленную линейную выходную функцию, обе относительно новые разработки в то время. [264]
  40. ^ Несколько других лабораторий разработали системы, которые, как и AlexNet, использовали чипы графических процессоров и работали почти так же хорошо, как AlexNet, [121] но AlexNet оказалась наиболее влиятельной.
  41. ^ См . Историю ИИ § Проблемы выше, где Ганс Моравец предсказал, что грубая сила в конечном итоге сделает ИИ «легким».
  42. ^ Более поздние исследования показали, что система не могла избежать измеримой расовой предвзятости — устранение одной формы предвзятости обязательно привело бы к появлению другой. [272]
  43. ^ Краткое резюме тем будет включать конфиденциальность , наблюдение , авторское право , дезинформацию и глубокие фейки , пузыри фильтров и партийность , алгоритмическую предвзятость , вводящие в заблуждение результаты, которые остаются незамеченными без алгоритмической прозрачности , право на объяснение , неправомерное использование автономного оружия и технологическую безработицу . См. Искусственный интеллект § Этика
  44. ^ Брайан Кристиан написал: «Исследование ProPublica [COMPAS в 2015 году] легитимировало такие концепции, как справедливость, в качестве допустимых тем для исследований» [276]
  1. ^ Каплан и Хенлейн 2018.
  2. Ньюквист 1994, стр. 143–156.
  3. Ньюквист 1994, стр. 144–152.
  4. ^ Родиос 2007, Книга 4, эпизод Талоса.
  5. ^ Библиотека 1.9.26
  6. ^ Родиос 2007.
  7. ^ Морфорд 2007.
  8. ^ Линден 2003.
  9. ^ Крессель 2015.
  10. Еврейская энциклопедия, ГОЛЕМ.
  11. ^ Ньюквист 1994, стр. 38.
  12. Талмуд, Санхедрин 65б.
  13. ^ О'Коннор 1994.
  14. Гёте 1890.
  15. МакКордак 2004, стр. 17–25.
  16. Батлер 1863.
  17. Ньюквист 1994, стр. 65.
  18. ^ Кейв и Дихал 2019.
  19. ^ Нидхэм 1986, стр. 53.
  20. ^ МакКордак 2004, стр. 6.
  21. ^ Ник 2005.
  22. ^ МакКордак 2004, стр. 10.
  23. ^ Ньюквист 1994, стр. 40.
  24. ^ МакКордак 2004, стр. 16.
  25. ^ МакКордак 2004, стр. 59–62.
  26. ^ МакКордак 2004, стр. 17.
  27. ^ Левитт 2000.
  28. Ньюквист 1994, стр. 30.
  29. ^ Кревьер 1993, стр. 1.
  30. Цитируется в McCorduck 2004, стр. 8.
  31. ^ Cave, Dihal & Dillon 2020, стр. 56.
  32. Батлер 1948.
  33. ^ Портерфилд 2006, стр. 136.
  34. ^ Холландер 1964.
  35. ^ Рассел и Норвиг 2021, стр. 6 и 7.
  36. ^ ab Berlinski 2000.
  37. Каррерас и Артау 1939.
  38. ^ ab Russell & Norvig 2021, стр. 6.
  39. ^ Боннер 2007.
  40. Боннер 1985, стр. 57–71.
  41. ^ Механизм 17 века и ИИ:
    • МакКордак 2004, стр. 37–46
    • Рассел и Норвиг 2021, стр. 6
    • Бьюкенен 2005, стр. 53
  42. ^ Гоббс и ИИ:
    • Рассел и Норвиг 2021, стр. 6
    • МакКордак 2004, стр. 42
    • Гоббс 1651, глава 5
  43. ^ Лейбниц и ИИ:
    • МакКордак 2004, стр. 41
    • Рассел и Норвиг 2021, стр. 6}
    • Берлински 2000, стр. 12
    • Бьюкенен 2005, стр. 53
  44. ^ Рассел и Норвиг 2021, стр. 8.
  45. ^ abc Russell & Norvig 2021, стр. 9.
  46. ^ Кревьер 1993, стр. 190 196, 61.
  47. Роуз 1946.
  48. ^ Машина Тьюринга :
    • Ньюквист 1994, стр. 56
    • МакКордак 2004, стр. 63–64
    • Кревье 1993, стр. 22–24
    • Рассел и Норвиг 2021, стр. 9
    и увидеть
    • Тьюринг 1936–1937
  49. Кутюра 1901.
  50. ^ ab Russell & Norvig 2021, стр. 15.
  51. Ньюквист 1994, стр. 67.
  52. ^ Рэндалл (1982, стр. 4–5); Бирн (2012); Малвихилл (2012)
  53. ^ Рэндалл (1982, стр. 6, 11–13); Кеведо (1914 г.); Кеведо (1915)
  54. Рэндалл 1982, стр. 13, 16–17.
  55. Цитируется в Russell & Norvig (2021, стр. 15)
  56. Менабреа и Лавлейс 1843.
  57. ^ abc Russell & Norvig 2021, стр. 14.
  58. ^ МакКордак 2004, стр. 76–80.
  59. ^ Непосредственные предшественники ИИ:
    • МакКордак 2004, стр. 51–57, 80–107
    • Кревье 1993, стр. 27–32
    • Рассел и Норвиг 2021, стр. 9, 11, 15–17, 981–984
    • Моравец 1988, стр. 3
    • Кордески 2002, Гл. 5
  60. ^ abcd Коупленд 2004.
  61. ^ ab Дартмутская мастерская :
    • МакКордак 2004, стр. 111–136
    • Кревье 1993, стр. 49–51
    • Рассел и Норвиг 2021, стр. 18
    • Ньюквист 1994, стр. 91–112
  62. Изображение адаптировано из Saygin 2000
  63. ^ Тест Тьюринга , Вычислительная техника и интеллект :
    • МакКордак 2004, стр. 70–72,
    • Кревье 1993, стр. 22−25,
    • Рассел и Норвиг 2021, стр. 18, 981–984,
    • Хаугеланд 1985, стр. 6–9,
    • Кордески 2002, стр. 170–176.
    Смотрите также
    • Тьюринг 1950
  64. Ньюквист 1994, стр. 92–98.
  65. ^ Рассел и Норвиг 2021, стр. 981.
  66. ^ Питтс и Маккалоу:
    • МакКордак 2004, стр. 51–57, 88–94
    • Кревье 1993, стр. 30
    • Рассел и Норвиг 2021, стр. 17
    • Кордески 2002, Гл. 5
    • Пиччинини 2004
    См. также: Маккалок и Питтс 1943
  67. ^ СНАРК :
    • МакКордак 2004, стр. 102
    • Кревье 1993, стр. 34–35
    • Рассел и Норвиг 2021, стр. 17
  68. ^ Черепахи и чудовище Джона Хопкинса :
    • МакКордак 2004, стр. 98
    • Кревье 1993, стр. 27–28
    • Моравец 1988, стр. 3
    • Кордески 2002, Гл. 5
  69. ^ Рассел и Норвиг 2021, стр. 17.
  70. ^ Коупленд 1999.
  71. ^ Шеффер 1997, Глава 6.
  72. ^ Рассел и Норвиг 2021, стр. 17, p=19.
  73. ^ МакКордак 2004, стр. 137–170.
  74. Кревьер 1993, стр. 44–47.
  75. ^ Логик-теоретик :
    • МакКордак 2004, стр. 123–125
    • Кревье 1993, стр. 44–46
    • Рассел и Норвиг 2021, стр. 18
  76. Цитируется в Crevier 1993, стр. 46 и Russell & Norvig 2021, стр. 18.
  77. ^ Маккарти и др. 1955.
  78. ^ Кревьер 1993, стр. 48.
  79. Ньюэлл и Саймон 1963.
  80. ^ МакКордак 2004, стр. 114.
  81. ^ Скиллингс 2006.
  82. ^ Маккарти 1996, стр. 73.
  83. ^ МакКордак 2004, стр. 129–130.
  84. ^ МакКордак 2004, стр. 125.
  85. ^ Кревьер 1993, стр. 49.
  86. ^ Миллер 2003.
  87. ^ Рассел и Норвиг 2021, стр. 13–14.
  88. ^ Рассел и Норвиг 2003, стр. 18.
  89. ^ ab Russell & Norvig 2021, стр. 18.
  90. Кревьер 1993, стр. 52–107.
  91. ^ Моравец 1988, стр. 9.
  92. ^ МакКордак 2004, стр. 218; Ньюквист 1994, стр. 91–112; Кревье 1993, стр. 108–109
  93. ^ Кревье 1993, стр. 52–107; Моравец 1988, с. 9
  94. ^ Поиск в пространстве состояний и решение проблем:
    • Рассел и Норвиг 2021, главы: 3-6
  95. ^ МакКордак 2004, стр. 246.
  96. ^ МакКордак 2004, стр. 245–250.
  97. ^ Рассел и Норвиг 2021, стр. 19, 106.
  98. ^ abc Russell & Norvig 2021, стр. 19.
  99. Кревьер 1993, стр. 51–58, 65–66.
  100. ^ Рассел и Норвиг 2021, стр. 20.
  101. ^ СТРИПС и Шейки :
    • Рассел и Норвиг 2021, стр. 20
    • МакКордак 2004, стр. 268–271
    • Кревье 1993, стр. 95–96
    • Ньюквист 1994, стр. 148–156
    • Моравец 1988, стр. 14–15
  102. ^ МакКордак 2004, стр. 286, Кревьер 1993, стр. 76–79, Рассел и Норвиг 2021, стр. 20
  103. Кревьер 1993, стр. 79–83.
  104. Кревьер 1993, стр. 164–172.
  105. ^ МакКордак 2004, стр. 291–296.
  106. Кревьер 1993, стр. 134–139.
  107. ^ ab Блокирует мир :
    • МакКордак 2004, стр. 299–305
    • Кревье 1993, стр. 83–102
    • Рассел и Норвиг 2021, стр. 20
    • Коупленд 2000
  108. ^ Персептроны в 60-х:
    • Рассел и Норвиг 2021, стр. 21
    • Кревье 1993, стр. 102–105
    • МакКордак 2004, стр. 104–107
    • Шмидхубер 2022
  109. ^ Кревьер 1993, стр. 102.
  110. Цитируется в Crevier 1993, стр. 102.
  111. ^ Розенблатт 1962.
  112. ^ Рассел и Норвиг 2021, стр. 20–21.
  113. ^ Видроу и Лер 1990.
  114. ^ Розен, Нильссон и Адамс 1965.
  115. ^ Нильссон 1984.
  116. ^ Харт и др. 2003.
  117. ^ abc Нильсон 2005.
  118. ^ abcd Олазаран Родригес 1991.
  119. ^ Минский и Паперт 1969.
  120. ^ abcd Рассел и Норвиг 2021, стр. 22.
  121. ^ abc Шмидхубер 2022.
  122. ^ abcdefgh Рассел и Норвиг 2021, стр. 24.
  123. ^ Кревьер 1993, стр. 105.
  124. Simon & Newell 1958, стр. 7−8, цитируется в Crevier 1993, стр. 108.
  125. Саймон 1965, стр. 96, цитируется в Кревье 1993, стр. 109
  126. ^ Минский 1967, стр. 2 цитируется в Кревье 1993, стр. 109
  127. ^ Даррах 1970.
  128. ^ МакКордак 2004, стр. 272–274.
  129. ^ Кревьер 1993, стр. 96.
  130. Кревьер 1993, стр. 64–65.
  131. ^ Кревьер 1993, стр. 94.
  132. ^ Хоу 1994.
  133. ^ Кревьер 1993, стр. 51.
  134. ^ МакКордак 2004, стр. 131.
  135. ^ Кревьер 1993, стр. 65.
  136. Crevier 1993, стр. 68–71; Turkle 1984.
  137. Кревьер 1993, стр. 163–196.
  138. ^ Дрейфус 1972.
  139. ^ abc Лайтхилл 1973.
  140. ^ abcde Haigh 2023.
  141. ^ Кревьер 1993, стр. 143.
  142. ^ Нильссон 2009, стр. 1.
  143. ^ abc Russell & Norvig 2021, стр. 21.
  144. ^ Кревьер 1993, стр. 146.
  145. ^ Бьюкенен 2005, стр. 56.
  146. Кревьер 1993, стр. 146–148.
  147. ^ Моравец 1976.
  148. ^ Моравец 2000.
  149. ^ ab McCorduck 2004, стр. 456.
  150. ^ ab Брукс 2002.
  151. ^ Моравец 1988, стр. 15–16.
  152. ^ Здравые знания:
    • МакКордак 2004, стр. 300 и 421
    • Кревье 1993, стр. 113–114
    • Моравец 1988, стр. 13
    • Ленат и Гуха 1989, (Введение)
  153. Цитируется в Crevier 1993, стр. 175.
  154. ^ АЛЬПАК :
    • МакКордак 2004, стр. 280–281
    • Кревье 1993, стр. 110
    • Рассел и Норвиг 2021, стр. 21
    • NRC 1999, раздел «Успехи в распознавании речи».
  155. ^ Отчет Лайтхилла :
    • Кревье 1993, стр. 117
    • Хау 1994
    • Лайтхилл 1973
  156. ^ Маккарти 1974.
  157. Кревьер 1993, стр. 115–116.
  158. ^ ab Crevier 1993, стр. 115.
  159. ^ NRC 1999, в разделе «Переход к прикладным исследованиям увеличивает инвестиции».
  160. ^ НРБ 1999.
  161. ^ Критика ИИ Лукасом и Пенроузом:
    • Кревье 1993, стр. 22
    • Рассел и Норвиг 2021, стр. 983–984
    • Хофштадтер 1999, стр. 471–477
    Первоначальный аргумент Лукаса:
    • Лукас 1961
  162. ^ Дрейфус и Дрейфус 1986.
  163. ^ Критика искусственного интеллекта Дрейфусом :
    • МакКордак 2004, стр. 211–239
    • Кревье 1993, стр. 120–132
    • Рассел и Норвиг 2021, стр. 981–982
    Версия Дрейфуса:
    • Дрейфус 1965
    • Дрейфус 1972
    • Дрейфус и Дрейфус 1986
  164. ^ Критика ИИ Сирлом:
    • МакКордак 2004, стр. 443–445
    • Кревье 1993, стр. 269–271
    • Рассел и Норвиг 2021, стр. 985–986
    Версия Сирла:
    • Сирл 1980
  165. Цитируется в Crevier 1993, стр. 143.
  166. Цитируется в Crevier 1993, стр. 122.
  167. ^ Кревьер 1993, стр. 123.
  168. ^ Ньюквист 1994, стр. 276.
  169. ^ Колби, Уотт и Гилберт 1966, стр. 148.
  170. Вайценбаум 1976, стр. 5, 6.
  171. Колби 1974, стр. 6.
  172. ^ Критика ИИ Вейценбаумом:
    • МакКордак 2004, стр. 356–373
    • Кревье 1993, стр. 132–144
    • Рассел и Норвиг 2021, стр. 1001
    и увидеть
    • Вайценбаум 1976
  173. ^ ab McCorduck 2004, стр. 51.
  174. Кревьер 1993, стр. 190–192.
  175. Кревьер 1993, стр. 193–196.
  176. Кревьер 1993, стр. 145–149, 258–63.
  177. ^ Чистюли против нерях :
    • МакКордак 2004, стр. 421–424 (который продолжает состояние дебатов в 1984 году).
    • Crevier 1993, стр. 168 (документирует первоначальное использование термина Шэнком).
    • Russell & Norvig 2021, стр. 19–20 (которые описывают подход MIT как «антилогичный»)
  178. ^ Кадр (искусственный интеллект) :
    • МакКордак 2004, стр. 305–306
    • Кревье 1993, стр. 170–173, 246
    • Рассел и Норвиг 2021, стр. 23.
    Рамочная бумага Мински:
    • Минский 1974.
  179. ^ Хейс 1981.
  180. ^ ab Reiter 1978.
  181. Кларк 1977.
  182. ^ Экспертные системы :
    • Кревье 1993, стр. 148–159
    • Ньюквист 1994, стр. 271
    • Рассел и Норвиг 2021, стр. 22–24
  183. ^ МакКордак 2004, стр. 327–335.
  184. Кревьер 1993, стр. 158–159.
  185. ^ Кревьер 1993, стр. 198.
  186. ^ Ньюквист 1994, стр. 259.
  187. ^ Коммерческие экспертные системы:
    • МакКордак 2004, стр. 434–435
    • Кревье 1993, стр. 161–162, 197–203
    • {{Harvnb|Рассел|Норвиг|20
    • Ньюквист 1994, стр. 275
  188. ^ Компьютер пятого поколения :
    • МакКордак 2004, стр. 436–441
    • Ньюквист 1994, стр. 231–240
    • Кревье 1993, стр. 211
    • Рассел и Норвиг 2021, стр. 23
    • Фейгенбаум и МакКордак 1983
  189. ^ Кревьер 1993, стр. 195.
  190. ^ ab Russell & Norvig 2021, стр. 23.
  191. ^ Кревьер 1993, стр. 240.
  192. ^ МакКордак 2004, стр. 426–432.
  193. ^ NRC 1999, в разделе «Переход к прикладным исследованиям увеличивает инвестиции».
  194. ^ МакКордак 2004, стр. 299.
  195. ^ МакКордак 2004, стр. 421.
  196. ^ Революция знаний:
    • МакКордак 2004, стр. 266–276, 298–300, 314, 421
    • Ньюквист 1994, стр. 255–267
    • Рассел и Норвиг 2021, стр. 23
  197. ^ Циклическая и онтологическая инженерия
    • МакКордак 2004, стр. 489
    • Кревье 1993, стр. 239–243
    • Ньюквист 1994, стр. 431–455
    • Рассел и Норвиг 2021, стр. 314−316
    • Ленат и Гуха 1989
  198. ^ Сейновски 2018.
  199. Кревьер 1993, стр. 214–215.
  200. ^ abcde Russell & Norvig 2021, стр. 26.
  201. Кристиан 2020, стр. 21–22.
  202. ^ МакКордак 2004, стр. 454–462.
  203. ^ Моравец 1988, стр. 20.
  204. Кревьер 1993, стр. 183–190.
  205. ^ Брукс 1990.
  206. ^ Брукс 1990, стр. 3.
  207. ^ См., например, Лакофф и Джонсон 1999.
  208. ^ Поллак 1984.
  209. ^ Поллак 1989.
  210. Перл 1988.
  211. ^ abc Russell & Norvig 2021, стр. 25.
  212. ^ Пул, Макворт и Гебель 1998.
  213. ^ Рассел и Норвиг 2021, Раздел 23.
  214. ^ Кристиан 2020, стр. 120–124.
  215. ^ abc Russell & Norvig 2021, стр. 819.
  216. ^ Кристиан 2020, стр. 124.
  217. ^ Кристиан 2020, стр. 152–156.
  218. ^ Кристиан 2020, стр. 125.
  219. ^ Кристиан 2020, стр. 127–129.
  220. ^ ab Russell & Norvig 2021, стр. 25, 820.
  221. ^ Кристиан 2020, стр. 140.
  222. ^ Кристиан 2020, стр. 141.
  223. ^ Кристиан 2020, стр. ?.
  224. ^ Рассел и Норвиг 2021, стр. 820.
  225. ^ Шульц, Даян и Монтегю 1997.
  226. ^ Рассел и Норвиг 2021, стр. 822.
  227. Ньюквист 1994, стр. 501, 511.
  228. ^ МакКордак 2004, стр. 424.
  229. ^ Кревьер 1993, стр. 203.
  230. ^ Кризис машины Lisp :
    • Ньюквист 1994, стр. 359–379
    • МакКордак 2004, стр. 435
    • Кревье 1993, стр. 209–210
  231. ^ Отказ экспертных систем (и его причина):
    • Рассел и Норвиг 2021, стр. 24 (неспособность справляться с неопределенными рассуждениями или учиться)
    • МакКордак 2004, стр. 435 (институциональные вопросы)
    • Newquist 1994, стр. 258–283 (ограниченное применение после разработки)
    • Crevier 1993, стр. 204–208 (трудность поддержания истины, т.е. обучения и обновления)
    • Ленат и Гуха 1989, Введение (хрупкость и неспособность справиться с обширной квалификацией ).
  232. ^ МакКордак 2004, стр. 430–431.
  233. ^ Конец инициативы по созданию компьютеров пятого поколения :
    • МакКордак 2004, стр. 441
    • Кревье 1993, стр. 212
    • Ньюквист 1994, стр. 476
  234. ^ МакКордак 2004, стр. 441.
  235. ^ ab Newquist 1994, стр. 440.
  236. ^ NRC 1999, Искусственный интеллект в 90-х.
  237. ^ Курцвейл 2005, стр. 264.
  238. ^ ab The Economist 2007.
  239. ^ abc CNN 2006.
  240. ^ Олсен 2004.
  241. ^ Олсен 2006.
  242. ^ Эффект ИИ , ИИ за кулисами в 90-х и 2000-х:
    • МакКордак 2004, стр. 423
    • Курцвейл 2005, стр. 265
    • Хофштадтер 1999, стр. 601
    • Ньюквист 1994, стр. 445
  243. ^ Таскарелла 2006.
  244. Ньюквист 1994, стр. 532.
  245. ^ Маркофф 2005.
  246. ^ МакКордак 2004, стр. 486–487.
  247. ^ Рассел и Норвиг 2021, стр. 24–25.
  248. ^ МакКордак 2004, стр. 471–478.
  249. ^ Рассел и Норвиг 2021, глава 2.
  250. ^ abc Russell & Norvig 2021, стр. 61.
  251. ^ МакКордак 2004, стр. 478.
  252. ^ МакКордак 2004, стр. 480–483.
  253. ^ Рассел и Норвиг 2021, стр. 28.
  254. ^ Курцвейл 2005, стр. 274.
  255. ^ ЛеКун, Бенджио и Хинтон 2015.
  256. ^ Лор 2016.
  257. ^ abcd Russell & Norvig 2021, стр. 26–27.
  258. Цитируется в Christian 2020, стр. 22.
  259. ^ Кристиан 2020, стр. 31.
  260. ^ Кристиан 2020, стр. 22–23.
  261. ^ Кристиан 2020, стр. 6.
  262. ^ McKinsey & Co 2011.
  263. ^ Маркофф 2011.
  264. Кристиан 2020, стр. 23–24.
  265. ^ Кристиан 2020, стр. 24.
  266. ^ ab Russell & Norvig 2021, стр. 27.
  267. ^ Рассел и Норвиг 2021, стр. 33, 1004.
  268. ^ Рассел 2020.
  269. ^ Рассел и Норвиг 2021, стр. 5, 33, 1002–1003.
  270. ^ О'Нил 2016.
  271. ^ Кристиан 2020, стр. 60–61.
  272. ^ Кристиан 2020, стр. 67–70.
  273. Кристиан 2020, стр. 6–7, 25.
  274. ^ Кристиан 2020, стр. 67.
  275. ^ Кристиан 2020, стр. 67, 73, 117.
  276. ^ Кристиан 2020, стр. 73.
  277. ^ ab Russell & Norvig 2021, стр. 32.
  278. ^ Рассел и Норвиг 2021, стр. 33.
  279. ^ abcdefg Метц и др. 2023.
  280. ^ Рассел и Норвиг 2021, стр. 31.
  281. ^ Бум ИИ :
    • Март 2023
    • Кларк 2023
    • Гейтс 2023
    • Ли 2024
  282. ^ Мургия 2023.
  283. ^ Бубек и др. 2023.

Ссылки

  • Боннер А. (2007), Искусство и логика Рамона Луллия: Руководство пользователя , Brill, ISBN 978-9004163256
  • Боннер А. (1985). «Влияние Луллия: история луллизма». Доктор Иллюминатус. Чтец Рамона Луллия . Издательство Принстонского университета.
  • Брукс Р. (2002), Плоть и машины , Pantheon Books
  • Бубек С., Чандрасекаран В., Элдан Р., Герке Дж., Хорвиц Е., Камар Э., Ли П., Ли Ю.Т., Ли Ю., Лундберг С., Нори Х., Паланги Х., Рибейро М.Т., Чжан Ю. (22 марта 2023 г.). «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4». arXiv : 2303.12712 [cs.CL].
  • Каррерас и Артау Т (1939), История испанской философии. Filosofía cristiana de los siglos XIII al XV (на испанском языке), vol. 1, Мадрид: Забытые книги, ISBN 9781390433708
  • Батлер Э. М. (1948). Миф о маге . Лондон: Cambridge University Press. ISBN 0-521-22564-7. OCLC  5063114.
  • Кларк С. (21 декабря 2023 г.). «Эра ИИ: знаменательный год 2023 года». CMSWire.com . Получено 28 января 2024 г. .
  • Коупленд Дж. (1999). «Краткая история вычислений». AlanTuring.net .
  • Кейв С., Дихал К. (2019). «Надежды и страхи относительно интеллектуальных машин в художественной литературе и реальности». Nature Machine Intelligence . 1 (2): 74–78. doi :10.1038/s42256-019-0020-9. ISSN  2522-5839. S2CID  150700981.
  • Cave S, Dihal K, Dillon S (2020). Рассказы об искусственном интеллекте: история образного мышления об интеллектуальных машинах. Oxford University Press. ISBN 978-0-19-884666-6. Получено 2 мая 2023 г. .
  • Кристиан Б. (2020). Проблема выравнивания : машинное обучение и человеческие ценности . WW Norton & Company. ISBN 978-0-393-86833-3. OCLC  1233266753.
  • Кларк К. (1977). «Отрицание как неудача». Логика и базы данных . Бостон, Массачусетс: Springer US. стр. 293–322. doi :10.1007/978-1-4684-3384-5_11. ISBN 978-1-4684-3386-9.
  • Гейтс Б. (21 декабря 2023 г.). «Этот год ознаменовал начало новой эры». www.linkedin.com . Получено 28 января 2024 г. .
  • Гете Й. В. (1890). Фауст; трагедия. Перевод, в оригинальных размерах ... Байярда Тейлора. Авторизованное издание, опубликовано по особому соглашению с миссис Байярд Тейлор. С биографическим введением. Лондонский приход, Лок.
  • Hart PE, Nilsson NJ, Perrault R, Mitchell T, Kulikowski CA, Leake DB (15 марта 2003 г.). "Памяти: Чарльз Розен, Норман Нильсен и Сол Амарель". Журнал AI . 24 (1): 6. doi :10.1609/aimag.v24i1.1683. ISSN  2371-9621.
  • Hayes P (1981). «Логика фреймов». В Kaufmann M (ред.). Чтения по искусственному интеллекту . С. 451–458.
  • "GOLEM", Еврейская энциклопедия , получено 15 марта 2020 г.
  • Холландер Л.М. (1964). Хеймскрингла; история королей Норвегии . Остин: Опубликовано для Американо-скандинавского фонда издательством Техасского университета. ISBN 0-292-73061-6. OCLC  638953.
  • Kressel M (1 октября 2015 г.). "36 дней иудейского мифа: день 24, Голем Праги 2015". Мэтью Крессель . Получено 15 марта 2020 г.
  • LeCun Y, Bengio Y, Hinton G (2015). «Глубокое обучение» (PDF) . Nature . 521 (7553): 436–444. Bibcode : 2015Natur.521..436L. doi : 10.1038/nature14539. PMID  26017442. S2CID  3074096.
  • Ли А (23 января 2024 г.). «UT обозначил 2024 год как «Год ИИ». Новости UT . Получено 28 января 2024 г.
  • Линден С.Дж. (2003). Алхимический хрестоматий: от Гермеса Трисмегиста до Исаака Ньютона . Нью-Йорк: Cambridge University Press. С. Гл. 18. ISBN 0-521-79234-7. OCLC  51210362.
  • Лор С. (17 октября 2016 г.), «IBM рассчитывает на свою ставку на Watson и платит за это большие деньги», New York Times
  • Markoff J (16 февраля 2011 г.). «В «Jeopardy!» победа Уотсона — это нечто незначительное». The New York Times .
  • Марр Б. (20 марта 2023 г.). «За пределами шумихи: что вам действительно нужно знать об ИИ в 2023 году». Forbes . Получено 27 января 2024 г. .
  • Маккарти Дж. (1988). «Обзор вопроса искусственного интеллекта ». Анналы истории вычислений . 10 (3): 224–229., собранные в McCarthy J (1996). "10. Обзор вопроса об искусственном интеллекте ". Defending AI Research: A Collection of Essays and Reviews . CSLI.
  • McCulloch WS, Pitts W (1 декабря 1943 г.). «Логическое исчисление идей, имманентных нервной деятельности». Bulletin of Mathematical Biophysics . 5 (4): 115–133. doi :10.1007/BF02478259. ISSN  1522-9602.
  • «Большие данные: новый рубеж инноваций, конкуренции и производительности». McKinsey.com . 1 мая 2011 г.
  • Метц К., Вайс К., Грант Н., Айзек М. (3 декабря 2023 г.). «Эго, страх и деньги: как загорелся фитиль ИИ». The New York Times .


  • Миллер Г. (2003). «Когнитивная революция: историческая перспектива» (PDF) . Тенденции в когнитивных науках . 7 (3): 141–144. doi :10.1016/s1364-6613(03)00029-9. PMID  12639696.
  • Moravec H (18 мая 2000 г.). Робот: от простой машины до трансцендентного разума . Oxford University Press. ISBN 9780195136302.
  • Морфорд М. (2007). Классическая мифология . Оксфорд: Oxford University Press. стр. 184. ISBN 978-0-19-085164-4. OCLC  1102437035.
  • Murgia M (23 июля 2023 г.). «Трансформеры: ученые Google, которые совершили революцию в области искусственного интеллекта». www.ft.com . Получено 10 декабря 2023 г. .
  • О'Нил С. (6 сентября 2016 г.). Оружие математического разрушения: как большие данные увеличивают неравенство и угрожают демократии . Корона. ISBN 978-0553418811.
  • Nielson DL (1 января 2005 г.). "Глава 4: Жизнь и времена успешной лаборатории SRI: искусственный интеллект и робототехника" (PDF) . НАСЛЕДИЕ ИННОВАЦИЙ Первые полвека SRI (1-е изд.). SRI International. ISBN 978-0-9745208-0-3.
  • Nilsson NJ (1984). "Центр искусственного интеллекта SRI: краткая история" (PDF) . Центр искусственного интеллекта, SRI International. Архивировано из оригинала (PDF) 10 августа 2022 г.
  • Olazaran Rodriguez JM (1991). Историческая социология исследований нейронных сетей] (PDF) (Диссертация). Эдинбургский университет. Архивировано из оригинала (PDF) 11 ноября 2022 г.См. особенно Главы 2 и 3.
  • Piccinini G (1 августа 2004 г.). «Первая вычислительная теория разума и мозга: пристальный взгляд на «Логическое исчисление идей, присущих нервной деятельности» Маккалока и Питтса»". Синтез . 141 (2): 175–215. doi :10.1023/B:SYNT.0000043018.52445.3e. ISSN  1573-0964. S2CID  10442035.
  • Портерфилд А. (2006). Протестантский опыт в Америке. Американский религиозный опыт. Greenwood Press. стр. 136. ISBN 978-0-313-32801-5. Получено 15 мая 2023 г. .
  • Рейтер Р. (1978). «О рассуждениях по умолчанию». Американский журнал компьютерной лингвистики : 29–37.
  • Родиос А (2007). Аргонавтика: Расширенное издание . Издательство Калифорнийского университета. п. 355. ИСБН 978-0-520-93439-9. OCLC  811491744.
  • Rose A (апрель 1946). «Молния поражает математику». Popular Science : 83–86 . Получено 15 апреля 2012 .
  • Rosen CA , Nilsson NJ , Adams MB (8 января 1965 г.). "Программа исследований и разработок в области применения интеллектуальных автоматов для разведки - фаза I. (Предложение по исследовательскому SRI No. ESU 65-1)" (PDF) . Стэнфордский исследовательский институт. Архивировано из оригинала (PDF) 16 марта 2006 г.
  • Розенблатт Ф. (1962), Принципы нейродинамики: персептроны и теория мозговых механизмов , т. 55, Вашингтон, округ Колумбия: Spartan books
  • Рассел С.Дж. (2020). Совместимость с человеком: искусственный интеллект и проблема контроля. Penguin Random House. ISBN 9780525558637. OCLC  1113410915.
  • Шеффер Дж. (1997). На один прыжок вперед:: Оспаривание человеческого превосходства в шашках . Springer. ISBN 978-0-387-76575-4.
  • Шмидхубер Дж. (2022). «Аннотированная история современного ИИ и глубокого обучения».
  • Шульц В. , Даян П. , Монтегю П. Р. (14 марта 1997 г.). «Нейронный субстрат предсказания и вознаграждения». Science . 275 (5306): 1593–1599. doi :10.1126/science.275.5306.1593. PMID  9054347.
  • Sejnowski TJ (23 октября 2018 г.). Революция глубокого обучения (1-е изд.). Кембридж, Массачусетс, Лондон, Англия: The MIT Press. стр. 93–94. ISBN 978-0-262-03803-4.
  • «Синедрион 65б». www.sefaria.org . Получено 15 марта 2020 г. .
  • Widrow B, Lehr M (сентябрь 1990 г.). «30 лет адаптивных нейронных сетей: персептрон, Madaline и обратное распространение». Труды IEEE . 78 (9): 1415–1442. doi :10.1109/5.58323. S2CID  195704643.


  • Берлински Д. (2000), Пришествие алгоритма, Harcourt Books, ISBN 978-0-15-601391-8, OCLC  46890682.
  • Брукс РА (1990). «Слоны не играют в шахматы» (PDF) . Робототехника и автономные системы . 6 (1–2): 3–15. doi :10.1016/S0921-8890(05)80025-9.
  • Бьюкенен Б.Г. (Зима 2005 г.), «(Очень) краткая история искусственного интеллекта» (PDF) , журнал AI , стр. 53–60, архивировано из оригинала (PDF) 26 сентября 2007 г. , извлечено 30 августа 2007 г..
  • Батлер С. (13 июня 1863 г.), «Дарвин среди машин», The Press , Крайстчерч, Новая Зеландия , получено 10 октября 2008 г..
  • Byrne JG (8 декабря 2012 г.). "The John Gabriel Byrne Computer Science Collection" (PDF) . Архивировано из оригинала 16 апреля 2019 г. . Получено 8 августа 2019 г. .
  • «ИИ превзойдет возможности человеческого мозга», CNN.com , 26 июля 2006 г. , получено 16 октября 2007 г..
  • Колби К. М., Уотт Дж. Б., Гилберт Дж. П. (1966), «Компьютерный метод психотерапии: предварительная коммуникация», Журнал нервных и психических заболеваний , т. 142, № 2, стр. 148–152, doi : 10.1097/00005053-196602000-00005, PMID  5936301, S2CID  36947398.
  • Колби К.М. (сентябрь 1974 г.), Десять критических замечаний Пэрри (PDF) , Стэнфордская лаборатория искусственного интеллекта, ОТЧЕТ № STAN-CS-74-457 , получено 17 июня 2018 г..
  • Кутюра Л (1901), Логика Лейбница
  • Copeland J (2000), Micro-World AI , получено 8 октября 2008 г..
  • Коупленд Дж. (2004). Суть Тьюринга: идеи, которые дали начало компьютерной эре . Оксфорд: Clarendon Press. ISBN 0-19-825079-7..
  • Кордески Р. (2002), Открытие искусственного , Дордрехт: Kluwer..
  • Crevier D (1993). AI: Бурные поиски искусственного интеллекта . Нью-Йорк, Нью-Йорк: BasicBooks. ISBN 0-465-02997-3.
  • Даррач Б. (20 ноября 1970 г.), «Знакомьтесь, Шейки, первый электронный человек», журнал Life , стр. 58–68.
  • Дойл Дж. (1983), «Что такое рациональная психология? К современной ментальной философии», AI Magazine , т. 4, № 3, стр. 50–53.
  • Дрейфус Х. (1965), Алхимия и искусственный интеллект , RAND Corporation Memo.
  • Дрейфус Х. (1972), Что не могут компьютеры , Нью-Йорк: MIT Press, ISBN 978-0-06-090613-9, OCLC  5056816.
  • Дрейфус Х. , Дрейфус С. (1986). Разум над машиной: сила человеческой интуиции и экспертиза в эпоху компьютеров. Оксфорд, Великобритания: Blackwell. ISBN 978-0-02-908060-3. Получено 22 августа 2020 г. .
  • The Economist (7 июня 2007 г.), «Вы разговариваете со мной?», The Economist , получено 16 октября 2008 г..
  • Фейгенбаум EA , МакКордак P (1983), Пятое поколение: искусственный интеллект и компьютерный вызов Японии миру , Майкл Джозеф, ISBN 978-0-7181-2401-4.
  • Haigh T (декабрь 2023 г.). «Не было „первой зимы ИИ“». Сообщения ACM . 66 (12): 35–39. doi :10.1145/3625833. ISSN  0001-0782..
  • Хаугеланд Дж. (1985). Искусственный интеллект: Сама идея . Кембридж, Массачусетс: MIT Press. ISBN 978-0-262-08153-5.
  • Хокинс Дж. , Блейксли С. (2004), «О разведке» , Нью-Йорк, Нью-Йорк: Owl Books, ISBN 978-0-8050-7853-4, OCLC  61273290.
  • Хебб Д. (1949), Организация поведения , Нью-Йорк: Wiley, ISBN 978-0-8058-4300-2, OCLC  48871099.
  • Хьюитт К. , Бишоп П., Штайгер Р. (1973), Универсальный модульный акторный формализм для искусственного интеллекта (PDF) , IJCAI, архивировано из оригинала (PDF) 29 декабря 2009 г.
  • Гоббс Т (1651), Левиафан.
  • Хофштадтер Д (1999) [1979], Гёдель, Эшер, Бах: вечная золотая коса , Basic Books, ISBN 978-0-465-02656-2, OCLC  225590743.
  • Howe J (ноябрь 1994 г.), Искусственный интеллект в Эдинбургском университете: перспектива , получено 30 августа 2007 г..
  • Канеман Д. , Слович Д., Тверски А. (1982). «Суждение в условиях неопределенности: эвристики и предубеждения». Science . 185 (4157). Нью-Йорк: Cambridge University Press: 1124–1131. Bibcode : 1974Sci...185.1124T. doi : 10.1126/science.185.4157.1124. ISBN 978-0-521-28414-1. PMID  17835457. S2CID  143452957.
  • Каплан А., Хенлейн М. (2018), «Siri, Siri в моей руке, кто прекрасней всех на свете? О толкованиях, иллюстрациях и последствиях искусственного интеллекта», Business Horizons , 62 : 15–25, doi : 10.1016/j.bushor.2018.08.004, S2CID  158433736.
  • Колата Г. (1982), «Как компьютеры могут обрести здравый смысл?», Science , 217 (4566): 1237–1238, Bibcode : 1982Sci...217.1237K, doi : 10.1126/science.217.4566.1237, PMID  17837639.
  • Курцвейл Р. (2005), Сингулярность уже близко , Viking Press, ISBN 978-0-14-303788-0, OCLC  71826177.
  • Лакофф Г. (1987), Женщины, огонь и опасные вещи: что категории говорят о разуме, Издательство Чикагского университета, ISBN 978-0-226-46804-4.
  • Лакофф Г., Джонсон М. (1999). Философия во плоти: воплощенный разум и его вызов западной мысли. Базовые книги. ISBN 978-0-465-05674-3.
  • Lenat D , Guha RV (1989), Создание больших систем, основанных на знаниях , Addison-Wesley, ISBN 978-0-201-51752-1, OCLC  19981533.
  • Левитт ГМ (2000), Турок, Шахматный автомат , Джефферсон, Северная Каролина: Макфарланд, ISBN 978-0-7864-0778-1.
  • Лайтхилл PS (1973), « Искусственный интеллект: общий обзор », Искусственный интеллект: доклад на симпозиуме , Научно-исследовательский совет
  • Лукас Дж. (1961), «Разумы, машины и Гёдель», Философия , 36 (XXXVI): 112–127, doi : 10.1017/S0031819100057983 , S2CID  55408480
  • Luger G, Stubblefield W (2004). Искусственный интеллект: структуры и стратегии для решения сложных проблем (5-е изд.). Benjamin/Cummings. ISBN 978-0-8053-4780-7. Получено 17 декабря 2019 г. .
  • Maker MH (2006), AI@50: прошлое, настоящее, будущее искусственного интеллекта, Дартмутский колледж, архивировано из оригинала 8 октября 2008 г. , извлечено 16 октября 2008 г.
  • Markoff J (14 октября 2005 г.), «Behind Artificial Intelligence, a Squadron of Bright Real People», The New York Times , получено 16 октября 2008 г.
  • McCarthy J , Minsky M, Rochester N , Shannon C (31 августа 1955 г.), Предложение для Дартмутского летнего исследовательского проекта по искусственному интеллекту, архивировано из оригинала 30 сентября 2008 г. , извлечено 16 октября 2008 г.
  • McCarthy J , Hayes PJ (1969), «Некоторые философские проблемы с точки зрения искусственного интеллекта», в Meltzer BJ , Mitchie D (ред.), Machine Intelligence 4, Edinburgh University Press, стр. 463–502 , получено 16 октября 2008 г.
  • Маккарти Дж. (1974). «Обзор отчета Лайтхилла».
  • МакКордак П. (2004), Машины, которые думают (2-е изд.), Натик, Массачусетс: AK Peters, Ltd., ISBN 978-1-56881-205-2, OCLC  52197627.
  • Маккалоу WS , Питтс W (1943), «Логическое исчисление идей, присущих нервной деятельности», Бюллетень математической биофизики , 5 (4): 115–127, doi :10.1007/BF02478259
  • Menabrea LF, Lovelace A (1843), "Эскиз аналитической машины, изобретенной Чарльзом Бэббиджем", Scientific Memoirs , 3 , получено 29 августа 2008 г.С примечаниями к мемуарам переводчика
  • Минский М (1967), Вычисление: Конечные и бесконечные машины , Энглвуд Клиффс, Нью-Джерси: Prentice-Hall
  • Минский М. , Паперт С. (1969), Персептроны: Введение в вычислительную геометрию, MIT Press, ISBN 978-0-262-63111-2, OCLC  16924756
  • Минский М (1974), Структура представления знаний, архивировано из оригинала 7 января 2021 г. , извлечено 16 октября 2008 г.
  • Минский М (1986), Общество разума , Саймон и Шустер, ISBN 978-0-671-65713-0, OCLC  223353010
  • Минский М (2001), Это 2001 год. Где HAL?, Dr. Dobb's Technetcast , получено 8 августа 2009 г.
  • Мур Дж., ред. (2003), Тест Тьюринга: неуловимый стандарт искусственного интеллекта , Дордрехт: Kluwer Academic Publishers, ISBN 978-1-4020-1205-1
  • Moravec H (1976), Роль грубой силы в интеллекте, архивировано из оригинала 3 марта 2016 г. , извлечено 16 октября 2008 г.
  • Моравец Х (1988), Дети разума , Издательство Гарвардского университета, ISBN 978-0-674-57618-6, OCLC  245755104
  • Малвихилл М. (17 октября 2012 г.). «1907: был ли первый портативный компьютер разработан ирландцами?». Гениальная Ирландия .
  • Needham J (1986). Наука и цивилизация в Китае: Том 2. Тайбэй: Caves Books Ltd.
  • Newell A , Simon HA (1963), «GPS: программа, имитирующая человеческую мысль», в Feigenbaum E, Feldman J (ред.), Computers and Thought , Нью-Йорк: McGraw-Hill, ISBN 978-0-262-56092-4, OCLC  246968117
  • Ньюквист HP (1994), Создатели мозга: гений, эго и жадность в поисках думающих машин , Нью-Йорк: Macmillan/SAMS, ISBN 978-0-9885937-1-8, OCLC  313139906
  • NRC (1999), «Развитие искусственного интеллекта», Финансирование революции: государственная поддержка компьютерных исследований , National Academy Press, ISBN 978-0-309-06278-7, OCLC  246584055
  • Nick M (2005), Al Jazari: The Ingenious 13th Century Muslim Mechanic, Al Shindagah , получено 16 октября 2008 г..
  • Нильссон Н. (30 октября 2009 г.). Поиски искусственного интеллекта . Cambridge University Press. ISBN 978-0-52-112293-1.
  • О'Коннор К.М. (1994), Алхимическое сотворение жизни (таквин) и другие концепции Книги Бытия в средневековом исламе, Университет Пенсильвании, стр. 1–435 , получено 10 января 2007 г.
  • Olsen S (10 мая 2004 г.), Newsmaker: человек за кулисами Google, CNET , получено 17 октября 2008 г..
  • Olsen S (18 августа 2006 г.), Spying an intelligent search engine, CNET , получено 17 октября 2008 г..
  • Pearl J (1988), Вероятностное рассуждение в интеллектуальных системах: сети правдоподобного вывода , Сан-Матео, Калифорния: Morgan Kaufmann, ISBN 978-1-55860-479-7, OCLC  249625842.
  • Пул Д., Макворт А., Гебель Р. (1998), Вычислительный интеллект: логический подход, Oxford University Press., ISBN 978-0-19-510270-3.
  • Поллак А. (11 октября 1984 г.). «Технология; нечеткая логика для компьютеров». The New York Times .
  • Поллак А. (2 апреля 1989 г.). «Нечеткая компьютерная теория: как имитировать разум?». The New York Times .
  • Кеведо LT (1914), «Revista de la Academia de Ciencias Exacta», Ensayos sobre Automática – Su definicion. Расширение teórica de sus aplicaciones , vol. 12, стр. 391–418.
  • Кеведо LT (1915), «Общее обозрение чистых и прикладных наук», Essais sur l'Automatique - Sa définition. Etendue theorique de ses application , vol. 2, стр. 601–611.
  • Рэндалл Б. (1982), «От аналитической машины к электронно-цифровому компьютеру: вклад Ладгейта, Торреса и Буша», fano.co.uk , получено 29 октября 2018 г.
  • Рассел С.Дж. , Норвиг П. (2003), Искусственный интеллект: современный подход (2-е изд.), Аппер Сэдл Ривер, Нью-Джерси: Prentice Hall, ISBN 0-13-790395-2.
  • Рассел С.Дж. , Норвиг П. (2021). Искусственный интеллект: современный подход (4-е изд.). Хобокен: Pearson. ISBN 978-0-13-461099-3. LCCN  20190474.
  • Samuel AL (июль 1959 г.), «Некоторые исследования в области машинного обучения с использованием игры в шашки», IBM Journal of Research and Development , 3 (3): 210–219, CiteSeerX  10.1.1.368.2254 , doi :10.1147/rd.33.0210, S2CID  2126705, архивировано из оригинала 3 марта 2016 г. , извлечено 20 августа 2007 г..
  • Saygin AP, Cicekli I, Akman V (2000), "Тест Тьюринга: 50 лет спустя" (PDF) , Minds and Machines , 10 (4): 463–518, doi :10.1023/A:1011288000451, hdl : 11693/24987 , S2CID  990084, заархивировано из оригинала (PDF) 9 апреля 2011 г. , извлечено 7 января 2004 г.. Перепечатано в Moor (2003, стр. 23–78).
  • Searle J (1980), "Minds, Brains and Programs", Behavioral and Brain Sciences , 3 (3): 417–457, doi :10.1017/S0140525X00005756, архивировано из оригинала 10 декабря 2007 г. , извлечено 13 мая 2009 г..
  • Саймон HA , Ньюэлл A (1958), «Эвристическое решение проблем: следующее достижение в исследовании операций», Operations Research , 6 : 1–10, doi :10.1287/opre.6.1.1.
  • Саймон HA (1965), Форма автоматизации для мужчин и управления , Нью-Йорк: Harper & Row.
  • Скиллингс Дж. (2006), Newsmaker: Заставить машины думать как мы, CNET , получено 8 октября 2008 г..
  • Tascarella P (14 августа 2006 г.), «Робототехнические компании испытывают трудности с привлечением средств, венчурный капитал стесняется», Pittsburgh Business Times , получено 15 марта 2016 г..
  • Тьюринг А. (1936–1937), «О вычислимых числах с приложением к проблеме Entscheidungsproblem», Труды Лондонского математического общества , 2, 42 (42): 230–265, doi :10.1112/plms/s2-42.1.230, S2CID  73712 , получено 8 октября 2008 г..
  • Тьюринг А. (октябрь 1950 г.). «Вычислительная техника и интеллект». Mind . 59 (236): 433–460. doi :10.1093/mind/LIX.236.433. ISSN  1460-2113. JSTOR  2251299. S2CID  14636783.

.