stringtranslate.com

ИИ зима

В истории искусственного интеллекта зима ИИ — это период сокращения финансирования и интереса к исследованиям в области искусственного интеллекта . [1] Эта область пережила несколько циклов ажиотажа , за которыми следовали разочарование и критика, за которыми следовали сокращения финансирования, а затем возобновление интереса спустя годы или даже десятилетия.

Термин впервые появился в 1984 году как тема публичных дебатов на ежегодном собрании AAAI (тогда называвшейся «Американской ассоциацией искусственного интеллекта»). [2] Роджер Шенк и Марвин Мински — два ведущих исследователя ИИ, пережившие «зиму» 1970-х годов, — предупредили бизнес-сообщество, что энтузиазм по поводу ИИ вышел из-под контроля в 1980-х годах и что разочарование, безусловно, последует. Они описали цепную реакцию, похожую на « ядерную зиму », которая начнется с пессимизма в сообществе ИИ, за которым последует пессимизм в прессе, за которым последует резкое сокращение финансирования, за которым последует прекращение серьезных исследований. [2] Три года спустя миллиардная индустрия ИИ начала рушиться.

Было две крупных зимы примерно в 1974–1980 и 1987–2000 годах [3] и несколько более мелких эпизодов, включая следующие:

Энтузиазм и оптимизм в отношении ИИ в целом возросли с момента своего минимума в начале 1990-х годов. Начиная примерно с 2012 года, интерес к искусственному интеллекту (и особенно к подобласти машинного обучения ) со стороны исследовательских и корпоративных сообществ привел к резкому увеличению финансирования и инвестиций, что привело к текущему (по состоянию на 2024 год ) буму ИИ .

Ранние эпизоды

Машинный перевод и отчет ALPAC 1966 года

Исследования в области обработки естественного языка (NLP) берут свое начало в начале 1930-х годов и начали свое существование с работы по машинному переводу (МП). [4] Однако значительные достижения и приложения начали появляться после публикации влиятельного меморандума Уоррена Уивера « Машинный перевод языков: четырнадцать эссе» в 1949 году. [5] Меморандум вызвал большое волнение в исследовательском сообществе. В последующие годы произошли знаменательные события: IBM приступила к разработке первой машины, MIT назначил своего первого штатного профессора по машинному переводу, и состоялось несколько конференций, посвященных МП. Кульминацией стала публичная демонстрация машины IBM-Georgetown, которая привлекла широкое внимание в уважаемых газетах в 1954 году. [6]

Как и все бумы ИИ, за которыми следовали отчаянные зимы ИИ, СМИ имели тенденцию преувеличивать значимость этих разработок. Заголовки об эксперименте IBM-Джорджтаун гласили фразы вроде «Двуязычная машина», «Мозг робота переводит русский на королевский английский» [7] и «Детство полиглота». [8] Однако фактическая демонстрация включала перевод тщательно отобранного набора всего из 49 русских предложений на английский язык, при этом словарный запас машины ограничивался всего 250 словами. [6] Чтобы представить ситуацию в перспективе, исследование, проведенное Полом Нейшеном в 2006 году , показало, что людям нужен словарный запас из примерно 8000–9000 семейств слов, чтобы понимать письменные тексты с точностью 98%. [9]

Во время Холодной войны правительство США было особенно заинтересовано в автоматическом, мгновенном переводе русских документов и научных отчетов. Правительство активно поддерживало усилия по машинному переводу, начиная с 1954 года. Другим фактором, который подтолкнул область механического перевода, был интерес, проявленный Центральным разведывательным управлением (ЦРУ). В тот период ЦРУ твердо верило в важность развития возможностей машинного перевода и поддерживало такие инициативы. Они также осознавали, что эта программа имела последствия, выходящие за рамки интересов ЦРУ и разведывательного сообщества. [6]

Вначале исследователи были настроены оптимистично. Новая работа Ноама Хомского по грамматике оптимизировала процесс перевода, и было «много предсказаний о неизбежных «прорывах»». [10]

Брифинг для вице-президента США Джеральда Форда в 1973 году по модели компьютерного перевода на основе грамматики соединений

Однако исследователи недооценили глубокую сложность устранения неоднозначности словесного смысла . Чтобы перевести предложение, машина должна была иметь некоторое представление о том, о чем оно, в противном случае она делала ошибки. Апокрифический [11] пример — «дух бодр, но плоть слаба». При переводе с русского на русский это становилось «водка хороша, но мясо гнило». [12] Позже исследователи назовут это проблемой знания здравого смысла .

К 1964 году Национальный исследовательский совет был обеспокоен отсутствием прогресса и сформировал Консультативный комитет по автоматической обработке языка ( ALPAC ) для изучения этой проблемы. В известном отчете 1966 года они пришли к выводу, что машинный перевод был более дорогим, менее точным и медленным, чем человеческий перевод. Потратив около 20 миллионов долларов, NRC прекратил всю поддержку. Карьеры были разрушены, а исследования прекращены. [2] [10]

Машинный перевод прошел тот же путь, что и обработка естественного языка, от подходов, основанных на правилах, через статистические подходы к подходам на основе нейронных сетей, которые в 2023 году достигли своей кульминации в создании крупных языковых моделей .

Крах однослойных нейронных сетей в 1969 году

Простые сети или схемы связанных единиц, включая нейронную сеть Уолтера Питтса и Уоррена Маккалока для логики и систему SNARC Марвина Мински , не смогли дать обещанных результатов и были заброшены в конце 1950-х годов. После успеха таких программ, как Logic Theorist и General Problem Solver , [13] алгоритмы для манипулирования символами казались более многообещающими в то время как средства для достижения логического рассуждения, рассматриваемого в то время как сущность интеллекта, как естественного, так и искусственного.

Интерес к персептронам , изобретенным Фрэнком Розенблаттом, поддерживался только силой его личности. [14] Он оптимистично предсказывал, что персептрон «в конечном итоге сможет обучаться, принимать решения и переводить языки». [15] Основное направление исследований персептронов частично прекратилось из-за того, что в книге 1969 года «Персептроны» Марвина Мински и Сеймура Паперта подчеркивались пределы того, что могут делать персептроны. [16] Хотя уже было известно, что многослойные персептроны не подлежат критике, в 1960-х годах никто не знал, как обучить многослойный персептрон. Обратное распространение ошибки было еще далеко. [17]

В 1970-х и начале 1980-х годов было трудно найти крупное финансирование для проектов нейронных сетевых подходов. [18] Важная теоретическая работа продолжалась, несмотря на отсутствие финансирования. «Зима» нейронных сетевых подходов подошла к концу в середине 1980-х годов, когда работы Джона Хопфилда , Дэвида Румельхарта и других возродили интерес к ним в больших масштабах. [19] Однако Розенблатт не дожил до этого, поскольку он погиб в результате несчастного случая на лодке вскоре после публикации «Персептронов» . [15]

Неудачи 1974 года

Отчет Лайтхилла

В 1973 году парламент Великобритании попросил профессора сэра Джеймса Лайтхилла оценить состояние исследований ИИ в Великобритании. В своем отчете, который теперь называется отчетом Лайтхилла, он критиковал полную неспособность ИИ достичь своих «грандиозных целей». Он пришел к выводу, что ничего из того, что делается в области ИИ, не может быть сделано в других науках. Он особо упомянул проблему « комбинаторного взрыва » или « неразрешимости », которая подразумевала, что многие из самых успешных алгоритмов ИИ застрянут на реальных задачах и будут пригодны только для решения «игрушечных» версий. [20]

Отчет был оспорен в дебатах, транслировавшихся в серии «Противоречие» на BBC в 1973 году. Дебаты «Универсальный робот — это мираж» от Королевского института были Лайтхиллом против команды Дональда Мичи , Джона Маккарти и Ричарда Грегори . [21] Маккарти позже писал, что «проблема комбинаторного взрыва была признана в ИИ с самого начала». [22]

Отчет привел к полному прекращению исследований ИИ в Великобритании. [20] Исследования ИИ продолжались только в нескольких университетах (Эдинбург, Эссекс и Сассекс). Исследования не возрождались в больших масштабах до 1983 года, когда Alvey (исследовательский проект британского правительства) снова начал финансировать ИИ из военного бюджета в размере 350 миллионов фунтов стерлингов в ответ на японский проект пятого поколения (см. ниже). У Alvey был ряд требований, касающихся только Великобритании, которые не соответствовали международному уровню, особенно партнерам из США, и он потерял финансирование Фазы 2.

Сокращение финансирования DARPA в начале 1970-х годов

В 1960-х годах Агентство перспективных исследовательских проектов Министерства обороны США (тогда известное как «ARPA», сейчас известное как «DARPA») выделило миллионы долларов на исследования ИИ с небольшими условиями. Дж. К. Р. Ликлайдер , директор-основатель вычислительного подразделения DARPA, верил в «финансирование людей, а не проектов» [23] , и он и несколько его преемников позволили лидерам ИИ (таким как Марвин Мински , Джон Маккарти, Герберт А. Саймон или Аллен Ньюэлл ) тратить эти деньги практически так, как им хотелось.

Это отношение изменилось после принятия поправки Мэнсфилда в 1969 году, которая потребовала от DARPA финансировать «целеориентированные прямые исследования, а не базовые ненаправленные исследования». [24] Чистые ненаправленные исследования того типа, которые проводились в 1960-х годах, больше не будут финансироваться DARPA. Теперь исследователи должны были показать, что их работа вскоре приведет к созданию какой-то полезной военной технологии. Предложения по исследованиям ИИ соответствовали очень высоким стандартам. Ситуация не улучшилась, когда отчет Лайтхилла и собственное исследование DARPA (Американской исследовательской группы) предположили, что большинство исследований ИИ вряд ли произведут что-то действительно полезное в обозримом будущем. Деньги DARPA были направлены на конкретные проекты с идентифицируемыми целями, такими как автономные танки и системы управления боем. К 1974 году финансирование проектов ИИ было трудно найти. [24]

Исследователь ИИ Ханс Моравек обвинил в кризисе нереалистичные прогнозы своих коллег: «Многие исследователи попали в сеть все большего преувеличения. Их первоначальные обещания DARPA были слишком оптимистичными. Конечно, то, что они сделали, значительно не дотянуло до этого. Но они чувствовали, что не могут в своем следующем предложении обещать меньше, чем в первом, поэтому они пообещали больше». [25] В результате, утверждает Моравек, некоторые сотрудники DARPA потеряли терпение в отношении исследований ИИ. «В DARPA буквально было сказано, что «некоторым из этих людей преподадут урок, [сократив] их контракты на два миллиона долларов в год почти до нуля!» — сказал Моравек Дэниелу Кревье . [26]

Хотя проект автономного танка потерпел неудачу, система управления боем ( инструмент динамического анализа и перепланирования ) оказалась чрезвычайно успешной, сэкономив миллиарды в первой войне в Персидском заливе , окупив все инвестиции DARPA в ИИ [27] и оправдав прагматичную политику DARPA. [28]

Фиаско SUR

Как описано в: [29]

В 1971 году Агентство перспективных исследовательских проектов Министерства обороны США (DARPA) начало амбициозный пятилетний эксперимент по пониманию речи. Целью проекта было обеспечить распознавание высказываний из ограниченного словаря в режиме, близком к реальному времени. Три организации наконец продемонстрировали системы по завершении проекта в 1976 году. Это были Университет Карнеги-Меллона (CMU), который фактически продемонстрировал две системы [HEARSAY-II и HARPY]; Bolt, Beranek and Newman (BBN); и Корпорация по разработке систем со Стэнфордским исследовательским институтом (SDC/SRI)

Система, которая ближе всего подошла к удовлетворению первоначальных целей проекта, была системой CMU HARPY. Относительно высокая производительность системы HARPY была в значительной степени достигнута за счет «жесткой проводки» информации о возможных высказываниях в базу знаний системы. Хотя HARPY внесла некоторые интересные вклады, ее зависимость от обширных предварительных знаний ограничивала применимость подхода к другим задачам понимания сигналов.

DARPA была глубоко разочарована исследователями, работавшими над программой исследования понимания речи в Университете Карнеги-Меллона. DARPA надеялось, и чувствовало, что это было обещано, на систему, которая могла бы реагировать на голосовые команды пилота. Команда SUR разработала систему, которая могла распознавать разговорный английский, но только если слова были произнесены в определенном порядке . DARPA посчитало, что его обманули, и в 1974 году они аннулировали контракт на три миллиона долларов в год. [30]

Много лет спустя несколько успешных коммерческих систем распознавания речи использовали технологию, разработанную командой Карнеги-Меллона (например, скрытые марковские модели ), а рынок систем распознавания речи к 2001 году достиг 4 миллиардов долларов. [31]

Описание Hearsay-II см . в статьях Hearsay-II , The Hearsay-II Speech Understanding System: Integrating Knowledge to Resolve Uncertainty и A Retrospective View of the Hearsay-II Architecture , которые появляются в Blackboard Systems. [32]

Редди дает обзор прогресса в понимании речи в конце проекта DARPA в статье 1976 года в Proceedings of the IEEE . [33]

Противоположная точка зрения

Томас Хейг утверждает, что активность в области ИИ не замедлилась, даже когда финансирование от Министерства обороны было перенаправлено, в основном в результате принятия Конгрессом законодательства, призванного разделить военную и академическую деятельность. [34] Действительно, профессиональный интерес рос на протяжении 70-х годов. Используя количество членов SIGART ACM , Специальной группы по искусственному интеллекту , в качестве показателя интереса к предмету, автор пишет: [34]

(...) Я нашел два источника данных, ни один из которых не поддерживает идею широкомасштабной зимы ИИ в 1970-х годах. Один из них — членство в SIGART ACM, главном месте обмена новостями и исследовательскими рефератами в 1970-х годах. Когда в 1973 году был опубликован отчет Лайтхилла, быстрорастущая группа насчитывала 1241 участника, что примерно вдвое больше, чем в 1969 году. Следующие пять лет традиционно считаются самой темной частью первой зимы ИИ. Сокращалось ли сообщество ИИ? Нет! К середине 1978 года количество членов SIGART почти утроилось, до 3500. Группа не только росла быстрее, чем когда-либо, она росла пропорционально быстрее, чем ACM в целом, которая начала выходить на плато (увеличившись менее чем на 50% за весь период с 1969 по 1978 год). Каждый 11-й член ACM состоял в SIGART.

Неудачи конца 1980-х и начала 1990-х годов

Крах рынка LISP-машин

В 1980-х годах корпорации по всему миру приняли на вооружение форму программы ИИ, называемую « экспертной системой ». Первой коммерческой экспертной системой была XCON , разработанная в Carnegie Mellon для Digital Equipment Corporation , и она имела огромный успех: по оценкам, она сэкономила компании 40 миллионов долларов всего за шесть лет работы. Корпорации по всему миру начали разрабатывать и внедрять экспертные системы, и к 1985 году они тратили более миллиарда долларов на ИИ, большую часть из которых — на внутренние отделы ИИ. Выросла отрасль, чтобы поддержать их, включая компании-разработчики программного обеспечения, такие как Teknowledge и Intellicorp (KEE) , и компании-разработчики оборудования, такие как Symbolics и LISP Machines Inc., которые построили специализированные компьютеры, называемые машинами LISP , которые были оптимизированы для обработки языка программирования LISP , предпочтительного языка для исследований ИИ в США. [35] [36]

В 1987 году, через три года после предсказания Мински и Шэнка, рынок специализированного оборудования для искусственного интеллекта на основе LISP рухнул. Рабочие станции таких компаний, как Sun Microsystems, предложили мощную альтернативу машинам LISP, а такие компании, как Lucid, предложили среду LISP для этого нового класса рабочих станций. Производительность этих общих рабочих станций становилась все более сложной задачей для машин LISP. Такие компании, как Lucid и Franz LISP, предлагали все более мощные версии LISP, которые были переносимы на все системы UNIX. Например, были опубликованы тесты, показывающие, что рабочие станции сохраняли преимущество в производительности по сравнению с машинами LISP. [37] Позднее настольные компьютеры, созданные Apple и IBM, также предлагали более простую и популярную архитектуру для запуска приложений LISP. К 1987 году некоторые из них стали такими же мощными, как более дорогие машины LISP. Настольные компьютеры имели основанные на правилах движки, такие как CLIPS . [38] Эти альтернативы не оставили потребителям причин покупать дорогую машину, специализированную для запуска LISP. Целая отрасль стоимостью в полмиллиарда долларов была заменена всего за один год. [39]

К началу 1990-х годов большинство коммерческих компаний LISP потерпели неудачу, включая Symbolics, LISP Machines Inc., Lucid Inc. и т. д. Другие компании, такие как Texas Instruments и Xerox , покинули эту область. Небольшое количество компаний-клиентов (то есть компаний, использующих системы, написанные на LISP и разработанные на платформах машин LISP) продолжали поддерживать системы. В некоторых случаях это обслуживание включало в себя принятие на себя итоговой работы по поддержке. [40]

Замедление внедрения экспертных систем

К началу 1990-х годов самые ранние успешные экспертные системы, такие как XCON, оказались слишком дорогими в обслуживании. Их было трудно обновлять, они не могли обучаться, они были «хрупкими» (то есть они могли совершать гротескные ошибки при получении необычных входных данных), и они стали жертвой проблем (таких как проблема квалификации ), которые были выявлены годами ранее в исследованиях немонотонной логики . Экспертные системы оказались полезными, но только в нескольких особых контекстах. [41] [42] Другая проблема касалась вычислительной сложности усилий по поддержанию истинности для общих знаний. KEE использовал основанный на предположениях подход, поддерживающий сценарии множественных миров, который было трудно понять и применить.

Немногие оставшиеся компании-оболочки экспертных систем в конечном итоге были вынуждены сократиться и искать новые рынки и парадигмы программного обеспечения, такие как рассуждения на основе прецедентов или универсальный доступ к базам данных . Развитие Common Lisp спасло многие системы, такие как ICAD , которые нашли применение в инженерии, основанной на знаниях . Другие системы, такие как KEE от Intellicorp, перешли с LISP на C++ (вариант) на ПК и помогли создать объектно-ориентированную технологию (включая предоставление основной поддержки для разработки UML (см. UML Partners ).

Конец проекта «Пятое поколение»

В 1981 году Министерство международной торговли и промышленности Японии выделило 850 миллионов долларов на проект компьютеров пятого поколения . Их целями были написание программ и создание машин, которые могли бы вести разговоры, переводить языки, интерпретировать изображения и рассуждать как люди. К 1991 году впечатляющий список целей, составленный в 1981 году, не был выполнен. По словам Х. П. Ньюквиста в книге «The Brain Makers» , «1 июня 1992 года проект пятого поколения завершился не успешным ревом, а хныканьем». [40] Как и в случае с другими проектами ИИ, ожидания были намного выше того, что было возможно на самом деле. [43] [44]

Сокращения в рамках Стратегической компьютерной инициативы

В 1983 году в ответ на проект пятого поколения DARPA снова начала финансировать исследования ИИ через Стратегическую вычислительную инициативу. Как изначально предполагалось, проект должен был начаться с практических, достижимых целей, которые даже включали искусственный интеллект в качестве долгосрочной цели. Программа находилась под руководством Управления по обработке информации (IPTO) и была также направлена ​​на суперкомпьютеры и микроэлектронику . К 1985 году было потрачено 100 миллионов долларов, и 92 проекта были в стадии реализации в 60 учреждениях, половина в промышленности, половина в университетах и ​​государственных лабораториях. Исследования ИИ хорошо финансировались SCI. [45]

Джек Шварц, возглавивший IPTO в 1987 году, отверг экспертные системы как «умное программирование» и урезал финансирование ИИ «глубоко и жестоко», «выпотрошив» SCI. Шварц считал, что DARPA должно сосредоточить свое финансирование только на тех технологиях, которые показали наибольшую перспективу, по его словам, DARPA должно «плыть по течению», а не «гребать по-собачьи», и он был твердо уверен, что ИИ не был «следующей волной». Инсайдеры программы ссылались на проблемы в коммуникации, организации и интеграции. Несколько проектов пережили сокращение финансирования, включая помощника пилота и автономное наземное транспортное средство (которые так и не были поставлены), а также систему управления боем DART, которая (как отмечено выше) оказалась успешной. [46]

ИИ зима 1990-х и начало 2000-х

Обзор отчетов начала 2000-х годов показывает, что репутация ИИ все еще была плохой:

Многие исследователи в области ИИ в середине 2000-х годов намеренно называли свою работу другими названиями , такими как информатика , машинное обучение, аналитика, системы на основе знаний , управление бизнес-правилами , когнитивные системы , интеллектуальные системы, интеллектуальные агенты или вычислительный интеллект , чтобы указать, что их работа делает акцент на определенных инструментах или направлена ​​на определенную подзадачу. Хотя это может быть отчасти потому, что они считают свою область принципиально отличной от ИИ, также верно, что новые названия помогают получить финансирование, избегая клейма ложных обещаний, прикрепленных к названию «искусственный интеллект». [49] [50]

В конце 1990-х и начале 21-го века технология ИИ стала широко использоваться в качестве элементов более крупных систем, [51] [52], но эта область редко получает признание за эти успехи. В 2006 году Ник Бостром объяснил, что «много передовых ИИ просочились в общие приложения, часто не называясь ИИ, потому что как только что-то становится достаточно полезным и достаточно распространенным, оно больше не называется ИИ». [53] Родни Брукс заявил примерно в то же время, что «существует этот глупый миф о том, что ИИ потерпел неудачу, но ИИ вокруг вас каждую секунду дня». [54]

Текущая весна ИИ (2022–настоящее время)

ИИ достиг самого высокого уровня интереса и финансирования в своей истории в начале 2020-х годов по всем возможным показателям, включая: публикации, [55] патентные заявки, [56] общие инвестиции (50 миллиардов долларов в 2022 году), [57] и вакансии (800 000 вакансий в США в 2022 году). [58] Успехи нынешней «весны ИИ» или «бума ИИ» — это достижения в области языкового перевода (в частности, Google Translate ), распознавания изображений (подстегнутого обучающей базой данных ImageNet ), коммерциализированной Google Image Search , и в игровых системах, таких как AlphaZero (чемпион по шахматам) и AlphaGo (чемпион по го), а также Watson ( чемпион Jeopardy ). Поворотным моментом стал 2012 год, когда AlexNet ( сеть глубокого обучения ) выиграла конкурс ImageNet Large Scale Visual Recognition Challenge с половиной ошибок, чем у победителя второго места. [59]

Выпуск в 2022 году чат-бота на основе искусственного интеллекта ChatGPT от OpenAI , который по состоянию на январь 2023 года имел более 100 миллионов пользователей, [60] оживил дискуссию об искусственном интеллекте и его влиянии на мир. [61] [62]

Смотрите также

Примечания

  1. ^ Информационный бюллетень экспертов по искусственному интеллекту: W — это зима. Архивировано 9 ноября 2013 г. на Wayback Machine.
  2. ^ abc Crevier 1993, стр. 203.
  3. ^ Разные источники используют разные даты для зимы ИИ. Рассмотрим: (1) Howe 1994: «Отчет Лайтхилла [1973] спровоцировал массовую потерю доверия к ИИ со стороны академического сообщества Великобритании (и в меньшей степени в США). Это продолжалось в течение десятилетия ― так называемая «зима ИИ», (2) Russell & Norvig 2003, стр. 24: «В целом, индустрия ИИ взлетела с нескольких миллионов долларов в 1980 году до миллиардов долларов в 1988 году. Вскоре после этого наступил период, называемый «зимой ИИ»»
  4. ^ "Эра механического перевода и как она рухнула (История LLM #1)". Turing Post . 16 июня 2023 г. Получено 11 сентября 2023 г.
  5. ^ Уоррен Уивер (1949). «Перевод». В Уильям Н. Локк; А. Дональд Бут (ред.). Машинный перевод языков: четырнадцать эссе (PDF) . Кембридж, Массачусетс; Нью-Йорк: Technology Press Массачусетского технологического института; John Wiley & Sons. стр. 15–23. ISBN 9780262120029.
  6. ^ abc "История ИИ Уинтерса и чему он нас учит сегодня (История LLM. Бонус)". Turing Post . 30 июня 2023 г. Получено 11 сентября 2023 г.
  7. ^ Электронный мозг переводит русские химические и инженерные новости
  8. ^ Полиглот, детище aclanthology.org
  9. ^ Nation, I. (2006). «Насколько большой словарный запас необходим для чтения и аудирования?». The Canadian Modern Language Review . 63 (1): 59–82. doi :10.3138/cmlr.63.1.59.
  10. ^ ab Джон Хатчинс 2005 История машинного перевода в двух словах. Архивировано 13 июля 2019 в Wayback Machine
  11. ^ Хатчинс, Джон. (1995). «Виски было невидимым», или Устойчивые мифы о МТ Архивировано 4 апреля 2020 г. в Wayback Machine
  12. ^ Рассел и Норвиг 2003, стр. 21.
  13. ^ МакКордак 2004, стр. 52–107
  14. ^ Памела МакКордак цитирует одного из коллег, который сказал: «Он был мечтой пресс-агента, настоящим знахарем» (МакКордак 2004, стр. 105)
  15. ^ ab Crevier 1993, стр. 102–5
  16. ^ Минский и Паперт 1969.
  17. ^ Sejnowski, Terrence J. (2018). Революция глубокого обучения . Кембридж, Массачусетс Лондон, Англия: The MIT Press. стр. 47. ISBN 978-0-262-03803-4.
  18. ^ Crevier 1993, стр. 102–105, McCorduck 2004, стр. 104–107, Russell & Norvig 2003, стр. 22
  19. ^ Crevier 1993, стр. 214–6 и Russell & Norvig 2003, стр. 25
  20. ^ ab Crevier 1993, стр. 117, Russell & Norvig 2003, стр. 22, Howe 1994 и см. также Lighthill 1973
  21. ^ "BBC Controversy Lighthill debate 1973". Серия дебатов BBC "Controversy" . ARTIFICIAL_INTELLIGENCE-APPLICATIONS¯INSTITUTE. 1973. Получено 13 августа 2010 .
  22. ^ Маккарти, Джон (1993). «Обзор отчета Лайтхилла». Архивировано из оригинала 30 сентября 2008 года . Получено 10 сентября 2008 года .
  23. ^ Кревьер 1993, стр. 65
  24. ^ ab NRC 1999, в разделе «Переход к прикладным исследованиям увеличивает инвестиции» ( к текущему обсуждению относятся только разделы до 1980 года).
  25. ^ Кревьер 1993, стр. 115
  26. ^ Кревьер 1993, стр. 117
  27. ^ Рассел и Норвиг 2003, стр. 25
  28. ^ НРБ 1999
  29. ^ Энджелмор, Роберт; Морган, Тони (1988). Blackboard Systems . Addison-Wesley. стр. 25. ISBN 0-201-17431-6.
  30. ^ Crevier 1993, стр. 115–116 (на ком основан этот отчет). Другие взгляды включают McCorduck 2004, стр. 306–313 и NRC 1999 в разделе «Успех в распознавании речи».
  31. ^ NRC 1999 в разделе «Успехи в распознавании речи».
  32. ^ Энджелмор, Роберт; Морган, Тони (1988). Blackboard Systems . Addison-Wesley. стр. 25–121. ISBN 0-201-17431-6.
  33. ^ Редди, Радж (апрель 1976 г.). «Распознавание речи машиной: обзор». Труды IEEE . 64 (4): 501–531. doi :10.1109/PROC.1976.10158.
  34. ^ ab «Первой зимы ИИ не было | Декабрь 2023 г. | Сообщения ACM». 14 декабря 2023 г.
  35. Ньюквист 1994, стр. 189–201.
  36. ^ Кревьер 1993, стр. 161–2, 197–203
  37. ^ Брукс, Родни. «Проект оптимизирующего, динамически перенацеливаемого компилятора для Common LISP» (PDF) . Lucid, Inc. Архивировано из оригинала (PDF) 20 августа 2013 г.
  38. Как избежать еще одной зимы ИИ, Джеймс Хендлер, IEEE Intelligent Systems (март/апрель 2008 г. (т. 23, № 2) стр. 2–4
  39. ^ Кревьер 1993, стр. 209–210
  40. ^ ab Создатели мозгов: гений, эго и жадность в поисках думающих машин . Нью-Йорк: Macmillan/SAMS. 1994. ISBN 978-0-9885937-1-8.
  41. ^ Ньюквист 1994, стр. 296
  42. ^ Кревьер 1993, стр. 204–208.
  43. Ньюквист 1994, стр. 431–434.
  44. ^ Кревьер 1993, стр. 211–212
  45. ^ МакКордак 2004, стр. 426–429
  46. ^ МакКордак 2004, стр. 430–431
  47. ^ Алекс Кастро в Вы говорите со мной? The Economist Technology Quarterly (7 июня 2007 г.) Архивировано 13 июня 2008 г. в Wayback Machine
  48. ^ Робототехнические фирмы сталкиваются с трудностями в привлечении финансирования, венчурный капитал стесняется. Пэтти Таскарелла. Pittsburgh Business Times (11 августа 2006 г.) Архивировано 26 марта 2014 г. в Wayback Machine
  49. ^ ab Markoff, John (14 октября 2005 г.). «Behind Artificial Intelligence, a Squadron of Bright Real People» (За искусственным интеллектом, эскадрон ярких настоящих людей). The New York Times . Получено 30 июля 2007 г.
  50. ^ Ньюквист 1994, стр. 423
  51. ^ NRC 1999 в разделе «Искусственный интеллект в 90-х»
  52. ^ Курцвейл 2005, стр. 264.
  53. ^ Искусственный интеллект должен превзойти возможности человеческого мозга CNN.com (26 июля 2006 г.) Архивировано 3 ноября 2006 г. на Wayback Machine
  54. ^ Курцвейл 2005, стр. 263.
  55. ^ ЮНЕСКО (2021).
  56. ^ "Интеллектуальная собственность и передовые технологии". ВОИС . Архивировано из оригинала 2 апреля 2022 г. Получено 30 марта 2022 г.
  57. ^ ДиФелициантонио (2023).
  58. ^ Госвами (2023).
  59. ^ Кристиан 2020, стр. 24.
  60. ^ Милмо, Дэн (2 февраля 2023 г.). «ChatGPT достигает 100 миллионов пользователей через два месяца после запуска». The Guardian . ISSN  0261-3077 . Получено 30 октября 2023 г. .
  61. ^ «Что такое ChatGPT и почему это важно? Вот что вам нужно знать». ZDNet .
  62. ^ «Генеральный директор OpenAI Сэм Альтман говорит, что ИИ изменит общество, признаёт риски: «Немного боюсь этого»». ABC News .

Ссылки

Дальнейшее чтение

Внешние ссылки