В истории искусственного интеллекта зима ИИ — это период сокращения финансирования и интереса к исследованиям в области искусственного интеллекта . [1] Эта область пережила несколько циклов ажиотажа , за которыми следовали разочарование и критика, за которыми следовали сокращения финансирования, а затем возобновление интереса спустя годы или даже десятилетия.
Термин впервые появился в 1984 году как тема публичных дебатов на ежегодном собрании AAAI (тогда называвшейся «Американской ассоциацией искусственного интеллекта»). [2] Роджер Шенк и Марвин Мински — два ведущих исследователя ИИ, пережившие «зиму» 1970-х годов, — предупредили бизнес-сообщество, что энтузиазм по поводу ИИ вышел из-под контроля в 1980-х годах и что разочарование, безусловно, последует. Они описали цепную реакцию, похожую на « ядерную зиму », которая начнется с пессимизма в сообществе ИИ, за которым последует пессимизм в прессе, за которым последует резкое сокращение финансирования, за которым последует прекращение серьезных исследований. [2] Три года спустя миллиардная индустрия ИИ начала рушиться.
Было две крупных зимы примерно в 1974–1980 и 1987–2000 годах [3] и несколько более мелких эпизодов, включая следующие:
Энтузиазм и оптимизм в отношении ИИ в целом возросли с момента своего минимума в начале 1990-х годов. Начиная примерно с 2012 года, интерес к искусственному интеллекту (и особенно к подобласти машинного обучения ) со стороны исследовательских и корпоративных сообществ привел к резкому увеличению финансирования и инвестиций, что привело к текущему (по состоянию на 2024 год [обновлять]) буму ИИ .
Исследования в области обработки естественного языка (NLP) берут свое начало в начале 1930-х годов и начали свое существование с работы по машинному переводу (МП). [4] Однако значительные достижения и приложения начали появляться после публикации влиятельного меморандума Уоррена Уивера « Машинный перевод языков: четырнадцать эссе» в 1949 году. [5] Меморандум вызвал большое волнение в исследовательском сообществе. В последующие годы произошли знаменательные события: IBM приступила к разработке первой машины, MIT назначил своего первого штатного профессора по машинному переводу, и состоялось несколько конференций, посвященных МП. Кульминацией стала публичная демонстрация машины IBM-Georgetown, которая привлекла широкое внимание в уважаемых газетах в 1954 году. [6]
Как и все бумы ИИ, за которыми следовали отчаянные зимы ИИ, СМИ имели тенденцию преувеличивать значимость этих разработок. Заголовки об эксперименте IBM-Джорджтаун гласили фразы вроде «Двуязычная машина», «Мозг робота переводит русский на королевский английский» [7] и «Детство полиглота». [8] Однако фактическая демонстрация включала перевод тщательно отобранного набора всего из 49 русских предложений на английский язык, при этом словарный запас машины ограничивался всего 250 словами. [6] Чтобы представить ситуацию в перспективе, исследование, проведенное Полом Нейшеном в 2006 году , показало, что людям нужен словарный запас из примерно 8000–9000 семейств слов, чтобы понимать письменные тексты с точностью 98%. [9]
Во время Холодной войны правительство США было особенно заинтересовано в автоматическом, мгновенном переводе русских документов и научных отчетов. Правительство активно поддерживало усилия по машинному переводу, начиная с 1954 года. Другим фактором, который подтолкнул область механического перевода, был интерес, проявленный Центральным разведывательным управлением (ЦРУ). В тот период ЦРУ твердо верило в важность развития возможностей машинного перевода и поддерживало такие инициативы. Они также осознавали, что эта программа имела последствия, выходящие за рамки интересов ЦРУ и разведывательного сообщества. [6]
Вначале исследователи были настроены оптимистично. Новая работа Ноама Хомского по грамматике оптимизировала процесс перевода, и было «много предсказаний о неизбежных «прорывах»». [10]
Однако исследователи недооценили глубокую сложность устранения неоднозначности словесного смысла . Чтобы перевести предложение, машина должна была иметь некоторое представление о том, о чем оно, в противном случае она делала ошибки. Апокрифический [11] пример — «дух бодр, но плоть слаба». При переводе с русского на русский это становилось «водка хороша, но мясо гнило». [12] Позже исследователи назовут это проблемой знания здравого смысла .
К 1964 году Национальный исследовательский совет был обеспокоен отсутствием прогресса и сформировал Консультативный комитет по автоматической обработке языка ( ALPAC ) для изучения этой проблемы. В известном отчете 1966 года они пришли к выводу, что машинный перевод был более дорогим, менее точным и медленным, чем человеческий перевод. Потратив около 20 миллионов долларов, NRC прекратил всю поддержку. Карьеры были разрушены, а исследования прекращены. [2] [10]
Машинный перевод прошел тот же путь, что и обработка естественного языка, от подходов, основанных на правилах, через статистические подходы к подходам на основе нейронных сетей, которые в 2023 году достигли своей кульминации в создании крупных языковых моделей .
Простые сети или схемы связанных единиц, включая нейронную сеть Уолтера Питтса и Уоррена Маккалока для логики и систему SNARC Марвина Мински , не смогли дать обещанных результатов и были заброшены в конце 1950-х годов. После успеха таких программ, как Logic Theorist и General Problem Solver , [13] алгоритмы для манипулирования символами казались более многообещающими в то время как средства для достижения логического рассуждения, рассматриваемого в то время как сущность интеллекта, как естественного, так и искусственного.
Интерес к персептронам , изобретенным Фрэнком Розенблаттом, поддерживался только силой его личности. [14] Он оптимистично предсказывал, что персептрон «в конечном итоге сможет обучаться, принимать решения и переводить языки». [15] Основное направление исследований персептронов частично прекратилось из-за того, что в книге 1969 года «Персептроны» Марвина Мински и Сеймура Паперта подчеркивались пределы того, что могут делать персептроны. [16] Хотя уже было известно, что многослойные персептроны не подлежат критике, в 1960-х годах никто не знал, как обучить многослойный персептрон. Обратное распространение ошибки было еще далеко. [17]
В 1970-х и начале 1980-х годов было трудно найти крупное финансирование для проектов нейронных сетевых подходов. [18] Важная теоретическая работа продолжалась, несмотря на отсутствие финансирования. «Зима» нейронных сетевых подходов подошла к концу в середине 1980-х годов, когда работы Джона Хопфилда , Дэвида Румельхарта и других возродили интерес к ним в больших масштабах. [19] Однако Розенблатт не дожил до этого, поскольку он погиб в результате несчастного случая на лодке вскоре после публикации «Персептронов» . [15]
В 1973 году парламент Великобритании попросил профессора сэра Джеймса Лайтхилла оценить состояние исследований ИИ в Великобритании. В своем отчете, который теперь называется отчетом Лайтхилла, он критиковал полную неспособность ИИ достичь своих «грандиозных целей». Он пришел к выводу, что ничего из того, что делается в области ИИ, не может быть сделано в других науках. Он особо упомянул проблему « комбинаторного взрыва » или « неразрешимости », которая подразумевала, что многие из самых успешных алгоритмов ИИ застрянут на реальных задачах и будут пригодны только для решения «игрушечных» версий. [20]
Отчет был оспорен в дебатах, транслировавшихся в серии «Противоречие» на BBC в 1973 году. Дебаты «Универсальный робот — это мираж» от Королевского института были Лайтхиллом против команды Дональда Мичи , Джона Маккарти и Ричарда Грегори . [21] Маккарти позже писал, что «проблема комбинаторного взрыва была признана в ИИ с самого начала». [22]
Отчет привел к полному прекращению исследований ИИ в Великобритании. [20] Исследования ИИ продолжались только в нескольких университетах (Эдинбург, Эссекс и Сассекс). Исследования не возрождались в больших масштабах до 1983 года, когда Alvey (исследовательский проект британского правительства) снова начал финансировать ИИ из военного бюджета в размере 350 миллионов фунтов стерлингов в ответ на японский проект пятого поколения (см. ниже). У Alvey был ряд требований, касающихся только Великобритании, которые не соответствовали международному уровню, особенно партнерам из США, и он потерял финансирование Фазы 2.
В 1960-х годах Агентство перспективных исследовательских проектов Министерства обороны США (тогда известное как «ARPA», сейчас известное как «DARPA») выделило миллионы долларов на исследования ИИ с небольшими условиями. Дж. К. Р. Ликлайдер , директор-основатель вычислительного подразделения DARPA, верил в «финансирование людей, а не проектов» [23] , и он и несколько его преемников позволили лидерам ИИ (таким как Марвин Мински , Джон Маккарти, Герберт А. Саймон или Аллен Ньюэлл ) тратить эти деньги практически так, как им хотелось.
Это отношение изменилось после принятия поправки Мэнсфилда в 1969 году, которая потребовала от DARPA финансировать «целеориентированные прямые исследования, а не базовые ненаправленные исследования». [24] Чистые ненаправленные исследования того типа, которые проводились в 1960-х годах, больше не будут финансироваться DARPA. Теперь исследователи должны были показать, что их работа вскоре приведет к созданию какой-то полезной военной технологии. Предложения по исследованиям ИИ соответствовали очень высоким стандартам. Ситуация не улучшилась, когда отчет Лайтхилла и собственное исследование DARPA (Американской исследовательской группы) предположили, что большинство исследований ИИ вряд ли произведут что-то действительно полезное в обозримом будущем. Деньги DARPA были направлены на конкретные проекты с идентифицируемыми целями, такими как автономные танки и системы управления боем. К 1974 году финансирование проектов ИИ было трудно найти. [24]
Исследователь ИИ Ханс Моравек обвинил в кризисе нереалистичные прогнозы своих коллег: «Многие исследователи попали в сеть все большего преувеличения. Их первоначальные обещания DARPA были слишком оптимистичными. Конечно, то, что они сделали, значительно не дотянуло до этого. Но они чувствовали, что не могут в своем следующем предложении обещать меньше, чем в первом, поэтому они пообещали больше». [25] В результате, утверждает Моравек, некоторые сотрудники DARPA потеряли терпение в отношении исследований ИИ. «В DARPA буквально было сказано, что «некоторым из этих людей преподадут урок, [сократив] их контракты на два миллиона долларов в год почти до нуля!» — сказал Моравек Дэниелу Кревье . [26]
Хотя проект автономного танка потерпел неудачу, система управления боем ( инструмент динамического анализа и перепланирования ) оказалась чрезвычайно успешной, сэкономив миллиарды в первой войне в Персидском заливе , окупив все инвестиции DARPA в ИИ [27] и оправдав прагматичную политику DARPA. [28]
Как описано в: [29]
В 1971 году Агентство перспективных исследовательских проектов Министерства обороны США (DARPA) начало амбициозный пятилетний эксперимент по пониманию речи. Целью проекта было обеспечить распознавание высказываний из ограниченного словаря в режиме, близком к реальному времени. Три организации наконец продемонстрировали системы по завершении проекта в 1976 году. Это были Университет Карнеги-Меллона (CMU), который фактически продемонстрировал две системы [HEARSAY-II и HARPY]; Bolt, Beranek and Newman (BBN); и Корпорация по разработке систем со Стэнфордским исследовательским институтом (SDC/SRI)
Система, которая ближе всего подошла к удовлетворению первоначальных целей проекта, была системой CMU HARPY. Относительно высокая производительность системы HARPY была в значительной степени достигнута за счет «жесткой проводки» информации о возможных высказываниях в базу знаний системы. Хотя HARPY внесла некоторые интересные вклады, ее зависимость от обширных предварительных знаний ограничивала применимость подхода к другим задачам понимания сигналов.
DARPA была глубоко разочарована исследователями, работавшими над программой исследования понимания речи в Университете Карнеги-Меллона. DARPA надеялось, и чувствовало, что это было обещано, на систему, которая могла бы реагировать на голосовые команды пилота. Команда SUR разработала систему, которая могла распознавать разговорный английский, но только если слова были произнесены в определенном порядке . DARPA посчитало, что его обманули, и в 1974 году они аннулировали контракт на три миллиона долларов в год. [30]
Много лет спустя несколько успешных коммерческих систем распознавания речи использовали технологию, разработанную командой Карнеги-Меллона (например, скрытые марковские модели ), а рынок систем распознавания речи к 2001 году достиг 4 миллиардов долларов. [31]
Описание Hearsay-II см . в статьях Hearsay-II , The Hearsay-II Speech Understanding System: Integrating Knowledge to Resolve Uncertainty и A Retrospective View of the Hearsay-II Architecture , которые появляются в Blackboard Systems. [32]
Редди дает обзор прогресса в понимании речи в конце проекта DARPA в статье 1976 года в Proceedings of the IEEE . [33]
Томас Хейг утверждает, что активность в области ИИ не замедлилась, даже когда финансирование от Министерства обороны было перенаправлено, в основном в результате принятия Конгрессом законодательства, призванного разделить военную и академическую деятельность. [34] Действительно, профессиональный интерес рос на протяжении 70-х годов. Используя количество членов SIGART ACM , Специальной группы по искусственному интеллекту , в качестве показателя интереса к предмету, автор пишет: [34]
(...) Я нашел два источника данных, ни один из которых не поддерживает идею широкомасштабной зимы ИИ в 1970-х годах. Один из них — членство в SIGART ACM, главном месте обмена новостями и исследовательскими рефератами в 1970-х годах. Когда в 1973 году был опубликован отчет Лайтхилла, быстрорастущая группа насчитывала 1241 участника, что примерно вдвое больше, чем в 1969 году. Следующие пять лет традиционно считаются самой темной частью первой зимы ИИ. Сокращалось ли сообщество ИИ? Нет! К середине 1978 года количество членов SIGART почти утроилось, до 3500. Группа не только росла быстрее, чем когда-либо, она росла пропорционально быстрее, чем ACM в целом, которая начала выходить на плато (увеличившись менее чем на 50% за весь период с 1969 по 1978 год). Каждый 11-й член ACM состоял в SIGART.
В 1980-х годах корпорации по всему миру приняли на вооружение форму программы ИИ, называемую « экспертной системой ». Первой коммерческой экспертной системой была XCON , разработанная в Carnegie Mellon для Digital Equipment Corporation , и она имела огромный успех: по оценкам, она сэкономила компании 40 миллионов долларов всего за шесть лет работы. Корпорации по всему миру начали разрабатывать и внедрять экспертные системы, и к 1985 году они тратили более миллиарда долларов на ИИ, большую часть из которых — на внутренние отделы ИИ. Выросла отрасль, чтобы поддержать их, включая компании-разработчики программного обеспечения, такие как Teknowledge и Intellicorp (KEE) , и компании-разработчики оборудования, такие как Symbolics и LISP Machines Inc., которые построили специализированные компьютеры, называемые машинами LISP , которые были оптимизированы для обработки языка программирования LISP , предпочтительного языка для исследований ИИ в США. [35] [36]
В 1987 году, через три года после предсказания Мински и Шэнка, рынок специализированного оборудования для искусственного интеллекта на основе LISP рухнул. Рабочие станции таких компаний, как Sun Microsystems, предложили мощную альтернативу машинам LISP, а такие компании, как Lucid, предложили среду LISP для этого нового класса рабочих станций. Производительность этих общих рабочих станций становилась все более сложной задачей для машин LISP. Такие компании, как Lucid и Franz LISP, предлагали все более мощные версии LISP, которые были переносимы на все системы UNIX. Например, были опубликованы тесты, показывающие, что рабочие станции сохраняли преимущество в производительности по сравнению с машинами LISP. [37] Позднее настольные компьютеры, созданные Apple и IBM, также предлагали более простую и популярную архитектуру для запуска приложений LISP. К 1987 году некоторые из них стали такими же мощными, как более дорогие машины LISP. Настольные компьютеры имели основанные на правилах движки, такие как CLIPS . [38] Эти альтернативы не оставили потребителям причин покупать дорогую машину, специализированную для запуска LISP. Целая отрасль стоимостью в полмиллиарда долларов была заменена всего за один год. [39]
К началу 1990-х годов большинство коммерческих компаний LISP потерпели неудачу, включая Symbolics, LISP Machines Inc., Lucid Inc. и т. д. Другие компании, такие как Texas Instruments и Xerox , покинули эту область. Небольшое количество компаний-клиентов (то есть компаний, использующих системы, написанные на LISP и разработанные на платформах машин LISP) продолжали поддерживать системы. В некоторых случаях это обслуживание включало в себя принятие на себя итоговой работы по поддержке. [40]
К началу 1990-х годов самые ранние успешные экспертные системы, такие как XCON, оказались слишком дорогими в обслуживании. Их было трудно обновлять, они не могли обучаться, они были «хрупкими» (то есть они могли совершать гротескные ошибки при получении необычных входных данных), и они стали жертвой проблем (таких как проблема квалификации ), которые были выявлены годами ранее в исследованиях немонотонной логики . Экспертные системы оказались полезными, но только в нескольких особых контекстах. [41] [42] Другая проблема касалась вычислительной сложности усилий по поддержанию истинности для общих знаний. KEE использовал основанный на предположениях подход, поддерживающий сценарии множественных миров, который было трудно понять и применить.
Немногие оставшиеся компании-оболочки экспертных систем в конечном итоге были вынуждены сократиться и искать новые рынки и парадигмы программного обеспечения, такие как рассуждения на основе прецедентов или универсальный доступ к базам данных . Развитие Common Lisp спасло многие системы, такие как ICAD , которые нашли применение в инженерии, основанной на знаниях . Другие системы, такие как KEE от Intellicorp, перешли с LISP на C++ (вариант) на ПК и помогли создать объектно-ориентированную технологию (включая предоставление основной поддержки для разработки UML (см. UML Partners ).
В 1981 году Министерство международной торговли и промышленности Японии выделило 850 миллионов долларов на проект компьютеров пятого поколения . Их целями были написание программ и создание машин, которые могли бы вести разговоры, переводить языки, интерпретировать изображения и рассуждать как люди. К 1991 году впечатляющий список целей, составленный в 1981 году, не был выполнен. По словам Х. П. Ньюквиста в книге «The Brain Makers» , «1 июня 1992 года проект пятого поколения завершился не успешным ревом, а хныканьем». [40] Как и в случае с другими проектами ИИ, ожидания были намного выше того, что было возможно на самом деле. [43] [44]
В 1983 году в ответ на проект пятого поколения DARPA снова начала финансировать исследования ИИ через Стратегическую вычислительную инициативу. Как изначально предполагалось, проект должен был начаться с практических, достижимых целей, которые даже включали искусственный интеллект в качестве долгосрочной цели. Программа находилась под руководством Управления по обработке информации (IPTO) и была также направлена на суперкомпьютеры и микроэлектронику . К 1985 году было потрачено 100 миллионов долларов, и 92 проекта были в стадии реализации в 60 учреждениях, половина в промышленности, половина в университетах и государственных лабораториях. Исследования ИИ хорошо финансировались SCI. [45]
Джек Шварц, возглавивший IPTO в 1987 году, отверг экспертные системы как «умное программирование» и урезал финансирование ИИ «глубоко и жестоко», «выпотрошив» SCI. Шварц считал, что DARPA должно сосредоточить свое финансирование только на тех технологиях, которые показали наибольшую перспективу, по его словам, DARPA должно «плыть по течению», а не «гребать по-собачьи», и он был твердо уверен, что ИИ не был «следующей волной». Инсайдеры программы ссылались на проблемы в коммуникации, организации и интеграции. Несколько проектов пережили сокращение финансирования, включая помощника пилота и автономное наземное транспортное средство (которые так и не были поставлены), а также систему управления боем DART, которая (как отмечено выше) оказалась успешной. [46]
Обзор отчетов начала 2000-х годов показывает, что репутация ИИ все еще была плохой:
Многие исследователи в области ИИ в середине 2000-х годов намеренно называли свою работу другими названиями , такими как информатика , машинное обучение, аналитика, системы на основе знаний , управление бизнес-правилами , когнитивные системы , интеллектуальные системы, интеллектуальные агенты или вычислительный интеллект , чтобы указать, что их работа делает акцент на определенных инструментах или направлена на определенную подзадачу. Хотя это может быть отчасти потому, что они считают свою область принципиально отличной от ИИ, также верно, что новые названия помогают получить финансирование, избегая клейма ложных обещаний, прикрепленных к названию «искусственный интеллект». [49] [50]
В конце 1990-х и начале 21-го века технология ИИ стала широко использоваться в качестве элементов более крупных систем, [51] [52], но эта область редко получает признание за эти успехи. В 2006 году Ник Бостром объяснил, что «много передовых ИИ просочились в общие приложения, часто не называясь ИИ, потому что как только что-то становится достаточно полезным и достаточно распространенным, оно больше не называется ИИ». [53] Родни Брукс заявил примерно в то же время, что «существует этот глупый миф о том, что ИИ потерпел неудачу, но ИИ вокруг вас каждую секунду дня». [54]
ИИ достиг самого высокого уровня интереса и финансирования в своей истории в начале 2020-х годов по всем возможным показателям, включая: публикации, [55] патентные заявки, [56] общие инвестиции (50 миллиардов долларов в 2022 году), [57] и вакансии (800 000 вакансий в США в 2022 году). [58] Успехи нынешней «весны ИИ» или «бума ИИ» — это достижения в области языкового перевода (в частности, Google Translate ), распознавания изображений (подстегнутого обучающей базой данных ImageNet ), коммерциализированной Google Image Search , и в игровых системах, таких как AlphaZero (чемпион по шахматам) и AlphaGo (чемпион по го), а также Watson ( чемпион Jeopardy ). Поворотным моментом стал 2012 год, когда AlexNet ( сеть глубокого обучения ) выиграла конкурс ImageNet Large Scale Visual Recognition Challenge с половиной ошибок, чем у победителя второго места. [59]
Выпуск в 2022 году чат-бота на основе искусственного интеллекта ChatGPT от OpenAI , который по состоянию на январь 2023 года имел более 100 миллионов пользователей, [60] оживил дискуссию об искусственном интеллекте и его влиянии на мир. [61] [62]
{{cite book}}
: CS1 maint: бот: исходный статус URL неизвестен ( ссылка )