stringtranslate.com

Интеллектуальный агент

В искусственном интеллекте интеллектуальный агент ( IA ) — это агент, действующий интеллектуально ; Он воспринимает окружающую среду, самостоятельно предпринимает действия для достижения целей и может улучшить свою производительность за счет обучения или приобретения знаний . Интеллектуальный агент может быть простым или сложным: примером интеллектуального агента считается термостат или другая система управления , как и человек , а также любая система, отвечающая этому определению, например , фирма , государство или биом. . [1]

Простая диаграмма рефлекторного агента

Ведущие учебники по искусственному интеллекту определяют «искусственный интеллект» как «исследование и проектирование интеллектуальных агентов», и это определение рассматривает целенаправленное поведение как суть интеллекта. Целенаправленные агенты также описываются с использованием термина, заимствованного из экономики , « рациональный агент ». [1]

У агента есть «целевая функция», которая инкапсулирует все цели IA. Такой агент предназначен для создания и выполнения любого плана, который по завершении максимизирует ожидаемое значение целевой функции. [2] Например, агент обучения с подкреплением имеет «функцию вознаграждения», которая позволяет программистам формировать желаемое поведение IA, [3] а поведение эволюционного алгоритма формируется «функцией приспособленности». [4]

Интеллектуальные агенты в искусственном интеллекте тесно связаны с агентами в экономике , а версии парадигмы интеллектуального агента изучаются в когнитивной науке , этике , философии практического разума , а также во многих междисциплинарных социо-когнитивных моделях и компьютерных социальных симуляциях .

Интеллектуальные агенты часто схематически описываются как абстрактная функциональная система, подобная компьютерной программе. Абстрактные описания интеллектуальных агентов называются абстрактными интеллектуальными агентами ( AIA ), чтобы отличать их от их реальных реализаций. Автономный интеллектуальный агент предназначен для функционирования без вмешательства человека. Интеллектуальные агенты также тесно связаны с программными агентами (автономной компьютерной программой, выполняющей задачи от имени пользователей).

Как определение искусственного интеллекта

Искусственный интеллект: современный подход [5] [6] [2] определяет «агента» как

«Все, что можно рассматривать как восприятие окружающей среды посредством датчиков и воздействие на эту среду посредством исполнительных механизмов»

Он определяет «рационального агента» как:

«Агент, который действует так, чтобы максимизировать ожидаемое значение показателя эффективности на основе прошлого опыта и знаний».

Он также определяет область «исследований искусственного интеллекта» как:

«Изучение и проектирование рациональных агентов»

Падэм и Виникофф (2005) согласны с тем, что интеллектуальный агент находится в окружающей среде и своевременно (хотя и не обязательно в режиме реального времени) реагирует на изменения в окружающей среде. Однако интеллектуальные агенты также должны активно и гибко добиваться поставленных целей. [a] Необязательные требования включают в себя то, чтобы агент был рациональным и чтобы он был способен к анализу убеждений, желаний и намерений . [7]

Каплан и Хэнлайн определяют искусственный интеллект как «способность системы правильно интерпретировать внешние данные, учиться на таких данных и использовать эти знания для достижения конкретных целей и задач посредством гибкой адаптации». [8] Это определение тесно связано с определением интеллектуального агента.

Преимущества

С философской точки зрения это определение искусственного интеллекта избегает нескольких направлений критики. В отличие от теста Тьюринга , он никак не относится к человеческому интеллекту. Таким образом, нет необходимости обсуждать, является ли это «реальным» или «смоделированным» интеллектом (т. е. «синтетическим» или «искусственным» интеллектом), и это не указывает на то, что такая машина обладает разумом , сознанием или истинным пониманием (т. е. это не подразумевает « сильную гипотезу ИИ » Джона Сирла). Он также не пытается провести резкую разделительную линию между «разумным» и «неразумным» поведением — программы необходимо оценивать только с точки зрения их целевой функции.

Что еще более важно, он имеет ряд практических преимуществ, которые помогли продвинуть вперед исследования в области ИИ. Он обеспечивает надежный и научный способ тестирования программ; исследователи могут напрямую сравнивать или даже комбинировать различные подходы к изолированным проблемам, задавая вопрос, какой агент лучше всего максимизирует данную «целевую функцию». Это также дает им общий язык для общения с другими областями, такими как математическая оптимизация (которая определяется в терминах «целей») или экономика (которая использует то же определение « рационального агента »). [9]

Целевая функция

Агент, которому назначена явная «целевая функция», считается более умным, если он последовательно предпринимает действия, которые успешно максимизируют его запрограммированную целевую функцию. Цель может быть простой («1, если ИА выигрывает игру в Го , 0 в противном случае») или сложной («Выполнять действия, математически аналогичные тем, которые были успешны в прошлом»). «Целевая функция» инкапсулирует все цели, ради достижения которых агент вынужден действовать; в случае рациональных агентов функция также включает в себя приемлемые компромиссы между достижением противоречивых целей. (Терминология различается; например, некоторые агенты стремятся максимизировать или минимизировать « функцию полезности », «целевую функцию» или « функцию потерь ».) [6] [2]

Цели могут быть явно определены или стимулированы. Если ИИ запрограммирован на « обучение с подкреплением », у него есть « функция вознаграждения », которая поощряет одни типы поведения и наказывает другие. Альтернативно, эволюционная система может ставить перед собой цели, используя « функцию приспособленности », чтобы мутировать и преимущественно воспроизводить системы искусственного интеллекта с высокими показателями, подобно тому, как животные эволюционировали, чтобы врожденно желать определенных целей, таких как поиск еды. [10] Некоторым системам искусственного интеллекта, таким как система ближайшего соседа, вместо разума по аналогии, этим системам обычно не ставятся цели, за исключением той степени, в которой цели неявно подразумеваются в их обучающих данных. [11] Такие системы все еще можно оценить, если бесцелевую систему представить как систему, «цель» которой состоит в выполнении узкой классификационной задачи. [12]

Системы, которые традиционно не считаются агентами, такие как системы представления знаний, иногда включаются в парадигму, представляя их как агентов, цель которых (например) отвечать на вопросы как можно точнее; понятие «действия» здесь расширено и включает в себя «акт» дачи ответа на вопрос. В качестве дополнительного расширения системы, управляемые мимикрией, можно представить как агентов, которые оптимизируют «целевую функцию» в зависимости от того, насколько точно IA удается имитировать желаемое поведение. [6] [2] В генеративно-состязательных сетях 2010-х годов компонент «кодер»/«генератор» пытается имитировать и импровизировать композицию человеческого текста. Генератор пытается максимизировать функцию, инкапсулирующую, насколько хорошо она может обмануть антагонистический компонент «предиктор»/«дискриминатор». [13]

Хотя символические системы ИИ часто принимают явную целевую функцию, эту парадигму можно также применить к нейронным сетям и эволюционным вычислениям . Обучение с подкреплением может создавать интеллектуальных агентов, которые действуют таким образом, чтобы максимизировать «функцию вознаграждения». [14] Иногда вместо того, чтобы устанавливать функцию вознаграждения, прямо равную желаемой функции эталонной оценки, программисты машинного обучения используют формирование вознаграждения, чтобы изначально давать машине вознаграждение за постепенный прогресс в обучении. [15] Ян ЛеКун заявил в 2018 году, что «большинство алгоритмов обучения, которые придумали люди, по сути состоят из минимизации некоторой целевой функции». [16] Шахматы AlphaZero имели простую целевую функцию; каждая победа засчитывается как +1 очко, а каждое поражение - как -1 очко. Целевая функция для беспилотного автомобиля должна быть более сложной. [17] Эволюционные вычисления могут развить интеллектуальных агентов, которые, по-видимому, будут действовать таким образом, чтобы максимизировать «функцию приспособленности», влияющую на то, сколько потомков может оставить каждый агент. [4]

Теоретическая и невычислимая конструкция AIXI является максимально интеллектуальным агентом в этой парадигме; [18] однако в реальном мире IA ограничено ограниченным временем и аппаратными ресурсами, и ученые конкурируют за создание алгоритмов, которые могут достигать все более высоких результатов в тестах производительности с реальным оборудованием. [19] [ актуально? ]

Классы интеллектуальных агентов

Классификация Рассела и Норвига

Рассел и Норвиг (2003) группируют агентов на пять классов в зависимости от степени их предполагаемого интеллекта и способностей: [20]

Простые рефлекторные агенты

Простое рефлекторное средство

Простые рефлекторные агенты действуют только на основе текущего восприятия , игнорируя остальную часть истории восприятия. Функция агента основана на правиле «условие-действие» : «если условие, то действие».

Эта функция агента успешна только тогда, когда среда полностью наблюдаема. Некоторые рефлекторные агенты также могут содержать информацию о своем текущем состоянии, что позволяет им игнорировать условия, активаторы которых уже сработали.

Бесконечные петли часто неизбежны для простых рефлекторных агентов, действующих в частично наблюдаемой среде. Если агент может рандомизировать свои действия, возможно, удастся избежать бесконечных циклов.

Рефлекторные агенты на основе моделей

Рефлекторный агент на основе модели

Агент на основе модели может работать с частично наблюдаемыми средами. Его текущее состояние хранится внутри агента, поддерживая некую структуру, описывающую ту часть мира, которую нельзя увидеть. Это знание о том, «как устроен мир», называется моделью мира, отсюда и название «агент, основанный на модели».

Рефлекторный агент, основанный на модели, должен поддерживать некую внутреннюю модель , которая зависит от истории восприятия и тем самым отражает, по крайней мере, некоторые из ненаблюдаемых аспектов текущего состояния. Историю восприятия и влияние действия на окружающую среду можно определить с помощью внутренней модели. Затем он выбирает действие так же, как и рефлекторный агент.

Агент также может использовать модели для описания и прогнозирования поведения других агентов в среде. [21]

Агенты, основанные на целях

Агент на основе модели и цели

Агенты на основе целей дополнительно расширяют возможности агентов на основе модели за счет использования информации о «целях». Информация о целях описывает ситуации, которые желательны. Это дает агенту возможность выбирать среди множества возможностей, выбирая ту, которая достигает целевого состояния. Поиск и планирование — это разделы искусственного интеллекта, посвященные поиску последовательностей действий, которые достигают целей агента.

Агенты на основе утилит

Агент на основе модели и утилиты

Агенты, основанные на целях, различают только целевые и нецелевые состояния. Также возможно определить меру того, насколько желательно то или иное состояние. Эту меру можно получить с помощью функции полезности , которая отображает состояние в меру полезности состояния. Более общий показатель эффективности должен позволять сравнивать различные состояния мира в зависимости от того, насколько хорошо они удовлетворяют целям агента. Термин «полезность» можно использовать для описания того, насколько «счастлив» агент.


Рациональный агент, основанный на полезности, выбирает действие, которое максимизирует ожидаемую полезность результатов действия, то есть то, что агент ожидает получить в среднем с учетом вероятностей и полезностей каждого результата. Агент, основанный на утилитах, должен моделировать и отслеживать свою среду, а это задачи, которые потребовали большого количества исследований в области восприятия, представления, рассуждения и обучения.

Обучающиеся агенты

Общий обучающий агент

Преимущество обучения состоит в том, что оно позволяет агентам изначально действовать в неизвестных средах и становиться более компетентными, чем могли бы позволить только его первоначальные знания. Наиболее важное различие проводится между «элементом обучения», который отвечает за улучшение, и «элементом производительности», который отвечает за выбор внешних действий.

Элемент обучения использует обратную связь от «критика» о том, как работает агент, и определяет, как следует изменить элемент производительности или «актера», чтобы добиться большего успеха в будущем. Элемент производительности — это то, что мы ранее считали всем агентом: он воспринимает восприятие и принимает решения о действиях.

Последний компонент обучающего агента — это «генератор задач». Он отвечает за предложение действий, которые приведут к новому и информативному опыту.

Классификация Вейсса

Вайс (2013) определяет четыре класса агентов:


Другой

В 2013 году Александр Висснер-Гросс опубликовал теорию свободы и интеллекта интеллектуальных агентов. [22] [23]

Иерархия агентов

Для активного выполнения своих функций интеллектуальные агенты сегодня обычно объединяются в иерархическую структуру, содержащую множество «субагентов». Интеллектуальные субагенты обрабатывают и выполняют функции более низкого уровня. Взятые вместе, интеллектуальный агент и субагенты создают целостную систему, которая может выполнять сложные задачи или цели с помощью поведения и реакций, отображающих форму интеллекта.

Как правило, агент может быть создан путем разделения тела на датчики и исполнительные механизмы и таким образом, чтобы он работал со сложной системой восприятия, которая принимает описание мира в качестве входных данных для контроллера и выводит команды на исполнительный механизм. Однако иерархия уровней контроллера часто необходима, чтобы сбалансировать немедленную реакцию, необходимую для задач низкого уровня, и медленное рассуждение о сложных целях высокого уровня. [24]

Функция агента

Простую программу агента можно математически определить как функцию f (называемую «функцией агента») [25] , которая отображает каждую возможную последовательность восприятий в возможное действие, которое агент может выполнить, или в коэффициент, элемент обратной связи, функцию или константу, влияющую на возможные действия:

Функция агента является абстрактной концепцией, поскольку она может включать в себя различные принципы принятия решений, такие как расчет полезности отдельных вариантов, дедукция по логическим правилам, нечеткая логика и т. д . [26]

Вместо этого программный агент отображает каждое возможное восприятие на действие. [27]

Мы используем термин «перцепт» для обозначения входных данных восприятия агента в любой данный момент. На следующих рисунках агент — это все, что можно рассматривать как воспринимающее окружающую среду через датчики и воздействующее на эту среду через исполнительные механизмы.

Приложения

Халлербах и др. обсудили применение агентных подходов для разработки и проверки автоматизированных систем вождения с помощью цифрового двойника тестируемого транспортного средства и микроскопического моделирования дорожного движения на основе независимых агентов. [28] Waymo создала мультиагентную среду моделирования Carcraft для тестирования алгоритмов беспилотных автомобилей . [29] [30] Он моделирует дорожное взаимодействие между водителями, пешеходами и автоматизированными транспортными средствами. Поведение людей имитируется искусственными агентами на основе данных о реальном поведении человека. Основная идея использования агентного моделирования для понимания беспилотных автомобилей обсуждалась еще в 2003 году. [31]

Альтернативные определения и использование

«Интеллектуальный агент» также часто используется как расплывчатый маркетинговый термин, иногда синоним « виртуального личного помощника ». [32] Некоторые определения 20-го века характеризуют агента как программу, которая помогает пользователю или действует от имени пользователя. [33] Эти примеры известны как программные агенты , а иногда «интеллектуальный программный агент» (то есть программный агент с интеллектом) называют «интеллектуальным агентом».

По мнению Николы Касабова, системы IA должны обладать следующими характеристиками: [34]

Смотрите также

Примечания

  1. ^ Определение Пэдгама и Виникоффа явно охватывает только социальных агентов, которые взаимодействуют с другими агентами.

Встроенные ссылки

  1. ^ ab Russell & Norvig 2003, гл. 2.
  2. ^ abcd Брингсйорд, Сельмер; Говиндараджулу, Навин Сундар (12 июля 2018 г.). "Искусственный интеллект". В Эдварде Н. Залте (ред.). Стэнфордская энциклопедия философии (выпуск лета 2020 г.) .
  3. Волчовер, Натали (30 января 2020 г.). «Искусственный интеллект сделает то, что мы просим. Это проблема». Журнал Кванта . Проверено 21 июня 2020 г.
  4. ^ аб Булл, Ларри (1999). «Об эволюционных вычислениях на основе моделей». Мягкие вычисления . 3 (2): 76–82. дои : 10.1007/s005000050055. S2CID  9699920.
  5. ^ Рассел и Норвиг 2003, стр. 4–5, 32, 35, 36 и 56.
  6. ^ abc Рассел и Норвиг (2003)
  7. ^ Лин Пэдхэм и Майкл Виникофф. Разработка интеллектуальных агентных систем: Практическое руководство. Том. 13. Джон Уайли и сыновья, 2005.
  8. ^ Каплан, Андреас; Хэнляйн, Майкл (1 января 2019 г.). «Сири, Сири, в моей руке: кто самый справедливый на земле? Об интерпретациях, иллюстрациях и значении искусственного интеллекта». Горизонты бизнеса . 62 (1): 15–25. doi :10.1016/j.bushor.2018.08.004. S2CID  158433736.
  9. ^ Рассел и Норвиг 2003, стр. 27.
  10. ^ Домингос 2015, Глава 5.
  11. ^ Домингос 2015, Глава 7.
  12. ^ Линденбаум М., Маркович С. и Русаков Д. (2004). Выборочная выборка для классификаторов ближайших соседей. Машинное обучение, 54(2), 125–152.
  13. ^ «Генераторно-состязательные сети: что такое GAN и как они развивались». ВенчурБит . 26 декабря 2019 года . Проверено 18 июня 2020 г.
  14. Волчовер, Натали (январь 2020 г.). «Искусственный интеллект сделает то, что мы просим. Это проблема». Журнал Кванта . Проверено 18 июня 2020 г.
  15. ^ Эндрю Ю. Нг, Дайши Харада и Стюарт Рассел. «Инвариантность политики при трансформации вознаграждения: теория и применение к формированию вознаграждения». В ICML, вып. 99, стр. 278-287. 1999.
  16. ^ Мартин Форд . Архитекторы интеллекта: правда об искусственном интеллекте от людей, его создающих. ООО «Пакт Паблишинг», 2018.
  17. ^ «Почему у искусственного интеллекта AlphaZero проблемы с реальным миром» . Журнал Кванта . 2018 . Проверено 18 июня 2020 г.
  18. ^ Адамс, Сэм; Арель, Итмар; Бах, Йоша; Куп, Роберт; Фурлан, Род; Герцель, Бен; Холл, Дж. Сторрс; Самсонович, Алексей; Шойц, Матиас; Шлезингер, Мэтью; Шапиро, Стюарт К.; Сова, Джон (15 марта 2012 г.). «Составление карты общего искусственного интеллекта человеческого уровня». Журнал ИИ . 33 (1): 25. дои : 10.1609/aimag.v33i1.2322 .
  19. Хатсон, Мэтью (27 мая 2020 г.). «Привлекательные достижения в некоторых областях искусственного интеллекта нереальны». Наука | АААС . Проверено 18 июня 2020 г.
  20. ^ Рассел и Норвиг 2003, стр. 46–54.
  21. ^ Стефано Альбрехт и Питер Стоун (2018). Автономные агенты, моделирующие других агентов: всесторонний обзор и открытые проблемы. Искусственный интеллект, Том. 258, стр. 66-95. https://doi.org/10.1016/j.artint.2018.01.002
  22. ^ Коробка, Компьютерщики из (2019-12-04). «Универсальная формула интеллекта». Гики из коробки . Проверено 11 октября 2022 г.
  23. ^ Висснер-Гросс, AD; Фрир, CE (19 апреля 2013 г.). «Причинные энтропийные силы». Письма о физических отзывах . 110 (16): 168702. Бибкод : 2013PhRvL.110p8702W. doi : 10.1103/PhysRevLett.110.168702 . hdl : 1721.1/79750 . ПМИД  23679649.
  24. ^ Пул, Дэвид; Макворт, Алан. «1.3 Агенты, расположенные в окружающей среде ‣ Глава 2. Архитектура агентов и иерархическое управление ‣ Искусственный интеллект: основы вычислительных агентов, 2-е издание». artint.info . Проверено 28 ноября 2018 г.
  25. ^ Рассел и Норвиг 2003, стр. 33
  26. ^ Саламон, Томас (2011). Проектирование агентных моделей. Репин: Издательство Брукнер. стр. 42–59. ISBN 978-80-904661-1-1.
  27. ^ Нильссон, Нильс Дж. (апрель 1996 г.). «Искусственный интеллект: современный подход». Искусственный интеллект . 82 (1–2): 369–380. дои : 10.1016/0004-3702(96)00007-0 . ISSN  0004-3702.
  28. ^ Халлербах, С.; Ся, Ю.; Эберле, У.; Кестер, Ф. (2018). «Идентификация критических сценариев на основе моделирования для кооперативных и автоматизированных транспортных средств». Международный журнал SAE о подключенных и автоматизированных транспортных средствах . САЭ Интернешнл. 1 (2): 93. дои : 10.4271/2018-01-1066.
  29. ^ Мадригал, рассказ Алексиса К. «В секретном мире Waymo для обучения беспилотным автомобилям». Атлантический океан . Проверено 14 августа 2020 г.
  30. ^ Коннорс, Дж.; Грэм, С.; Майу, Л. (2018). «Кибер-синтетическое моделирование для транспортных средств». На Международной конференции по кибервойне и безопасности . Academic Conferences International Limited: 594-XI.
  31. ^ Ян, Гоцин; Ву, Чжаохуэй; Ли, Сюмэй; Чен, Вэй (2003). «SVE: встроенная среда интеллектуального автомобиля на основе агентов». Материалы Международной конференции IEEE 2003 года по интеллектуальным транспортным системам . Том. 2. стр. 1745–1749. дои : 10.1109/ITSC.2003.1252782. ISBN 0-7803-8125-4. S2CID  110177067.
  32. ^ Фингар, Питер (2018). «Конкуренция за будущее с интеллектуальными агентами... и признание». Сайты Форбс . Проверено 18 июня 2020 г.
  33. ^ Бургин, Марк и Гордана Додиг-Црнкович. «Системный подход к искусственным агентам». Препринт arXiv arXiv:0902.3513 (2009).
  34. ^ Касабов 1998.

Другие ссылки

Внешние ссылки