stringtranslate.com

Слабый искусственный интеллект

Слабый искусственный интеллект ( weak AI ) — это искусственный интеллект , реализующий ограниченную часть разума, или, как узкий ИИ , [1] [2] [3] ориентированный на одну узкую задачу. По словам Джона Сирла, это «было бы полезно для проверки гипотез о разуме, но не было бы разумом». [4] Слабый искусственный интеллект фокусируется на имитации того, как люди выполняют [ сомнительно ] базовые действия, такие как запоминание вещей, восприятие вещей и решение простых задач. [5] В отличие от сильного ИИ, который использует технологии, чтобы думать и учиться самостоятельно. Компьютеры могут использовать такие методы, как алгоритмы и предварительные знания, чтобы развивать свой образ мышления, как это делают люди. [5] Сильные системы искусственного интеллекта учатся работать независимо от программистов, которые их программировали. Слабый ИИ не способен иметь собственный разум и может только имитировать физическое поведение, которое он может наблюдать. [ сомнительно ] [6] Его контрастируют с сильным ИИ , который определяется по-разному:

Такие ученые, как Антонио Лието, утверждают, что текущие исследования как ИИ, так и когнитивного моделирования идеально согласуются с гипотезой слабого ИИ (которую не следует путать с различием «общего» и «узкого» ИИ) и что популярное предположение о том, что когнитивное моделирование вдохновленные системы искусственного интеллекта поддерживают сильную гипотезу искусственного интеллекта , которая некорректна и проблематична, поскольку «искусственные модели мозга и разума могут использоваться для понимания психических явлений, не притворяясь, что они являются реальными явлениями, которые они моделируют» [7] (как, например, на с другой стороны, подразумевается сильное предположение об искусственном интеллекте ).

Узкий ИИ можно классифицировать как «… ограниченный одной, узко определенной задачей. Большинство современных систем искусственного интеллекта можно отнести к этой категории». [8] Узкая означает, что робот или компьютер строго ограничены способностью решать только одну задачу за раз. Сильный ИИ – наоборот. Сильный ИИ ближе к человеческому мозгу. Все это, по мнению философа Джона Сирла, так и есть. Идея сильного ИИ также является спорной. Сирл считает, что тест Тьюринга (созданный Аланом Тьюрингом во время Второй мировой войны и первоначально называвшийся «Имитационная игра» и использовавшийся для проверки того, является ли машина столь же умной, как человек) не является точным и неподходящим для тестирования сильного ИИ. [9]

Терминология

«Слабый ИИ» иногда называют «узким ИИ», но последнее обычно интерпретируется как подполя внутри первого. [ кем? ] Проверка гипотез о разуме или части разума обычно не является частью узкого ИИ, а скорее реализацией некоторой поверхностной функции-двойника. Многие существующие в настоящее время системы, которые заявляют об использовании «искусственного интеллекта», скорее всего, действуют как узкий ИИ, ориентированный на конкретную проблему, и не являются слабым ИИ в традиционном смысле.

Siri , Cortana и Google Assistant — примеры узкого ИИ. Тем не менее, они не являются хорошими примерами слабого ИИ [ нужна цитация ] [ обсудить ] , поскольку они действуют в рамках ограниченного заранее определенного диапазона функций. Они не реализуют части разума, они используют обработку естественного языка вместе с предопределенными правилами. В частности, они не являются примером сильного ИИ, поскольку у них нет подлинного интеллекта и самосознания. Исследователь искусственного интеллекта Бен Герцель в своем блоге в 2010 году заявил, что Siri «ОЧЕНЬ узкая и хрупкая», о чем свидетельствуют раздражающие результаты, если вы задаете вопросы, выходящие за рамки приложения. [10]

Слабый ИИ против сильного ИИ

В настоящее время различия между слабым ИИ и сильным ИИ широко не описаны. Слабый ИИ обычно ассоциируется с базовыми технологиями, такими как программное обеспечение для распознавания голоса, такое как Siri или Alexa , как упомянуто в разделе «Терминология». Хотя сильный ИИ еще не полностью реализован и не подлежит тестированию, о нем только мечтают в фильмах или средствах массовой информации. [11] Кажется, что один из подходов к продвижению ИИ – это вспомогательная роль для людей. Существуют некоторые наборы данных или чисел, которые даже мы, люди, не можем полностью обработать или понять так быстро, как компьютеры, поэтому именно здесь ИИ сыграет нам вспомогательную роль. [12]

Влияние

Некоторые комментаторы [ кто? ] считают, что узкий ИИ может быть опасен из-за своей «хрупкости» и потерпеть неудачу непредсказуемым образом . Узкий ИИ может вызвать сбои в электросети, повредить атомные электростанции, вызвать глобальные экономические проблемы и сбить с толку беспилотные транспортные средства. [1]

Примеры

Некоторыми примерами узкого ИИ являются беспилотные автомобили , роботизированные системы, используемые в медицинской сфере, и врачи-диагносты. Узкие системы искусственного интеллекта иногда опасны, если ненадежны. Лекарства могли быть неправильно отсортированы и распределены. Кроме того, медицинские диагнозы могут в конечном итоге иметь серьезные, а иногда и смертельные последствия, если ИИ неисправен. [13] Еще одна проблема, связанная с узким искусственным интеллектом в настоящее время, заключается в том, что поведение, которому он следует, может стать непоследовательным. [14] ИИ может быть сложно понять сложные закономерности и найти решение, которое надежно работает в различных средах.

Простые программы искусственного интеллекта уже проникли в наше общество, и мы, возможно, еще этого не заметили. Автокоррекция набора текста, распознавание речи для программ преобразования речи в текст и обширные достижения в области науки о данных — это лишь некоторые из них. [15] Хотя узкий и относительно общий ИИ постепенно начинает помогать обществам, он также начинает им вредить. ИИ уже несправедливо сажал людей в тюрьму, дискриминировал женщин на рабочем месте при приеме на работу, обучал миллионы проблемным идеям и даже убивал людей с помощью автоматических автомобилей. [16] ИИ может быть мощным инструментом, который можно использовать для улучшения нашей жизни, но он также может быть опасной технологией, которая может выйти из-под контроля.  

Социальные медиа

Facebook и другие подобные платформы социальных сетей смогли выяснить, как использовать искусственный интеллект и машинное обучение, или, точнее, ИИ, чтобы предсказать, как люди будут реагировать на показ определенных изображений. Узкие системы искусственного интеллекта смогли определить, с чем будут взаимодействовать пользователи, на основе того, что они публикуют, следуя закономерностям или тенденциям. [17]

Твиттер начал использовать более совершенные системы искусственного интеллекта, чтобы выяснить, как идентифицировать более узкие формы искусственного интеллекта и определить, могли ли боты использоваться для предвзятой пропаганды или даже с потенциально злонамеренными намерениями. Эти системы искусственного интеллекта делают это путем фильтрации слов и создания различных слоев условий в зависимости от того, к чему ИИ имел отношение в прошлом, а затем определения, может ли эта учетная запись быть ботом или нет. [18]

TikTok использует свой алгоритм «Для вас», чтобы очень быстро определить интересы пользователя путем анализа закономерностей в том, какие видео пользователь изначально выбирает для просмотра. Эта узкая система искусственного интеллекта использует шаблоны, обнаруженные между видео, чтобы определить, какое видео должно быть показано следующим, включая продолжительность, кто уже поделился им или прокомментировал его, а также музыку, воспроизводимую в видео. Алгоритм «Для вас» в TikTok настолько точен, что может точно определить, что именно интересует или даже любит пользователь, менее чем за час. [19]

Смотрите также

Рекомендации

  1. ^ Аб Дворский, Джордж (1 апреля 2013 г.). «Сколько осталось до нашей первой катастрофы в области искусственного интеллекта?». Гизмодо . Проверено 27 ноября 2021 г.
  2. Мюльхаузер, Люк (18 октября 2013 г.). «Бен Герцель об ОИИ как поле». Научно-исследовательский институт машинного интеллекта . Проверено 27 ноября 2021 г.
  3. Чалфен, Майк (15 октября 2015 г.). «Проблемы создания приложений искусственного интеллекта». ТехКранч . Проверено 27 ноября 2021 г.
  4. ^ Кембриджский справочник по искусственному интеллекту . Фрэнкиш, Кейт., Рэмси, Уильям М., 1960-. Кембридж, Великобритания. 12 июня 2014 г. с. 342. ИСБН 978-0-521-87142-6. ОКЛК  865297798.{{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка ) CS1 maint: другие ( ссылка )
  5. ^ Аб Чендлер, Дэниел; Мандей, Род (2020). Словарь средств массовой информации и коммуникации. Издательство Оксфордского университета. doi : 10.1093/acref/9780198841838.001.0001. ISBN 978-0-19-884183-8.
  6. ^ Колман, Эндрю М. (2015). Словарь психологии (4-е изд.). Оксфорд. ISBN 978-0-19-965768-1. ОСЛК  896901441.{{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  7. ^ Лието, Антонио (2021). Когнитивный дизайн для искусственного разума . Лондон, Великобритания: Рутледж, Тейлор и Фрэнсис. п. 85. ИСБН 9781138207929.
  8. ^ Бартнек, Кристоф; Лютге, Кристоф; Вагнер, Алан; Уэлш, Шон (2021). Введение в этику робототехники и искусственного интеллекта. SpringerBriefs по этике. Чам: Международное издательство Springer. дои : 10.1007/978-3-030-51110-4. ISBN 978-3-030-51109-8. S2CID  224869294.
  9. Лю, Бинь (28 марта 2021 г.). "«Слабый ИИ», скорее всего, никогда не станет «сильным ИИ», так в чем же его наибольшая ценность для нас?» arXiv : 2103.15294 [cs.AI].
  10. Герцель, Бен (6 февраля 2010 г.). «Siri, новый iPhone, «личный помощник AI»: несколько полезных нишевых приложений, не столько AI». Мультивселенная по мнению Бена . Проверено 27 ноября 2021 г.
  11. Кернс, Джефф (15 февраля 2017 г.). «В чем разница между слабым и сильным ИИ?». ПроКвест . ПроКвест  1876870051.
  12. ^ ЛаПланте, Алиса; Малиха, Балала (2018). Решение проблем качества и обслуживания с помощью ИИ. O'Reilly Media, Inc. ISBN 9781491999561.
  13. ^ Шоцик, Конрад; Юрковская-Гомулка, Агата (16 декабря 2021 г.). «Этические, правовые и политические проблемы искусственного интеллекта: право как ответ на угрозы и надежды, связанные с искусственным интеллектом». Мировые фьючерсы : 1–17. дои : 10.1080/02604027.2021.2012876. ISSN  0260-4027. S2CID  245287612.
  14. ^ Кулешов, Андрей; Прохоров, Сергей (сентябрь 2019 г.). «Доменная зависимость определений, необходимых для стандартизации и сравнения характеристик производительности слабых систем искусственного интеллекта». Международная конференция «Искусственный интеллект: приложения и инновации» (IC-AIAI) 2019 года . Белград, Сербия: IEEE. стр. 62–623. doi : 10.1109/IC-AIAI48757.2019.00020. ISBN 978-1-7281-4326-2. S2CID  211298012.
  15. ^ Эрли, Сет (2017). «Проблема с ИИ». ИТ-специалист . 19 (4): 63–67. дои : 10.1109/MITP.2017.3051331. ISSN  1520-9202. S2CID  9382416.
  16. ^ Анируд, Коул; Сиддха, Ганджу; Мехер, Касам (2019). Практическое глубокое обучение для облака, мобильных устройств и Edge. О'Рейли Медиа. ISBN 9781492034865.
  17. ^ Кайзер, Кэролин; Ахувиа, Аарон; Раушнабель, Филипп А.; Уимбл, Мэтт (1 сентября 2020 г.). «Мониторинг социальных сетей: чему маркетологи могут научиться из фотографий брендов Facebook?». Журнал бизнес-исследований . 117 : 707–717. doi :10.1016/j.jbusres.2019.09.017. ISSN  0148-2963. S2CID  203444643.
  18. ^ Шукла, Рахит; Синха, Адвития; Чаудхари, Анкит (28 февраля 2022 г.). «TweezBot: алгоритм идентификации онлайн-медиа-ботов, управляемый искусственным интеллектом, для социальных сетей Twitter». Электроника . 11 (5): 743. doi : 10.3390/electronics11050743 . ISSN  2079-9292.
  19. Хёнджин, Кан (сентябрь 2022 г.). «Агентство ИИ против человеческого агентства: понимание взаимодействия человека и ИИ в TikTok и их влияние на взаимодействие с пользователями». Academic.oup.com . Проверено 8 ноября 2022 г.