Слабый искусственный интеллект ( weak AI ) — это искусственный интеллект , реализующий ограниченную часть разума, или, как узкий ИИ , [1] [2] [3] ориентированный на одну узкую задачу. По словам Джона Сирла, это «было бы полезно для проверки гипотез о разуме, но не было бы разумом». [4] Слабый искусственный интеллект фокусируется на имитации того, как люди выполняют [ сомнительно ] базовые действия, такие как запоминание вещей, восприятие вещей и решение простых задач. [5] В отличие от сильного ИИ, который использует технологии, чтобы думать и учиться самостоятельно. Компьютеры могут использовать такие методы, как алгоритмы и предварительные знания, чтобы развивать свой образ мышления, как это делают люди. [5] Сильные системы искусственного интеллекта учатся работать независимо от программистов, которые их программировали. Слабый ИИ не способен иметь собственный разум и может только имитировать физическое поведение, которое он может наблюдать. [ сомнительно ] [6] Его контрастируют с сильным ИИ , который определяется по-разному:
Такие ученые, как Антонио Лието, утверждают, что текущие исследования как ИИ, так и когнитивного моделирования идеально согласуются с гипотезой слабого ИИ (которую не следует путать с различием «общего» и «узкого» ИИ) и что популярное предположение о том, что когнитивное моделирование вдохновленные системы искусственного интеллекта поддерживают сильную гипотезу искусственного интеллекта , которая некорректна и проблематична, поскольку «искусственные модели мозга и разума могут использоваться для понимания психических явлений, не притворяясь, что они являются реальными явлениями, которые они моделируют» [7] (как, например, на с другой стороны, подразумевается сильное предположение об искусственном интеллекте ).
Узкий ИИ можно классифицировать как «… ограниченный одной, узко определенной задачей. Большинство современных систем искусственного интеллекта можно отнести к этой категории». [8] Узкая означает, что робот или компьютер строго ограничены способностью решать только одну задачу за раз. Сильный ИИ – наоборот. Сильный ИИ ближе к человеческому мозгу. Все это, по мнению философа Джона Сирла, так и есть. Идея сильного ИИ также является спорной. Сирл считает, что тест Тьюринга (созданный Аланом Тьюрингом во время Второй мировой войны и первоначально называвшийся «Имитационная игра» и использовавшийся для проверки того, является ли машина столь же умной, как человек) не является точным и неподходящим для тестирования сильного ИИ. [9]
«Слабый ИИ» иногда называют «узким ИИ», но последнее обычно интерпретируется как подполя внутри первого. [ кем? ] Проверка гипотез о разуме или части разума обычно не является частью узкого ИИ, а скорее реализацией некоторой поверхностной функции-двойника. Многие существующие в настоящее время системы, которые заявляют об использовании «искусственного интеллекта», скорее всего, действуют как узкий ИИ, ориентированный на конкретную проблему, и не являются слабым ИИ в традиционном смысле.
Siri , Cortana и Google Assistant — примеры узкого ИИ. Тем не менее, они не являются хорошими примерами слабого ИИ [ нужна цитация ] [ обсудить ] , поскольку они действуют в рамках ограниченного заранее определенного диапазона функций. Они не реализуют части разума, они используют обработку естественного языка вместе с предопределенными правилами. В частности, они не являются примером сильного ИИ, поскольку у них нет подлинного интеллекта и самосознания. Исследователь искусственного интеллекта Бен Герцель в своем блоге в 2010 году заявил, что Siri «ОЧЕНЬ узкая и хрупкая», о чем свидетельствуют раздражающие результаты, если вы задаете вопросы, выходящие за рамки приложения. [10]
В настоящее время различия между слабым ИИ и сильным ИИ широко не описаны. Слабый ИИ обычно ассоциируется с базовыми технологиями, такими как программное обеспечение для распознавания голоса, такое как Siri или Alexa , как упомянуто в разделе «Терминология». Хотя сильный ИИ еще не полностью реализован и не подлежит тестированию, о нем только мечтают в фильмах или средствах массовой информации. [11] Кажется, что один из подходов к продвижению ИИ – это вспомогательная роль для людей. Существуют некоторые наборы данных или чисел, которые даже мы, люди, не можем полностью обработать или понять так быстро, как компьютеры, поэтому именно здесь ИИ сыграет нам вспомогательную роль. [12]
Некоторые комментаторы [ кто? ] считают, что узкий ИИ может быть опасен из-за своей «хрупкости» и потерпеть неудачу непредсказуемым образом . Узкий ИИ может вызвать сбои в электросети, повредить атомные электростанции, вызвать глобальные экономические проблемы и сбить с толку беспилотные транспортные средства. [1]
Некоторыми примерами узкого ИИ являются беспилотные автомобили , роботизированные системы, используемые в медицинской сфере, и врачи-диагносты. Узкие системы искусственного интеллекта иногда опасны, если ненадежны. Лекарства могли быть неправильно отсортированы и распределены. Кроме того, медицинские диагнозы могут в конечном итоге иметь серьезные, а иногда и смертельные последствия, если ИИ неисправен. [13] Еще одна проблема, связанная с узким искусственным интеллектом в настоящее время, заключается в том, что поведение, которому он следует, может стать непоследовательным. [14] ИИ может быть сложно понять сложные закономерности и найти решение, которое надежно работает в различных средах.
Простые программы искусственного интеллекта уже проникли в наше общество, и мы, возможно, еще этого не заметили. Автокоррекция набора текста, распознавание речи для программ преобразования речи в текст и обширные достижения в области науки о данных — это лишь некоторые из них. [15] Хотя узкий и относительно общий ИИ постепенно начинает помогать обществам, он также начинает им вредить. ИИ уже несправедливо сажал людей в тюрьму, дискриминировал женщин на рабочем месте при приеме на работу, обучал миллионы проблемным идеям и даже убивал людей с помощью автоматических автомобилей. [16] ИИ может быть мощным инструментом, который можно использовать для улучшения нашей жизни, но он также может быть опасной технологией, которая может выйти из-под контроля.
Facebook и другие подобные платформы социальных сетей смогли выяснить, как использовать искусственный интеллект и машинное обучение, или, точнее, ИИ, чтобы предсказать, как люди будут реагировать на показ определенных изображений. Узкие системы искусственного интеллекта смогли определить, с чем будут взаимодействовать пользователи, на основе того, что они публикуют, следуя закономерностям или тенденциям. [17]
Твиттер начал использовать более совершенные системы искусственного интеллекта, чтобы выяснить, как идентифицировать более узкие формы искусственного интеллекта и определить, могли ли боты использоваться для предвзятой пропаганды или даже с потенциально злонамеренными намерениями. Эти системы искусственного интеллекта делают это путем фильтрации слов и создания различных слоев условий в зависимости от того, к чему ИИ имел отношение в прошлом, а затем определения, может ли эта учетная запись быть ботом или нет. [18]
TikTok использует свой алгоритм «Для вас», чтобы очень быстро определить интересы пользователя путем анализа закономерностей в том, какие видео пользователь изначально выбирает для просмотра. Эта узкая система искусственного интеллекта использует шаблоны, обнаруженные между видео, чтобы определить, какое видео должно быть показано следующим, включая продолжительность, кто уже поделился им или прокомментировал его, а также музыку, воспроизводимую в видео. Алгоритм «Для вас» в TikTok настолько точен, что может точно определить, что именно интересует или даже любит пользователь, менее чем за час. [19]
{{cite book}}
: CS1 maint: отсутствует местоположение издателя ( ссылка ) CS1 maint: другие ( ссылка ){{cite book}}
: CS1 maint: отсутствует местоположение издателя ( ссылка )