Слабый искусственный интеллект ( weak AI ) — это искусственный интеллект , реализующий ограниченную часть разума, или, как узкий ИИ , [1] [2] [3] ориентированный на одну узкую задачу.
По словам Джона Сирла, это «было бы полезно для проверки гипотез о разуме, но не было бы разумом». [4] Слабый ИИ фокусируется на имитации того, как люди выполняют [ сомнительно ] базовые действия, такие как запоминание вещей, восприятие вещей и решение простых проблем. [5] В отличие от сильного ИИ, который использует технологии, чтобы думать и учиться самостоятельно. Компьютеры могут использовать такие методы, как алгоритмы и предварительные знания, чтобы развивать свой образ мышления, как это делают люди. [5] Сильные системы искусственного интеллекта учатся работать независимо от программистов, которые их программировали. Слабый ИИ не способен иметь собственный разум и может только имитировать физическое поведение, которое он может наблюдать. [ сомнительно ] [6]
Слабый ИИ противопоставляется сильному ИИ , который определяется по-разному:
Такие ученые, как Антонио Лието, утверждают, что текущие исследования как ИИ, так и когнитивного моделирования идеально согласуются с гипотезой слабого ИИ (которую не следует путать с различием «общего» и «узкого» ИИ) и что популярное предположение о том, что когнитивное моделирование вдохновленные системы искусственного интеллекта поддерживают сильную гипотезу искусственного интеллекта, которая некорректна и проблематична, поскольку «искусственные модели мозга и разума могут использоваться для понимания психических явлений, не притворяясь, что они являются реальными явлениями, которые они моделируют» [ 7] (как, например, на с другой стороны, подразумевается сильное предположение об искусственном интеллекте).
Узкий ИИ можно классифицировать как «… ограниченный одной, узко определенной задачей. Большинство современных систем искусственного интеллекта можно отнести к этой категории». [8] Узкая означает, что робот или компьютер строго ограничены способностью решать только одну задачу за раз. Сильный ИИ – наоборот. Сильный ИИ ближе к человеческому мозгу. Все это, по мнению философа Джона Сирла, так и есть. Идея сильного ИИ также является спорной. Сирл считает, что тест Тьюринга (созданный Аланом Тьюрингом во время Второй мировой войны и первоначально называвшийся «Имитационная игра» и использовавшийся для проверки того, является ли машина столь же умной, как человек) не является точным и неподходящим для тестирования сильного ИИ. [9]
В настоящее время различия между слабым ИИ и сильным ИИ широко не описаны. Слабый ИИ обычно ассоциируется с базовыми технологиями, такими как программное обеспечение для распознавания голоса, такое как Siri или Alexa , как упомянуто в разделе «Терминология». Хотя сильный ИИ еще не полностью реализован и не подлежит тестированию, о нем только мечтают в фильмах или средствах массовой информации. [10]
Похоже, что один из подходов к продвижению ИИ — это вспомогательная роль для людей. Существуют некоторые наборы данных или чисел, которые даже мы, люди, не можем полностью обработать или понять так быстро, как компьютеры, поэтому именно здесь ИИ сыграет нам вспомогательную роль. [11] [ актуально? ]
Некоторые комментаторы [ кто? ] считают, что узкий ИИ может быть опасен из-за своей «хрупкости» и потерпеть неудачу непредсказуемым образом . Узкий ИИ может вызвать сбои в электросети, повредить атомные электростанции, вызвать глобальные экономические проблемы и сбить с толку беспилотные транспортные средства. [1]
Некоторыми примерами узкого ИИ являются AlphaGo , [12] беспилотные автомобили , роботизированные системы, используемые в медицинской сфере, и врачи-диагносты. Узкие системы искусственного интеллекта иногда опасны, если ненадежны. Лекарства могли быть неправильно отсортированы и распределены. Кроме того, медицинские диагнозы могут в конечном итоге иметь серьезные, а иногда и смертельные последствия, если ИИ неисправен или предвзят. [13] Еще одна проблема узкого ИИ в настоящее время заключается в том, что поведение, которому он следует, может стать непоследовательным. [14] ИИ может быть сложно понять сложные закономерности и найти решение, которое надежно работает в различных средах.
Простые программы искусственного интеллекта уже проникли в наше общество, и мы, возможно, еще этого не заметили. Автокоррекция набора текста, распознавание речи для программ преобразования речи в текст и обширное развитие областей науки о данных — это лишь некоторые из них. [15] Хотя узкий и относительно общий ИИ постепенно начинает помогать обществам, он также начинает им вредить. ИИ уже несправедливо сажал людей в тюрьму, дискриминировал женщин на рабочем месте при приеме на работу, обучал миллионы проблемным идеям и даже убивал людей с помощью автоматических автомобилей. [16] ИИ может быть мощным инструментом, который можно использовать для улучшения нашей жизни, но он также может быть опасной технологией, которая может выйти из-под контроля.
Facebook и другие подобные платформы социальных сетей смогли выяснить, как использовать ИИ и машинное обучение, или, точнее, сузить ИИ, чтобы предсказать, как люди будут реагировать на показ определенных изображений. Узкие системы искусственного интеллекта смогли определить, с чем будут взаимодействовать пользователи, основываясь на том, что они публикуют, следуя закономерностям или тенденциям. [17]
Твиттер начал использовать более совершенные системы искусственного интеллекта, чтобы выяснить, как идентифицировать более узкие формы искусственного интеллекта и определить, могли ли боты использоваться для предвзятой пропаганды или даже с потенциально злонамеренными намерениями. Эти системы искусственного интеллекта делают это путем фильтрации слов и создания различных слоев условий в зависимости от того, к чему ИИ имел отношение в прошлом, а затем определения, может ли эта учетная запись быть ботом или нет. [18]
TikTok использует свой алгоритм «Для вас», чтобы очень быстро определить интересы пользователя путем анализа закономерностей в том, какие видео пользователь изначально выбирает для просмотра. Эта узкая система искусственного интеллекта использует шаблоны, обнаруженные между видео, чтобы определить, какое видео должно быть показано следующим, включая продолжительность, кто уже поделился им или прокомментировал его, а также музыку, воспроизводимую в видео. Алгоритм «Для вас» в TikTok настолько точен, что может точно определить, что именно интересует или даже любит пользователь, менее чем за час. [19]
{{cite book}}
: CS1 maint: отсутствует местоположение издателя ( ссылка ) CS1 maint: другие ( ссылка ){{cite book}}
: CS1 maint: отсутствует местоположение издателя ( ссылка )