Слабый искусственный интеллект ( слабый ИИ ) — это искусственный интеллект , реализующий ограниченную часть разума, или, как узкий ИИ , [1] [2] [3] ориентированный на одну узкую задачу.
Слабый ИИ противопоставляется сильному ИИ , что можно интерпретировать по-разному:
Узкий ИИ можно классифицировать как «ограниченный одной, узко определенной задачей. Большинство современных систем ИИ можно отнести к этой категории». [4] Общий искусственный интеллект — это, наоборот, противоположность.
Некоторые примеры узкого ИИ: AlphaGo , [5] беспилотные автомобили , роботизированные системы, используемые в медицинской сфере, и врачи-диагносты. Узкие системы ИИ иногда опасны, если ненадежны. И поведение, которому они следуют, может стать непоследовательным. [6] ИИ может быть трудно понять сложные закономерности и прийти к решению, которое надежно работает в различных средах. Эта «хрупкость» может привести к его непредсказуемым сбоям . [7]
Узкие сбои ИИ иногда могут иметь существенные последствия. Например, они могут вызывать сбои в электросети, повреждать атомные электростанции, вызывать глобальные экономические проблемы и неправильно направлять автономные транспортные средства. [1] Лекарства могут быть неправильно отсортированы и распределены. Кроме того, медицинские диагнозы могут в конечном итоге иметь серьезные, а иногда и смертельные последствия, если ИИ неисправен или предвзят. [8]
Простые программы ИИ уже незаметно проникли в наше общество. Примерами являются автокоррекция при наборе текста, распознавание речи для программ преобразования речи в текст и обширные расширения в областях науки о данных . [9] Насколько узкий и относительно общий ИИ медленно начинает помогать обществам, настолько же он начинает им вредить. ИИ уже несправедливо сажал людей в тюрьму, дискриминировал женщин при найме на работу, научил миллионы людей некоторым проблемным идеям и даже убивал людей с помощью автомобилей с автоматической коробкой передач. [10] ИИ может быть мощным инструментом, который можно использовать для улучшения жизни, но он также может быть опасной технологией с потенциалом для злоупотреблений.
Несмотря на то, что это «узкий» ИИ, рекомендательные системы эффективны в прогнозировании реакций пользователей на основе их постов, шаблонов или тенденций. [11] Например, алгоритм TikTok «For You» может определить интересы или предпочтения пользователя менее чем за час. [12] Некоторые другие системы ИИ социальных сетей используются для обнаружения ботов, которые могут быть вовлечены в предвзятую пропаганду или другие потенциально вредоносные действия. [13]
Джон Сирл оспаривает возможность сильного ИИ (под которым он подразумевает сознательный ИИ). Он также считает, что тест Тьюринга (создан Аланом Тьюрингом и первоначально назывался «игрой в имитацию», используемой для оценки того, может ли машина общаться неотличимо от человека) не является точным или подходящим для проверки того, является ли ИИ «сильным». [14]
Такие ученые, как Антонио Лието, утверждают, что текущие исследования как ИИ, так и когнитивного моделирования полностью соответствуют гипотезе слабого ИИ (которую не следует путать с различием между «общим» и «узким» ИИ) и что популярное предположение о том, что когнитивно-инспирированные системы ИИ поддерживают сильную гипотезу ИИ, является некорректным и проблематичным, поскольку «искусственные модели мозга и разума могут использоваться для понимания ментальных явлений, не притворяясь, что они являются реальными явлениями, которые они моделируют» [15] (как, с другой стороны, подразумевается в предположении сильного ИИ).