AI Now Institute ( AI Now ) — американский исследовательский институт, изучающий социальные последствия искусственного интеллекта и политические исследования, направленные на решение проблемы концентрации власти в технологической отрасли. [2] [3] [4] AI Now сотрудничает с такими организациями, как Исследовательский институт распределенного искусственного интеллекта (DAIR), Data & Society, Институт Ады Лавлейс, Инженерная школа Тандон Нью-Йоркского университета , Центр науки о данных Нью-Йоркского университета , Партнерство по искусственному интеллекту и ACLU . AI Now выпускает ежегодные отчеты, в которых исследуются социальные последствия искусственного интеллекта . В 2021-2020 годах руководство AI Now занимало должность старшего советника по искусственному интеллекту у председателя Лины Хан в Федеральной торговой комиссии. [5] Его исполнительный директор — Амба Как . [6] [7]
AI Now вырос из симпозиума 2016 года, организованного Управлением по науке и технологической политике Белого дома Обамы . Мероприятие провели Мередит Уиттакер , основательница группы открытых исследований Google , и Кейт Кроуфорд , главный научный сотрудник Microsoft Research. [8] Мероприятие было посвящено краткосрочным последствиям ИИ в социальных сферах: неравенство, труд, этика и здравоохранение. [9]
В ноябре 2017 года AI Now провела второй симпозиум по искусственному интеллекту и социальным вопросам и публично запустила Институт AI Now в партнерстве с Нью-Йоркским университетом. [8] Утверждается, что это первый университетский исследовательский институт, занимающийся социальными последствиями ИИ, а также первый институт ИИ, основанный и возглавляемый женщинами. [1] Теперь это полностью независимый институт.
В интервью NPR Кроуфорд заявил, что мотивацией для создания AI Now было то, что применение ИИ в социальных сферах, таких как здравоохранение, образование и уголовное правосудие, рассматривалось как чисто техническая проблема. Цель исследования AI Now — в первую очередь рассматривать их как социальные проблемы и привлечь экспертов в таких областях, как социология, право и история, для изучения последствий ИИ. [10]
AI Now публикует ежегодные отчеты о состоянии ИИ и его интеграции в общество. В отчете за 2017 год говорится, что «нынешние рамки этики ИИ терпят неудачу», и представлены десять стратегических рекомендаций для этой области, включая предварительные испытания систем ИИ, а также усиление исследований предвзятости и разнообразия в этой области. Отчет был отмечен призывом положить конец системе « черных ящиков » в основных социальных сферах, таких как те, кто отвечает за уголовное правосудие, здравоохранение, социальное обеспечение и образование. [11] [12] [13]
В апреле 2018 года AI Now выпустила систему алгоритмической оценки воздействия, позволяющую правительствам оценивать использование ИИ в государственных учреждениях. По мнению AI Now, AIA будет похожа на оценку воздействия на окружающую среду , поскольку потребует публичного раскрытия информации и доступа внешних экспертов для оценки воздействия системы ИИ, а также любых непредвиденных последствий. Это позволит проверять системы на наличие таких проблем, как предвзятые результаты или искаженные данные обучения, которые исследователи уже выявили в алгоритмических системах, развернутых по всей стране. [14] [15] [16]
В докладе за 2023 год [17] утверждается, что значимая реформа технологического сектора должна быть сосредоточена на решении проблемы концентрации власти в технологической отрасли. [18]