Институт AI Now ( AI Now ) — американский научно-исследовательский институт, изучающий социальные последствия искусственного интеллекта и политические исследования, которые касаются концентрации власти в технологической отрасли. [2] [3] [4] AI Now сотрудничает с такими организациями, как Distributed AI Research Institute (DAIR) , Data & Society, Ada Lovelace Institute, New York University Tandon School of Engineering , New York University Center for Data Science , Partnership on AI и ACLU . AI Now выпускает ежегодные отчеты, в которых исследуются социальные последствия искусственного интеллекта . В 2021–2022 годах руководство AI Now занимало должность старшего советника по ИИ у председателя Лины Хан в Федеральной торговой комиссии. [5] Его исполнительным директором является Амба Как . [6] [7]
AI Now вырос из симпозиума 2016 года, инициированного Управлением по политике в области науки и технологий Белого дома Обамы . Мероприятие провели Мередит Уиттакер , основательница Open Research Group Google , и Кейт Кроуфорд , главный научный сотрудник Microsoft Research. [8] Мероприятие было посвящено краткосрочным последствиям ИИ в социальных областях: неравенство, труд, этика и здравоохранение. [9]
В ноябре 2017 года AI Now провел второй симпозиум по ИИ и социальным вопросам и публично запустил Институт AI Now в партнерстве с Нью-Йоркским университетом. [8] Утверждается, что это первый университетский научно-исследовательский институт, сосредоточенный на социальных последствиях ИИ, и первый институт ИИ, основанный и возглавляемый женщинами. [1] Теперь это полностью независимый институт.
В интервью NPR Кроуфорд заявил, что мотивацией для основания AI Now было то, что применение ИИ в социальных областях, таких как здравоохранение, образование и уголовное правосудие, рассматривалось как чисто техническая проблема. Цель исследований AI Now — рассматривать их в первую очередь как социальные проблемы и привлекать экспертов в таких областях, как социология, право и история, для изучения последствий применения ИИ. [10]
AI Now публикует ежегодные отчеты о состоянии ИИ и его интеграции в общество. В отчете за 2017 год говорится, что «текущие рамки этики ИИ терпят неудачу», и даются десять стратегических рекомендаций для этой области, включая предварительные испытания систем ИИ и расширение исследований предвзятости и разнообразия в этой области. Отчет был отмечен призывом положить конец системам « черного ящика » в основных социальных областях, таких как те, которые отвечают за уголовное правосудие, здравоохранение, социальное обеспечение и образование. [11] [12] [13]
В апреле 2018 года AI Now выпустила структуру для алгоритмических оценок воздействия, как способ для правительств оценить использование ИИ в государственных учреждениях. По данным AI Now, AIA будет похожа на оценку воздействия на окружающую среду , поскольку она потребует публичного раскрытия и доступа внешних экспертов для оценки эффектов системы ИИ и любых непреднамеренных последствий. Это позволит проверять системы на предмет таких проблем, как предвзятые результаты или искаженные данные обучения, которые исследователи уже выявили в алгоритмических системах, развернутых по всей стране. [14] [15] [16]
В отчете за 2023 год [17] утверждается, что значимая реформа технологического сектора должна быть направлена на решение проблемы концентрации власти в технологической отрасли. [18]