stringtranslate.com

Институт ИИ сейчас

Институт AI Now ( AI Now ) — американский научно-исследовательский институт, изучающий социальные последствия искусственного интеллекта и политические исследования, которые касаются концентрации власти в технологической отрасли. [2] [3] [4] AI Now сотрудничает с такими организациями, как Distributed AI Research Institute (DAIR) , Data & Society, Ada Lovelace Institute, New York University Tandon School of Engineering , New York University Center for Data Science , Partnership on AI и ACLU . AI Now выпускает ежегодные отчеты, в которых исследуются социальные последствия искусственного интеллекта . В 2021–2022 годах руководство AI Now занимало должность старшего советника по ИИ у председателя Лины Хан в Федеральной торговой комиссии. [5] Его исполнительным директором является Амба Как . [6] [7]

Основание и миссия

AI Now вырос из симпозиума 2016 года, инициированного Управлением по политике в области науки и технологий Белого дома Обамы . Мероприятие провели Мередит Уиттакер , основательница Open Research Group Google , и Кейт Кроуфорд , главный научный сотрудник Microsoft Research. [8] Мероприятие было посвящено краткосрочным последствиям ИИ в социальных областях: неравенство, труд, этика и здравоохранение. [9]

В ноябре 2017 года AI Now провел второй симпозиум по ИИ и социальным вопросам и публично запустил Институт AI Now в партнерстве с Нью-Йоркским университетом. [8] Утверждается, что это первый университетский научно-исследовательский институт, сосредоточенный на социальных последствиях ИИ, и первый институт ИИ, основанный и возглавляемый женщинами. [1] Теперь это полностью независимый институт.

В интервью NPR Кроуфорд заявил, что мотивацией для основания AI Now было то, что применение ИИ в социальных областях, таких как здравоохранение, образование и уголовное правосудие, рассматривалось как чисто техническая проблема. Цель исследований AI Now — рассматривать их в первую очередь как социальные проблемы и привлекать экспертов в таких областях, как социология, право и история, для изучения последствий применения ИИ. [10]

Исследовать

AI Now публикует ежегодные отчеты о состоянии ИИ и его интеграции в общество. В отчете за 2017 год говорится, что «текущие рамки этики ИИ терпят неудачу», и даются десять стратегических рекомендаций для этой области, включая предварительные испытания систем ИИ и расширение исследований предвзятости и разнообразия в этой области. Отчет был отмечен призывом положить конец системам « черного ящика » в основных социальных областях, таких как те, которые отвечают за уголовное правосудие, здравоохранение, социальное обеспечение и образование. [11] [12] [13]

В апреле 2018 года AI Now выпустила структуру для алгоритмических оценок воздействия, как способ для правительств оценить использование ИИ в государственных учреждениях. По данным AI Now, AIA будет похожа на оценку воздействия на окружающую среду , поскольку она потребует публичного раскрытия и доступа внешних экспертов для оценки эффектов системы ИИ и любых непреднамеренных последствий. Это позволит проверять системы на предмет таких проблем, как предвзятые результаты или искаженные данные обучения, которые исследователи уже выявили в алгоритмических системах, развернутых по всей стране. [14] [15] [16]

В отчете за 2023 год [17] утверждается, что значимая реформа технологического сектора должна быть направлена ​​на решение проблемы концентрации власти в технологической отрасли. [18]

Ссылки

  1. ^ ab "Открывается новый институт исследований искусственного интеллекта". Новости NYU Tandon . 2017-11-25 . Получено 2018-07-07 .
  2. ^ "О нас". AI Now Institute . Получено 2023-05-12 .
  3. ^ «Область исследований ИИ скоро станет намного больше, чем просто код». Quartz . 2017-11-15 . Получено 2018-07-09 .
  4. ^ «Предвзятый ИИ представляет угрозу гражданским свободам. У ACLU есть план по ее исправлению». Fast Company . 2017-07-25 . Получено 2018-07-07 .
  5. ^ "Председатель FTC Лина М. Хан объявляет о новых назначениях на руководящие должности в агентствах". Федеральная торговая комиссия . 2021-11-19 . Получено 2023-05-12 .
  6. ^ «Amazon, Google, Meta, Microsoft и другие технологические компании соглашаются с мерами безопасности ИИ, установленными Белым домом». AP News . 2023-07-21 . Получено 2023-07-21 .
  7. ^ "Люди". AI Now Institute . Получено 2023-07-21 .
  8. ^ ab Ahmed, Salmana. «В погоне за справедливым и ответственным ИИ». Omidyar . Получено 19 июля 2018 г.
  9. ^ "Симпозиум 2016 года". ainowinstitute.org . Архивировано из оригинала 2018-07-20 . Получено 09-07-2018 .
  10. ^ «Изучение искусственного интеллекта в Нью-Йоркском университете». NPR . Получено 18 июля 2018 г.
  11. ^ "Отчет AI Now 2017". AI Now. 18 октября 2017 г. Получено 19 июля 2018 г.
  12. ^ Simonite, Tom (18 октября 2017 г.). «Эксперты по ИИ хотят положить конец алгоритмам «черного ящика» в правительстве». Wired . Получено 19 июля 2018 г.
  13. ^ Розенберг, Скотт (1 ноября 2017 г.). «Почему ИИ все еще ждет трансплантации своей этики». Wired . Получено 19 июля 2018 г.
  14. ^ Гершгорн, Дэйв (9 апреля 2018 г.). «Эксперты по ИИ хотят, чтобы правительственные алгоритмы изучались как экологические опасности». Quartz . Получено 19 июля 2018 г.
  15. ^ "AI Now AIA Report" (PDF) . AI Now. Архивировано из оригинала (PDF) 14 июня 2020 г. . Получено 19 июля 2018 г. .
  16. ^ Райзман, Диллон (16 апреля 2018 г.). «Алгоритмы принимают решения правительства. Общественность должна иметь право голоса». Medium . ACLU . Получено 19 июля 2018 г.
  17. ^ "Пейзаж 2023 года". AI Now Institute . Получено 2023-05-16 .
  18. ^ Сэмюэл, Сигал (12.04.2023). «Наконец-то реалистичная дорожная карта для контроля над компаниями, занимающимися ИИ». Vox . Получено 16.05.2023 .

Смотрите также