stringtranslate.com

Остановите гигантские эксперименты с искусственным интеллектом: открытое письмо

Pause Giant AI Experiments: An Open Letter — заголовок письма, опубликованного Future of Life Institute в марте 2023 года. В письме содержится призыв «все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4 », ссылаясь на такие риски, как пропаганда, создаваемая ИИ, чрезмерная автоматизация рабочих мест, устаревание человека и потеря контроля во всем обществе. [1] Под ним подписалось более 30 000 человек, включая академических исследователей ИИ и руководителей отрасли, таких как Йошуа Бенджио , Стюарт Рассел , Илон Маск , Стив Возняк и Юваль Ноа Харари . [1] [2] [3]

Мотивации

Публикация произошла через неделю после выпуска большой языковой модели OpenAI GPT -4 . В ней утверждается, что текущие большие языковые модели «становятся конкурентоспособными с человеком в общих задачах», ссылаясь на статью о ранних экспериментах GPT-4, описанных как имеющие «Искры AGI ». [4] AGI описывается как представляющий многочисленные важные риски, особенно в контексте динамики гонки на дно , в которой некоторые лаборатории ИИ могут быть заинтересованы в том, чтобы игнорировать безопасность, чтобы быстрее развертывать продукты. [5]

В нем предлагается переориентировать исследования ИИ на создание мощных систем ИИ «более точных, безопасных, интерпретируемых, прозрачных, надежных, согласованных, заслуживающих доверия и лояльных». В письме также рекомендуется усилить государственное регулирование, проводить независимые аудиты перед обучением систем ИИ, а также «отслеживать высокоэффективные системы ИИ и большие объемы вычислительных мощностей» и «надежное государственное финансирование исследований безопасности технических систем ИИ». [1] FLI предлагает использовать «объем вычислений, который входит в учебный запуск» в качестве показателя того, насколько мощным является ИИ, и, следовательно, в качестве порогового значения. [6]

Прием

Письмо получило широкое освещение, а его поддержку получил ряд высокопоставленных лиц. По состоянию на июль 2024 года пауза не была реализована — вместо этого, как указала FLI в годовщину письма, компании ИИ направили «огромные инвестиции в инфраструктуру для обучения все более гигантских систем ИИ». [7] Тем не менее, ему приписывают создание «возобновленной срочности в правительствах в разработке того, что делать с быстрым прогрессом ИИ», и отражение растущей обеспокоенности общественности по поводу рисков, представляемых ИИ. [8]

Элиезер Юдковски написал, что письмо «не заходит достаточно далеко» и утверждал, что оно должно просить о неопределенной паузе. Он опасается, что поиск решения проблемы выравнивания может занять несколько десятилетий и что любой несогласованный ИИ, достаточно разумный, может привести к вымиранию человечества . [9]

Некоторые члены IEEE назвали различные причины подписания письма, например, что «Существует слишком много способов злоупотребления этими системами. Они свободно распространяются, и нет никаких проверок или регулирования для предотвращения вреда». [10] Один из специалистов по этике ИИ утверждал, что письмо обеспечивает осведомленность о многих проблемах, таких как клонирование голоса, но утверждал, что письмо не подлежит действию и не имеет юридической силы. [11]

Письмо подверглось критике за отвлечение внимания от более непосредственных социальных рисков, таких как алгоритмические предубеждения . [12] Тимнит Гебру и другие утверждали, что письмо было сенсационным и преувеличивало «какой-то футуристический, антиутопический научно-фантастический сценарий» вместо текущих проблем с ИИ сегодня. [11]

Генеральный директор Microsoft Билл Гейтс решил не подписывать письмо, заявив, что он не думает, что «просьба одной конкретной группы сделать паузу решит проблемы». [13] Сэм Альтман , генеральный директор OpenAI , прокомментировал, что в письме «отсутствует большинство технических нюансов о том, где нам нужна пауза», и заявил, что «В более ранней версии письма утверждалось, что OpenAI обучает GPT-5 прямо сейчас. Мы этого не делаем и не будем делать в течение некоторого времени». [14] Рид Хоффман утверждал, что письмо было « сигналом добродетели », не имеющим реального воздействия. [15]

Список известных подписавших

Ниже перечислены некоторые известные лица, подписавшие письмо. [1]

Смотрите также

Ссылки

  1. ^ abcd "Pause Giant AI Experiments: An Open Letter". Future of Life Institute . Получено 2024-07-19 .
  2. ^ Метц, Кейд; Шмидт, Грегори (29.03.2023). «Илон Маск и другие призывают приостановить разработку ИИ, ссылаясь на «серьезные риски для общества»». The New York Times . ISSN  0362-4331 . Получено 20.08.2024 .
  3. ^ Херн, Алекс (29.03.2023). «Илон Маск присоединяется к призыву приостановить создание гигантских ИИ «цифровых умов»». The Guardian . ISSN  0261-3077 . Получено 20.08.2024 .
  4. ^ Бубек, Себастьян; Чандрасекаран, Варун; Эльдан, Ронен; Герке, Йоханнес; Хорвиц, Эрик; Камар, Эдже; Ли, Питер; Ли, Инь Тат; Ли, Юаньчжи; Лундберг, Скотт; Нори, Харша; Паланги, Хамид; Рибейро, Марко Тулио; Чжан, И (12 апреля 2023 г.). «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4». arXiv : 2303.12712 [cs.CL].
  5. ^ "Депутаты предупредили о приближающейся гонке вооружений ИИ | Computer Weekly". ComputerWeekly.com . Получено 13 апреля 2023 г.
  6. ^ Поддержка (2023-03-31). "Часто задаваемые вопросы об открытом письме FLI, призывающем к паузе на гигантских экспериментах с ИИ". Future of Life Institute . Получено 2023-04-13 .
  7. ^ Агирре, Энтони (2024-03-22). «Письмо о паузе: год спустя». Future of Life Institute . Получено 2024-07-19 .
  8. ^ «Спустя шесть месяцев после призыва к паузе в разработке ИИ, мы приближаемся к катастрофе?». euronews . 21.09.2023 . Получено 19.07.2024 .
  9. ^ «Открытое письмо об ИИ не заходит достаточно далеко». Время . 2023-03-29 . Получено 2023-04-13 .
  10. ^ "Открытое письмо 'AI Pause' разжигает страх и споры - IEEE Spectrum". IEEE . Получено 2023-04-13 .
  11. ^ ab Anderson, Margo (7 апреля 2023 г.). «Открытое письмо «AI Pause» разжигает страх и споры — IEEE Spectrum». IEEE Spectrum . Получено 03.07.2024 .
  12. ^ Пол, Кари (01.04.2023). «Письмо, подписанное Илоном Маском, с требованием приостановить исследования в области ИИ, вызвало споры». The Guardian . ISSN  0261-3077 . Получено 14.04.2023 .
  13. ^ Ригби, Дженнифер (04.04.2023). «Билл Гейтс говорит, что призывы приостановить ИИ не «решат проблемы». Reuters . Получено 13.04.2023 .
  14. ^ Винсент, Джеймс (14 апреля 2023 г.). «Генеральный директор OpenAI подтверждает, что компания не обучает GPT-5 и «не будет делать этого в течение некоторого времени»». The Verge .
  15. Хит, Райан (22 сентября 2023 г.). «Великая «пауза» ИИ, которой не было». Axios .

Внешние ссылки