Письмо 2023 года с призывом приостановить обучение систем искусственного интеллекта
Pause Giant AI Experiments: An Open Letter — заголовок письма, опубликованного Future of Life Institute в марте 2023 года. В письме содержится призыв «все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4 », ссылаясь на такие риски, как пропаганда, создаваемая ИИ, чрезмерная автоматизация рабочих мест, устаревание человека и потеря контроля во всем обществе. [1] Под ним подписалось более 30 000 человек, включая академических исследователей ИИ и руководителей отрасли, таких как Йошуа Бенджио , Стюарт Рассел , Илон Маск , Стив Возняк и Юваль Ноа Харари . [1] [2] [3]
Мотивации
Публикация произошла через неделю после выпуска большой языковой модели OpenAI GPT -4 . В ней утверждается, что текущие большие языковые модели «становятся конкурентоспособными с человеком в общих задачах», ссылаясь на статью о ранних экспериментах GPT-4, описанных как имеющие «Искры AGI ». [4] AGI описывается как представляющий многочисленные важные риски, особенно в контексте динамики гонки на дно , в которой некоторые лаборатории ИИ могут быть заинтересованы в том, чтобы игнорировать безопасность, чтобы быстрее развертывать продукты. [5]
В нем предлагается переориентировать исследования ИИ на создание мощных систем ИИ «более точных, безопасных, интерпретируемых, прозрачных, надежных, согласованных, заслуживающих доверия и лояльных». В письме также рекомендуется усилить государственное регулирование, проводить независимые аудиты перед обучением систем ИИ, а также «отслеживать высокоэффективные системы ИИ и большие объемы вычислительных мощностей» и «надежное государственное финансирование исследований безопасности технических систем ИИ». [1] FLI предлагает использовать «объем вычислений, который входит в учебный запуск» в качестве показателя того, насколько мощным является ИИ, и, следовательно, в качестве порогового значения. [6]
Прием
Письмо получило широкое освещение, а его поддержку получил ряд высокопоставленных лиц. По состоянию на июль 2024 года пауза не была реализована — вместо этого, как указала FLI в годовщину письма, компании ИИ направили «огромные инвестиции в инфраструктуру для обучения все более гигантских систем ИИ». [7] Тем не менее, ему приписывают создание «возобновленной срочности в правительствах в разработке того, что делать с быстрым прогрессом ИИ», и отражение растущей обеспокоенности общественности по поводу рисков, представляемых ИИ. [8]
Элиезер Юдковски написал, что письмо «не заходит достаточно далеко» и утверждал, что оно должно просить о неопределенной паузе. Он опасается, что поиск решения проблемы выравнивания может занять несколько десятилетий и что любой несогласованный ИИ, достаточно разумный, может привести к вымиранию человечества . [9]
Некоторые члены IEEE назвали различные причины подписания письма, например, что «Существует слишком много способов злоупотребления этими системами. Они свободно распространяются, и нет никаких проверок или регулирования для предотвращения вреда». [10] Один из специалистов по этике ИИ утверждал, что письмо обеспечивает осведомленность о многих проблемах, таких как клонирование голоса, но утверждал, что письмо не подлежит действию и не имеет юридической силы. [11]
Письмо подверглось критике за отвлечение внимания от более непосредственных социальных рисков, таких как алгоритмические предубеждения . [12] Тимнит Гебру и другие утверждали, что письмо было сенсационным и преувеличивало «какой-то футуристический, антиутопический научно-фантастический сценарий» вместо текущих проблем с ИИ сегодня. [11]
Генеральный директор Microsoft Билл Гейтс решил не подписывать письмо, заявив, что он не думает, что «просьба одной конкретной группы сделать паузу решит проблемы». [13] Сэм Альтман , генеральный директор OpenAI , прокомментировал, что в письме «отсутствует большинство технических нюансов о том, где нам нужна пауза», и заявил, что «В более ранней версии письма утверждалось, что OpenAI обучает GPT-5 прямо сейчас. Мы этого не делаем и не будем делать в течение некоторого времени». [14] Рид Хоффман утверждал, что письмо было « сигналом добродетели », не имеющим реального воздействия. [15]
Список известных подписавших
Ниже перечислены некоторые известные лица, подписавшие письмо. [1]
- Йошуа Бенджио (канадский исследователь искусственного интеллекта, научный руководитель Монреальского института алгоритмов обучения и лауреат премии Тьюринга )
- Стюарт Рассел (британский учёный-компьютерщик, автор книги « Искусственный интеллект: современный подход »)
- Илон Маск (бизнесмен и инвестор, генеральный директор SpaceX и Tesla , владелец X Corp )
- Стив Возняк (американский предприниматель в сфере технологий, соучредитель Apple )
- Юваль Ной Харари (израильский историк и философ, автор научно-популярного бестселлера «Sapiens: Краткая история человечества »)
- Эмад Мостак (генеральный директор Stability AI)
- Эндрю Янг (американский бизнесмен и политик)
- Лоренс Краусс (канадско-американский физик-теоретик и писатель)
- Джон Хопфилд (американский учёный, известный изобретением ассоциативных нейронных сетей )
- Яан Таллинн (эстонский миллиардер и программист, один из создателей Skype и соучредитель Future of Life Institute)
- Ян Хогарт (британский инвестор и предприниматель, председатель целевой группы по модели ИИ-фонда правительства Великобритании)
- Эван Шарп (американский интернет-предприниматель и соучредитель Pinterest )
- Гэри Маркус ( почетный профессор психологии и нейронауки Нью -Йоркского университета )
- Крис Ларсен (американский предприниматель и инвестор)
- Грэди Буч (американский инженер-программист)
- Макс Тегмарк (шведско-американский космолог, основатель Института будущего жизни и автор книги « Жизнь 3.0 »)
- Энтони Агирре (американский космолог, соучредитель Института будущего жизни и платформы прогнозирования Metaculus )
- Тристан Харрис (американский специалист по этике технологий и соучредитель Центра гуманных технологий )
- Даниэль Аллен (американский политолог)
- Марк Ротенберг (президент и основатель Центра искусственного интеллекта и цифровой политики)
- Стив Омохундро (американский учёный-компьютерщик, генеральный директор Beneficial AI Research)
- Аза Раскин (соучредитель Центра гуманных технологий )
- Хью Прайс (австралийский философ, соучредитель Центра изучения экзистенциального риска )
- Джефф Орловски (американский кинорежиссер, режиссер фильмов «В погоне за льдом» и «Социальная дилемма »)
- Олле Хеггстрём (шведский математик и автор книги «Здесь обитают драконы», в которой обсуждается потенциальная опасность новых технологий)
- Раджа Шатила (профессор робототехники, искусственного интеллекта и этики и бывший директор по исследованиям Французского национального центра научных исследований )
- Моше Варди (израильский математик и учёный в области информатики)
- Адам Д. Смит (специалист по информатике в Бостонском университете )
- Дарон Аджемоглу (турецкий экономист и профессор Массачусетского технологического института )
- Кристоф Кох (немецкий нейрофизиолог и вычислительный нейробиолог )
- Джордж Дайсон (американский писатель и историк техники)
- Джиллиан Хэдфилд (юрист и бывший старший политический советник OpenAI )
- Эрик Хоэль (американский нейробиолог , нейрофилософ и писатель)
- Барт Селман (голландский профессор компьютерных наук, соучредитель Центра искусственного интеллекта, совместимого с человеком )
- Том Грубер (компьютерный учёный и соучредитель Siri Inc. )
- Роберт Бранденбергер (швейцарско-канадский теоретик-космолог)
- Майкл Уэллман (американский учёный-компьютерщик и член Ассоциации по развитию искусственного интеллекта )
- Берндт Мюллер (немецкий физик-ядерщик)
- Алан Макворт (канадский исследователь искусственного интеллекта и бывший президент Ассоциации по развитию искусственного интеллекта )
- Коннор Лихи (исследователь безопасности ИИ и генеральный директор Conjecture)
Смотрите также
Ссылки
- ^ abcd "Pause Giant AI Experiments: An Open Letter". Future of Life Institute . Получено 2024-07-19 .
- ^ Метц, Кейд; Шмидт, Грегори (29.03.2023). «Илон Маск и другие призывают приостановить разработку ИИ, ссылаясь на «серьезные риски для общества»». The New York Times . ISSN 0362-4331 . Получено 20.08.2024 .
- ^ Херн, Алекс (29.03.2023). «Илон Маск присоединяется к призыву приостановить создание гигантских ИИ «цифровых умов»». The Guardian . ISSN 0261-3077 . Получено 20.08.2024 .
- ^ Бубек, Себастьян; Чандрасекаран, Варун; Эльдан, Ронен; Герке, Йоханнес; Хорвиц, Эрик; Камар, Эдже; Ли, Питер; Ли, Инь Тат; Ли, Юаньчжи; Лундберг, Скотт; Нори, Харша; Паланги, Хамид; Рибейро, Марко Тулио; Чжан, И (12 апреля 2023 г.). «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4». arXiv : 2303.12712 [cs.CL].
- ^ "Депутаты предупредили о приближающейся гонке вооружений ИИ | Computer Weekly". ComputerWeekly.com . Получено 13 апреля 2023 г.
- ^ Поддержка (2023-03-31). "Часто задаваемые вопросы об открытом письме FLI, призывающем к паузе на гигантских экспериментах с ИИ". Future of Life Institute . Получено 2023-04-13 .
- ^ Агирре, Энтони (2024-03-22). «Письмо о паузе: год спустя». Future of Life Institute . Получено 2024-07-19 .
- ^ «Спустя шесть месяцев после призыва к паузе в разработке ИИ, мы приближаемся к катастрофе?». euronews . 21.09.2023 . Получено 19.07.2024 .
- ^ «Открытое письмо об ИИ не заходит достаточно далеко». Время . 2023-03-29 . Получено 2023-04-13 .
- ^ "Открытое письмо 'AI Pause' разжигает страх и споры - IEEE Spectrum". IEEE . Получено 2023-04-13 .
- ^ ab Anderson, Margo (7 апреля 2023 г.). «Открытое письмо «AI Pause» разжигает страх и споры — IEEE Spectrum». IEEE Spectrum . Получено 03.07.2024 .
- ^ Пол, Кари (01.04.2023). «Письмо, подписанное Илоном Маском, с требованием приостановить исследования в области ИИ, вызвало споры». The Guardian . ISSN 0261-3077 . Получено 14.04.2023 .
- ^ Ригби, Дженнифер (04.04.2023). «Билл Гейтс говорит, что призывы приостановить ИИ не «решат проблемы». Reuters . Получено 13.04.2023 .
- ^ Винсент, Джеймс (14 апреля 2023 г.). «Генеральный директор OpenAI подтверждает, что компания не обучает GPT-5 и «не будет делать этого в течение некоторого времени»». The Verge .
- ↑ Хит, Райан (22 сентября 2023 г.). «Великая «пауза» ИИ, которой не было». Axios .
Внешние ссылки
- Официальный сайт
- Часто задаваемые вопросы
- Политика в паузе