stringtranslate.com

Институт Будущего Жизни

42°22′25″с.ш. 71°06′35″з.д. / 42.3736158°с.ш. 71.1097335°з.д. / 42.3736158; -71.1097335

Институт будущего жизни ( FLI ) — некоммерческая организация , которая стремится направить преобразующие технологии на благо жизни и отдалить их от крупномасштабных рисков, уделяя особое внимание экзистенциальному риску от передового искусственного интеллекта (ИИ). Работа FLI включает в себя предоставление грантов , образовательную деятельность и пропаганду в рамках Организации Объединенных Наций , правительства США и учреждений Европейского союза .

Среди основателей Института — космолог из Массачусетского технологического института Макс Тегмарк , космолог из Калифорнийского университета в Санта-Крузе Энтони Агирре и соучредитель Skype Яан Таллинн ; среди консультантов Института — предприниматель Илон Маск .

Цель

Макс Тегмарк , профессор Массачусетского технологического института , один из основателей и нынешний президент Института будущего жизни

Заявленная миссия FLI — направить преобразующие технологии на благо жизни и в сторону от крупномасштабных рисков. [1] Философия FLI фокусируется на потенциальном риске для человечества от разработки искусственного интеллекта (AGI) человеческого уровня или сверхразумного , но также работает над снижением риска от биотехнологий, ядерного оружия и глобального потепления. [2]

История

FLI был основан в марте 2014 года космологом MIT Максом Тегмарком , соучредителем Skype Яаном Таллином , исследователем DeepMind Викторией Краковной, постдокторантом Университета Тафтса Мейей Чита-Тегмарк и физиком UCSC Энтони Агирре . В число консультантов Института входят компьютерные ученые Стюарт Дж. Рассел и Франческа Росси , биолог Джордж Чёрч , космолог Сол Перлмуттер , астрофизик Сандра Фабер , физик-теоретик Фрэнк Вильчек , предприниматель Илон Маск , а также актёры и научные коммуникаторы Алан Алда и Морган Фримен (а также космолог Стивен Хокинг до его смерти в 2018 году). [3] [4] [5]

Начиная с 2017 года, FLI предлагает ежегодную премию «Будущее жизни», первым лауреатом которой стал Василий Архипов . В том же году FLI выпустила короткометражный фильм Slaughterbots , пропагандирующий контроль над вооружениями. В 2021 году FLI выпустила сиквел. [6]

В 2018 году FLI подготовила письмо, призывающее к «законам против смертоносного автономного оружия». Среди подписавших были Илон Маск , Демис Хассабис , Шейн Легг и Мустафа Сулейман . [7]

В январе 2023 года шведский журнал Expo сообщил, что FLI предложил грант в размере 100 000 долларов США фонду, созданному Nya Dagbladet , шведской крайне правой интернет-газетой. [8] [9] В ответ Тегмарк заявил, что институт узнал о позициях Nya Dagbladet только в ходе комплексной проверки , спустя несколько месяцев после того, как грант был первоначально предложен, и что грант был немедленно отозван. [9]

Открытое письмо о паузе в работе ИИ

В марте 2023 года FLI опубликовала письмо под названием « Pause Giant AI Experiments: An Open Letter ». В нем содержался призыв к крупным разработчикам ИИ договориться о проверяемой шестимесячной паузе в работе любых систем «мощнее GPT-4 » и использовать это время для создания рамок для обеспечения безопасности; или, в случае неудачи, правительствам следует ввести мораторий. В письме говорилось: «в последние месяцы лаборатории ИИ оказались втянуты в неконтролируемую гонку по разработке и развертыванию все более мощных цифровых разумов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать». [10] В письме говорилось о возможности «глубокого изменения в истории жизни на Земле», а также о потенциальных рисках пропаганды, создаваемой ИИ, потери рабочих мест, устаревания людей и потери контроля в масштабах всего общества. [11] [12]

Среди видных подписавших письмо были Илон Маск , Стив Возняк , Эван Шарп , Крис Ларсен и Гэри Маркус ; генеральные директора лабораторий искусственного интеллекта Коннор Лихи и Эмад Мостак ; политик Эндрю Янг ; исследователь глубокого обучения Йошуа Бенджио ; и Юваль Ноа Харари . [13] Маркус заявил, что «письмо не идеально, но дух правильный». Мостак заявил: «Я не думаю, что шестимесячная пауза — лучшая идея, или согласен со всем, но в этом письме есть некоторые интересные вещи». Напротив, Бенджио прямо одобрил шестимесячную паузу на пресс-конференции. [14] [15] Маск предсказал, что «ведущие разработчики ИИ не прислушаются к этому предупреждению, но, по крайней мере, так было сказано». [16] Некоторые подписавшие, включая Маска, заявили, что ими двигали опасения экзистенциального риска со стороны общего искусственного интеллекта . [17] Некоторые из других подписавших, такие как Маркус, вместо этого заявили, что они подписались из-за беспокойства о рисках, таких как пропаганда, создаваемая искусственным интеллектом. [18]

Авторы одной из статей, цитируемых в письме FLI, « Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими? » [19], включая Эмили М. Бендер , Тимнит Гебру и Маргарет Митчелл , раскритиковали письмо. [20] Митчелл сказала, что «рассматривая множество сомнительных идей как данность, письмо утверждает набор приоритетов и повествование об ИИ, которые приносят пользу сторонникам FLI. Игнорирование активного вреда прямо сейчас — привилегия, которой некоторые из нас не обладают». [20]

Операции

Пропаганда

FLI активно участвовала в разработке политики в области ИИ. Например, в октябре 2023 года лидер большинства в Сенате США Чак Шумер пригласил FLI поделиться своей точкой зрения на регулирование ИИ с избранными сенаторами. [21] В Европе FLI успешно выступала за включение более общих систем ИИ, таких как GPT-4 , в Закон ЕС об искусственном интеллекте . [22]

Плакат Института будущего жизни в Организации Объединенных Наций
FLI в штаб-квартире ООН в Женеве, 2021 г. Об автономном оружии.

В военной политике FLI координировал поддержку научного сообщества Договора о запрещении ядерного оружия . [23] В ООН и других организациях Институт также выступал за договор об автономном оружии . [24] [25]

Гранты на исследования

Исследовательская программа FLI началась в 2015 году с первоначального пожертвования в размере 10 миллионов долларов от Илона Маска. [26] [27] [28] В этом первоначальном раунде в общей сложности 7 миллионов долларов было выделено на 37 исследовательских проектов. [29] В июле 2021 года FLI объявила о запуске новой грантовой программы на 25 миллионов долларов при финансировании со стороны российско-канадского программиста Виталика Бутерина . [30]

Конференции

В 2014 году Институт будущего жизни провел свое открытие в Массачусетском технологическом институте : панельную дискуссию на тему «Будущее технологий: преимущества и риски», модератором которой выступил Алан Алда . [31] [32] Участниками дискуссии были синтетический биолог Джордж Чёрч , генетик Тин Ву , экономист Эндрю Макафи , физик и лауреат Нобелевской премии Фрэнк Вильчек и соучредитель Skype Яан Таллинн . [33] [34]

С 2015 года FLI организует конференции два раза в год с заявленной целью объединения исследователей ИИ из академических кругов и промышленности. По состоянию на апрель 2023 года состоялись следующие конференции:

В СМИ

Смотрите также

Ссылки

  1. ^ "Future of Life Institute homepage". Future of Life Institute. 9 сентября 2021 г. Архивировано из оригинала 8 сентября 2021 г. Получено 9 сентября 2021 г.
  2. ^ Чен, Анджела (11 сентября 2014 г.). «Искусственный интеллект — угроза?». Хроника высшего образования . Архивировано из оригинала 22 декабря 2016 г. Получено 18 сентября 2014 г.
  3. ^ «Но что бы означал для меня конец человечества?». The Atlantic. 9 мая 2014 г. Архивировано из оригинала 4 июня 2014 г. Получено 13 апреля 2020 г.
  4. ^ "Кто мы". Future of Life Institute. Архивировано из оригинала 6 апреля 2020 года . Получено 13 апреля 2020 года .
  5. ^ "Наш научно-фантастический апокалипсис: познакомьтесь с учеными, пытающимися предсказать конец света". Салон . 5 октября 2014 г. Архивировано из оригинала 18 марта 2021 г. Получено 13 апреля 2020 г.
  6. ^ Уолш, Брайан (20 октября 2022 г.). «Физик Макс Тегмарк работает над тем, чтобы у жизни было будущее». Vox . Архивировано из оригинала 31 марта 2023 г. . Получено 31 марта 2023 г. .
  7. ^ «ИИ-инноваторы дают обещание против автономного оружия-убийцы». NPR . 2018. Архивировано из оригинала 31 марта 2023 г. Получено 31 марта 2023 г.
  8. ^ Далсбро, Андерс; Леман, Джонатан (13.01.2023). «Финансируемая Илоном Маском некоммерческая организация, управляемая профессором Массачусетского технологического института, предложила профинансировать шведскую пронацистскую группу». Expo . Архивировано из оригинала 25.06.2023 . Получено 17.08.2023 .
  9. ^ ab Hume, Tim (19.01.2023). «Некоммерческая организация, поддерживаемая Илоном Маском, предложила грант в размере 100 тыс. долларов «пронацистскому» СМИ». Vice . Архивировано из оригинала 23.06.2023 . Получено 17.08.2023 .
  10. ^ "Илон Маск среди экспертов, призывающих прекратить обучение ИИ". BBC News . 2023-03-29. Архивировано из оригинала 2023-04-01 . Получено 2023-04-01 .
  11. ^ «Илон Маск и другие лидеры технологий призывают приостановить «вышедшую из-под контроля» гонку искусственного интеллекта». CNN . 29 марта 2023 г. Архивировано из оригинала 10 апреля 2023 г. Получено 30 марта 2023 г.
  12. ^ "Pause Giant AI Experiments: An Open Letter". Future of Life Institute . Архивировано из оригинала 27 марта 2023 г. Получено 30 марта 2023 г.
  13. ^ Болл, Джеймс (2023-04-02). «Мы в гонке за искусственный интеллект, запрещать его было бы глупо». The Sunday Times . Архивировано из оригинала 2023-08-19 . Получено 2023-04-02 .
  14. ^ «Маск и Возняк среди более чем 1100 подписавших открытое письмо, призывающее к 6-месячному запрету на создание мощного ИИ» Fortune . Март 2023 г. Архивировано из оригинала 29 марта 2023 г. Получено 30 марта 2023 г.
  15. ^ «Открытое письмо, призывающее остановить «опасную» гонку искусственного интеллекта, — это огромный беспорядок». www.vice.com . Март 2023 г. Архивировано из оригинала 30 марта 2023 г. Получено 30 марта 2023 г.
  16. ^ "Илон Маск". Twitter . Архивировано из оригинала 30 марта 2023 г. . Получено 30 марта 2023 г. .
  17. ^ Розенберг, Скотт (30 марта 2023 г.). «Открытое письмо вызвало дебаты по поводу «приостановки» исследований ИИ из-за рисков». Axios . Архивировано из оригинала 31 марта 2023 г. . Получено 31 марта 2023 г. .
  18. ^ «Лидеры технологий призывают сделать паузу в «вышедшей из-под контроля» гонке искусственного интеллекта». NPR . 2023. Архивировано из оригинала 29 марта 2023 г. Получено 30 марта 2023 г.
  19. ^ Бендер, Эмили М.; Гебру, Тимнит; Макмиллан-Мейджор, Анджелина; Шмитчелл, Шмаргарет (2021-03-03). «Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими?». Труды конференции ACM 2021 года по справедливости, подотчетности и прозрачности . Виртуальное мероприятие в Канаде: ACM. стр. 610–623. doi : 10.1145/3442188.3445922 . ISBN 978-1-4503-8309-7.
  20. ^ ab Kari, Paul (2023-04-01). «Письмо, подписанное Илоном Маском, с требованием приостановить исследования в области ИИ, вызвало споры». The Guardian . Архивировано из оригинала 2023-04-01 . Получено 2023-04-01 .
  21. ^ Кришан, Нихал (2023-10-26). «Второй форум сенатора Чака Шумера по искусственному интеллекту охватывает увеличение финансирования НИОКР, проблемы иммиграции и гарантии». FedScoop . Получено 2024-03-16 .
  22. ^ "Закон ЕС об искусственном интеллекте не является "защищенным от будущих требований", предупреждают эксперты депутатов Европарламента". Наука|Бизнес . Получено 2024-03-16 .
  23. ^ Ученые поддерживают запрет на ядерное оружие, 16 июня 2017 г. , получено 16 марта 2024 г.
  24. ^ "Обучение летальному автономному оружию". Future of Life Institute . Получено 2024-03-16 .
  25. ^ Правительство Коста-Рики (24 февраля 2023 г.). «Обращение FLI» (PDF) . Конференция стран Латинской Америки и Карибского бассейна по социальному и гуманитарному воздействию автономного оружия .
  26. ^ "Elon Musk donates $10M to keep AI benefits". Future of Life Institute. 15 января 2015 г. Архивировано из оригинала 28 февраля 2018 г. Получено 28 июля 2019 г.
  27. ^ "Илон Маск жертвует 10 миллионов долларов на исследования в области искусственного интеллекта". SlashGear. 15 января 2015 г. Архивировано из оригинала 7 апреля 2015 г. Получено 26 апреля 2015 г.
  28. ^ "Илон Маск жертвует 10 миллионов долларов собственных денег на исследования в области искусственного интеллекта". Fast Company. 15 января 2015 г. Архивировано из оригинала 30 октября 2015 г. Получено 19 января 2015 г.
  29. ^ «Новая международная программа грантов запускает исследования, чтобы гарантировать, что ИИ остается полезным». Future of Life Institute. 28 октября 2015 г. Архивировано из оригинала 28 июля 2019 г. Получено 28 июля 2019 г.
  30. ^ "FLI объявляет о программе грантов на сумму 25 млн долларов для снижения экзистенциального риска". Future of Life Institute. 2 июля 2021 г. Архивировано из оригинала 9 сентября 2021 г. Получено 9 сентября 2021 г.
  31. ^ «Будущее технологий: преимущества и риски». Future of Life Institute. 24 мая 2014 г. Архивировано из оригинала 28 июля 2019 г. Получено 28 июля 2019 г.
  32. ^ "Machine Intelligence Research Institute - June 2014 Newsletter". 2 июня 2014. Архивировано из оригинала 3 июля 2014. Получено 19 июня 2014 .
  33. ^ "FHI News: 'Future of Life Institute hosts opening event at MIT'". Future of Humanity Institute. 20 мая 2014 г. Архивировано из оригинала 27 июля 2014 г. Получено 19 июня 2014 г.
  34. ^ «Будущее технологий: преимущества и риски». Проект по обучению персональной генетике. 9 мая 2014 г. Архивировано из оригинала 22 декабря 2015 г. Получено 19 июня 2014 г.
  35. ^ "Конференция по безопасности ИИ в Пуэрто-Рико". Future of Life Institute. Архивировано из оригинала 7 ноября 2015 г. Получено 19 января 2015 г.
  36. ^ "Приоритеты исследований для надежного и полезного искусственного интеллекта: открытое письмо". Future of Life Institute. Архивировано из оригинала 2019-08-10 . Получено 2019-07-28 .
  37. ^ "Beneficial AI 2017". Future of Life Institute. Архивировано из оригинала 2020-02-24 . Получено 2019-07-28 .
  38. ^ Метц, Кейд (9 июня 2018 г.). «Марк Цукерберг, Илон Маск и вражда из-за роботов-убийц». NYT . Архивировано из оригинала 15 февраля 2021 г. Получено 10 июня 2018 г. Закрытая встреча в отеле Asilomar была организована Future of Life Institute — аналитическим центром, созданным для обсуждения экзистенциальных рисков ИИ и других технологий.
  39. ^ "Asilomar AI Principles". Future of Life Institute. Архивировано из оригинала 2017-12-11 . Получено 2019-07-28 .
  40. ^ "Принципы Асиломара" (PDF) . ОЭСР. Архивировано (PDF) из оригинала 2021-09-09 . Получено 2021-09-09 .
  41. ^ "Beneficial AGI 2019". Future of Life Institute. Архивировано из оригинала 2019-07-28 . Получено 2019-07-28 .
  42. ^ "CSER на конференции Beneficial AGI 2019". Центр изучения экзистенциального риска. Архивировано из оригинала 2019-07-28 . Получено 2019-07-28 .

Внешние ссылки