Заявленная миссия FLI — направить преобразующие технологии на благо жизни и в сторону от крупномасштабных рисков. [1] Философия FLI фокусируется на потенциальном риске для человечества от разработки искусственного интеллекта (AGI) человеческого уровня или сверхразумного , но также работает над снижением риска от биотехнологий, ядерного оружия и глобального потепления. [2]
Начиная с 2017 года, FLI предлагает ежегодную премию «Будущее жизни», первым лауреатом которой стал Василий Архипов . В том же году FLI выпустила короткометражный фильм Slaughterbots , пропагандирующий контроль над вооружениями. В 2021 году FLI выпустила сиквел. [6]
В январе 2023 года шведский журнал Expo сообщил, что FLI предложил грант в размере 100 000 долларов США фонду, созданному Nya Dagbladet , шведской крайне правой интернет-газетой. [8] [9] В ответ Тегмарк заявил, что институт узнал о позициях Nya Dagbladet только в ходе комплексной проверки , спустя несколько месяцев после того, как грант был первоначально предложен, и что грант был немедленно отозван. [9]
Открытое письмо о паузе в работе ИИ
В марте 2023 года FLI опубликовала письмо под названием « Pause Giant AI Experiments: An Open Letter ». В нем содержался призыв к крупным разработчикам ИИ договориться о проверяемой шестимесячной паузе в работе любых систем «мощнее GPT-4 » и использовать это время для создания рамок для обеспечения безопасности; или, в случае неудачи, правительствам следует ввести мораторий. В письме говорилось: «в последние месяцы лаборатории ИИ оказались втянуты в неконтролируемую гонку по разработке и развертыванию все более мощных цифровых разумов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать». [10] В письме говорилось о возможности «глубокого изменения в истории жизни на Земле», а также о потенциальных рисках пропаганды, создаваемой ИИ, потери рабочих мест, устаревания людей и потери контроля в масштабах всего общества. [11] [12]
Среди видных подписавших письмо были Илон Маск , Стив Возняк , Эван Шарп , Крис Ларсен и Гэри Маркус ; генеральные директора лабораторий искусственного интеллекта Коннор Лихи и Эмад Мостак ; политик Эндрю Янг ; исследователь глубокого обучения Йошуа Бенджио ; и Юваль Ноа Харари . [13] Маркус заявил, что «письмо не идеально, но дух правильный». Мостак заявил: «Я не думаю, что шестимесячная пауза — лучшая идея, или согласен со всем, но в этом письме есть некоторые интересные вещи». Напротив, Бенджио прямо одобрил шестимесячную паузу на пресс-конференции. [14] [15] Маск предсказал, что «ведущие разработчики ИИ не прислушаются к этому предупреждению, но, по крайней мере, так было сказано». [16] Некоторые подписавшие, включая Маска, заявили, что ими двигали опасения экзистенциального риска со стороны общего искусственного интеллекта . [17] Некоторые из других подписавших, такие как Маркус, вместо этого заявили, что они подписались из-за беспокойства о рисках, таких как пропаганда, создаваемая искусственным интеллектом. [18]
FLI активно участвовала в разработке политики в области ИИ. Например, в октябре 2023 года лидер большинства в Сенате США Чак Шумер пригласил FLI поделиться своей точкой зрения на регулирование ИИ с избранными сенаторами. [21] В Европе FLI успешно выступала за включение более общих систем ИИ, таких как GPT-4 , в Закон ЕС об искусственном интеллекте . [22]
В военной политике FLI координировал поддержку научного сообщества Договора о запрещении ядерного оружия . [23] В ООН и других организациях Институт также выступал за договор об автономном оружии . [24] [25]
Гранты на исследования
Исследовательская программа FLI началась в 2015 году с первоначального пожертвования в размере 10 миллионов долларов от Илона Маска. [26] [27] [28] В этом первоначальном раунде в общей сложности 7 миллионов долларов было выделено на 37 исследовательских проектов. [29] В июле 2021 года FLI объявила о запуске новой грантовой программы на 25 миллионов долларов при финансировании со стороны российско-канадского программиста Виталика Бутерина . [30]
Конференции
В 2014 году Институт будущего жизни провел свое открытие в Массачусетском технологическом институте : панельную дискуссию на тему «Будущее технологий: преимущества и риски», модератором которой выступил Алан Алда . [31] [32] Участниками дискуссии были синтетический биолог Джордж Чёрч , генетик Тин Ву , экономист Эндрю Макафи , физик и лауреат Нобелевской премии Фрэнк Вильчек и соучредитель Skype Яан Таллинн . [33] [34]
С 2015 года FLI организует конференции два раза в год с заявленной целью объединения исследователей ИИ из академических кругов и промышленности. По состоянию на апрель 2023 года [обновлять]состоялись следующие конференции:
Конференция «Будущее ИИ: возможности и проблемы» в Пуэрто-Рико (2015). Заявленной целью было выявление перспективных направлений исследований, которые могли бы помочь максимизировать будущие преимущества ИИ. [35] На конференции FLI распространила открытое письмо о безопасности ИИ , которое впоследствии подписали Стивен Хокинг , Илон Маск и многие исследователи искусственного интеллекта. [36]
Конференция Beneficial AI в Асиломаре, Калифорния (2017), [37] закрытое собрание тех, кого The New York Times назвала «тяжеловесами ИИ» (включая Яна Лекуна , Илона Маска и Ника Бострома ). [38] Институт опубликовал набор принципов ответственной разработки ИИ, которые появились в результате обсуждения на конференции и были подписаны Йошуа Бенджио , Яном Лекуном и многими другими исследователями ИИ. [39] Эти принципы могли повлиять на регулирование искусственного интеллекта и последующие инициативы, такие как Принципы ОЭСР по искусственному интеллекту. [40]
Полезная конференция AGI в Пуэрто-Рико (2019). [41] Заявленная цель встречи — ответить на долгосрочные вопросы с целью обеспечения того, чтобы искусственный интеллект был полезен человечеству. [42]
В СМИ
«Борьба за определение того, когда ИИ представляет собой «высокий риск»» в Wired .
«Существует смертоносное автономное оружие; его необходимо запретить» в IEEE Spectrum .
«Соединенные Штаты и их союзники протестуют против переговоров в ООН о запрете ядерного оружия» в The New York Times .
^ "Future of Life Institute homepage". Future of Life Institute. 9 сентября 2021 г. Архивировано из оригинала 8 сентября 2021 г. Получено 9 сентября 2021 г.
^ Чен, Анджела (11 сентября 2014 г.). «Искусственный интеллект — угроза?». Хроника высшего образования . Архивировано из оригинала 22 декабря 2016 г. Получено 18 сентября 2014 г.
^ «Но что бы означал для меня конец человечества?». The Atlantic. 9 мая 2014 г. Архивировано из оригинала 4 июня 2014 г. Получено 13 апреля 2020 г.
^ "Кто мы". Future of Life Institute. Архивировано из оригинала 6 апреля 2020 года . Получено 13 апреля 2020 года .
^ "Наш научно-фантастический апокалипсис: познакомьтесь с учеными, пытающимися предсказать конец света". Салон . 5 октября 2014 г. Архивировано из оригинала 18 марта 2021 г. Получено 13 апреля 2020 г.
^ Уолш, Брайан (20 октября 2022 г.). «Физик Макс Тегмарк работает над тем, чтобы у жизни было будущее». Vox . Архивировано из оригинала 31 марта 2023 г. . Получено 31 марта 2023 г. .
^ «ИИ-инноваторы дают обещание против автономного оружия-убийцы». NPR . 2018. Архивировано из оригинала 31 марта 2023 г. Получено 31 марта 2023 г.
^ ab Hume, Tim (19.01.2023). «Некоммерческая организация, поддерживаемая Илоном Маском, предложила грант в размере 100 тыс. долларов «пронацистскому» СМИ». Vice . Архивировано из оригинала 23.06.2023 . Получено 17.08.2023 .
^ "Илон Маск среди экспертов, призывающих прекратить обучение ИИ". BBC News . 2023-03-29. Архивировано из оригинала 2023-04-01 . Получено 2023-04-01 .
^ «Илон Маск и другие лидеры технологий призывают приостановить «вышедшую из-под контроля» гонку искусственного интеллекта». CNN . 29 марта 2023 г. Архивировано из оригинала 10 апреля 2023 г. Получено 30 марта 2023 г.
^ "Pause Giant AI Experiments: An Open Letter". Future of Life Institute . Архивировано из оригинала 27 марта 2023 г. Получено 30 марта 2023 г.
^ Болл, Джеймс (2023-04-02). «Мы в гонке за искусственный интеллект, запрещать его было бы глупо». The Sunday Times . Архивировано из оригинала 2023-08-19 . Получено 2023-04-02 .
^ «Маск и Возняк среди более чем 1100 подписавших открытое письмо, призывающее к 6-месячному запрету на создание мощного ИИ» Fortune . Март 2023 г. Архивировано из оригинала 29 марта 2023 г. Получено 30 марта 2023 г.
^ «Открытое письмо, призывающее остановить «опасную» гонку искусственного интеллекта, — это огромный беспорядок». www.vice.com . Март 2023 г. Архивировано из оригинала 30 марта 2023 г. Получено 30 марта 2023 г.
^ "Илон Маск". Twitter . Архивировано из оригинала 30 марта 2023 г. . Получено 30 марта 2023 г. .
^ Розенберг, Скотт (30 марта 2023 г.). «Открытое письмо вызвало дебаты по поводу «приостановки» исследований ИИ из-за рисков». Axios . Архивировано из оригинала 31 марта 2023 г. . Получено 31 марта 2023 г. .
^ «Лидеры технологий призывают сделать паузу в «вышедшей из-под контроля» гонке искусственного интеллекта». NPR . 2023. Архивировано из оригинала 29 марта 2023 г. Получено 30 марта 2023 г.
^ Бендер, Эмили М.; Гебру, Тимнит; Макмиллан-Мейджор, Анджелина; Шмитчелл, Шмаргарет (2021-03-03). «Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими?». Труды конференции ACM 2021 года по справедливости, подотчетности и прозрачности . Виртуальное мероприятие в Канаде: ACM. стр. 610–623. doi : 10.1145/3442188.3445922 . ISBN978-1-4503-8309-7.
^ ab Kari, Paul (2023-04-01). «Письмо, подписанное Илоном Маском, с требованием приостановить исследования в области ИИ, вызвало споры». The Guardian . Архивировано из оригинала 2023-04-01 . Получено 2023-04-01 .
^ Кришан, Нихал (2023-10-26). «Второй форум сенатора Чака Шумера по искусственному интеллекту охватывает увеличение финансирования НИОКР, проблемы иммиграции и гарантии». FedScoop . Получено 2024-03-16 .
^ "Закон ЕС об искусственном интеллекте не является "защищенным от будущих требований", предупреждают эксперты депутатов Европарламента". Наука|Бизнес . Получено 2024-03-16 .
^ Ученые поддерживают запрет на ядерное оружие, 16 июня 2017 г. , получено 16 марта 2024 г.
^ "Обучение летальному автономному оружию". Future of Life Institute . Получено 2024-03-16 .
^ Правительство Коста-Рики (24 февраля 2023 г.). «Обращение FLI» (PDF) . Конференция стран Латинской Америки и Карибского бассейна по социальному и гуманитарному воздействию автономного оружия .
^ "Elon Musk donates $10M to keep AI benefits". Future of Life Institute. 15 января 2015 г. Архивировано из оригинала 28 февраля 2018 г. Получено 28 июля 2019 г.
^ "Илон Маск жертвует 10 миллионов долларов на исследования в области искусственного интеллекта". SlashGear. 15 января 2015 г. Архивировано из оригинала 7 апреля 2015 г. Получено 26 апреля 2015 г.
^ "Илон Маск жертвует 10 миллионов долларов собственных денег на исследования в области искусственного интеллекта". Fast Company. 15 января 2015 г. Архивировано из оригинала 30 октября 2015 г. Получено 19 января 2015 г.
^ «Новая международная программа грантов запускает исследования, чтобы гарантировать, что ИИ остается полезным». Future of Life Institute. 28 октября 2015 г. Архивировано из оригинала 28 июля 2019 г. Получено 28 июля 2019 г.
^ "FLI объявляет о программе грантов на сумму 25 млн долларов для снижения экзистенциального риска". Future of Life Institute. 2 июля 2021 г. Архивировано из оригинала 9 сентября 2021 г. Получено 9 сентября 2021 г.
^ «Будущее технологий: преимущества и риски». Future of Life Institute. 24 мая 2014 г. Архивировано из оригинала 28 июля 2019 г. Получено 28 июля 2019 г.
^ "Machine Intelligence Research Institute - June 2014 Newsletter". 2 июня 2014. Архивировано из оригинала 3 июля 2014. Получено 19 июня 2014 .
^ "FHI News: 'Future of Life Institute hosts opening event at MIT'". Future of Humanity Institute. 20 мая 2014 г. Архивировано из оригинала 27 июля 2014 г. Получено 19 июня 2014 г.
^ «Будущее технологий: преимущества и риски». Проект по обучению персональной генетике. 9 мая 2014 г. Архивировано из оригинала 22 декабря 2015 г. Получено 19 июня 2014 г.
^ "Конференция по безопасности ИИ в Пуэрто-Рико". Future of Life Institute. Архивировано из оригинала 7 ноября 2015 г. Получено 19 января 2015 г.
^ "Приоритеты исследований для надежного и полезного искусственного интеллекта: открытое письмо". Future of Life Institute. Архивировано из оригинала 2019-08-10 . Получено 2019-07-28 .
^ "Beneficial AI 2017". Future of Life Institute. Архивировано из оригинала 2020-02-24 . Получено 2019-07-28 .
^ Метц, Кейд (9 июня 2018 г.). «Марк Цукерберг, Илон Маск и вражда из-за роботов-убийц». NYT . Архивировано из оригинала 15 февраля 2021 г. Получено 10 июня 2018 г. Закрытая встреча в отеле Asilomar была организована Future of Life Institute — аналитическим центром, созданным для обсуждения экзистенциальных рисков ИИ и других технологий.
^ "Asilomar AI Principles". Future of Life Institute. Архивировано из оригинала 2017-12-11 . Получено 2019-07-28 .