stringtranslate.com

Ян Лейке

Ян Лейке (родился в 1986 или 1987 году) [1] — исследователь выравнивания ИИ , работавший в DeepMind и OpenAI . Он присоединился к Anthropic в мае 2024 года.

Образование

Ян Лейке получил степень бакалавра в Университете Фрайбурга в Германии. Получив степень магистра в области компьютерных наук , он продолжил обучение в докторантуре по машинному обучению в Австралийском национальном университете под руководством Маркуса Хуттера . [2]

Карьера

Лейке прошел шестимесячную постдокторскую стажировку в Институте будущего человечества, прежде чем присоединиться к DeepMind, чтобы сосредоточиться на эмпирических исследованиях безопасности ИИ [2] , где он сотрудничал с Шейном Леггом [1] .

OpenAI

В 2021 году Лейке присоединился к OpenAI. [1] В июне 2023 года он и Илья Суцкевер стали соруководителями недавно представленного проекта «супервыравнивания», целью которого было определить, как в течение четырех лет выравнивать будущие искусственные сверхинтеллекты, чтобы обеспечить их безопасность. Этот проект включал автоматизацию исследований выравнивания ИИ с использованием относительно продвинутых систем ИИ. В то время Суцкевер был главным научным сотрудником OpenAI, а Лейке был руководителем отдела выравнивания. [3] [1] Лейке был включен в список 100 самых влиятельных личностей в области ИИ по версии Time как в 2023 [1] , так и в 2024 году. [4] В мае 2024 года Лейке объявил о своем уходе из OpenAI после ухода из компании Ильи Суцкевера, Даниэля Кокотайло и нескольких других сотрудников по безопасности ИИ. Лейке написал, что «за последние годы культура безопасности и процессы отошли на второй план по сравнению с блестящими продуктами», и что он «постепенно утратил доверие» к руководству OpenAI. [5] [6] [7]

В мае 2024 года Лейке присоединился к Anthropic , компании по разработке искусственного интеллекта, основанной бывшими сотрудниками OpenAI. [8]

Ссылки

  1. ^ abcde "TIME100 AI 2023: Jan Leike". Time . 7 сентября 2023 г. Архивировано из оригинала 19 мая 2024 г. Получено 19 мая 2024 г.
  2. ^ ab "Исследователь безопасности ИИ о том, как стать исследователем безопасности ИИ". 80 000 часов . Архивировано из оригинала 19 мая 2024 года . Получено 19 мая 2024 года .
  3. ^ Лейке, Ян; Суцкевер, Илья (5 июля 2023 г.). «Введение в супервыравнивание». OpenAI . Архивировано из оригинала 25 мая 2024 г. . Получено 20 мая 2024 г. .
  4. Бут, Гарри (5 сентября 2024 г.). «TIME100 AI 2024: Ян Лейке». TIME . Архивировано из оригинала 8 сентября 2024 г. . Получено 8 сентября 2024 г. .
  5. ^ Сэмюэл, Сигал (17 мая 2024 г.). ««Я потерял доверие»: почему команда OpenAI, отвечающая за защиту человечества, рухнула». Vox . Архивировано из оригинала 18 мая 2024 г. Получено 20 мая 2024 г.
  6. ^ Бастиан, Маттиас (18 мая 2024 г.). «Команды по безопасности искусственного интеллекта OpenAI потеряли по меньшей мере семь исследователей за последние месяцы». декодер . Архивировано из оригинала 20 мая 2024 г. Получено 20 мая 2024 г.
  7. ^ Милмо, Дэн (18 мая 2024 г.). «OpenAI ставит «блестящие продукты» выше безопасности, говорит уходящий исследователь». The Observer . ISSN  0029-7712 . Получено 20 мая 2024 г. .
  8. ^ «Исследователь OpenAI, ушедший в отставку из-за проблем с безопасностью, присоединяется к Anthropic». 28 мая 2024 г. Архивировано из оригинала 28 мая 2024 г. Получено 28 мая 2024 г.

Внешние ссылки