stringtranslate.com

Юрген Шмидхубер

Юрген Шмидхубер (родился 17 января 1963 года) [1] — немецкий учёный-компьютерщик, известный своими работами в области искусственного интеллекта , в частности искусственных нейронных сетей . Он является научным руководителем Института исследований искусственного интеллекта Далле Молле в Швейцарии . [2] Он также является директором Инициативы по искусственному интеллекту и профессором программы компьютерных наук в отделении компьютерных, электрических и математических наук и инженерии (CEMSE) в Университете науки и технологий имени короля Абдаллы (KAUST) в Саудовской Аравии . [3] [4]

Он наиболее известен своей основополагающей и часто цитируемой [5] работой по долговременной краткосрочной памяти (LSTM), типу архитектуры нейронной сети, которая была доминирующей техникой для различных задач обработки естественного языка в исследовательских и коммерческих приложениях в 2010-х годах. Он также представил принципы динамических нейронных сетей , метаобучения , генеративно-состязательных сетей [6] [7] [8] и линейных трансформаторов , [9] [10] [8] все из которых широко распространены в современном ИИ.

Карьера

Шмидхубер закончил бакалавриат (1987) и аспирантуру (1991) в Мюнхенском техническом университете в Мюнхене , Германия. [1] Его научными руководителями по докторской диссертации были Вильфрид Брауэр и Клаус Шультен . [11] Он преподавал там с 2004 по 2009 год. С 2009 [12] по 2021 год он был профессором искусственного интеллекта в Университете Итальянской Швейцарии в Лугано , Швейцария. [1]

С 1995 года он занимал должность директора Института исследований искусственного интеллекта имени Далле Молле (IDSIA), швейцарской лаборатории искусственного интеллекта. [1]

В 2014 году Шмидхубер основал компанию Nnaisense для работы над коммерческими приложениями искусственного интеллекта в таких областях, как финансы, тяжелая промышленность и беспилотные автомобили . Сепп Хохрайтер , Яан Таллинн и Маркус Хуттер являются консультантами компании. [2] В 2016 году объем продаж составил менее 11 миллионов долларов США; однако Шмидхубер заявляет, что в настоящее время основное внимание уделяется исследованиям, а не доходам. Nnaisense привлекла свой первый раунд капитального финансирования в январе 2017 года. Общая цель Шмидхубера — создать универсальный ИИ путем последовательного обучения одного ИИ на различных узких задачах. [13]

Исследовать

В 1980-х годах обратное распространение не работало хорошо для глубокого обучения с длинными путями присвоения кредитов в искусственных нейронных сетях . Чтобы преодолеть эту проблему, Шмидхубер (1991) предложил иерархию рекуррентных нейронных сетей (RNN), предварительно обученных по одному уровню за раз с помощью самоконтролируемого обучения . [14] Он использует предиктивное кодирование для изучения внутренних представлений в нескольких самоорганизующихся временных масштабах. Это может существенно облегчить нисходящее глубокое обучение. Иерархию RNN можно свернуть в одну RNN, перегнав сеть фрагментов более высокого уровня в сеть автоматизаторов более низкого уровня . [14] [15] В 1993 году фрагментер решил задачу глубокого обучения, глубина которой превысила 1000. [16]

В 1991 году Шмидхубер опубликовал состязательные нейронные сети , которые соревнуются друг с другом в форме игры с нулевой суммой , где выигрыш одной сети равен проигрышу другой сети. [6] [17] [7] [8] Первая сеть представляет собой генеративную модель , которая моделирует распределение вероятностей по выходным шаблонам. Вторая сеть обучается методом градиентного спуска , чтобы предсказывать реакции окружающей среды на эти шаблоны. Это называлось «искусственным любопытством». В 2014 году этот принцип использовался в генеративной состязательной сети , где реакция окружающей среды равна 1 или 0 в зависимости от того, находится ли выход первой сети в заданном наборе. GAN были последним словом в генеративном моделировании в период 2015–2020 годов.

Шмидхубер руководил дипломной работой 1991 года своего студента Зеппа Хохрайтера [18], которую он считал «одним из важнейших документов в истории машинного обучения». [15] В ней изучался компрессор нейронной истории , [14] и, что более важно, анализировалась и преодолевалась проблема исчезающего градиента . Это привело к появлению долговременной краткосрочной памяти (LSTM), типа рекуррентной нейронной сети . Название LSTM было введено в техническом отчете (1995), что привело к наиболее цитируемой публикации LSTM (1997), написанной в соавторстве с Хохрайтером и Шмидхубером. [19] Это еще не была стандартная архитектура LSTM, которая используется почти во всех современных приложениях. Стандартная архитектура LSTM была введена в 2000 году Феликсом Герсом , Шмидхубером и Фредом Камминсом. [20] Сегодняшняя «ванильная LSTM», использующая обратное распространение во времени, была опубликована его учеником Алексом Грейвсом в 2005 году, [21] [22] а ее алгоритм обучения временной классификации коннекционистов (CTC) [23] в 2006 году. CTC применялась для сквозного распознавания речи с LSTM. К 2010-м годам LSTM стала доминирующей техникой для различных задач обработки естественного языка, включая распознавание речи и машинный перевод , и была широко внедрена в коммерческих технологиях, таких как Google Neural Machine Translation , [24] также использовались в Google Voice для транскрипции [25] и поиска, [26] и Siri . [27]

В 2014 году последним словом техники было обучение «очень глубокой нейронной сети» с 20–30 слоями. [28] Наложение слишком большого количества слоев приводило к резкому снижению точности обучения , [29] известному как проблема «деградации». [30] В мае 2015 года Рупеш Кумар Шривастава, Клаус Грефф и Шмидхубер использовали принципы LSTM для создания сети шоссе , нейронной сети прямого распространения с сотнями слоев, намного более глубокой, чем предыдущие сети. [8] [31] [32] В декабре 2015 года была опубликована остаточная нейронная сеть (ResNet), которая является вариантом сети шоссе. [30] [33]

В 1992 году Шмидхубер опубликовал быстрый программист весов , альтернативу рекуррентным нейронным сетям . [9] Он имеет медленную нейронную сеть прямого распространения , которая обучается с помощью градиентного спуска , чтобы контролировать быстрые веса другой нейронной сети через внешние продукты самогенерируемых паттернов активации, а сама сеть быстрых весов работает над входами. [10] Позже было показано, что это эквивалентно ненормализованному линейному трансформатору . [34] [10] [35] Шмидхубер использовал терминологию «обучение внутренним прожекторам внимания» в 1993 году. [36]

В 2011 году команда Шмидхубера в IDSIA с его постдоком Дэном Сиресаном также добилась значительного ускорения сверточных нейронных сетей (CNN) на быстрых параллельных компьютерах, называемых GPU . Более ранняя CNN на GPU от Челлапиллы и др. (2006) была в 4 раза быстрее эквивалентной реализации на CPU. [37] Глубокая CNN Дэна Сиресан и др. (2011) в IDSIA была уже в 60 раз быстрее [38] и достигла первой сверхчеловеческой производительности в конкурсе компьютерного зрения в августе 2011 года. [39] В период с 15 мая 2011 года по 10 сентября 2012 года эти CNN выиграли еще четыре конкурса изображений [40] [41] и улучшили современный уровень в нескольких тестах изображений. [42] Этот подход стал центральным в области компьютерного зрения . [41] Он основан на проектах CNN, представленных намного раньше Кунихико Фукусимой . [43] [41]

Кредитные споры

Шмидхубер спорно утверждал, что ему и другим исследователям было отказано в адекватном признании их вклада в область глубокого обучения , в пользу Джеффри Хинтона , Йошуа Бенджио и Яна Лекуна , которые разделили премию Тьюринга 2018 года за свою работу в области глубокого обучения. [2] [44] [45] Он написал «едкую» статью 2015 года, утверждая, что Хинтон, Бенджио и Лекун «много цитируют друг друга», но «не отдают должное пионерам этой области». [45] В заявлении для New York Times Ян Лекун написал, что «Юрген маниакально одержим признанием и продолжает требовать признания, которого он не заслуживает, за многие, многие вещи... Это заставляет его систематически вставать в конце каждого выступления и требовать признания за то, что было только что представлено, как правило, неоправданно». [2] Шмидхубер ответил, что Лекун сделал это «без какого-либо обоснования, не приведя ни одного примера» [46] и опубликовал подробности многочисленных споров о приоритетах с Хинтоном, Бенджио и Лекуном. [47] [48]

Термин «schmidhubered» в шутку использовался в сообществе ИИ для описания привычки Шмидхубера публично оспаривать оригинальность работ других исследователей, практика, которую некоторые в сообществе ИИ рассматривают как «обряд посвящения» для молодых исследователей. Некоторые предполагают, что значительные достижения Шмидхубера были недооценены из-за его конфронтационной личности. [49] [44]

Признание

Шмидхубер получил премию Гельмгольца Международного общества нейронных сетей в 2013 году [50] и премию пионера нейронных сетей Общества вычислительного интеллекта IEEE в 2016 году [51] за «новаторский вклад в глубокое обучение и нейронные сети». [1] Он является членом Европейской академии наук и искусств . [52] [12]

Его называли «отцом современного ИИ» или подобным образом [62], «отцом генеративного ИИ» [63], а также «отцом глубокого обучения». [64] [55] Однако сам Шмидхубер называл Алексея Григорьевича Ивахненко «отцом глубокого обучения» [65] [66] и отдавал должное многим еще более ранним пионерам ИИ. [15]

Просмотры

Шмидхубер является сторонником ИИ с открытым исходным кодом и считает, что они станут конкурентоспособными по сравнению с коммерческим ИИ с закрытым исходным кодом. [8] Он считает, что ИИ менее опасен, чем ядерное оружие, и не представляет новой экзистенциальной угрозы. [58] [59]

С 1970-х годов Шмидхубер хотел создать «интеллектуальные машины, которые могли бы учиться и совершенствоваться самостоятельно и стать умнее его в течение его жизни». [8] Он различает два типа ИИ: инструментальный ИИ, например, для улучшения здравоохранения , и автономный ИИ, который ставит свои собственные цели, проводит свои собственные исследования и исследует вселенную. Он работал над обоими типами в течение десятилетий, [8] Он ожидает, что следующим этапом эволюции станут самосовершенствующиеся ИИ , которые придут на смену человеческой цивилизации как следующий этап всеобщего роста в сторону все большей сложности, и он ожидает, что ИИ колонизирует видимую вселенную. [8]

Ссылки

  1. ^ abcdefg Шмидхубер, Юрген. "Резюме".
  2. ^ abcde Джон Маркофф (27 ноября 2016 г.). Когда ИИ станет зрелым, он может называть Юргена Шмидхубера «папой». The New York Times . Доступно в апреле 2017 г.
  3. ^ Юрген Шмидхубер. cemse.kaust.edu.sa . Архивировано из оригинала 13 марта 2023 года. Получено 9 мая 2023 года.
  4. ^ «Лидерство».
  5. ^ "Юрген Шмидхубер". scholar.google.com . Получено 20 октября 2021 г. .
  6. ^ ab Schmidhuber, Jürgen (1991). «Возможность реализации любопытства и скуки в нейронных контроллерах для построения моделей». Proc. SAB'1991 . MIT Press/Bradford Books. стр. 222–227.
  7. ^ ab Schmidhuber, Jürgen (2020). «Генеративно-состязательные сети являются особыми случаями искусственного любопытства (1990), а также тесно связаны с минимизацией предсказуемости (1991)». Neural Networks . 127 : 58–66. arXiv : 1906.04493 . doi :10.1016/j.neunet.2020.04.008. PMID  32334341. S2CID  216056336.
  8. ^ abcdefghi Джонс, Хесси (23 мая 2023 г.). «Юрген Шмидхубер, известный «отец современного ИИ», говорит, что дело его жизни не приведет к антиутопии». Forbes . Получено 26 мая 2023 г. .
  9. ^ ab Schmidhuber, Jürgen (1 ноября 1992 г.). «Обучение контролю быстрой памяти с весом: альтернатива рекуррентным сетям». Neural Computation . 4 (1): 131–139. doi :10.1162/neco.1992.4.1.131. S2CID  16683347.
  10. ^ abc Шлаг, Иманол; Ирие, Казуки; Шмидхубер, Юрген (2021). «Линейные трансформаторы — тайные быстрые весовые программисты». ICML 2021. Springer. стр. 9355–9366.
  11. ^ "Юрген Х. Шмидхубер". Проект генеалогии математики . Получено 5 июля 2022 г.
  12. ^ ab Dave O'Leary (3 октября 2016 г.). Настоящее и будущее ИИ и глубокого обучения с участием профессора Юргена Шмидхубера. IT World Canada . Доступно в апреле 2017 г.
  13. ^ «AI Pioneer Wants to Build the Renaissance Machine of the Future». Bloomberg.com . 16 января 2017 г. Получено 23 февраля 2018 г.
  14. ^ abc Шмидхубер, Юрген (1992). "Изучение сложных расширенных последовательностей с использованием принципа сжатия истории (на основе TR FKI-148, 1991)" (PDF) . Neural Computation . 4 (2): 234–242. doi :10.1162/neco.1992.4.2.234. S2CID  18271205.
  15. ^ abc Шмидхубер, Юрген (2022). «Аннотированная история современного ИИ и глубокого обучения». arXiv : 2212.11279 [cs.NE].
  16. ^ Шмидхубер, Юрген (1993). Диссертация на соискание ученой степени (PDF) .
  17. ^ Шмидхубер, Юрген (2010). «Формальная теория творчества, веселья и внутренней мотивации (1990-2010)». Труды IEEE по автономному психическому развитию . 2 (3): 230–247. doi :10.1109/TAMD.2010.2056368. S2CID  234198.
  18. ^ С. Хохрейтер., «Untersuchungen zu dynamischen Neuronalen Netzen. Архивировано 6 марта 2015 г. в Wayback Machine », Дипломная работа. Институт ф. Информатика, Технический университет. Мюнхен. Советник: Дж. Шмидхубер , 1991 г.
  19. ^ Зепп Хохрейтер; Юрген Шмидхубер (1997). «Длинная кратковременная память». Нейронные вычисления . 9 (8): 1735–1780. дои : 10.1162/neco.1997.9.8.1735. PMID  9377276. S2CID  1915014.
  20. ^ Феликс А. Герс; Юрген Шмидхубер; Фред Камминс (2000). «Учимся забывать: непрерывное прогнозирование с LSTM». Neural Computation . 12 (10): 2451–2471. CiteSeerX 10.1.1.55.5709 . doi :10.1162/089976600300015015. PMID  11032042. S2CID  11598600. 
  21. ^ Грейвс, А.; Шмидхубер, Дж. (2005). «Кадровая классификация фонем с двунаправленной LSTM и другими архитектурами нейронных сетей». Нейронные сети . 18 (5–6): 602–610. CiteSeerX 10.1.1.331.5800 . doi :10.1016/j.neunet.2005.06.042. PMID  16112549. S2CID  1856462. 
  22. ^ Клаус Грефф; Рупеш Кумар Шривастава; Ян Коутник; Бас Р. Стеунебринк; Юрген Шмидхубер (2015). «LSTM: Одиссея пространства поиска». Труды IEEE по нейронным сетям и системам обучения . 28 (10): 2222–2232. arXiv : 1503.04069 . Bibcode : 2015arXiv150304069G. doi : 10.1109/TNNLS.2016.2582924. PMID  27411231. S2CID  3356463.
  23. ^ Грейвс, Алекс; Фернандес, Сантьяго; Гомес, Фаустино; Шмидхубер, Юрген (2006). «Временная классификация коннекционистов: маркировка несегментированных данных последовательностей с помощью рекуррентных нейронных сетей». В Трудах Международной конференции по машинному обучению, ICML 2006 : 369–376. CiteSeerX 10.1.1.75.6306 . 
  24. ^ У, Йонгхуэй; Шустер, Майк; Чэнь, Жифэн; Ле, Куок В.; Норузи, Мохаммад; Машери, Вольфганг; Крикун, Максим; Цао, Юань; Гао, Цинь; Машери, Клаус; Клингнер, Джефф; Шах, Апурва; Джонсон, Мелвин; Лю, Сяобин; Кайзер, Лукаш; Гоувс, Стефан; Като, Ёсикиё; Кудо, Таку; Казава, Хидето; Стивенс, Кит; Куриан, Джордж; Патил, Нишант; Ван, Вэй; Янг, Клифф; Смит, Джейсон; Риза, Джейсон; Рудник, Алекс; Виньялс, Ориол; Коррадо, Грег; Хьюз, Макдафф; Дин, Джефф (8 октября 2016 г.). «Система нейронного машинного перевода Google: преодоление разрыва между человеческим и машинным переводом». arXiv : 1609.08144 [cs.CL].Получено 14 мая 2017 г.
  25. ^ «Нейронные сети, лежащие в основе транскрипции Google Voice». 11 августа 2015 г.
  26. ^ "Голосовой поиск Google: быстрее и точнее". 24 сентября 2015 г.
  27. ^ Леви, Стивен (24 августа 2016 г.). «iBrain уже здесь — и он уже внутри вашего телефона». Wired . Архивировано из оригинала 23 июня 2017 г. Получено 23 июня 2017 г.
  28. ^ Симонян, Карен; Зиссерман, Эндрю (10 апреля 2015 г.), Очень глубокие сверточные сети для крупномасштабного распознавания изображений , arXiv : 1409.1556
  29. ^ Хэ, Каймин; Чжан, Сянъюй; Жэнь, Шаоцин; Сан, Цзянь (2016). «Глубокое изучение выпрямителей: превосходство человеческого уровня в классификации ImageNet». arXiv : 1502.01852 [cs.CV].
  30. ^ аб Хе, Кайминг; Чжан, Сянъюй; Рен, Шаоцин; Сунь, Цзянь (10 декабря 2015 г.). Глубокое остаточное обучение для распознавания изображений . arXiv : 1512.03385 .
  31. ^ Шривастава, Рупеш Кумар; Грефф, Клаус; Шмидхубер, Юрген (2 мая 2015 г.). «Дорожные сети». arXiv : 1505.00387 [cs.LG].
  32. ^ Шривастава, Рупеш К; Грефф, Клаус; Шмидхубер, Юрген (2015). «Обучение очень глубоких сетей». Достижения в области нейронных систем обработки информации . 28. Curran Associates, Inc.: 2377–2385.
  33. ^ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2016). Глубокое остаточное обучение для распознавания изображений. Конференция IEEE 2016 года по компьютерному зрению и распознаванию образов (CVPR) . Лас-Вегас, Невада, США: IEEE. стр. 770–778. arXiv : 1512.03385 . doi : 10.1109/CVPR.2016.90. ISBN 978-1-4673-8851-1.
  34. ^ Катаропулос, Ангелос; Вьяс, Апурв; Паппас, Николаос; Флёре, Франсуа (2020). «Трансформаторы — это RNN: быстрые авторегрессионные трансформаторы с линейным вниманием». ICML 2020. PMLR. стр. 5156–5165.
  35. ^ Шмидхубер, Юрген (2022). «Глубокое обучение: наш чудесный год 1990-1991». idsia.ch . Получено 23 июля 2024 г.
  36. ^ Шмидхубер, Юрген (1993). «Уменьшение соотношения между сложностью обучения и числом переменных, изменяющихся во времени, в полностью рекуррентных сетях». ICANN 1993. Springer. стр. 460–463.
  37. ^ Кумар Челлапилла; Сид Пури; Патрис Симард (2006). «Высокопроизводительные сверточные нейронные сети для обработки документов». В Лоретт, Гай (ред.). Десятый международный семинар по передовым рубежам в распознавании рукописного текста . Suvisoft.
  38. ^ Ciresan, Dan; Ueli Meier; Jonathan Masci; Luca M. Gambardella; Jurgen Schmidhuber (2011). "Гибкие, высокопроизводительные сверточные нейронные сети для классификации изображений" (PDF) . Труды Двадцать второй международной совместной конференции по искусственному интеллекту-Том, том два . 2 : 1237–1242 . Получено 17 ноября 2013 г.
  39. ^ "Таблица результатов конкурса IJCNN 2011". ОФИЦИАЛЬНЫЙ КОНКУРС IJCNN2011 . 2010. Получено 14 января 2019 .
  40. ^ Шмидхубер, Юрген (17 марта 2017 г.). «История конкурсов компьютерного зрения, выигранных глубокими CNN на GPU» . Получено 14 января 2019 г.
  41. ^ abc Шмидхубер, Юрген (2015). «Глубокое обучение». Scholarpedia . 10 (11): 1527–54. CiteSeerX 10.1.1.76.1541 . doi :10.1162/neco.2006.18.7.1527. PMID  16764513. S2CID  2309950. 
  42. ^ Ciresan, Dan; Meier, Ueli; Schmidhuber, Jürgen (июнь 2012 г.). «Многоколоночные глубокие нейронные сети для классификации изображений». Конференция IEEE 2012 г. по компьютерному зрению и распознаванию образов . Нью-Йорк, штат Нью-Йорк: Институт инженеров по электротехнике и электронике (IEEE). стр. 3642–3649. arXiv : 1202.2745 . CiteSeerX 10.1.1.300.3283 . doi :10.1109/CVPR.2012.6248110. ISBN  978-1-4673-1226-4. OCLC  812295155. S2CID  2161592.
  43. ^ Фукусима, Неокогнитрон (1980). «Модель самоорганизующейся нейронной сети для механизма распознавания образов, не зависящего от смещения положения». Биологическая кибернетика . 36 (4): 193–202. doi :10.1007/bf00344251. PMID  7370364. S2CID  206775608.
  44. ^ abc Vance, Ashlee (15 мая 2018 г.). «Этот человек — крестный отец, которого сообщество ИИ хочет забыть». Bloomberg Business Week . Получено 16 января 2019 г.
  45. ^ ab Oltermann, Philip (18 апреля 2017 г.). «Юрген Шмидхубер о будущем роботов: «Они будут уделять нам столько же внимания, сколько мы уделяем муравьям». The Guardian . Получено 23 февраля 2018 г. .
  46. ^ Шмидхубер, Юрген (7 июля 2022 г.). «Статья ЛеКуна 2022 года об автономном машинном интеллекте перефразирует, но не цитирует основные работы 1990–2015 годов». IDSIA, Швейцария. Архивировано из оригинала 9 февраля 2023 г. . Получено 3 мая 2023 г. .
  47. ^ Шмидхубер, Юрген (14 декабря 2023 г.). «Как трое лауреатов премии Тьюринга переиздали ключевые методы и идеи, создателей которых они не отметили. Технический отчет IDSIA-23-23». IDSIA, Швейцария. Архивировано из оригинала 16 декабря 2023 г. . Получено 19 декабря 2023 г. .
  48. ^ Шмидхубер, Юрген (30 декабря 2022 г.). «Научная добросовестность и история глубокого обучения: лекция Тьюринга 2021 г. и премия Тьюринга 2018 г. Технический отчет IDSIA-77-21». IDSIA, Швейцария. Архивировано из оригинала 7 апреля 2023 г. . Получено 3 мая 2023 г. .
  49. Фултерер, Рут (20 февраля 2021 г.). «Юрген Шмидхубер: Tessiner Vater der künstlichen Intelligenz». Neue Zürcher Zeitung (на швейцарском верхненемецком языке). ISSN  0376-6829 . Проверено 19 декабря 2023 г.
  50. ^ Лауреаты премии INNS Awards. Международное общество нейронных сетей. Доступно в декабре 2016 г.
  51. ^ Получатели: Премия пионера нейронных сетей. Архивировано 29 августа 2021 г. в Wayback Machine . Пискатауэй, Нью-Джерси: Общество вычислительного интеллекта IEEE. Доступно в январе 2019 г.]
  52. ^ Члены. Европейская академия наук и искусств. Доступно в декабре 2016 г.
  53. Heaven, Will Douglas (15 октября 2020 г.). «Искусственный общий интеллект: мы близки и есть ли смысл пытаться? Цитата: Юрген Шмидхубер, которого иногда называют «отцом современного ИИ...» MIT Technology Review . Получено 20 августа 2021 г.
  54. ^ Choul-woong, Yeon (22 февраля 2023 г.). «Ориентированный на пользователя ИИ создает новый порядок для пользователей». Korea IT Times . Получено 26 мая 2023 г.
  55. ^ ab Dunker, Anders (2020). «Выпуская на волю демона ИИ. Цитата: Но этот человек не сумасшедший: он отец современного ИИ и глубокого обучения — выдающийся в своей области». Modern Times Review . Получено 20 августа 2021 г.
  56. Энрике Альпанес (25 апреля 2021 г.). Юрген Шмидхубер, человек, который Алекса и Сири звонят «папа», если он хочет поговорить с девчонками. Эль Паис . По состоянию на август 2021 г.
  57. ^ Разави, Хуман (5 мая 2020 г.). «iHuman — ИИ и этика кино (фестиваль Hot Docs Film Festival 2020). Цитата: документальный фильм берет интервью у ведущих исследователей и мыслителей в области ИИ, таких как Юрген Шмидхубер — отец современного ИИ...» Universal Cinema . Получено 20 августа 2021 г.
  58. ^ ab Colton, Emma (7 мая 2023 г.). «„Отец ИИ“ говорит, что страхи по поводу технологий неуместны: „Вы не можете их остановить“». Fox News . Получено 26 мая 2023 г.
  59. ^ ab Taylor, Josh (7 мая 2023 г.). «Возникновение искусственного интеллекта неизбежно, но его не следует бояться, говорит «отец ИИ»». The Guardian . Получено 26 мая 2023 г.
  60. ^ Вонг, Эндрю (16 мая 2018 г.). «Отец ИИ призывает людей не бояться технологий». CNBC . Получено 27 февраля 2019 г.
  61. Рут Фултерер (21 февраля 2021 г.). Der unbequeme Vater der künstlichen Intelligenz lebt in der Schweiz (Неудобный отец искусственного интеллекта живет в Швейцарии). НЗЗ . Доступ осуществлен в августе 2021 г.
  62. ^ [8] [2] [53 ] [54 ] [55 ] [ 56 ] [57] [58] [59] [ 60] [61] [44]
  63. ^ «Юрген Шмидхубер: Отец генеративного ИИ без премии Тьюринга», jazzyear.com , 18 августа 2024 г.
  64. ^ Ван, Брайан (14 июня 2017 г.). «Отец глубокого обучения ИИ в области ИИ общего назначения и ИИ для завоевания космоса в 2050-х годах». Следующее большое будущее . Получено 27 февраля 2019 г.
  65. ^ Шмидхубер, Юрген. «Критика статьи «Deep Learning Conspiracy». (Nature 521, стр. 436)» . Получено 26 декабря 2019 г.
  66. ^ Ивахненко, А. Г. (март 1970). «Эвристическая самоорганизация в задачах технической кибернетики». Automatica . 6 (2): 207–219. doi :10.1016/0005-1098(70)90092-0.