Джуянг (Джон) Вэн — китайско-американский компьютерный инженер , нейробиолог , автор и академик. Он бывший профессор кафедры компьютерных наук и инженерии Мичиганского государственного университета и президент Института мозга и разума и GENISAMA. [1]
Вэн провел исследование по обоснованному машинному обучению, пересекая компьютерную науку и инженерию , с наукой о мозге и когнитивной наукой . В совместных исследовательских работах со своими коллегами он исследовал ментальные архитектуры и вычислительные модели для автономного развития в различных областях, таких как зрение, слух, осязание, поведение и мотивационные системы, как в биологических, так и в инженерных системах. Он является автором двух книг, Natural and Artificial Intelligence: Introduction to Computational Brain-Mind и Motion and Structure from Image Sequences , и является редактором серии книг «New Frontiers in Robotics». Кроме того, он опубликовал более 300 статей.
Вэн — пожизненный член Института инженеров электротехники и электроники (IEEE), основатель и президент Института мозга и разума, а также стартапа GENISAMA. Он также является основателем и главным редактором Международного журнала гуманоидной робототехники и журнала Brain-Mind Magazine , а также ассоциированным редактором IEEE Transactions on Autonomous Mental Development (теперь Cognitive and Developmental Systems). [2] Кроме того, он был приглашенным редактором пяти специальных выпусков, включая What AI and Neuroscience Can Learn from Each Other: Open Problems in Models and Theories, Cognitive Computation , [3] The Special Issue on Brain Imaging-informed Multimodal Analysis, IEEE Transactions on Autonomous Mental Development , [4] и The Special Issue on Autonomous Mental Development, International Journal of Humanoid Robotics . [5]
Вэн получил степень бакалавра наук в Университете Фудань в 1982 году, а затем степени магистра и доктора наук в области компьютерных наук в Университете Иллинойса в Урбана-Шампейн в 1985 и 1989 годах соответственно. [6]
После получения степени доктора философии в 1990 году Вэн начал свою академическую карьеру в качестве приглашенного доцента-исследователя в Институте Бекмана Иллинойсского университета в Урбане. С 1992 по 1998 год он занимал должность доцента в Мичиганском государственном университете, став доцентом в 1998 году и профессором в 2003 году. Сейчас на пенсии [7]
Исследования Вэна вращаются вокруг обоснованного машинного обучения, охватывающего зрения, слуха, понимания естественного языка, планирования и аппаратных реализаций в реальном времени . Он также участвует в передаче технологий через свой стартап GENISAMA, который фокусируется на обоснованных, возникающих, естественных, инкрементальных, закрытых черепом, внимательных, мотивированных и абстрактных системах. Его теоретический вклад включает математическое доказательство того, что разработанные им развивающиеся сети (DN) могут обучаться любым универсальным машинам Тьюринга , и создание теории автономного программирования для общих целей (APFGP), поддерживающей осознанное машинное обучение . [8] [9]
Венг работал над сетями развития от Cresceptron до DN3, чтобы достичь первого в истории алгоритма сознательного обучения, который свободен от неправильного поведения « глубокого обучения ». [10] Его исследования были представлены на Discovery Channel , Enel и BBC . [11]
С 1983 по 1989 год исследовательская работа Вэна во время получения им степени магистра и доктора философии была сосредоточена на анализе движения объектов и оценке трехмерных структур из движения. [12] Он понял, что такие подходы, основанные на моделях, могут обеспечить частичные идеи, но слишком ограничены для понимания того, как мозг животных обучается зрению и другим навыкам мозга. Вскоре после получения степени доктора философии он начал работу над Cresceptron. [13]
Cresceptron представлял направление, которое Вэн позже назвал Автономным Психическим Развитием (AMD). В 1992 году он и его коллеги стали пионерами в разработке фреймворка под названием Cresceptron для сегментации и распознавания реальных 3D-объектов по их изображениям с помощью автоматизированного обучения. [13] Фреймворк был протестирован на визуальное распознавание, в частности, распознавание 3D-объектов по 2D-изображениям и сегментацию их по загроможденному фону без необходимости в ручных 3D-моделях. Он использовал такие методы, как моделирование стохастических искажений, интерполяция на основе вида и сочетание индивидуальных и классовых подходов к обучению. Cresceptron достиг семи значительных достижений, включая разработку таких методов, как обучение крупномасштабных 3D-объектов с помощью глубокой сверточной нейронной сети (CNN) и независимое от признаков обучение для обширных наборов данных, среди прочего. Также было установлено, что Cresceptron существенно отличается от более поздних сетей «глубокого обучения» из-за своего подхода к разработке единственной сети с использованием обучения Хебба (т.е. без учителя во всех скрытых слоях). [14] [15]
Венг представил еще одну структуру под названием SHOSLIF, которая предоставила единую теорию и методологию для всестороннего обучения датчиков и исполнительных механизмов. [16] Она решала отдельные сенсорные проблемы, а также критические вопросы, с которыми сталкивается Cresceptron, такие как автоматизированный выбор наиболее ценных признаков, автоматическая организация сенсорной и управляющей информации с помощью дерева разбиения пространства от грубого к тонкому, что приводит к удивительно низкой логарифмической временной сложности для поиска на основе контента из обширных баз визуальных знаний. [17] Она также занимается обработкой инвариантности посредством обучения, обеспечивая возможность пошагового обучения в режиме онлайн и способствуя автономному обучению, среди прочих целей. [18] [19]
С 1998 по 2010 год Вэн разработал роботов SAIL [20] и Dav [21], используя модели сенсорного картирования, включая методы самоосознающего самовоздействия (SASE), ступенчатого иерархического картирования (SHM) и инкрементальной иерархической дискриминантной регрессии (IHDR). Он применялся для распознавания закрытых объектов, [22] распознавания речи, [23] навигации, управляемой зрением, [24] и избегания столкновений на основе дальности. [25]
С 2005 года Вэн и его команда работают над разработкой мозгоподобных и коркоподобных сетей развития (DN) и их воплощений Where-What Networks (WWN) [26] с использованием мозгоподобной архитектуры, включая пути моделирования, ламинарную 6-слойную кору и области мозга. [27] [28] Кроме того, они проанализировали, как мозг справляется с модуляцией, временем и пространством, и создали три версии (DN1–DN3) к 2023 году. Значительное усовершенствование, введенное при переходе от DN-2 к DN-3, включает инициирование сети размером с мозг из одноклеточной зиготы. Это означает полностью автономный процесс для паттернирования мозга из одной клетки. Ключевые механизмы паттернирования включают анализ компонентов долей (LCA) [29] и синаптическое поддержание, [30] которые автоматически поддерживают глобальную гладкость представления мозга и локальные уточнения представлений областей. Такой подход позволил алгоритму развития постепенно развивать сенсоры, сложный мозг и двигательные функции последовательным и самоорганизующимся образом, гарантируя, что процессы формирования связей и паттернов происходят автоматически с начальных стадий зачатия на протяжении всей жизни системы. [31]
Эти сети развития (DN) и сети «где-что» (WWN 1–9) были разработаны для универсального визуального обучения в сложных условиях. [32] DN могут распознавать объекты и самостоятельно определять, где и на чем сосредоточиться, используя самогенерируемый контекст задачи. Кроме того, эти WWN и DN были применены к зрению общего назначения, [33] распознаванию временных визуальных событий, [34] навигации, управляемой зрением, [35] обучению аудированию при обучении говорению, [36] и усвоению языка как реакции мозга на временные события текста. [37]
Вэн первым официально поднял вопрос о том, что роботизированное сознание необходимо для ИИ, сознание может и должно быть изучено (т. е. развито), и предложил полностью реализуемый алгоритм для этого. Он предложил DN3 [31] в качестве двигателя для проведения сознательного обучения [38], где робот способен становиться все более сознательным, как младенец, а затем ребенок, через свой «живой» опыт в физическом мире, который обычно включает родителей и учителей-людей. Однако в черепе DN3 нет центрального контроллера, что подчеркивает, что сознание не должно быть статически создано вручную и должно охватывать элементы, выходящие за рамки дизайна программиста. [31]
С 2016 года Вэн заявлял о случаях плагиата и неправомерных действий после отбора по всему миру, однако вовлеченные в это учреждения до сих пор не признали его обвинения.
Вэн утверждал, что многие сети глубокого обучения, которые используют изображения 3D-объектов, скопировали свою ключевую идею из Cresceptron [13], но почти все более поздние публикации по глубокому обучению не ссылались на Cresceptron. Он подчеркнул, что Cresceptron (для 3D) сильно отличается от Neocognitron [39] (для 2D), потому что Cresceptron является фундаментальным отходом от Neocognitron. Cresceptron позволяет нейронной сети постепенно расти от иерархии с нулевым количеством нейронов и изучать 3D-объекты по их 2D-изображениям в загроможденных сценах. Это отличается от аспектных графов 1990-х годов и всех других методов, в которых центральным контроллером был человек-учитель внутри черепа. [40] Этот предполагаемый плагиат включает HMAX в MIT [41] и премию ACM Turing Award 2018. [42] Без внутреннего контроля веса, такого как ручной выбор человеком [39] [41] и обратное распространение ошибок [42] , изучение и совместное использование признаков в скрытых областях Cresceptron основаны на (неконтролируемых) механизмах Хебба . [43]
Вэн поднял вопрос о пост-отборе в ИИ и утверждал, что он представляет собой неправомерное поведение. Он указал, что многие методы ИИ требуют двух шагов на этапе обучения. Первый шаг состоит из обучения нескольких систем путем случайной подгонки подходящего набора данных. Второй шаг состоит из пост-выбора модели (пост-отбора). Пост-отбор выбирает несколько наиболее удачливых обученных систем или полагается на ручную настройку параметров человеком на основе ошибок систем в наборе данных проверки. Он утверждал, что пост-отбор в ИИ содержит два типа неправомерного поведения: (1) мошенничество при отсутствии теста, поскольку шаг пост-отбора относится к этапу обучения; (2) сокрытие плохо выглядящих данных, поскольку менее удачливые системы не были представлены. [10]
Вэн далее утверждал, что больше категорий методов ИИ пострадали от их шагов пост-отбора, таких как Neocognitron, HMAX, Deep Learning, Long Short-Term Memories , Extreme Learning Machines , Evolving Networks , Reservoir Computing , Transformers , Large Language Models , ChatGPT и Bard , до тех пор, пока они содержат шаг пост-отбора, который либо является автоматическим, либо требует ручной настройки человеком. Он математически рассуждал, что самая удачливая система на проверочном наборе дает только ожидаемую производительность на будущем тестовом наборе, которая лишь близка к средней производительности всех обученных систем на проверочном наборе. [10]
Вэн подал в суд на учреждения, чтобы решить вопрос о предполагаемом неправомерном поведении за пределами академической среды, включая Alphabet , в Окружной суд США по Западному округу Мичигана (гражданский иск № 1:22-cv-998) [44] и в Апелляционный суд США 6-го округа (гражданский иск № 23–1567). [45]