Yixin Chen — компьютерный ученый , академик и автор. Он профессор компьютерных наук и инженерии в Университете Вашингтона в Сент-Луисе . [1]
Научные интересы Чена сосредоточены на компьютерных науках , с особым акцентом на областях машинного обучения , глубокого обучения и интеллектуального анализа данных . [2] Он внес вклад в несколько публикаций и написал несколько глав книг, включая «Кластеризация параллельных потоков данных» и «Оценка проблем секционированного временного планирования в дискретном пространстве и ее применение в ASPEN» . [3] Он также является соавтором книги « Введение в объяснимый искусственный интеллект» .
Чэнь является избранным членом IEEE [4] за его вклад в системы глубокого обучения и членом AAIA. Он также был сопредседателем программы конференции IEEE по большим данным 2021 года. [5]
Чэнь получил степень бакалавра в области компьютерных наук в Китайском университете науки и технологий в 1999 году и степень магистра в области компьютерных наук в Иллинойсском университете в Урбане-Шампейне в 2001 году. Затем он продолжил обучение в докторантуре по компьютерным наукам в Иллинойсском университете в Урбане-Шампейне под руководством Бенджамина Ва [6] [ циклическая ссылка ] и завершил его в 2005 году. [7]
Чэнь начал свою академическую карьеру в качестве доцента на кафедре компьютерных наук и инженерии в Университете Вашингтона в Сент-Луисе в 2005 году. В 2010 году он был назначен доцентом на кафедре компьютерных наук и инженерии в Университете Вашингтона в Сент-Луисе. С 2016 года он является профессором на кафедре компьютерных наук и инженерии в Университете Вашингтона в Сент-Луисе. [8] Он является директором Центра совместного обучения и эксплуатации человеческого и искусственного интеллекта (HALO) в Университете Вашингтона. [9]
Чэнь является автором многочисленных публикаций. Его исследовательские интересы сосредоточены в областях машинного обучения, применения искусственного интеллекта в здравоохранении , алгоритмов оптимизации, интеллектуального анализа данных и вычислительной биомедицины. [2]
Чэнь провел значительные исследования компактности и применимости глубоких нейронных сетей (DNN). Он предложил концепцию и архитектуру легких DNN. Его группа изобрела архитектуру HashedNets, которая сжимает чрезмерно большие DNN в гораздо меньшие сети с использованием схемы распределения веса. [10]
Чэнь также разработал фреймворки сжатия для сверточных нейронных сетей (CNN). Его лаборатория изобрела частотно-чувствительную технику сжатия, в которой более важные параметры модели сохраняются лучше, что приводит к результатам сжатия, соответствующим самым современным стандартам. [11]
Чен внес значительный вклад в графовые нейронные сети (GNN). Чен и его студенты предложили DGCNN, один из первых методов свертки графов, который может выучить осмысленное тензорное представление из произвольных графов, и показали его глубокую связь с алгоритмом Вайсфейлера-Лемана. [12] Они первыми применили GNN для прогнозирования связей (в известном алгоритме SEAL) и завершения матриц и достигли мировых рекордных результатов. [13]
Для классификации временных рядов Чэнь выступал за использование многомасштабной сверточной нейронной сети, также известной как MCNN, ссылаясь на ее вычислительную эффективность. Он проиллюстрировал, что MCNN выявляет признаки на разных частотах и масштабах, используя вычисления на GPU, в отличие от других фреймворков, которые могут извлекать признаки только в одном временном масштабе. [14]