stringtranslate.com

Автоэнкодер

Автоэнкодер — это тип искусственной нейронной сети , используемый для обучения эффективному кодированию немаркированных данных ( обучение без учителя ). [1] [2] Автокодировщик изучает две функции: функцию кодирования, которая преобразует входные данные, и функцию декодирования, которая воссоздает входные данные из закодированного представления. Автоэнкодер изучает эффективное представление (кодирование) набора данных, обычно для уменьшения размерности .

Существуют варианты, целью которых является заставить изученные представления приобрести полезные свойства. [3] Примерами являются регуляризованные автоэнкодеры ( Sparse , Denoising и Contractive ), которые эффективны при обучении представлений для последующих задач классификации , [4] и вариационные автоэнкодеры с приложениями в качестве генеративных моделей . [5] Автоэнкодеры применяются для решения многих задач, включая распознавание лиц , [6] обнаружение особенностей, [7] обнаружение аномалий и определение значения слов. [8] [9] Автоэнкодеры также являются генеративными моделями, которые могут случайным образом генерировать новые данные, аналогичные входным данным (обучающие данные). [7]

Математические принципы

Определение

Автоэнкодер определяется следующими компонентами:

Два набора: пространство декодированных сообщений ; пространство закодированных сообщений . Почти всегда оба и являются евклидовыми пространствами, т. е. для некоторых .

Два параметризованных семейства функций: семейство энкодеров , параметризованное ; семейство декодеров , параметризованное .

Для любого мы обычно пишем и называем его кодом, скрытой переменной , скрытым представлением, скрытым вектором и т. д. И наоборот, для любого мы обычно пишем и называем его (декодированным) сообщением.

Обычно и кодер, и декодер определяются как многослойные перцептроны . Например, однослойный кодер MLP :

где — поэлементная функция активации, такая как сигмовидная функция или выпрямленная линейная единица , — матрица, называемая «весом», и — вектор, называемый «смещением».

Обучение автоэнкодера

Автоэнкодер сам по себе представляет собой просто кортеж из двух функций. Чтобы судить о его качестве , нам нужна задача . Задача определяется эталонным распределением вероятностей по и функцией «качества реконструкции» , которая измеряет, насколько сильно отличается от .

С их помощью мы можем определить функцию потерь для автоэнкодера как

автоэнкодеромградиентного спуска

В большинстве ситуаций эталонное распределение — это просто эмпирическое распределение, заданное набором данных , так что

где и – мера Дирака , а функция качества – это просто потеря L2: , – евклидова норма. Тогда проблема поиска оптимального автоэнкодера — это всего лишь оптимизация методом наименьших квадратов :

Интерпретация

Схема базового автоэнкодера

Автокодировщик состоит из двух основных частей: кодировщика, который отображает сообщение в код, и декодера, который восстанавливает сообщение из кода. Оптимальный автоэнкодер будет выполнять реконструкцию как можно более близкую к идеальной, причем «близко к идеальному» определяется функцией качества реконструкции .

Самый простой способ идеально выполнить задачу копирования — это дублировать сигнал. Чтобы подавить такое поведение, пространство кода обычно имеет меньше измерений, чем пространство сообщений .

Такой автоэнкодер называется undercomplete . Это можно интерпретировать как сжатие сообщения или уменьшение его размерности . [1] [10]

В пределе идеального неполного автокодировщика каждый возможный код в кодовом пространстве используется для кодирования сообщения , которое действительно появляется в дистрибутиве , и декодер также идеален: . Этот идеальный автокодировщик затем можно использовать для генерации сообщений, неотличимых от реальных сообщений, путем подачи в его декодер произвольного кода и получения сообщения, которое действительно появляется в рассылке .

Если размерность пространства кода больше ( переполнения ) или равна размеру пространства сообщений или скрытым модулям предоставлена ​​достаточная емкость, автоэнкодер может изучить идентификационную функцию и стать бесполезным. Тем не менее, экспериментальные результаты показали, что автокодировщики с переполным набором данных все равно могут обучиться полезным функциям . [11]

В идеальном случае размерность кода и емкость модели могут быть установлены на основе сложности распределения моделируемых данных. Стандартный способ сделать это — внести изменения в базовый автокодировщик, подробно описанный ниже. [3]

История

Автоэнкодер был впервые предложен Крамером как нелинейное обобщение анализа главных компонентов (PCA). [1] Автоэнкодер также называют автоассоциатором, [12] или сетью Diabolo. [13] [11] Его первые применения датируются началом 1990-х годов. [3] [14] [15] Их наиболее традиционным применением было уменьшение размерности или обучение признакам , но эта концепция стала широко использоваться для изучения генеративных моделей данных. [16] [17] Некоторые из самых мощных ИИ 2010-х годов использовали автокодировщики, встроенные в глубокие нейронные сети. [18]

Вариации

Регуляризованные автоэнкодеры

Существуют различные методы, позволяющие помешать автокодировщикам изучить функцию идентификации и улучшить их способность захватывать важную информацию и изучать более широкие представления.

Разреженный автоэнкодер (SAE)

Вдохновленные гипотезой разреженного кодирования в нейробиологии, разреженные автокодировщики представляют собой варианты автокодировщиков, так что коды для сообщений имеют тенденцию быть разреженными кодами , то есть в большинстве записей они близки к нулю. Разреженные автокодировщики могут включать в себя больше (а не меньше) скрытых модулей, чем входных, но только небольшому количеству скрытых модулей разрешено быть активными одновременно. [18] Поощрение разреженности повышает производительность задач классификации. [19]

Простая схема однослойного разреженного автокодировщика. Скрытые узлы ярко-желтого цвета активированы, а светло-желтые неактивны. Активация зависит от ввода.

Есть два основных способа обеспечить разреженность. Один из способов — просто обнулить все активации скрытого кода, кроме самого высокого k. Это k-разреженный автоэнкодер . [20]

K-разреженный автокодировщик вставляет следующую «k-разреженную функцию» в скрытый уровень стандартного автокодировщика:

Обратное распространение ошибки простое: установите градиент на 0 для записей и сохраните градиент для записей. По сути, это обобщенная функция ReLU . [20]

Другой способ — это упрощенная версия k-разреженного автокодировщика. Вместо принудительной разреженности мы добавляем потерю регуляризации разреженности , а затем оптимизируем для

[21]

Пусть архитектура автоэнкодера имеет слои. Чтобы определить потерю регуляризации разреженности, нам нужна «желаемая» разреженность для каждого слоя, вес, определяющий, насколько необходимо обеспечить каждую разреженность, и функция для измерения того, насколько различаются две разреженности.

Пусть для каждого входа фактическая разреженность активации в каждом слое равна

Потери из-за разреженности при вводе для одного слоя равны , а потери из-за регуляризации разреженности для всего автокодировщика представляют собой ожидаемую взвешенную сумму потерь из-за разреженности:

дивергенцию Кульбака-Лейблера (КЛ)[19] [21] [22] [23]

или потери L1, как , или потери L2, как .

Альтернативно, потери из-за регуляризации разреженности могут быть определены без ссылки на какую-либо «желаемую разреженность», а просто обеспечить как можно большую разреженность. В этом случае можно определить потерю регуляризации разреженности как

Автоэнкодер шумоподавления (DAE)

Автоэнкодеры с шумоподавлением (DAE) пытаются добиться хорошего представления, изменяя критерий реконструкции . [3] [4]

DAE, первоначально называвшаяся «надежной автоассоциативной сетью», [2] обучается путем намеренного искажения входных данных стандартного автокодировщика во время обучения. Шумовой процесс определяется распределением вероятностей по функциям . То есть функция принимает сообщение и искажает его до зашумленной версии . Функция выбирается случайно, с распределением вероятностей .

Учитывая задачу , проблема обучения ДАУ — это задача оптимизации:

.

Обычно шумовой процесс применяется только во время обучения и тестирования, а не во время последующего использования.

Использование DAE зависит от двух предположений:

Примеры шумовых процессов включают в себя:

Сжимающий автоэнкодер (CAE)

Сжимающий автоэнкодер добавляет потери сжимающей регуляризации к стандартным потерям автоэнкодера:

норма ФробениусаЯкоби

DAE можно понимать как бесконечно малый предел CAE: в пределе небольшого гауссовского входного шума DAE заставляют функцию реконструкции сопротивляться небольшим, но конечным входным возмущениям, в то время как CAE делают извлеченные признаки устойчивыми к бесконечно малым входным возмущениям.

Автокодировщик минимальной длины описания

[24]

Бетонный автоэнкодер

Конкретный автоэнкодер предназначен для дискретного выбора функций. [25] Конкретный автоэнкодер заставляет скрытое пространство состоять только из указанного пользователем количества функций. Конкретный автоэнкодер использует непрерывное расслабление категориального распределения , чтобы позволить градиентам проходить через слой выбора признаков, что позволяет использовать стандартное обратное распространение ошибки для изучения оптимального подмножества входных признаков, которые минимизируют потери при реконструкции.

Вариационный автоэнкодер (VAE)

Вариационные автоэнкодеры (VAE) относятся к семействам вариационных байесовских методов . Несмотря на архитектурное сходство с базовыми автокодировщиками, VAE представляют собой архитектуру с другими целями и совершенно другой математической формулировкой. Скрытое пространство в этом случае состоит из смеси распределений, а не фиксированного вектора.

Учитывая входной набор данных , характеризующийся неизвестной функцией вероятности и многомерным вектором скрытого кодирования , цель состоит в том, чтобы смоделировать данные как распределение , определенное как набор сетевых параметров так, чтобы :

Преимущества глубины

Схематическая структура автоэнкодера с тремя полностью связанными скрытыми слоями. Код (z или h для ссылки в тексте) — это самый внутренний слой.

Автоэнкодеры часто обучаются с помощью одноуровневого кодера и однослойного декодера, но использование многоуровневых (глубоких) кодеров и декодеров дает много преимуществ. [3]

Обучение

Джеффри Хинтон разработал метод сети глубоких убеждений для обучения многоуровневых глубоких автокодировщиков. Его метод предполагает обработку каждого соседнего набора из двух слоев как ограниченной машины Больцмана, так что предварительное обучение аппроксимирует хорошее решение, а затем использование обратного распространения ошибки для точной настройки результатов. [10]

Исследователи спорят о том, будет ли совместное обучение (т.е. обучение всей архитектуры вместе с единой глобальной целью реконструкции для оптимизации) лучше для глубоких автокодировщиков. [26] Исследование 2015 года показало, что совместное обучение изучает лучшие модели данных, а также более репрезентативные функции для классификации по сравнению с послойным методом. [26] Однако их эксперименты показали, что успех совместного обучения во многом зависит от принятых стратегий регуляризации. [26] [27]

Приложения

Двумя основными приложениями автоэнкодеров являются уменьшение размерности и поиск информации [3] , но современные варианты применяются и для других задач.

Уменьшение размерности

График первых двух главных компонентов (слева) и двумерного скрытого слоя линейного автоэнкодера (справа), примененного к набору данных Fashion MNIST . [28] Обе модели, будучи линейными, учатся охватывать одно и то же подпространство. Проекция точек данных действительно идентична, за исключением вращения подпространства. В то время как PCA в общем случае выбирает конкретную ориентацию вплоть до отражений, функция стоимости простого автоэнкодера инвариантна к поворотам скрытого пространства.

Снижение размерности было одним из первых приложений глубокого обучения . [3]

Для исследования Хинтона 2006 года [10] он предварительно обучил многоуровневый автокодировщик с помощью набора RBM , а затем использовал их веса для инициализации глубокого автокодировщика с постепенно уменьшающимися скрытыми слоями, пока не достиг узкого места в 30 нейронов. Полученные 30 измерений кода дали меньшую ошибку реконструкции по сравнению с первыми 30 компонентами анализа главных компонент (PCA) и получили представление, которое было качественно легче интерпретировать, четко разделяя кластеры данных. [3] [10]

Представление измерений может повысить производительность при выполнении таких задач, как классификация. [3] Действительно, отличительной чертой уменьшения размерности является размещение семантически связанных примеров рядом друг с другом. [29]

Анализ главных компонентов

Реконструкция изображений размером 28x28 пикселей с помощью автоэнкодера с размером кода два (скрытый слой из двух единиц) и реконструкция из первых двух основных компонентов PCA. Изображения взяты из набора данных Fashion MNIST. [28]

Если используются линейные активации или только один скрытый слой сигмовидной формы, то оптимальное решение для автокодировщика тесно связано с анализом главных компонентов (PCA). [30] [31] Веса автокодировщика с одним скрытым слоем размера (где меньше размера входных данных) охватывают то же векторное подпространство, что и то, которое охватывает первые главные компоненты, а выходные данные автокодировщика является ортогональной проекцией на это подпространство. Веса автоэнкодера не равны главным компонентам и, как правило, не ортогональны, однако главные компоненты могут быть восстановлены из них с помощью разложения по сингулярным значениям . [32]

Однако потенциал автоэнкодеров заключается в их нелинейности, что позволяет модели изучать более мощные обобщения по сравнению с PCA и реконструировать входные данные со значительно меньшими потерями информации. [10]

Поиск информации и поисковая оптимизация

Информационный поиск выигрывает, в частности, от уменьшения размерности , поскольку поиск может стать более эффективным в определенных типах низкоразмерных пространств. Автоэнкодеры действительно применялись для семантического хеширования, предложенного Салахутдиновым и Хинтоном в 2007 году. [29] Путем обучения алгоритма созданию низкоразмерного двоичного кода все записи базы данных можно было хранить в хеш-таблице , сопоставляющей векторы двоичного кода с записями. Эта таблица затем будет поддерживать поиск информации, возвращая все записи с тем же двоичным кодом, что и запрос, или немного менее похожие записи, переворачивая некоторые биты из кодировки запроса.

Архитектура кодировщика-декодера, часто используемая в обработке естественного языка и нейронных сетях, может быть научно применена в области SEO (поисковая оптимизация) различными способами:

  1. Обработка текста . Используя автокодировщик, можно сжать текст веб-страниц в более компактное векторное представление. Это может помочь сократить время загрузки страницы и улучшить ее индексацию поисковыми системами.
  2. Шумоподавление : автоэнкодеры можно использовать для удаления шума из текстовых данных веб-страниц. Это может привести к лучшему пониманию контента поисковыми системами, тем самым повышая рейтинг на страницах результатов поисковых систем.
  3. Генерация метатегов и фрагментов . Автоэнкодеры можно обучить автоматически генерировать метатеги, фрагменты и описания для веб-страниц, используя содержимое страницы. Это может оптимизировать представление в результатах поиска, увеличивая рейтинг кликов (CTR).
  4. Кластеризация контента : с помощью автокодировщика веб-страницы со схожим содержанием могут быть автоматически сгруппированы вместе. Это может помочь логически организовать веб-сайт и улучшить навигацию, что потенциально положительно повлияет на пользовательский опыт и рейтинг в поисковых системах.
  5. Генерация связанного контента : автокодировщик можно использовать для создания контента, связанного с тем, что уже присутствует на сайте. Это может повысить привлекательность веб-сайта для поисковых систем и предоставить пользователям дополнительную релевантную информацию.
  6. Обнаружение ключевых слов . Автоэнкодеры можно обучить распознавать ключевые слова и важные понятия в содержании веб-страниц. Это может помочь оптимизировать использование ключевых слов для лучшей индексации.
  7. Семантический поиск . Используя методы автокодирования, можно создавать модели семантического представления контента. Эти модели можно использовать для улучшения понимания поисковыми системами тем, затронутых на веб-страницах.

По сути, архитектура кодировщика-декодера или автокодировщики могут использоваться в SEO для оптимизации содержимого веб-страниц, улучшения их индексации и повышения их привлекательности как для поисковых систем, так и для пользователей.

Обнаружение аномалий

Еще одно применение автоэнкодеров — обнаружение аномалий . [2] [33] [34] [35] [36] [37] Научившись воспроизводить наиболее существенные особенности обучающих данных при некоторых ограничениях, описанных ранее, модель поощряется учиться точно воспроизводить наиболее часто встречающиеся наблюдаемые характеристики. При столкновении с аномалиями модель должна ухудшать производительность реконструкции. В большинстве случаев для обучения автокодировщика используются только данные с обычными экземплярами; в других частота аномалий мала по сравнению с набором наблюдений, так что ее вклад в изученное представление можно игнорировать. После обучения автоэнкодер точно восстановит «нормальные» данные, но не сможет сделать это с незнакомыми аномальными данными. [35] Ошибка реконструкции (ошибка между исходными данными и их низкоразмерной реконструкцией) используется в качестве показателя аномалии для обнаружения аномалий. [35]

Однако недавняя литература показала, что некоторые модели автокодирования могут, как ни странно, очень хорошо реконструировать аномальные примеры и, следовательно, не способны надежно выполнять обнаружение аномалий. [38] [39]

Обработка изображений

Характеристики автоэнкодеров полезны при обработке изображений.

Одним из примеров является сжатие изображений с потерями , где автокодировщики превзошли другие подходы и оказались конкурентоспособными по сравнению с JPEG 2000 . [40] [41]

Еще одним полезным применением автоэнкодеров при предварительной обработке изображений является шумоподавление изображений . [42] [43] [44]

Автокодировщики нашли применение в более требовательных контекстах, таких как медицинская визуализация , где они использовались для шумоподавления изображений [45] , а также для обеспечения сверхвысокого разрешения . [46] [47] В диагностике с использованием изображений в экспериментах применялись автокодировщики для обнаружения рака молочной железы [48] и для моделирования связи между снижением когнитивных функций при болезни Альцгеймера и скрытыми особенностями автокодировщика, обученного с помощью МРТ . [49]

Открытие лекарств

В 2019 году молекулы, созданные с помощью вариационных автоэнкодеров, были проверены экспериментально на мышах. [50] [51]

Прогноз популярности

Недавно многоуровневая структура автокодирования дала многообещающие результаты в прогнозировании популярности публикаций в социальных сетях [52] , что полезно для стратегий онлайн-рекламы.

Машинный перевод

Автоэнкодеры были применены к машинному переводу , который обычно называют нейронным машинным переводом (NMT). [53] [54] В отличие от традиционных автоэнкодеров, вывод не соответствует входу — он находится на другом языке. В NMT тексты рассматриваются как последовательности, подлежащие кодированию в процедуре обучения, в то время как на стороне декодера генерируются последовательности на целевом языке(ах). Автокодировщики, специфичные для языка , включают в процедуру обучения дополнительные лингвистические функции, такие как функции разложения китайского языка. [55] Машинный перевод до сих пор редко выполняется с помощью автокодировщиков из-за наличия более эффективных преобразовательных сетей.

Смотрите также

Рекомендации

  1. ^ abc Крамер, Марк А. (1991). «Нелинейный анализ главных компонент с использованием автоассоциативных нейронных сетей» (PDF) . Журнал Айше . 37 (2): 233–243. дои : 10.1002/aic.690370209.
  2. ^ abc Крамер, Массачусетс (1 апреля 1992 г.). «Автоассоциативные нейронные сети». Компьютеры и химическая инженерия . Применение нейтральных сетей в химической технологии. 16 (4): 313–328. дои : 10.1016/0098-1354(92)80051-А. ISSN  0098-1354.
  3. ^ abcdefghi Гудфеллоу, Ян; Бенджио, Йошуа; Курвиль, Аарон (2016). Глубокое обучение. МТИ Пресс. ISBN 978-0262035613.
  4. ^ abcd Винсент, Паскаль; Ларошель, Хьюго (2010). «Автоэнкодеры со сложенным шумоподавлением: изучение полезных представлений в глубокой сети с локальным критерием шумоподавления». Журнал исследований машинного обучения . 11 : 3371–3408.
  5. ^ Веллинг, Макс; Кингма, Дидерик П. (2019). «Введение в вариационные автоэнкодеры». Основы и тенденции в машинном обучении . 12 (4): 307–392. arXiv : 1906.02691 . Бибкод : 2019arXiv190602691K. дои : 10.1561/2200000056. S2CID  174802445.
  6. ^ Хинтон Г.Э., Крижевский А., Ван С.Д. Преобразование автоэнкодеров. На Международной конференции по искусственным нейронным сетям, 14 июня 2011 г. (стр. 44–51). Шпрингер, Берлин, Гейдельберг.
  7. ^ аб Жерон, Орельен (2019). Практическое машинное обучение с помощью Scikit-Learn, Keras и TensorFlow . Канада: O'Reilly Media, Inc., стр. 739–740.
  8. ^ Лю, Чэн-Юань; Хуанг, Джау-Чи; Ян, Вэнь-Чи (2008). «Моделирование восприятия слова с помощью сети Элмана». Нейрокомпьютинг . 71 (16–18): 3150. doi :10.1016/j.neucom.2008.04.030.
  9. ^ Лю, Чэн-Юань; Ченг, Вэй-Чен; Лиу, Цзюнь-Вэй; Лиу, Доу-Ран (2014). «Автоэнкодер слов». Нейрокомпьютинг . 139 : 84–96. doi : 10.1016/j.neucom.2013.09.055.
  10. ^ abcdef Хинтон, GE; Салахутдинов, Р.Р. (28 июля 2006 г.). «Уменьшение размерности данных с помощью нейронных сетей». Наука . 313 (5786): 504–507. Бибкод : 2006Sci...313..504H. дои : 10.1126/science.1127647. PMID  16873662. S2CID  1658773.
  11. ^ Аб Бенджио, Ю. (2009). «Изучение глубокой архитектуры для искусственного интеллекта» (PDF) . Основы и тенденции в машинном обучении . 2 (8): 1795–7. CiteSeerX 10.1.1.701.9550 . дои : 10.1561/2200000006. PMID  23946944. S2CID  207178999. 
  12. ^ Япкович, Натали ; Хэнсон, Стивен Хосе; Глюк, Марк А. (01 марта 2000 г.). «Нелинейная автоассоциация не эквивалентна PCA». Нейронные вычисления . 12 (3): 531–545. дои : 10.1162/089976600300015691. ISSN  0899-7667. PMID  10769321. S2CID  18490972.
  13. ^ Швенк, Хольгер; Бенджио, Йошуа (1997). «Методы обучения адаптивному стимуляции нейронных сетей». Достижения в области нейронных систем обработки информации . МТИ Пресс. 10 .
  14. ^ Шмидхубер, Юрген (январь 2015 г.). «Глубокое обучение в нейронных сетях: обзор». Нейронные сети . 61 : 85–117. arXiv : 1404.7828 . doi :10.1016/j.neunet.2014.09.003. PMID  25462637. S2CID  11715509.
  15. ^ Хинтон, GE, и Земель, RS (1994). Автоэнкодеры, минимальная длина описания и свободная энергия Гельмгольца. В «Достижениях в области нейронных систем обработки информации» 6 (стр. 3–10).
  16. ^ Дидерик П. Кингма; Веллинг, Макс (2013). «Автокодирование вариационного Байеса». arXiv : 1312.6114 [stat.ML].
  17. ^ Генерация лиц с помощью Torch, Бозен А., Ларсен Л. и Сондерби С.К., 2015 torch.ch/blog/2015/11/13/gan.html
  18. ^ Аб Домингос, Педро (2015). «4». Главный алгоритм: как поиски совершенной обучающейся машины изменят наш мир . Основные книги. Подраздел «Глубже в мозг». ISBN 978-046506192-1.
  19. ^ аб Фрей, Брендан; Махзани, Алиреза (19 декабря 2013 г.). «k-разреженные автоэнкодеры». arXiv : 1312.5663 . Бибкод : 2013arXiv1312.5663M. {{cite journal}}: Требуется цитировать журнал |journal=( помощь )
  20. ^ аб Махзани, Алиреза; Фрей, Брендан (2013). «K-разреженные автоэнкодеры». arXiv : 1312.5663 [cs.LG].
  21. ^ Аб Нг, А. (2011). Разреженный автоэнкодер. CS294A Конспекты лекций , 72 (2011), 1–19.
  22. ^ Наир, Винод; Хинтон, Джеффри Э. (2009). «Распознавание 3D-объектов с помощью сетей глубокого доверия». Материалы 22-й Международной конференции по нейронным системам обработки информации . НИПС'09. США: Curran Associates Inc.: 1339–1347. ISBN 9781615679119.
  23. ^ Цзэн, Няньинь; Чжан, Хун; Сун, Баойе; Лю, Weibo; Ли, Юронг; Добайе, Абдулла М. (17 января 2018 г.). «Распознавание выражения лица посредством изучения глубоких разреженных автокодировщиков». Нейрокомпьютинг . 273 : 643–649. doi : 10.1016/j.neucom.2017.08.043. ISSN  0925-2312.
  24. ^ Хинтон, Джеффри Э; Земель, Ричард (1993). «Автоэнкодеры, минимальная длина описания и свободная энергия Гельмгольца». Достижения в области нейронных систем обработки информации . Морган-Кауфманн. 6 .
  25. ^ Абид, Абубакар; Балин, Мухаммад Фатих; Цзоу, Джеймс (27 января 2019 г.). «Конкретные автоэнкодеры для выбора и реконструкции дифференцируемых функций». arXiv : 1901.09346 [cs.LG].
  26. ^ abc Чжоу, Инбо; Арпит, Деванш; Нвогу, Ифеома; Говиндараджу, Вену (2014). «Лучше ли совместное обучение для глубоких автокодировщиков?». arXiv : 1405.1380 [stat.ML].
  27. ^ Р. Салахутдинов и Г. Э. Хинтон, «Глубокие машины Больцмана», в AISTATS, 2009, стр. 448–455.
  28. ^ ab «Мода МНИСТ». Гитхаб . 2019-07-12.
  29. ^ аб Салахутдинов, Руслан; Хинтон, Джеффри (1 июля 2009 г.). «Семантическое хеширование». Международный журнал приближенного рассуждения . Специальный раздел по графическим моделям и информационному поиску. 50 (7): 969–978. дои : 10.1016/j.ijar.2008.11.006 . ISSN  0888-613X.
  30. ^ Бурлард, Х.; Камп, Ю. (1988). «Автоассоциация с помощью многослойных перцептронов и разложение по сингулярным значениям». Биологическая кибернетика . 59 (4–5): 291–294. дои : 10.1007/BF00332918. PMID  3196773. S2CID  206775335.
  31. ^ Чикко, Давиде; Садовский, Питер; Бальди, Пьер (2014). «Нейронные сети глубокого автокодирования для прогнозирования аннотаций онтологии генов». Материалы 5-й конференции ACM по биоинформатике, вычислительной биологии и медицинской информатике - BCB '14. п. 533. дои : 10.1145/2649387.2649442. hdl : 11311/964622. ISBN 9781450328944. S2CID  207217210.
  32. ^ Плаут, Э (2018). «От главных подпространств к главным компонентам с линейными автоэнкодерами». arXiv : 1804.10253 [stat.ML].
  33. ^ Моралес-Фореро, А.; Бассетто, С. (декабрь 2019 г.). «Тематическое исследование: полуконтролируемая методология обнаружения и диагностики аномалий». Международная конференция IEEE по промышленной инженерии и инженерному менеджменту (IEEM) 2019 . Макао, Макао: IEEE. стр. 1031–1037. doi : 10.1109/IEEM44572.2019.8978509. ISBN 978-1-7281-3804-6. S2CID  211027131.
  34. ^ Сакурада, Маю; Яири, Такехиса (декабрь 2014 г.). «Обнаружение аномалий с использованием автоэнкодеров с нелинейным уменьшением размерности». Материалы 2-го семинара MLSDA 2014 г. по машинному обучению для анализа сенсорных данных . Голд-Кост, Австралия, Квинсленд, Австралия: ACM Press. стр. 4–11. дои : 10.1145/2689746.2689747. ISBN 978-1-4503-3159-3. S2CID  14613395.
  35. ^ abc Ан, Дж., и Чо, С. (2015). Обнаружение аномалий на основе вариационного автоэнкодера с использованием вероятности реконструкции. Специальная лекция по IE , 2 , 1-18.
  36. ^ Чжоу, Чонг; Паффенрот, Рэнди К. (4 августа 2017 г.). «Обнаружение аномалий с помощью надежных глубоких автоэнкодеров». Материалы 23-й Международной конференции ACM SIGKDD по обнаружению знаний и интеллектуальному анализу данных . АКМ. стр. 665–674. дои : 10.1145/3097983.3098052. ISBN 978-1-4503-4887-4. S2CID  207557733.
  37. ^ Рибейро, Манассес; Лаццаретти, Андре Эудженио; Лопес, Эйтор Сильверио (2018). «Исследование глубоких сверточных автокодеров для обнаружения аномалий в видео». Буквы для распознавания образов . 105 : 13–22. Бибкод : 2018PaReL.105...13R. doi :10.1016/j.patrec.2017.07.016.
  38. ^ Налисник, Эрик; Мацукава, Акихиро; Да, да, почему; Горур, Дилан; Лакшминараянан, Баладжи (24 февраля 2019 г.). «Знают ли глубокие генеративные модели то, чего они не знают?». arXiv : 1810.09136 [stat.ML].
  39. ^ Сяо, Чжишэн; Ян, Цин; Амит, Яли (2020). «Сожаление о вероятности: показатель обнаружения выхода за пределы распределения для вариационного автокодировщика». Достижения в области нейронных систем обработки информации . 33 . arXiv : 2003.02977 .
  40. ^ Тайс, Лукас; Ши, Вэньчжэ; Каннингем, Эндрю; Гусар, Ференц (2017). «Сжатие изображений с потерями с помощью сжимающих автоэнкодеров». arXiv : 1703.00395 [stat.ML].
  41. ^ Балле, Дж; Лапарра, В; Симончелли, EP (апрель 2017 г.). «Сквозное оптимизированное сжатие изображений». Международная конференция по обучению представлений . arXiv : 1611.01704 .
  42. ^ Чо, К. (2013, февраль). Простая разреженность улучшает работу автокодировщиков разреженного шумоподавления при удалении сильно поврежденных изображений. На Международной конференции по машинному обучению (стр. 432-440).
  43. ^ Чо, Кёнхён (2013). «Машины Больцмана и автокодеры шумоподавления для шумоподавления изображений». arXiv : 1301.3468 [stat.ML].
  44. ^ Буадес, А.; Колл, Б.; Морель, Дж. М. (2005). «Обзор алгоритмов шумоподавления изображения с новым». Многомасштабное моделирование . 4 (2): 490–530. дои : 10.1137/040616024. S2CID  218466166.
  45. Гондара, Лавдип (декабрь 2016 г.). «Подавление шума медицинских изображений с использованием автоэнкодеров сверточного шумоподавления». 16-я Международная конференция IEEE по интеллектуальному анализу данных (ICDMW), 2016 г. Барселона, Испания: IEEE. стр. 241–246. arXiv : 1608.04667 . Бибкод : 2016arXiv160804667G. дои : 10.1109/ICDMW.2016.0041. ISBN 9781509059102. S2CID  14354973.
  46. ^ Цзэн, Кун; Ю, Джун; Ван, Раксин; Ли, Цуйхуа; Тао, Дачэн (январь 2017 г.). «Связанный глубокий автоэнкодер для сверхвысокого разрешения одного изображения». Транзакции IEEE по кибернетике . 47 (1): 27–37. дои : 10.1109/TCYB.2015.2501373. ISSN  2168-2267. PMID  26625442. S2CID  20787612.
  47. ^ Цзы-Си, Сун; Санчес, Виктор; Хешам, ЭйДали; Насир М., Раджпут (2017). «Гибридный глубокий автоэнкодер с гауссовой кривизной для обнаружения различных типов клеток на изображениях трепанобиопсии костного мозга». 2017 IEEE 14-й Международный симпозиум по биомедицинской визуализации (ISBI 2017) . стр. 1040–1043. дои : 10.1109/ISBI.2017.7950694. ISBN 978-1-5090-1172-8. S2CID  7433130.
  48. ^ Сюй, Цзюнь; Сян, Лей; Лю, Циншань; Гилмор, Ханна; Ву, Цзяньчжун; Тан, Цзинхай; Мадабхуши, Анант (январь 2016 г.). «Сложенный разреженный автоэнкодер (SSAE) для обнаружения ядер на гистопатологических изображениях рака молочной железы». Транзакции IEEE по медицинской визуализации . 35 (1): 119–130. дои : 10.1109/TMI.2015.2458702. ПМЦ 4729702 . ПМИД  26208307. 
  49. ^ Мартинес-Мурсия, Франсиско Дж.; Ортис, Андрес; Горрис, Хуан М.; Рамирес, Хавьер; Кастильо-Барнс, Диего (2020). «Изучение многообразной структуры болезни Альцгеймера: подход глубокого обучения с использованием сверточных автоэнкодеров». Журнал IEEE по биомедицинской и медицинской информатике . 24 (1): 17–26. дои : 10.1109/JBHI.2019.2914970 . PMID  31217131. S2CID  195187846.
  50. ^ Жаворонков, Алекс (2019). «Глубокое обучение позволяет быстро идентифицировать мощные ингибиторы киназы DDR1». Природная биотехнология . 37 (9): 1038–1040. дои : 10.1038/s41587-019-0224-x. PMID  31477924. S2CID  201716327.
  51. ^ Грегори, Барбер. «Молекула, созданная искусственным интеллектом, обладает свойствами, подобными лекарству». Проводной .
  52. ^ Де, Шонак; Майти, Абхишек; Гоэл, Вритти; Шитоле, Санджай; Бхаттачарья, Авик (2017). «Прогнозирование популярности постов в Instagram для журнала о стиле жизни с помощью глубокого обучения». 2017 2-я Международная конференция IEEE по системам связи, вычислениям и ИТ-приложениям (CSCITA) . стр. 174–177. doi : 10.1109/CSCITA.2017.8066548. ISBN 978-1-5090-4381-1. S2CID  35350962.
  53. ^ Чо, Кёнхён; Барт ван Мерриенбур; Богданов Дмитрий; Бенджио, Йошуа (2014). «О свойствах нейронного машинного перевода: подходы кодировщика-декодера». arXiv : 1409.1259 [cs.CL].
  54. ^ Суцкевер, Илья; Виньялс, Ориол; Ле, Куок В. (2014). «Последовательное обучение с помощью нейронных сетей». arXiv : 1409.3215 [cs.CL].
  55. ^ Хан, Лифенг; Куанг, Шаохуэй (2018). «Включение китайских радикалов в нейронный машинный перевод: глубже, чем уровень символов». arXiv : 1805.01565 [cs.CL].