Неконтролируемое обучение — это структура в машинном обучении , где, в отличие от контролируемого обучения , алгоритмы изучают закономерности исключительно из немаркированных данных. [1] Другие структуры в спектре надзора включают слабый или полуконтроль , где небольшая часть данных помечена, и самоконтроль . Некоторые исследователи считают самоконтролируемое обучение формой неконтролируемого обучения. [2]
Концептуально, неконтролируемое обучение делится на аспекты данных, обучения, алгоритма и нижестоящих приложений. Обычно набор данных собирается дешево «в дикой природе», например, массивный текстовый корпус , полученный с помощью веб-сканирования , с незначительной фильтрацией (например, Common Crawl ). Это выгодно отличается от контролируемого обучения, где набор данных (например, ImageNet1000 ) обычно создается вручную, что намного дороже.
Были алгоритмы, разработанные специально для неконтролируемого обучения, такие как алгоритмы кластеризации, такие как k-средние , методы снижения размерности , такие как анализ главных компонент (PCA) , машинное обучение Больцмана и автокодировщики . После появления глубокого обучения большинство крупномасштабного неконтролируемого обучения выполнялось путем обучения архитектур нейронных сетей общего назначения методом градиентного спуска , адаптированных для выполнения неконтролируемого обучения путем разработки соответствующей процедуры обучения.
Иногда обученную модель можно использовать как есть, но чаще всего они модифицируются для последующих приложений. Например, метод генеративного предварительного обучения обучает модель генерировать текстовый набор данных, прежде чем настраивать ее для других приложений, таких как классификация текста. [3] [4] В качестве другого примера, автокодировщики обучаются хорошим признакам , которые затем могут использоваться в качестве модуля для других моделей, таких как модель скрытой диффузии .
Задачи часто классифицируются как дискриминационные (распознавание) или генеративные (воображение). Часто, но не всегда, дискриминационные задачи используют контролируемые методы, а генеративные задачи используют неконтролируемые (см. диаграмму Венна ); однако разделение очень размыто. Например, распознавание объектов благоприятствует контролируемому обучению, но неконтролируемое обучение также может группировать объекты в группы. Более того, по мере продвижения вперед некоторые задачи используют оба метода, а некоторые задачи переходят от одного к другому. Например, распознавание изображений начиналось как строго контролируемое, но стало гибридным, используя неконтролируемое предварительное обучение, а затем снова перешло к контролю с появлением отсева , ReLU и адаптивных скоростей обучения .
Типичная генеративная задача выглядит следующим образом. На каждом шаге точка данных выбирается из набора данных, часть данных удаляется, и модель должна вывести удаленную часть. Это особенно очевидно для шумоподавляющих автоэнкодеров и BERT .
На этапе обучения неконтролируемая сеть пытается имитировать данные, которые ей дали, и использует ошибку в имитированном выходе для исправления себя (т. е. исправления своих весов и смещений). Иногда ошибка выражается как низкая вероятность того, что произойдет ошибочный выход, или она может выражаться как нестабильное состояние высокой энергии в сети.
В отличие от контролируемых методов, которые в основном используют обратное распространение , неконтролируемое обучение также использует другие методы, включая: правило обучения Хопфилда, правило обучения Больцмана, контрастное расхождение , бодрствование-сон , вариационный вывод , максимальное правдоподобие , апостериорный максимум , выборку Гиббса и ошибки реконструкции обратного распространения или скрытые репараметризации состояний. Более подробную информацию см. в таблице ниже.
Функция энергии — это макроскопическая мера состояния активации сети. В машинах Больцмана она играет роль функции стоимости. Эта аналогия с физикой вдохновлена анализом Людвига Больцмана макроскопической энергии газа из микроскопических вероятностей движения частиц , где k — постоянная Больцмана, а T — температура. В сети RBM соотношение имеет вид , [5] где и изменяются по всем возможным схемам активации и . Точнее, , где — схема активации всех нейронов (видимых и скрытых). Поэтому некоторые ранние нейронные сети носят название Машина Больцмана. Пол Смоленский называет Гармонию . Сеть ищет низкую энергию, которая является высокой Гармонией.
В этой таблице показаны схемы соединений различных неконтролируемых сетей, подробности которых будут приведены в разделе Сравнение сетей. Круги — это нейроны, а ребра между ними — веса соединений. По мере изменения дизайна сети добавляются функции для включения новых возможностей или удаляются для ускорения обучения. Например, нейроны изменяются между детерминированными (Хопфилд) и стохастическими (Больцман), чтобы обеспечить надежный вывод, веса удаляются внутри слоя (RBM), чтобы ускорить обучение, или соединениям разрешается становиться асимметричными (Гельмгольц).
Из сетей, носящих имена людей, только Хопфилд работал непосредственно с нейронными сетями. Больцман и Гельмгольц были до искусственных нейронных сетей, но их работа в физике и физиологии вдохновила аналитические методы, которые использовались.
Здесь мы выделяем некоторые характеристики избранных сетей. Подробности каждой из них приведены в сравнительной таблице ниже.
Классическим примером неконтролируемого обучения в изучении нейронных сетей является принцип Дональда Хебба , то есть нейроны, которые активируются вместе, связываются друг с другом. [8] В обучении по Хеббу связь усиливается независимо от ошибки, но является исключительно функцией совпадения потенциалов действия между двумя нейронами. [9] Похожая версия, которая изменяет синаптические веса, учитывает время между потенциалами действия ( пластичность, зависящая от времени спайка или STDP). Было высказано предположение, что обучение по Хеббу лежит в основе ряда когнитивных функций, таких как распознавание образов и экспериментальное обучение.
Среди моделей нейронных сетей самоорганизующаяся карта (SOM) и теория адаптивного резонанса (ART) обычно используются в алгоритмах неконтролируемого обучения. SOM — это топографическая организация, в которой близлежащие местоположения на карте представляют входные данные со схожими свойствами. Модель ART позволяет изменять количество кластеров в зависимости от размера проблемы и позволяет пользователю контролировать степень сходства между членами одних и тех же кластеров с помощью определяемой пользователем константы, называемой параметром бдительности. Сети ART используются для многих задач распознавания образов, таких как автоматическое распознавание целей и обработка сейсмических сигналов. [10]
Два основных метода, используемых в неконтролируемом обучении, — это главный компонентный и кластерный анализ . Кластерный анализ используется в неконтролируемом обучении для группировки или сегментации наборов данных с общими атрибутами с целью экстраполяции алгоритмических связей. [11] Кластерный анализ — это раздел машинного обучения , который группирует данные, которые не были помечены , классифицированы или категоризированы. Вместо того чтобы реагировать на обратную связь, кластерный анализ выявляет общие черты в данных и реагирует на основе наличия или отсутствия таких общих черт в каждом новом фрагменте данных. Этот подход помогает обнаруживать аномальные точки данных, которые не вписываются ни в одну из групп.
Центральное применение неконтролируемого обучения находится в области оценки плотности в статистике , [12] хотя неконтролируемое обучение охватывает многие другие области, включающие обобщение и объяснение особенностей данных. Его можно противопоставить контролируемому обучению, сказав, что в то время как контролируемое обучение направлено на вывод условного распределения вероятностей , обусловленного меткой входных данных, неконтролируемое обучение направлено на вывод априорного распределения вероятностей.
Некоторые из наиболее распространенных алгоритмов, используемых в неконтролируемом обучении, включают: (1) Кластеризация, (2) Обнаружение аномалий, (3) Подходы к обучению моделей скрытых переменных. Каждый подход использует несколько методов следующим образом:
Одним из статистических подходов к неконтролируемому обучению является метод моментов . В методе моментов неизвестные параметры (представляющие интерес) в модели связаны с моментами одной или нескольких случайных величин, и, таким образом, эти неизвестные параметры могут быть оценены с учетом моментов. Моменты обычно оцениваются по образцам эмпирически. Базовыми моментами являются моменты первого и второго порядка. Для случайного вектора момент первого порядка является средним вектором , а момент второго порядка является ковариационной матрицей (когда среднее равно нулю). Моменты более высокого порядка обычно представляются с помощью тензоров , которые являются обобщением матриц до более высоких порядков в виде многомерных массивов.
В частности, показано, что метод моментов эффективен при изучении параметров моделей скрытых переменных . Модели скрытых переменных — это статистические модели, в которых в дополнение к наблюдаемым переменным существует также набор скрытых переменных, которые не наблюдаются. Весьма практичным примером моделей скрытых переменных в машинном обучении является тематическое моделирование , которое представляет собой статистическую модель для генерации слов (наблюдаемых переменных) в документе на основе темы (скрытой переменной) документа. В тематическом моделировании слова в документе генерируются в соответствии с различными статистическими параметрами при изменении темы документа. Показано, что метод моментов (методы тензорной декомпозиции) последовательно восстанавливает параметры большого класса моделей скрытых переменных при некоторых предположениях. [15]
Алгоритм Expectation–maximization (EM) также является одним из наиболее практичных методов обучения моделей скрытых переменных. Однако он может застрять в локальных оптимумах, и не гарантируется, что алгоритм будет сходиться к истинным неизвестным параметрам модели. Напротив, для метода моментов глобальная сходимость гарантируется при некоторых условиях.
{{cite web}}
: Неизвестный параметр |people=
проигнорирован ( помощь )