stringtranslate.com

Модель смеси

В статистике смешанная модель — это вероятностная модель для представления присутствия субпопуляций в общей популяции без требования, чтобы наблюдаемый набор данных идентифицировал субпопуляцию, к которой принадлежит отдельное наблюдение. Формально модель смеси соответствует распределению смеси , которое представляет собой распределение вероятностей наблюдений в общей совокупности. Однако, хотя проблемы, связанные с «распределением смесей», связаны с выведением свойств генеральной совокупности из свойств субпопуляций, «модели смеси» используются для того, чтобы сделать статистические выводы о свойствах субпопуляций на основе только наблюдений над объединенное население, без информации об идентичности подгрупп населения.

Модели смеси не следует путать с моделями данных о составе , т. е. данными, сумма компонентов которых ограничена постоянным значением (1, 100% и т. д.). Однако композиционные модели можно рассматривать как смешанные модели, в которых члены совокупности отбираются случайным образом. И наоборот, смешанные модели можно рассматривать как композиционные модели, в которых общий размер читающей популяции нормирован до 1.

Состав

Общая модель смеси

Типичная конечномерная модель смеси представляет собой иерархическую модель, состоящую из следующих компонентов:

Кроме того, в байесовском подходе веса и параметры смеси сами по себе будут случайными переменными, а априорные распределения будут размещены над переменными. В таком случае веса обычно рассматриваются как K -мерный случайный вектор, полученный из распределения Дирихле ( сопряженного априорного значения категориального распределения), а параметры будут распределяться в соответствии с их соответствующими сопряженными априорными значениями.

Математически базовую модель параметрической смеси можно описать следующим образом:

В байесовском подходе все параметры связаны со случайными величинами следующим образом:

Эта характеристика использует F и H для описания произвольных распределений по наблюдениям и параметрам соответственно. Обычно H будет сопряженным предшествующим F . Двумя наиболее распространенными вариантами F являются гауссово, то есть « нормальное » (для вещественных наблюдений) и категориальное (для дискретных наблюдений). Другими распространенными возможностями распределения компонентов смеси являются:

Конкретные примеры

Модель гауссовой смеси

Модель небайесовской смеси Гаусса с использованием пластинчатых обозначений . Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Заполненные фигуры обозначают известные значения. Обозначение [K] означает вектор размера K.

Типичная модель небайесовской смеси Гаусса выглядит следующим образом:

Модель байесовской смеси Гаусса с использованием пластинчатых обозначений . Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Заполненные фигуры обозначают известные значения. Обозначение [K] означает вектор размера K.

Байесовская версия модели гауссовой смеси выглядит следующим образом:

Анимация процесса кластеризации одномерных данных с использованием модели байесовской гауссовской смеси, где нормальные распределения получены из процесса Дирихле . Гистограммы кластеров показаны разными цветами. В процессе оценки параметров создаются и растут новые кластеры на основе данных. В легенде показаны цвета кластеров и количество точек данных, назначенных каждому кластеру.

Модель многомерной гауссовой смеси

Модель байесовской смеси Гаусса обычно расширяется, чтобы соответствовать вектору неизвестных параметров (выделено жирным шрифтом) или многомерным нормальным распределениям. В многомерном распределении (т. е. моделирующем вектор с N случайными переменными) можно смоделировать вектор параметров (например, несколько наблюдений сигнала или участков на изображении), используя априорное распределение модели смеси Гаусса для вектора оценок, заданного формулой

где i- я компонента вектора характеризуется нормальными распределениями с весами , средними значениями и ковариационными матрицами . Чтобы включить это априорное значение в байесовскую оценку, априорное значение умножается на известное распределение данных , зависящее от оцениваемых параметров . В этой формулировке апостериорное распределение также является моделью гауссовой смеси вида

с новыми параметрами и обновляются с использованием алгоритма EM . [2] Хотя обновление параметров на основе ЭМ хорошо зарекомендовало себя, предоставление первоначальных оценок этих параметров в настоящее время является областью активных исследований. Обратите внимание, что эта формулировка дает решение полного апостериорного распределения в замкнутой форме. Оценки случайной величины могут быть получены с помощью одной из нескольких оценок, таких как среднее или максимум апостериорного распределения.

Такие распределения полезны, например, для предположения лоскутной формы изображений и кластеров. В случае представления изображения каждый гауссиан может быть наклонен, расширен и деформирован в соответствии с ковариационными матрицами . Каждому участку (обычно размером 8x8 пикселей) на изображении соответствует одно гауссово распределение набора. Примечательно, что любое распределение точек вокруг кластера (см. k -means ) может быть точно задано с достаточным количеством гауссовских компонентов, но для точного моделирования данного распределения изображений или кластера данных едва ли требуется более K = 20 компонентов.

Модель категориальной смеси

Небайесовская модель категориальной смеси с использованием табличной записи . Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Заполненные фигуры обозначают известные значения. Индикация [K] означает вектор размера K ; то же самое для [V].

Типичная модель небайесовской смеси с категориальными наблюдениями выглядит следующим образом:

Случайные переменные:


Модель байесовской категориальной смеси с использованием табличной записи . Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Заполненные фигуры обозначают известные значения. Индикация [K] означает вектор размера K ; то же самое для [V].

Типичная модель байесовской смеси с категориальными наблюдениями выглядит следующим образом:

Случайные переменные:


Примеры

Финансовая модель

Нормальное распределение строится с использованием различных средних значений и дисперсий.

Финансовые доходы часто ведут себя по-разному в обычных ситуациях и в кризисные времена. Смешанная модель [3] для возвращаемых данных кажется разумной. Иногда используемая модель представляет собой модель скачкообразной диффузии или смесь двух нормальных распределений. Дополнительную информацию см. в разделах «Финансовая экономика § Проблемы и критика» и «Управление финансовыми рисками § Банковское дело» .

Цены на жилье

Предположим, мы наблюдаем цены на N разных домов. Различные типы домов в разных районах будут иметь совершенно разные цены, но цена определенного типа дома в конкретном районе (например, дома с тремя спальнями в умеренно престижном районе) будет иметь тенденцию довольно близко приближаться к среднему значению. Одной из возможных моделей таких цен было бы предположить, что цены точно описываются смешанной моделью с K различными компонентами, каждый из которых распределен как нормальное распределение с неизвестным средним значением и дисперсией, причем каждый компонент определяет определенную комбинацию типа дома/района. Подгонка этой модели к наблюдаемым ценам, например, с использованием алгоритма максимизации ожидания , приведет к группировке цен в соответствии с типом дома/района и выявлению разброса цен в каждом типе/районе. (Обратите внимание, что для таких величин, как цены или доходы, которые гарантированно положительны и имеют тенденцию к экспоненциальному росту , логарифмически нормальное распределение на самом деле может оказаться лучшей моделью, чем нормальное распределение.)

Темы в документе

Предположим, что документ состоит из N различных слов из общего словаря размером V , где каждое слово соответствует одной из K возможных тем. Распределение таких слов можно смоделировать как смесь K различных V -мерных категориальных распределений . Модель такого типа обычно называют тематической моделью . Обратите внимание, что максимизация ожидания , примененная к такой модели, обычно не дает реалистичных результатов из-за (помимо прочего) чрезмерного количества параметров . Для получения хороших результатов обычно необходимы некоторые дополнительные предположения. Обычно в модель добавляются два типа дополнительных компонентов:

  1. Априорное распределение размещается над параметрами, описывающими распределение тем, с использованием распределения Дирихле с параметром концентрации , который установлен значительно ниже 1, чтобы стимулировать разреженные распределения (где только небольшое количество слов имеет значительно ненулевые вероятности).
  2. На идентичность слов накладывается какое-то дополнительное ограничение, чтобы воспользоваться преимуществами естественной кластеризации.
  • Например, цепь Маркова может быть размещена на идентичности тем (т. е. скрытых переменных, определяющих компонент смеси каждого наблюдения), что соответствует тому факту, что ближайшие слова принадлежат схожим темам. (Это приводит к созданию скрытой марковской модели , в частности той, в которой априорное распределение размещается над переходами состояний и благоприятствует переходам, которые остаются в одном и том же состоянии.)
  • Другая возможность — это скрытая модель распределения Дирихле , которая делит слова на D различных документов и предполагает, что в каждом документе с любой частотой встречается лишь небольшое количество тем.

Распознавание рукописного ввода

Следующий пример основан на примере из книги Кристофера М. Бишопа « Распознавание образов и машинное обучение» . [4]

Представьте, что нам дано черно-белое изображение размера N × N , которое, как известно, представляет собой отсканированную рукописную цифру от 0 до 9, но мы не знаем, какая цифра написана. Мы можем создать модель смеси с различными компонентами, где каждый компонент представляет собой вектор размера распределений Бернулли (по одному на пиксель). Такую модель можно обучить с помощью алгоритма максимизации ожидания на немаркированном наборе рукописных цифр, и она будет эффективно группировать изображения в соответствии с записываемой цифрой. Ту же модель затем можно было бы использовать для распознавания цифры другого изображения, просто сохраняя постоянные параметры, вычисляя вероятность нового изображения для каждой возможной цифры (тривиальный расчет) и возвращая цифру, которая генерировала наибольшую вероятность.

Оценка точности снаряда (также известная как вероятность круговой ошибки, CEP)

Модели смеси применяются в задаче направления нескольких снарядов на цель (например, в воздушной, наземной или морской обороне), где физические и/или статистические характеристики снарядов различаются в пределах нескольких снарядов. Примером могут быть выстрелы из нескольких типов боеприпасов или выстрелы из нескольких мест, направленные на одну цель. Комбинацию типов снарядов можно охарактеризовать как модель гауссовой смеси. [5] Кроме того, хорошо известной мерой точности для группы снарядов является вероятность круговой ошибки (CEP), которая представляет собой число R такое, что в среднем половина группы снарядов попадает в круг радиуса R. о целевой точке. Модель смеси можно использовать для определения (или оценки) значения R. Модель смеси правильно отображает различные типы снарядов.

Прямые и косвенные применения

Приведенный выше финансовый пример представляет собой прямое применение смешанной модели, ситуации, в которой мы предполагаем наличие основного механизма, так что каждое наблюдение принадлежит одному из некоторого количества различных источников или категорий. Однако этот основной механизм может быть наблюдаемым, а может и нет. В этой форме смеси каждый из источников описывается функцией плотности вероятности компонента, а вес смеси представляет собой вероятность того, что наблюдение происходит от этого компонента.

При косвенном применении модели смеси мы не предполагаем такой механизм. Модель смеси используется просто из-за ее математической гибкости. Например, смесь двух нормальных распределений с разными средними значениями может привести к плотности с двумя модами , которая не моделируется стандартными параметрическими распределениями. Другой пример - возможность смешанных распределений моделировать более толстые хвосты, чем базовые гауссовы, чтобы быть кандидатом на моделирование более экстремальных событий. В сочетании с динамической согласованностью этот подход был применен к оценке производных финансовых инструментов при наличии улыбки волатильности в контексте моделей локальной волатильности . Это определяет наше приложение.

Прогнозируемое обслуживание

Кластеризация на основе смешанной модели также преимущественно используется для определения состояния машины при профилактическом обслуживании . Графики плотности используются для анализа плотности объектов больших размеров. Если наблюдаются мультимодельные плотности, то предполагается, что конечное множество плотностей образовано конечным набором нормальных смесей. Многомерная модель гауссовой смеси используется для кластеризации данных признаков в k групп, где k представляет каждое состояние машины. Состояние машины может быть нормальным, выключенным или неисправным. [6] Каждый сформированный кластер можно диагностировать с помощью таких методов, как спектральный анализ. В последние годы это также широко использовалось в других областях, таких как раннее обнаружение неисправностей. [7]

Нечеткая сегментация изображений

Пример гауссовой смеси в сегментации изображения с серой гистограммой

В обработке изображений и компьютерном зрении традиционные модели сегментации изображений часто присваивают одному пикселю только один эксклюзивный шаблон. При нечеткой или мягкой сегментации любой шаблон может иметь определенное «право собственности» на любой отдельный пиксель. Если шаблоны являются гауссовыми, нечеткая сегментация естественным образом приводит к гауссовым смесям. В сочетании с другими аналитическими или геометрическими инструментами (например, фазовыми переходами через диффузионные границы) такие пространственно регуляризованные модели смесей могут привести к более реалистичным и эффективным в вычислительном отношении методам сегментации. [8]

Регистрация набора точек

Модели вероятностной смеси, такие как модели смеси Гаусса (GMM), используются для решения проблем регистрации набора точек в области обработки изображений и компьютерного зрения. При регистрации попарного набора точек один набор точек рассматривается как центроиды моделей смеси, а другой набор точек рассматривается как точки данных (наблюдения). К современным методам относятся, например, когерентный дрейф точки (CPD) [9] и смешанные модели t-распределения Стьюдента (TMM). [10] Результаты недавних исследований демонстрируют превосходство моделей гибридных смесей [11] (например, объединения t-распределения Стьюдента и распределения Уотсона/ распределения Бингама для отдельного моделирования пространственных положений и ориентаций осей) по сравнению с CPD и TMM с точки зрения присущих им характеристик. надежность, точность и различительная способность.

Идентифицируемость

Идентифицируемость означает наличие уникальной характеристики для любой из моделей рассматриваемого класса (семейства). Процедуры оценки могут быть неточно определены, а асимптотическая теория может не выполняться, если модель не поддается идентификации.

Пример

Пусть J — класс всех биномиальных распределений с n = 2 . Тогда смесь двух членов J имела бы

и п 2 знак равно 1 - п 0 - п 1 . Очевидно, что учитывая p 0 и p 1 , невозможно однозначно определить описанную выше модель смеси, поскольку необходимо определить три параметра ( π , θ 1 , θ 2 ).

Определение

Рассмотрим смесь параметрических распределений одного класса. Позволять

быть классом всех распределений компонентов. Тогда выпуклая оболочка K функции J определяет класс всей конечной смеси распределений в J :

K называется идентифицируемым, если все его члены уникальны, то есть, учитывая два члена p и p' в K , которые являются смесью k- распределений и k'- распределений соответственно в J , мы имеем p = p' тогда и только тогда, когда во-первых, k = k′, а во-вторых, мы можем переупорядочить суммирование так, чтобы a i = a i и ƒ i = ƒ i для всех i .

Оценка параметров и идентификация системы

Модели параметрической смеси часто используются, когда мы знаем распределение Y и можем выполнить выборку из X , но мы хотели бы определить значения a i и θ i . Такие ситуации могут возникнуть в исследованиях, в которых мы отбираем популяцию, состоящую из нескольких отдельных субпопуляций.

Принято думать о моделировании смеси вероятностей как о проблеме недостающих данных. Один из способов понять это — предположить, что рассматриваемые точки данных «принадлежат» к одному из распределений, которые мы используем для моделирования данных. Когда мы начинаем, это членство неизвестно или отсутствует. Задача оценки заключается в разработке соответствующих параметров для выбранных нами функций модели, при этом связь с точками данных представляется как их членство в отдельных распределениях модели.

Были предложены различные подходы к проблеме разложения смеси, многие из которых сосредоточены на методах максимального правдоподобия, таких как максимизация ожидания (EM) или максимальная апостериорная оценка (MAP). Обычно эти методы рассматривают отдельно вопросы идентификации системы и оценки параметров; Методы определения количества и функциональной формы компонентов смеси отличаются от методов оценки значений соответствующих параметров. Некоторыми заметными отклонениями являются графические методы, описанные Тартером и Локком [12] , а также более поздние методы минимальной длины сообщения (MML), такие как Фигейредо и Джейн [13] , и в некоторой степени процедуры анализа шаблонов сопоставления моментов, предложенные МакВильямом и Лохом ( 2009). [14]

Максимизация ожиданий (ЕМ)

Максимизация ожидания (ЕМ), по-видимому, является наиболее популярным методом определения параметров смеси с априорно заданным количеством компонентов. Это особый способ реализации оценки максимального правдоподобия для этой проблемы. EM особенно привлекателен для конечных нормальных смесей, где возможны выражения в замкнутой форме, например, в следующем итерационном алгоритме Демпстера и др. (1977) [15]

с апостериорными вероятностями

Таким образом, на основе текущей оценки параметров для каждого t = 1, …, N определяется условная вероятность того, что данное наблюдение x ( t ) генерируется из состояния s  ; N — размер выборки. Затем параметры обновляются таким образом, чтобы новые веса компонентов соответствовали средней условной вероятности, а среднее значение и ковариация каждого компонента представляли собой средневзвешенное среднее значение и ковариацию для каждого компонента.

Демпстер [15] также показал, что каждая последующая итерация EM не снижает вероятность — свойство, которого нет в других методах максимизации на основе градиента. Более того, EM естественным образом встраивает в себя ограничения на вектор вероятности, и для достаточно больших размеров выборки происходит итерация положительной определенности ковариации. Это ключевое преимущество, поскольку методы с явными ограничениями требуют дополнительных вычислительных затрат для проверки и поддержания соответствующих значений. Теоретически EM является алгоритмом первого порядка и поэтому медленно сходится к решению с фиксированной точкой. Реднер и Уокер (1984) [ нужна полная цитата ] подчеркивают эту точку зрения, приводя доводы в пользу суперлинейных методов Ньютона и второго порядка и квазиньютоновских методов и сообщая о медленной сходимости в ЭМ на основе своих эмпирических тестов. Они признают, что сближение правдоподобия было быстрым, даже если сближения значений самих параметров не было. Относительные преимущества EM и других алгоритмов по сравнению со сходимостью обсуждались в другой литературе. [16]

Другие распространенные возражения против использования ЭМ заключаются в том, что они имеют склонность к ложному выявлению локальных максимумов, а также демонстрируют чувствительность к начальным значениям. [17] [18] Можно решить эти проблемы, оценивая ЭМ в нескольких начальных точках пространства параметров, но это требует больших вычислительных затрат, и другие подходы, такие как метод ЭМ отжига Удеа и Накано (1998) (в котором начальные компоненты по существу вынуждены перекрываться, обеспечивая менее разнородную основу для первоначальных предположений), может быть предпочтительнее.

Фигейредо и Джейн [13] отмечают, что сходимость к «бессмысленным» значениям параметров, полученным на границе (где нарушаются условия регулярности, например, Гош и Сен (1985)) часто наблюдается, когда количество компонентов модели превышает оптимальное/истинное. На этом основании они предлагают единый подход к оценке и идентификации, при котором начальное n выбирается так, чтобы оно значительно превышало ожидаемое оптимальное значение. Их процедура оптимизации построена на основе критерия минимальной длины сообщения (MML), который эффективно исключает компонент-кандидат, если для его поддержки недостаточно информации. Таким образом можно систематизировать сокращения n и рассматривать оценку и идентификацию совместно.

Шаг ожидания

При первоначальных предположениях о параметрах нашей модели смеси «частичное членство» каждой точки данных в каждом распределении составляющих вычисляется путем расчета ожидаемых значений для переменных членства каждой точки данных. То есть для каждой точки данных x j и распределения Y i значение принадлежности y i , j равно:

Шаг максимизации

Имея ожидаемые значения членства в группе, оценки плагина пересчитываются для параметров распределения.

Коэффициенты смешивания a i являются средними значениями принадлежности по N точкам данных.

Параметры модели компонента θ i также рассчитываются путем максимизации ожидания с использованием точек данных x j , которые были взвешены с использованием значений членства. Например, если θ — среднее значение µ

С новыми оценками для a i и θ i шаг ожидания повторяется для перерасчета новых значений членства . Вся процедура повторяется до тех пор, пока параметры модели не сойдутся.

Цепь Маркова Монте-Карло

В качестве альтернативы алгоритму EM параметры модели смеси могут быть получены с использованием апостериорной выборки, как указано в теореме Байеса . Это по-прежнему считается проблемой неполных данных, при которой членство в точках данных является недостающими данными. Можно использовать двухэтапную итерационную процедуру, известную как выборка Гиббса .

Предыдущий пример смеси двух гауссовских распределений может продемонстрировать, как работает метод. Как и раньше, делаются первоначальные предположения о параметрах модели смеси. Вместо вычисления частичного членства для каждого распределения элементов значение членства для каждой точки данных извлекается из распределения Бернулли (то есть оно будет присвоено либо первому, либо второму гауссову). Параметр Бернулли θ определяется для каждой точки данных на основе одного из составляющих распределений. [ расплывчато ] На основе распределения создаются ассоциации членства для каждой точки данных. Затем можно использовать подключаемые оценщики, как на этапе M EM, для создания нового набора параметров модели смеси, и повторить этап биномиального рисования.

Согласование моментов

Метод сопоставления моментов - один из старейших методов определения параметров смеси, восходящий к плодотворной работе Карла Пирсона 1894 года. В этом подходе параметры смеси определяются так, что составное распределение имеет моменты, соответствующие некоторому заданному значению. Во многих случаях извлечение решений моментных уравнений может представлять собой нетривиальные алгебраические или вычислительные проблемы. Более того, численный анализ Дэя [19] показал, что такие методы могут быть неэффективными по сравнению с ЭМ. Тем не менее, интерес к этому методу возобновился, например, Craigmile and Titterington (1998) и Wang. [20]

Маквильям и Ло (2009) рассматривают характеристику гиперкубовидной нормальной смесевой копулы в системах больших размерностей, для которых EM было бы непомерно вычислительно сложно. Здесь процедура анализа шаблонов используется для генерации многомерных хвостовых зависимостей, соответствующих набору одномерных и (в некотором смысле) двумерных моментов. Затем эффективность этого метода оценивается с использованием данных логарифма доходности акций со статистикой теста Колмогорова-Смирнова, что предполагает хорошее описательное соответствие.

Спектральный метод

Некоторые проблемы оценки модели смеси можно решить с помощью спектральных методов . В частности, это становится полезным, если точки данных x i являются точками в многомерном реальном пространстве , а скрытые распределения известны как логарифмически вогнутые (например, распределение Гаусса или экспоненциальное распределение ).

Спектральные методы обучения смешанных моделей основаны на использовании разложения по сингулярным значениям матрицы, содержащей точки данных. Идея состоит в том, чтобы рассмотреть k верхних сингулярных векторов, где k — количество распределений, которые необходимо изучить. Проекция каждой точки данных на линейное подпространство , охватываемое этими векторами, группирует точки, происходящие из одного и того же распределения, очень близко друг к другу, в то время как точки из разных распределений остаются далеко друг от друга.

Отличительной особенностью спектрального метода является то, что он позволяет доказать , что если распределения удовлетворяют определенному условию разделения (например, не слишком близки), то оцененная смесь с высокой вероятностью будет очень близка к истинной.

Графические методы

Тартер и Лок [12] описывают графический подход к идентификации смеси, в котором функция ядра применяется к эмпирическому частотному графику, чтобы уменьшить внутрикомпонентную дисперсию. Таким образом, можно легче идентифицировать компоненты, имеющие разные средства. Хотя этот λ -метод не требует предварительного знания количества или функциональной формы компонентов, его успех зависит от выбора параметров ядра, которые в некоторой степени неявно включают предположения о структуре компонента.

Другие методы

Некоторые из них, вероятно, даже смогут изучить смеси распределений с тяжелым хвостом , в том числе с бесконечной дисперсией (см. ссылки на статьи ниже). В этой ситуации методы, основанные на EM, не будут работать, поскольку шаг ожидания будет расходиться из-за наличия выбросов .

Моделирование

Чтобы смоделировать выборку размера N , состоящую из смеси распределений F i , i =1 до n , с вероятностями p i (сумма =  p i  = 1):

  1. Сгенерируйте N случайных чисел из категориального распределения размера n и вероятностей p i для i = 1= to  n . Они сообщают вам, из какого F i будет получено каждое из N значений. Обозначим через m i количество случайных чисел, отнесенных к i- й категории.
  2. Для каждого i сгенерируйте m i случайных чисел из распределения Fi .

Расширения

В байесовской настройке к графической модели, определяющей модель смеси, можно добавить дополнительные уровни . Например, в общей модели скрытых тем распределения Дирихле наблюдения представляют собой наборы слов, взятые из D различных документов, а компоненты смеси K представляют темы, которые являются общими для всех документов. Каждый документ имеет свой набор весовых коэффициентов, которые определяют темы, преобладающие в этом документе. Все наборы весов смеси имеют общие гиперпараметры .

Очень распространенным расширением является соединение скрытых переменных , определяющих идентичность компонентов смеси, в цепь Маркова вместо того, чтобы предполагать, что они являются независимыми одинаково распределенными случайными величинами. Полученная модель называется скрытой марковской моделью и является одной из наиболее распространенных последовательных иерархических моделей. Были разработаны многочисленные расширения скрытых марковских моделей; дополнительную информацию см. в полученной статье.

История

Распределение смесей и проблема разложения смеси, то есть идентификация составляющих ее компонентов и их параметров, упоминались в литературе еще в 1846 году (Кетле в Маклахлане, [17] 2000), хотя обычно упоминаются работа Карла Пирсона (1894) [21] как первого автора, явно обратившегося к проблеме разложения при характеристике ненормальных признаков отношения лба к длине тела в популяциях береговых крабов-самок. Мотивацией для этой работы послужил зоолог Уолтер Франк Рафаэль Уэлдон , который в 1893 году предположил (в работе Тартера и Локка [12] ), что асимметрия в гистограмме этих отношений может сигнализировать об эволюционном расхождении. Подход Пирсона заключался в том, чтобы подогнать к данным одномерную смесь двух нормалей, выбрав пять параметров смеси так, чтобы эмпирические моменты соответствовали моментам модели.

Хотя его работа оказалась успешной в идентификации двух потенциально различных подгрупп и демонстрации гибкости смесей как инструмента сопоставления моментов, формулировка требовала решения полинома 9-й степени (ненического), что в то время представляло собой серьезную вычислительную проблему.

Последующие работы были сосредоточены на решении этих проблем, но только с появлением современного компьютера и популяризацией методов параметризации максимального правдоподобия (MLE) исследования по-настоящему начали развиваться. [22] С тех пор было проведено огромное количество исследований по этой теме, охватывающих такие области, как исследования в области рыболовства , сельского хозяйства , ботаники , экономики , медицины , генетики , психологии , палеонтологии , электрофореза , финансов , геологии и зоологии . [23]

Смотрите также

Смесь

Иерархические модели

Обнаружение выбросов

Рекомендации

  1. ^ Хацис, Сотириос П.; Космопулос, Димитриос И.; Варваригу, Теодора А. (2008). «Моделирование и классификация сигналов с использованием устойчивой модели скрытого пространства на основе t-распределений». Транзакции IEEE по обработке сигналов . 56 (3): 949–963. Бибкод : 2008ITSP...56..949C. дои :10.1109/TSP.2007.907912. S2CID  15583243.
  2. ^ Ю, Гошен (2012). «Решение обратных задач с помощью кусочно-линейных оценок: от моделей гауссовой смеси к структурированной разреженности». Транзакции IEEE при обработке изображений . 21 (5): 2481–2499. arXiv : 1006.3056 . Бибкод : 2012ITIP...21.2481G. дои : 10.1109/tip.2011.2176743. PMID  22180506. S2CID  479845.
  3. ^ Динов, И.Д. «Учебное пособие по максимизации ожиданий и моделированию смесей». Цифровая библиотека Калифорнии , Интернет-ресурс по статистическим вычислениям, документ EM_MM, http://repositories.cdlib.org/socr/EM_MM, 9 декабря 2008 г.
  4. ^ Бишоп, Кристофер (2006). Распознавание образов и машинное обучение . Нью-Йорк: Спрингер. ISBN 978-0-387-31073-2.
  5. ^ Сполл, Дж. К. и Марьяк, Дж. Л. (1992). «Возможная байесовская оценка квантилей точности снаряда на основе данных, отличных от iid». Журнал Американской статистической ассоциации , том. 87 (419), стр. 676–681. JSTOR  2290205
  6. ^ Амрутнатх, Нагдев; Гупта, Тарун (2 февраля 2018 г.). Прогнозирование класса неисправности при обучении без учителя с использованием подхода кластеризации на основе моделей. Неопубликовано. дои : 10.13140/rg.2.2.22085.14563.
  7. ^ Амрутнатх, Нагдев; Гупта, Тарун (01 февраля 2018 г.). Исследование алгоритмов машинного обучения без учителя для обнаружения неисправностей при профилактическом обслуживании. Неопубликовано. дои : 10.13140/rg.2.2.28822.24648.
  8. ^ Шен, Цзяньхун (Джеки) (2006). «Стохастически-вариационная модель мягкой сегментации Мамфорда-Шаха». Международный журнал биомедицинской визуализации . 2006 : 2–16. Бибкод : 2006IJBI.200649515H. дои : 10.1155/IJBI/2006/92329 . ПМК 2324060 . ПМИД  23165059. 
  9. ^ Мироненко, Андрей; Сон, Сюбо (2010). «Регистрация набора точек: когерентный дрейф точки». IEEE Транс. Паттерн Анал. Мах. Интелл . 32 (12): 2262–2275. arXiv : 0905.2635 . дои : 10.1109/TPAMI.2010.46. PMID  20975122. S2CID  10809031.
  10. ^ Равикумар, Нишант; Гуя, Али; Чимен, Серкан; Франджи, Александро; Тейлор, Зейке (2018). «Групповая регистрация сходства наборов точек с использованием модели t-смеси Стьюдента для моделей статистической формы». Мед. Изображение Анал . 44 : 156–176. дои : 10.1016/j.media.2017.11.012 . ПМИД  29248842.
  11. ^ Байер, Симинг; Равикумар, Нишант; Струмия, Маддалена; Тонг, Сяогуан; Гао, Ин; Остермайер, Мартин; Фариг, Ребекка; Майер, Андреас (2018). «Интраоперационная компенсация сдвига мозга с использованием модели гибридной смеси». Вычисление медицинских изображений и компьютерное вмешательство – MICCAI 2018 . Гранада, Испания: Springer, Cham. стр. 116–124. дои : 10.1007/978-3-030-00937-3_14.
  12. ^ abc Тартер, Майкл Э. (1993), Оценка кривой без модели , Чепмен и Холл
  13. ^ аб Фигейредо, MAT; Джайн, АК (март 2002 г.). «Обучение без учителя моделей конечной смеси». Транзакции IEEE по анализу шаблонов и машинному интеллекту . 24 (3): 381–396. CiteSeerX 10.1.1.362.9811 . дои : 10.1109/34.990138. 
  14. ^ Маквильям, Н.; Ло, К. (2008), Включение многомерных хвостовых зависимостей в оценку кредитных деривативов (рабочий документ)[1]
  15. ^ аб Демпстер, AP; Лэрд, Нью-Мексико; Рубин, Д.Б. (1977). «Максимальное правдоподобие на основе неполных данных с помощью алгоритма EM». Журнал Королевского статистического общества, серия B. 39 (1): 1–38. CiteSeerX 10.1.1.163.7580 . JSTOR  2984875. 
  16. ^ Сюй, Л.; Джордан, Мичиган (январь 1996 г.). «О свойствах сходимости алгоритма EM для гауссовских смесей». Нейронные вычисления . 8 (1): 129–151. дои : 10.1162/neco.1996.8.1.129. hdl : 10338.dmlcz/135225 . S2CID  207714252.
  17. ^ аб Маклахлан, GJ (2000), Модели конечной смеси , Wiley
  18. ^ Ботев, З.И.; Крозе, Д.П. (2004). «Глобальная оптимизация правдоподобия с помощью метода перекрестной энтропии с применением к моделям смесей». Материалы зимней конференции по моделированию 2004 г., 2004 г. Том. 1. С. 517–523. CiteSeerX 10.1.1.331.2319 . дои : 10.1109/WSC.2004.1371358. ISBN  978-0-7803-8786-7. S2CID  6880171.
  19. ^ Дэй, Нью-Йорк (1969). «Оценка компонентов смеси нормальных распределений». Биометрика . 56 (3): 463–474. дои : 10.2307/2334652. JSTOR  2334652.
  20. ^ Ван, Дж. (2001), «Генерация ежедневных изменений рыночных переменных с использованием многомерной смеси нормальных распределений», Труды 33-й зимней конференции по моделированию : 283–289
  21. ^ Амендола, Карлос; и другие. (2015). «Моментные разновидности гауссовских смесей». Журнал алгебраической статистики . 7 . arXiv : 1510.04654 . Бибкод : 2015arXiv151004654A. дои : 10.18409/jas.v7i1.42. S2CID  88515304.
  22. ^ Маклахлан, Дж.Дж.; Басфорд, К.Э. (1988), «Модели смеси: вывод и приложения к кластеризации», Статистика: Учебники и монографии , Бибкод : 1988mmia.book.....M
  23. ^ Титтерингтон, Смит и Маков, 1985 г.

дальнейшее чтение

Книги по смесевым моделям

Применение моделей гауссовой смеси

  1. Рейнольдс, Д.А.; Роуз, RC (январь 1995 г.). «Надежная независимая от текста идентификация говорящего с использованием моделей говорящих с гауссовой смесью». Транзакции IEEE по обработке речи и аудио . 3 (1): 72–83. дои : 10.1109/89.365379. S2CID  7319345.
  2. Пермутер, Х.; Франкос, Дж.; Джермин, Айдахо (2003). Модели гауссовой смеси текстуры и цвета для поиска в базе данных изображений . Международная конференция IEEE по акустике, речи и обработке сигналов , 2003 г. Материалы (ICASSP '03). дои : 10.1109/ICASSP.2003.1199538.
    • Пермутер, Хаим; Франкос, Джозеф; Джермин, Ян (2006). «Исследование моделей гауссовой смеси особенностей цвета и текстуры для классификации и сегментации изображений» (PDF) . Распознавание образов . 39 (4): 695–706. Бибкод : 2006PatRe..39..695P. дои : 10.1016/j.patcog.2005.10.028. S2CID  8530776.
  3. Лемке, Вольфганг (2005). Моделирование и оценка временной структуры в пространстве состояний . Спрингер Верлаг. ISBN 978-3-540-28342-3.
  4. Бриго, Дамиано ; Меркурио, Фабио (2001). Смещенная и смешанная диффузия для аналитически управляемых моделей улыбки . Математические финансы – Конгресс бакалавров, 2000 г. Труды. Спрингер Верлаг.
  5. Бриго, Дамиано; Меркурио, Фабио (июнь 2002 г.). «Динамика логнормальной смеси и калибровка к рыночной волатильности улыбается». Международный журнал теоретических и прикладных финансов . 5 (4): 427. CiteSeerX  10.1.1.210.4165 . дои : 10.1142/S0219024902001511.
  6. Сполл, Дж. К.; Марьяк, Дж. Л. (1992). «Возможная байесовская оценка квантилей точности снаряда на основе данных, отличных от iid». Журнал Американской статистической ассоциации . 87 (419): 676–681. дои : 10.1080/01621459.1992.10475269. JSTOR  2290205.
  7. Александр, Кэрол (декабрь 2004 г.). «Нормальная диффузия смеси с неопределенной летучестью: моделирование краткосрочных и долгосрочных эффектов улыбки» (PDF) . Журнал банковского дела и финансов . 28 (12): 2957–80. doi :10.1016/j.jbankfin.2003.10.017.
  8. Стилиану, Яннис; Пантазис, Яннис; Кальдереро, Фелипе; Ларрой, Педро; Северин, Франсуа; Шимке, Саша; Бональ, Роландо; Матта, Федерико; Валсамакис, Афанасиос (2005). Мультимодальная биометрическая верификация на основе GMM (PDF) .
  9. Чен, Дж.; Адебоми, 0.Е.; Олусайо, ОС; Кулеша, В. (2010). Оценка подхода к плотности вероятностной гипотезы гауссовой смеси для отслеживания нескольких целей . Международная конференция IEEE по системам и методам визуализации, 2010. doi :10.1109/IST.2010.5548541.{{cite conference}}: CS1 maint: numeric names: authors list (link)

Внешние ссылки