Математические методы, используемые в байесовском выводе и машинном обучении
Вариационные байесовские методы представляют собой семейство методов аппроксимации трудноразрешимых интегралов , возникающих в байесовском выводе и машинном обучении . Они обычно используются в сложных статистических моделях, состоящих из наблюдаемых переменных (обычно называемых «данными»), а также неизвестных параметров и скрытых переменных , с различными видами взаимосвязей между тремя типами случайных величин , как можно было бы описать графической моделью . Как типично в байесовском выводе, параметры и скрытые переменные группируются вместе как «ненаблюдаемые переменные». Вариационные байесовские методы в основном используются для двух целей:
Обеспечить аналитическое приближение апостериорной вероятности ненаблюдаемых переменных с целью сделать статистический вывод по этим переменным.
Вывести нижнюю границу для предельного правдоподобия (иногда называемого доказательством ) наблюдаемых данных (т. е. предельной вероятности данных, заданных моделью, с маргинализацией, выполненной по ненаблюдаемым переменным). Обычно это используется для выполнения выбора модели , общая идея заключается в том, что более высокое предельное правдоподобие для данной модели указывает на лучшее соответствие данных этой модели и, следовательно, большую вероятность того, что рассматриваемая модель была той, которая сгенерировала данные. (См. также статью о факторе Байеса .)
В первой цели (аппроксимации апостериорной вероятности) вариационный Байес является альтернативой методам выборки Монте-Карло , в частности, методам Монте-Карло с цепями Маркова , таким как выборка Гиббса , для принятия полностью байесовского подхода к статистическому выводу по сложным распределениям , которые трудно оценить напрямую или выборочно . В частности, тогда как методы Монте-Карло обеспечивают численное приближение к точной апостериорной вероятности с использованием набора выборок, вариационный Байес обеспечивает локально-оптимальное, точное аналитическое решение для приближения апостериорной вероятности.
Вариационный Байес можно рассматривать как расширение алгоритма ожидания-максимизации (EM) от оценки максимального правдоподобия (ML) или максимальной апостериорной оценки (MAP) единственного наиболее вероятного значения каждого параметра до полностью байесовской оценки, которая вычисляет (приближение) все апостериорное распределение параметров и скрытых переменных. Как и в EM, он находит набор оптимальных значений параметров и имеет ту же чередующуюся структуру, что и EM, основанную на наборе взаимосвязанных (взаимно зависимых) уравнений, которые не могут быть решены аналитически.
Для многих приложений вариационный Байес выдает решения, сравнимые по точности с выборкой Гиббса, на более высокой скорости. Однако вывод набора уравнений, используемых для итеративного обновления параметров, часто требует большого объема работы по сравнению с выводом сопоставимых уравнений выборки Гиббса. Это касается даже многих моделей, которые концептуально довольно просты, как показано ниже в случае базовой неиерархической модели с двумя параметрами и без скрытых переменных.
Математическое выведение
Проблема
В вариационном выводе апостериорное распределение по набору ненаблюдаемых переменных при наличии некоторых данных аппроксимируется так называемым вариационным распределением ,
Распределение ограничено принадлежностью к семейству распределений более простой формы, чем (например, семейство гауссовых распределений), выбранных с намерением сделать его похожим на истинное апостериорное распределение, .
Сходство (или различие) измеряется с помощью функции различия, и, следовательно, вывод выполняется путем выбора распределения , которое минимизирует .
расхождение KL
Наиболее распространенный тип вариационного Байеса использует дивергенцию Кульбака-Лейблера (KL-дивергенцию) Q от P в качестве выбора функции различия. Этот выбор делает эту минимизацию поддающейся обработке. KL-дивергенция определяется как
Обратите внимание, что Q и P обратны тому, что можно было бы ожидать. Это использование обратной KL-дивергенции концептуально похоже на алгоритм ожиданий-максимизации . (Использование KL-дивергенции другим способом дает алгоритм распространения ожиданий .)
Неразрешимость
Вариационные методы обычно используются для формирования приближения для:
Маргинализация для вычисления в знаменателе обычно неразрешима, поскольку, например, пространство поиска комбинаторно велико. Поэтому мы ищем приближение, используя .
Нижняя граница доказательств
Учитывая, что , KL-дивергенция выше может быть также записана как
Поскольку является константой относительно и поскольку является распределением, мы имеем
Поскольку логарифмическое доказательство фиксировано относительно , максимизация конечного члена минимизирует расхождение KL от . При соответствующем выборе , становится поддающимся вычислению и максимизации. Следовательно, у нас есть как аналитическое приближение для апостериорного , так и нижняя граница для логарифмического доказательства (поскольку расхождение KL неотрицательно).
Нижняя граница известна как (отрицательная) вариационная свободная энергия по аналогии с термодинамической свободной энергией , поскольку ее также можно выразить как отрицательную энергию плюс энтропия . Термин также известен как нижняя граница доказательств , сокращенно ELBO , чтобы подчеркнуть, что это нижняя (наихудшая) граница логарифмической очевидности данных.
Доказательства
По обобщенной теореме Пифагора о дивергенции Брегмана , частным случаем которой является KL-дивергенция, можно показать, что: [1] [2]
где — выпуклое множество и равенство выполняется, если:
В этом случае глобальный минимизатор можно найти следующим образом: [1]
в котором нормирующая константа равна:
На практике этот термин часто называют нижней границей доказательств ( ELBO ), поскольку [1] , как показано выше.
Поменяв роли и мы можем итеративно вычислить приближенные и маргиналов истинной модели и соответственно. Хотя эта итеративная схема гарантированно сходится монотонно, [1] сошедшаяся является лишь локальным минимизатором .
Если ограниченное пространство заключено в независимое пространство, то указанная выше итерационная схема станет так называемым приближением среднего поля, как показано ниже.
Приближение среднего поля
Обычно предполагается, что вариационное распределение факторизуется по некоторому разделению скрытых переменных, т.е. для некоторого раздела скрытых переменных на ,
Используя вариационное исчисление (отсюда и название «вариационный Байес»), можно показать , что «наилучшее» распределение для каждого из факторов (с точки зрения распределения, минимизирующего расхождение KL, как описано выше) удовлетворяет: [3]
где — ожидание логарифма совместной вероятности данных и скрытых переменных, взятое по отношению ко всем переменным, не входящим в разбиение: см. лемму 4.1 из [4] для вывода распределения .
На практике мы обычно работаем с логарифмами, то есть:
Константа в приведенном выше выражении связана с нормализующей константой (знаменателем в приведенном выше выражении для ) и обычно восстанавливается путем проверки, поскольку остальная часть выражения обычно может быть распознана как известный тип распределения (например, гауссово , гамма и т. д.).
Используя свойства ожиданий, выражение обычно можно упростить до функции фиксированных гиперпараметров априорных распределений по скрытым переменным и ожиданий (а иногда и более высоких моментов, таких как дисперсия ) скрытых переменных, не входящих в текущий раздел (т. е. скрытых переменных, не включенных в ). Это создает циклические зависимости между параметрами распределений по переменным в одном разделе и ожиданиями переменных в других разделах. Это, естественно, предполагает итеративный алгоритм, во многом похожий на EM ( алгоритм ожиданий-максимизации ), в котором ожидания (и, возможно, более высокие моменты) скрытых переменных инициализируются некоторым образом (возможно, случайным образом), а затем параметры каждого распределения вычисляются по очереди с использованием текущих значений ожиданий, после чего ожидание вновь вычисленного распределения устанавливается соответствующим образом в соответствии с вычисленными параметрами. Алгоритм такого рода гарантированно сходится . [5]
Другими словами, для каждого из разделов переменных, упрощая выражение для распределения по переменным раздела и исследуя функциональную зависимость распределения от рассматриваемых переменных, обычно можно определить семейство распределения (которое, в свою очередь, определяет значение константы). Формула для параметров распределения будет выражена в терминах гиперпараметров априорных распределений (которые являются известными константами), а также в терминах ожиданий функций переменных в других разделах. Обычно эти ожидания можно упростить до функций ожиданий самих переменных (т. е. средних значений) ; иногда также появляются ожидания квадратов переменных (которые могут быть связаны с дисперсией переменных ) или ожидания более высоких степеней (т. е. более высоких моментов ). В большинстве случаев распределения других переменных будут из известных семейств, и формулы для соответствующих ожиданий можно найти. Однако эти формулы зависят от параметров этих распределений, которые, в свою очередь, зависят от ожиданий относительно других переменных. Результатом является то, что формулы для параметров распределений каждой переменной могут быть выражены как ряд уравнений с взаимными нелинейными зависимостями между переменными. Обычно невозможно решить эту систему уравнений напрямую. Однако, как описано выше, зависимости предполагают простой итерационный алгоритм, который в большинстве случаев гарантированно сходится. Пример сделает этот процесс более понятным.
Формула двойственности для вариационного вывода
Следующая теорема называется формулой двойственности для вариационного вывода. [4] Она объясняет некоторые важные свойства вариационных распределений, используемых в вариационных байесовских методах.
Теорема Рассмотрим два вероятностных пространства и с . Предположим, что существует общая доминирующая вероятностная мера такая, что и . Пусть обозначает любую вещественную случайную величину на , удовлетворяющую . Тогда справедливо следующее равенство
Далее, супремум в правой части достигается тогда и только тогда, когда он выполняется
почти наверное относительно вероятностной меры , где и обозначают производные Радона–Никодима вероятностных мер и относительно соответственно.
Для математического удобства в следующем примере мы работаем с точностью — т. е. с обратной величиной дисперсии (или в многомерной гауссовой функции, с обратной величиной ковариационной матрицы ), — а не с самой дисперсией. (С теоретической точки зрения точность и дисперсия эквивалентны, поскольку между ними существует однозначное соответствие .)
Математическая модель
Мы размещаем сопряженные априорные распределения на неизвестном среднем значении и точности , т.е. среднее значение также следует гауссовскому распределению, а точность следует гамма-распределению . Другими словами:
Гиперпараметры и в априорных распределениях фиксированы, заданы значения. Они могут быть установлены на небольшие положительные числа, чтобы дать широкие априорные распределения, указывающие на незнание априорных распределений и .
Совместную вероятность всех переменных можно переписать как
где индивидуальные факторы
где
Факторизованное приближение
Предположим, что , т.е. что апостериорное распределение факторизуется на независимые множители для и . Этот тип предположения лежит в основе вариационного байесовского метода. Истинное апостериорное распределение на самом деле не факторизуется таким образом (фактически, в этом простом случае известно, что это гауссово-гамма распределение ), и, следовательно, результат, который мы получим, будет приближением.
Выводq ( μ )
Затем
В приведенном выше выводе , и относятся к значениям, которые являются постоянными относительно . Обратите внимание, что член не является функцией и будет иметь то же значение независимо от значения . Следовательно, в строке 3 мы можем включить его в постоянный член в конце. Мы делаем то же самое в строке 7.
Последняя строка — это просто квадратичный полином от . Поскольку это логарифм , мы можем видеть, что он сам по себе является гауссовым распределением .
Применив некоторую долю утомительной математики (раскрывая квадраты внутри фигурных скобок, выделяя и группируя члены, содержащие и , и достраивая квадрат над ), мы можем вывести параметры гауссовского распределения:
Обратите внимание, что все вышеперечисленные шаги можно сократить, используя формулу суммы двух квадратных уравнений .
Другими словами:
Выводq(τ)
Вывод аналогичен приведенному выше, хотя мы опускаем некоторые детали ради краткости.
Возводя обе стороны в степень, мы видим, что это гамма-распределение . А именно:
Алгоритм расчета параметров
Давайте повторим выводы из предыдущих разделов:
и
В каждом случае параметры распределения по одной из переменных зависят от ожиданий, принятых по отношению к другой переменной. Мы можем расширить ожидания, используя стандартные формулы для ожиданий моментов гауссовского и гамма-распределений:
Применение этих формул к приведенным выше уравнениям в большинстве случаев тривиально, но уравнение для требует больше работы:
Тогда мы можем записать уравнения параметров следующим образом, без каких-либо ожиданий:
Обратите внимание, что существуют циклические зависимости между формулами для и . Это, естественно, предполагает алгоритм типа EM :
Вычислите и используйте эти значения для вычисления и
Инициализируйте некоторым произвольным значением.
Используйте текущее значение вместе с известными значениями других параметров, чтобы вычислить .
Используйте текущее значение вместе с известными значениями других параметров, чтобы вычислить .
Повторяйте последние два шага до тех пор, пока не произойдет сходимость (т.е. пока ни одно из значений не изменится больше, чем на некоторую небольшую величину).
Затем у нас есть значения гиперпараметров аппроксимирующих распределений апостериорных параметров, которые мы можем использовать для вычисления любых нужных нам свойств апостериорной вероятности — например, ее среднего значения и дисперсии, области с наивысшей плотностью 95% (наименьший интервал, включающий 95% общей вероятности) и т. д.
Можно показать, что этот алгоритм гарантированно сходится к локальному максимуму.
Обратите внимание также, что апостериорные распределения имеют ту же форму, что и соответствующие априорные распределения. Мы этого не предполагали; единственное предположение, которое мы сделали, состояло в том, что распределения факторизуются, и форма распределений вытекала естественным образом. Оказывается (см. ниже), что тот факт, что апостериорные распределения имеют ту же форму, что и априорные распределения, не является совпадением, а общим результатом, когда априорные распределения являются членами экспоненциального семейства , что имеет место для большинства стандартных распределений.
Опишите сеть с помощью графической модели , идентифицируя наблюдаемые переменные (данные) и ненаблюдаемые переменные ( параметры и скрытые переменные ) и их условные распределения вероятностей . Вариационный Байес затем построит приближение к апостериорной вероятности . Приближение имеет основное свойство, что оно является факторизованным распределением, т.е. произведением двух или более независимых распределений по непересекающимся подмножествам ненаблюдаемых переменных.
Разделите ненаблюдаемые переменные на два или более подмножеств, по которым будут выведены независимые факторы. Универсальной процедуры для этого не существует; создание слишком большого количества подмножеств приводит к плохому приближению, а создание слишком малого количества делает всю вариационную байесовскую процедуру неразрешимой. Обычно первое разделение заключается в разделении параметров и скрытых переменных; часто этого достаточно для получения разрешимого результата. Предположим, что разделы называются .
Для заданного разбиения запишите формулу наилучшего аппроксимирующего распределения, используя основное уравнение .
Заполните формулу для совместного распределения вероятностей, используя графическую модель. Любые компонентные условные распределения, которые не включают ни одну из переменных, можно игнорировать; они будут свернуты в постоянный член.
Упростите формулу и примените оператор ожидания, следуя примеру выше. В идеале это должно упроститься до ожиданий базовых функций переменных, не входящих в (например, первые или вторые сырые моменты , ожидание логарифма и т. д.). Для того чтобы вариационная байесовская процедура работала хорошо, эти ожидания, как правило, должны быть аналитически выражены как функции параметров и/или гиперпараметров распределений этих переменных. Во всех случаях эти члены ожидания являются константами относительно переменных в текущем разделе.
Функциональная форма формулы относительно переменных в текущем разделе указывает на тип распределения. В частности, возведение формулы в степень генерирует функцию плотности вероятности (PDF) распределения (или, по крайней мере, что-то пропорциональное ей, с неизвестной константой нормализации ). Для того чтобы общий метод был управляемым, должна быть возможность распознавать функциональную форму как принадлежащую известному распределению. Для преобразования формулы в форму, которая соответствует PDF известного распределения, могут потребоваться значительные математические манипуляции. Когда это возможно, константа нормализации может быть восстановлена по определению, и уравнения для параметров известного распределения могут быть выведены путем извлечения соответствующих частей формулы.
Когда все ожидания можно аналитически заменить функциями переменных, не входящих в текущий раздел, и преобразовать функцию распределения вероятностей в форму, позволяющую идентифицировать ее с известным распределением, результатом является набор уравнений, выражающих значения оптимальных параметров как функции параметров переменных в других разделах.
Если эту процедуру применить ко всем разделам, результатом будет набор взаимосвязанных уравнений, определяющих оптимальные значения всех параметров.
Затем применяется процедура типа ожидание-максимизация (EM), выбирающая начальное значение для каждого параметра и итерирующая через серию шагов, где на каждом шаге мы циклически проходим через уравнения, обновляя каждый параметр по очереди. Это гарантированно сходится.
Наиболее важные моменты
Из-за всех математических манипуляций, которые здесь задействованы, легко потерять общую картину. Важны следующие вещи:
Идея вариационного Байеса заключается в построении аналитического приближения к апостериорной вероятности набора ненаблюдаемых переменных (параметров и скрытых переменных) с учетом данных. Это означает, что форма решения похожа на другие байесовские методы вывода , такие как выборка Гиббса — т. е. распределение, которое стремится описать все, что известно о переменных. Как и в других байесовских методах — но в отличие, например, от максимизации ожидания (EM) или других методов максимального правдоподобия — оба типа ненаблюдаемых переменных (т. е. параметров и скрытых переменных) рассматриваются одинаково, т. е. как случайные величины . Оценки для переменных затем могут быть получены стандартными байесовскими способами, например, вычисляя среднее значение распределения для получения оценки по одной точке или выводя достоверный интервал , область наивысшей плотности и т. д.
«Аналитическое приближение» означает, что формула может быть записана для апостериорного распределения. Формула обычно состоит из произведения известных распределений вероятностей, каждое из которых факторизуется по набору ненаблюдаемых переменных (т.е. оно условно независимо от других переменных, учитывая наблюдаемые данные). Эта формула не является истинным апостериорным распределением, а лишь приближением к нему; в частности, она обычно будет довольно близко согласовываться в самых низких моментах ненаблюдаемых переменных, например, среднего значения и дисперсии .
Результатом всех математических манипуляций является (1) идентичность распределений вероятностей, составляющих факторы, и (2) взаимозависимые формулы для параметров этих распределений. Фактические значения этих параметров вычисляются численно, посредством чередующейся итеративной процедуры, во многом похожей на EM.
По сравнению с ожиданием-максимизацией (EM)
Вариационный Байес (VB) часто сравнивают с ожиданием-максимизацией (EM). Фактическая численная процедура довольно похожа, поскольку обе являются чередующимися итеративными процедурами, которые последовательно сходятся к оптимальным значениям параметров. Начальные шаги для вывода соответствующих процедур также смутно похожи, обе начинаются с формул для плотностей вероятности и обе включают в себя значительный объем математических манипуляций.
Однако есть ряд отличий. Самое важное — это то, что вычисляется.
EM вычисляет точечные оценки апостериорного распределения тех случайных величин, которые можно отнести к категории «параметров», но только оценки фактических апостериорных распределений скрытых переменных (по крайней мере, в «мягкой EM», и часто только когда скрытые переменные дискретны). Вычисленные точечные оценки являются модами этих параметров; никакой другой информации нет.
VB, с другой стороны, вычисляет оценки фактического апостериорного распределения всех переменных, как параметров, так и скрытых переменных. Когда необходимо вывести точечные оценки, обычно используется среднее значение , а не мода, как это обычно бывает в байесовском выводе. В связи с этим параметры, вычисляемые в VB, не имеют того же значения, что и в EM. EM вычисляет оптимальные значения параметров самой сети Байеса. VB вычисляет оптимальные значения параметров распределений, используемых для аппроксимации параметров и скрытых переменных сети Байеса. Например, типичная модель смеси Гаусса будет иметь параметры для среднего значения и дисперсии каждого из компонентов смеси. EM будет напрямую оценивать оптимальные значения для этих параметров. VB, однако, сначала подгонит распределение к этим параметрам — обычно в форме априорного распределения , например, обратного гамма-распределения с нормальным масштабом — и затем вычислит значения для параметров этого априорного распределения, т. е. по сути гиперпараметров . В этом случае VB вычислит оптимальные оценки четырех параметров обратного гамма-распределения в нормальном масштабе, которое описывает совместное распределение среднего значения и дисперсии компонента.
Более сложный пример
Представьте себе модель байесовской гауссовской смеси, описанную следующим образом: [3]
Mult() — это мультиномиальное распределение по одному наблюдению (эквивалентно категориальному распределению ). Пространство состояний — это представление «один из K», т. е. -мерный вектор, в котором один из элементов равен 1 (указывающий на идентичность наблюдения), а все остальные элементы равны 0.
представляет собой набор точек данных, каждая из которых представляет собой -мерный вектор, распределенный в соответствии с многомерным гауссовым распределением .
представляет собой набор скрытых переменных, по одной на точку данных, определяющих, к какому компоненту смеси относится соответствующая точка данных, используя векторное представление «один из K» с компонентами для , как описано выше.
Совместную вероятность всех переменных можно переписать как
где индивидуальные факторы
где
Предположим, что .
Тогда [3]
где мы определили
Возведение обеих частей формулы для получения доходности в степень
Требование, чтобы это было нормализовано, приводит к требованию, чтобы сумма равнялась 1 по всем значениям , что дает
где
Другими словами, является произведением мультиномиальных распределений одного наблюдения и факторов по каждому отдельному случаю , которое распределено как мультиномиальное распределение одного наблюдения с параметрами для .
Кроме того, отметим, что
что является стандартным результатом для категориальных распределений.
Теперь, рассматривая фактор , отметим, что он автоматически учитывается в силу структуры графической модели, определяющей нашу модель гауссовой смеси, которая указана выше.
Затем,
Взяв экспоненту от обеих сторон, мы распознаем распределение Дирихле
Наконец, обратите внимание, что эти функции требуют значений , которые используют , который в свою очередь определяется на основе , и . Теперь, когда мы определили распределения, по которым берутся эти ожидания, мы можем вывести для них формулы:
Эти результаты приводят к
Их можно преобразовать из пропорциональных в абсолютные значения путем нормализации таким образом, чтобы сумма соответствующих значений равнялась 1.
Обратите внимание, что:
Уравнения обновления для параметров , , и переменных и зависят от статистик , , и , а эти статистики в свою очередь зависят от .
Уравнения обновления параметров переменной зависят от статистики , которая в свою очередь зависит от .
Уравнение обновления для имеет прямую круговую зависимость от , , и , а также косвенную круговую зависимость от , и через и .
Это предполагает итеративную процедуру, которая чередует два этапа:
E-шаг, который вычисляет значение, используя текущие значения всех остальных параметров.
M-шаг, который использует новое значение для вычисления новых значений всех остальных параметров.
Обратите внимание, что эти шаги тесно связаны со стандартным алгоритмом EM для получения максимального правдоподобия или максимального апостериорного (MAP) решения для параметров модели гауссовой смеси . Обязанности на шаге E тесно связаны с апостериорными вероятностями скрытых переменных, заданных данными, то есть : вычисление статистики , и тесно связано с вычислением соответствующей статистики «мягкого подсчета» по данным; а использование этой статистики для вычисления новых значений параметров тесно связано с использованием мягких подсчетов для вычисления новых значений параметров в нормальной EM по модели гауссовой смеси.
Экспоненциально-семейные распределения
Обратите внимание, что в предыдущем примере, как только распределение по ненаблюдаемым переменным было предположено факторизованным в распределения по "параметрам" и распределения по "скрытым данным", полученное "лучшее" распределение для каждой переменной было в том же семействе, что и соответствующее априорное распределение по переменной. Это общий результат, который справедлив для всех априорных распределений, полученных из экспоненциального семейства .
Вариационный автоэнкодер : искусственная нейронная сеть, принадлежащая к семействам вероятностных графических моделей и вариационных байесовских методов.
Алгоритм максимизации ожидания : родственный подход, который соответствует частному случаю вариационного байесовского вывода.
Обобщенная фильтрация : вариационная схема фильтрации для нелинейных моделей пространства состояний.
Вариационное исчисление : область математического анализа, занимающаяся максимизацией или минимизацией функционалов.
Максимальная дискриминация энтропии: это вариационная структура вывода, которая позволяет вводить и учитывать дополнительные ограничения с большим запасом [7]
^ ab Adamčík, Martin (2014). «Информационная геометрия расхождений Брегмана и некоторые приложения в многоэкспертных рассуждениях». Entropy . 16 (12): 6338–6381. Bibcode :2014Entrp..16.6338A. doi : 10.3390/e16126338 .
^ abc Нгуен, Дуй (15 августа 2023 г.). "УГЛУБЛЕННОЕ ВВЕДЕНИЕ В ВАРИАЦИОННУЮ ЗАМЕТКУ БАЙЕСА". doi :10.2139/ssrn.4541076. SSRN 4541076 . Получено 15 августа 2023 г. .
^ abc Lee, Se Yoon (2021). «Gibbs sampler andordinate ascent variational inference: A set-theoretical review». Communications in Statistics - Theory and Methods . 51 (6): 1–21. arXiv : 2008.01006 . doi : 10.1080/03610926.2021.1921214. S2CID 220935477.
^ Бойд, Стивен П.; Ванденберг, Ливен (2004). Выпуклая оптимизация (PDF) . Cambridge University Press. ISBN978-0-521-83378-3. Получено 15 октября 2011 г. .
^ Сотириос П. Чатзис, «Машины дискриминации с максимальной энтропией и бесконечным переключением Маркова», Труды 30-й Международной конференции по машинному обучению (ICML). Журнал исследований машинного обучения: Труды семинаров и конференций, т. 28, № 3, стр. 729–737, июнь 2013 г.
Внешние ссылки
Электронный учебник «Теория информации, вывод и алгоритмы обучения» Дэвида Дж. К. Маккея содержит введение в вариационные методы (стр. 422).
Учебное пособие по вариационному байесовскому алгоритму. Фокс, К. и Робертс, С. 2012. Обзор искусственного интеллекта, doi :10.1007/s10462-011-9236-8.
Вариационно-байесовский репозиторий Репозиторий исследовательских работ, программного обеспечения и ссылок, связанных с использованием вариационных методов для приближенного байесовского обучения до 2003 года.
В книге «Вариационные алгоритмы для приближенного байесовского вывода» М. Дж. Била приводятся сравнения ЭМ с вариационным байесовским ЭМ и выводы нескольких моделей, включая вариационные байесовские HMM.
Возможно, стоит прочитать «Обобщение вариационного вывода на высоком уровне» Джейсона Эйснера перед более подробным математическим рассмотрением.
Копула Вариационный байесовский вывод через информационную геометрию (pdf) Tran, VH 2018. Эта статья в первую очередь написана для студентов. С помощью расхождения Брегмана статья показывает, что вариационный байесовский вывод — это просто обобщенная пифагорейская проекция истинной модели на произвольно коррелированное (копула) распределительное пространство, независимым случаем которого является независимое пространство.
Подробное введение в вариационный байесовский анализ. Нгуен, Д. 2023