stringtranslate.com

Распространение убеждений

Распространение убеждений , также известное как передача сообщений суммы–произведения , представляет собой алгоритм передачи сообщений для выполнения вывода на графических моделях , таких как байесовские сети и марковские случайные поля . Он вычисляет предельное распределение для каждого ненаблюдаемого узла (или переменной) в зависимости от любых наблюдаемых узлов (или переменных). Распространение убеждений обычно используется в искусственном интеллекте и теории информации и продемонстрировало эмпирический успех в многочисленных приложениях, включая коды с низкой плотностью проверки на четность , турбокоды , аппроксимацию свободной энергии и выполнимость . [1]

Алгоритм был впервые предложен Джудеей Перлом в 1982 году [2], который сформулировал его как точный алгоритм вывода на деревьях , позже распространенный на полидеревья . [3] Хотя алгоритм не является точным на общих графах, было показано, что он является полезным приближенным алгоритмом. [4]

Мотивация

При наличии конечного набора дискретных случайных величин с совместной функцией вероятности массы , общей задачей является вычисление маргинальных распределений . Маргинал одного определяется как

где — вектор возможных значений для , а обозначение означает, что сумма берется по тем, чья координата равна .

Вычисление маргинальных распределений с использованием этой формулы быстро становится вычислительно невыгодным по мере роста числа переменных. Например, при наличии 100 двоичных переменных вычисление одной маргинальной функции с использованием и приведенной выше формулы будет включать суммирование по возможным значениям для . Если известно, что функция массы вероятности факторизуется удобным образом, распространение убеждений позволяет вычислять маргинальные функции гораздо эффективнее.

Описание алгоритма суммы-произведения

Существуют варианты алгоритма распространения убеждений для нескольких типов графических моделей ( в частности, байесовских сетей и марковских случайных полей [5] ). Здесь мы описываем вариант, который работает на факторном графе . Факторный граф — это двудольный граф, содержащий узлы, соответствующие переменным и факторам , с ребрами между переменными и факторами, в которых они появляются. Мы можем записать функцию совместных масс:

где — вектор соседних узлов переменных к узлу-фактору . Любая байесовская сеть или марковское случайное поле могут быть представлены в виде графа факторов с использованием фактора для каждого узла с его родителями или фактора для каждого узла с его соседством соответственно. [6]

Алгоритм работает, передавая функции с действительными значениями, называемые сообщениями, по ребрам между узлами. Точнее, если — узел переменной, а — узел фактора, соединенный с в графе факторов, то сообщения от до и сообщения от до являются функциями с действительными значениями , область определения которых — это множество значений, которые может принимать случайная величина, связанная с , обозначаемая . Эти сообщения содержат «влияние», которое одна переменная оказывает на другую. Сообщения вычисляются по-разному в зависимости от того, является ли узел, получающий сообщение, узлом переменной или узлом фактора. Сохраняя ту же нотацию:

Как показывает предыдущая формула: полная маргинализация сводится к сумме произведений более простых членов, чем те, которые появляются в полном совместном распределении. Это причина того, что распространение убеждений иногда называют суммо-произведенной передачей сообщений или алгоритмом суммо-произведения .

В типичном запуске каждое сообщение будет обновляться итеративно из предыдущего значения соседних сообщений. Для обновления сообщений можно использовать различное планирование. В случае, когда графическая модель представляет собой дерево, оптимальное планирование сходится после вычисления каждого сообщения ровно один раз (см. следующий подраздел). Когда факторный граф имеет циклы, такого оптимального планирования не существует, и типичным выбором является обновление всех сообщений одновременно на каждой итерации.

При сходимости (если сходимость произошла) предполагаемое предельное распределение каждого узла пропорционально произведению всех сообщений от смежных факторов (без учета константы нормализации):

Аналогично, предполагаемое совместное предельное распределение набора переменных, принадлежащих одному фактору, пропорционально произведению фактора и сообщений от переменных:

В случае, когда факторный граф ацикличен (т.е. является деревом или лесом), эти оценочные маргиналы фактически сходятся к истинным маргиналам за конечное число итераций. Это можно показать с помощью математической индукции .

Точный алгоритм для деревьев

В случае, когда факторный граф представляет собой дерево , алгоритм распространения убеждений вычислит точные маргиналы. Кроме того, при правильном планировании обновлений сообщений он завершится после двух полных проходов по дереву. Это оптимальное планирование можно описать следующим образом:

Перед началом работы граф ориентируется путем обозначения одного узла как корня ; любой некорневой узел, соединенный только с одним другим узлом, называется листом .

На первом этапе сообщения передаются внутрь: начиная с листьев, каждый узел передаёт сообщение по (уникальному) ребру к корневому узлу. Древовидная структура гарантирует, что можно получить сообщения от всех других смежных узлов, прежде чем передавать сообщение дальше. Это продолжается до тех пор, пока корень не получит сообщения от всех своих смежных узлов.

Второй шаг включает в себя передачу сообщений обратно: начиная с корня, сообщения передаются в обратном направлении. Алгоритм завершается, когда все листья получат свои сообщения.

Приблизительный алгоритм для общих графов

Хотя изначально он был разработан для ациклических графических моделей, алгоритм распространения убеждений может использоваться в общих графах . Алгоритм иногда называют циклическим распространением убеждений , поскольку графы обычно содержат циклы или петли. Инициализация и планирование обновлений сообщений должны быть немного скорректированы (по сравнению с ранее описанным расписанием для ациклических графов), поскольку графы могут не содержать никаких листьев. Вместо этого все переменные сообщения инициализируются значением 1 и используются те же определения сообщений, что и выше, обновляя все сообщения на каждой итерации (хотя сообщения, поступающие из известных листьев или древовидных подграфов, могут больше не нуждаться в обновлении после достаточного количества итераций). Легко показать, что в дереве определения сообщений этой измененной процедуры будут сходиться к набору определений сообщений, приведенных выше, в течение числа итераций, равного диаметру дерева .

Точные условия, при которых распространение петлевых убеждений будет сходиться, до сих пор не совсем понятны; известно, что на графах, содержащих одну петлю, оно сходится в большинстве случаев, но полученные вероятности могут быть неверными. [7] Существует несколько достаточных (но не необходимых) условий для сходимости распространения петлевых убеждений к уникальной фиксированной точке. [8] Существуют графы, которые не будут сходиться или которые будут колебаться между несколькими состояниями в течение повторяющихся итераций. Такие методы, как диаграммы EXIT, могут обеспечить приблизительную визуализацию хода распространения убеждений и приблизительную проверку на сходимость.

Существуют и другие приближенные методы маргинализации, включая вариационные методы и методы Монте-Карло .

Один из методов точной маргинализации в общих графах называется алгоритмом дерева соединений , который представляет собой просто распространение убеждений на модифицированном графе, гарантированно являющемся деревом. Основная предпосылка заключается в устранении циклов путем кластеризации их в отдельные узлы.

Сопутствующие вопросы алгоритма и сложности

Похожий алгоритм обычно называют алгоритмом Витерби , но он также известен как особый случай алгоритма max-product или min-sum, который решает связанную проблему максимизации или наиболее вероятного объяснения. Вместо того, чтобы пытаться решить маргинальную, цель здесь состоит в том, чтобы найти значения , которые максимизируют глобальную функцию (т. е. наиболее вероятные значения в вероятностной обстановке), и это можно определить с помощью arg max :

Алгоритм, решающий эту проблему, почти идентичен распространению убеждений, в котором суммы заменены максимумами в определениях. [9]

Стоит отметить, что такие проблемы вывода, как маргинализация и максимизация, являются NP-трудными для точного и приблизительного решения (по крайней мере, для относительной погрешности ) в графической модели. Точнее, проблема маргинализации, определенная выше, является #P-полной , а максимизация является NP-полной .

Использование памяти для распространения убеждений можно сократить за счет использования алгоритма Island (при небольших затратах на временную сложность).

Отношение к свободной энергии

Алгоритм суммы-произведения связан с вычислением свободной энергии в термодинамике . Пусть Z будет функцией распределения . Распределение вероятностей

(согласно представлению факторного графика) можно рассматривать как меру внутренней энергии, присутствующей в системе, вычисляемую как

Тогда свободная энергия системы равна

Затем можно показать, что точки сходимости алгоритма суммы-произведения представляют собой точки, в которых свободная энергия в такой системе минимизируется. Аналогично можно показать, что фиксированная точка итеративного алгоритма распространения убеждений в графах с циклами является стационарной точкой аппроксимации свободной энергии. [10]

Распространение обобщенных убеждений (GBP)

Алгоритмы распространения убеждений обычно представляются как уравнения обновления сообщений на факторном графе, включающие сообщения между переменными узлами и их соседними факторными узлами и наоборот. Рассмотрение сообщений между областями в графе является одним из способов обобщения алгоритма распространения убеждений. [10] Существует несколько способов определения набора областей в графе, которые могут обмениваться сообщениями. Один из методов использует идеи, представленные Кикучи в физической литературе, [11] [12] [13] и известен как метод кластерной вариации Кикучи. [14]

Улучшения в производительности алгоритмов распространения убеждений также могут быть достигнуты путем нарушения симметрии реплик в распределениях полей (сообщений). Это обобщение приводит к новому типу алгоритма, называемому распространением опроса (SP), который оказался очень эффективным в NP-полных задачах, таких как выполнимость [1] и раскраска графа .

Метод кластерного вариационного анализа и алгоритмы распространения опроса — это два различных усовершенствования распространения убеждений. Название обобщенное распространение опроса (GSP) ожидает присвоения алгоритму, который объединяет оба обобщения.

Распространение гауссовского убеждения (GaBP)

Распространение гауссовского доверия — это вариант алгоритма распространения доверия, когда базовые распределения являются гауссовыми . Первой работой, анализирующей эту специальную модель, была основополагающая работа Вайса и Фримена. [15]

Алгоритм GaBP решает следующую проблему маргинализации:

где Z — константа нормализации, A — симметричная положительно определенная матрица (обратная ковариационная матрица, также известная как матрица точности ), а b — вектор сдвига.

Эквивалентно можно показать, что при использовании гауссовой модели решение проблемы маргинализации эквивалентно проблеме назначения MAP :

Эта задача также эквивалентна следующей задаче минимизации квадратичной формы:

Что также эквивалентно линейной системе уравнений

Сходимость алгоритма GaBP легче анализировать (относительно общего случая BP), и известны два достаточных условия сходимости. Первое было сформулировано Вайсом и др. в 2000 году, когда информационная матрица A является диагонально доминирующей . Второе условие сходимости было сформулировано Джонсоном и др. [16] в 2006 году, когда спектральный радиус матрицы

где D = diag( A ). Позже Су и Ву установили необходимые и достаточные условия сходимости для синхронного GaBP и затухающего GaBP, а также еще одно достаточное условие сходимости для асинхронного GaBP. Для каждого случая условие сходимости включает проверку 1) того, что множество (определяемое A) непустое, 2) что спектральный радиус определенной матрицы меньше единицы и 3) что проблема сингулярности (при преобразовании сообщения BP в убеждение) не возникает. [17]

Алгоритм GaBP был связан с областью линейной алгебры [18] , и было показано, что алгоритм GaBP можно рассматривать как итеративный алгоритм для решения линейной системы уравнений Ax = b , где A — информационная матрица, а b — вектор сдвига. Эмпирически показано, что алгоритм GaBP сходится быстрее, чем классические итеративные методы, такие как метод Якоби, метод Гаусса–Зейделя , последовательная сверхрелаксация и другие. [19] Кроме того, показано, что алгоритм GaBP невосприимчив к численным проблемам метода предобусловленных сопряженных градиентов [20]

Расшифровка АД на основе синдрома

Предыдущее описание алгоритма BP называется декодированием на основе кодового слова, которое вычисляет приблизительную предельную вероятность , учитывая полученное кодовое слово . Существует эквивалентная форма, [21] , которая вычисляет , где — синдром полученного кодового слова , а — декодированная ошибка. Декодированный входной вектор — . Эта вариация изменяет только интерпретацию функции массы . Явно, сообщения

где — априорная вероятность ошибки по переменной

Этот декодер на основе синдрома не требует информации о полученных битах, поэтому его можно адаптировать к квантовым кодам, где единственной информацией является синдром измерения.

В двоичном случае эти сообщения можно упростить, чтобы вызвать экспоненциальное снижение сложности [22] [23]

Определим логарифм отношения правдоподобия , тогда

где

Апостериорное логарифмическое отношение правдоподобия можно оценить как

Ссылки

  1. ^ ab Braunstein, A.; Mézard, M.; Zecchina, R. (2005). «Распространение опроса: алгоритм выполнимости». Случайные структуры и алгоритмы . 27 (2): 201–226. arXiv : cs/0212002 . doi : 10.1002/rsa.20057. S2CID  6601396.
  2. ^ Pearl, Judea (1982). «Преподобный Байес о машинах вывода: распределенный иерархический подход» (PDF) . Труды Второй национальной конференции по искусственному интеллекту . AAAI-82: Питтсбург, Пенсильвания. Менло-Парк, Калифорния: AAAI Press. стр. 133–136 . Получено 28 марта 2009 г. .
  3. ^ Ким, Джин Х.; Перл, Джудеа (1983). «Вычислительная модель для комбинированного причинно-следственного и диагностического рассуждения в системах вывода» (PDF) . Труды Восьмой международной совместной конференции по искусственному интеллекту . IJCAI-83: ​​Карлсруэ, Германия. Том 1. стр. 190–193 . Получено 20 марта 2016 г. .
  4. ^ Pearl, Judea (1988). Вероятностное рассуждение в интеллектуальных системах: сети правдоподобного вывода (2-е изд.). Сан-Франциско, Калифорния: Morgan Kaufmann. ISBN 978-1-55860-479-7.
  5. ^ Yedidia, JS; Freeman, WT; Y. (январь 2003 г.). «Понимание распространения убеждений и его обобщений». В Lakemeyer, Gerhard; Nebel, Bernhard (ред.). Exploring Artificial Intelligence in the New Millennium . Morgan Kaufmann. стр. 239–236. ISBN 978-1-55860-811-5. Получено 30 марта 2009 г.
  6. ^ Уэйнрайт, М. Дж.; Джордан, М. И. (2007). "2.1 Распределения вероятностей на графах". Графические модели, экспоненциальные семейства и вариационный вывод . Основы и тенденции в машинном обучении. Том 1. С. 5–9. doi :10.1561/2200000001.
  7. ^ Вайс, Яир (2000). «Корректность распространения локальной вероятности в графических моделях с циклами». Neural Computation . 12 (1): 1–41. doi :10.1162/089976600300015880. PMID  10636932. S2CID  15402308.
  8. ^ Mooij, J; Kappen, H (2007). «Достаточные условия сходимости алгоритма суммы–произведения». IEEE Transactions on Information Theory . 53 (12): 4422–4437. arXiv : cs/0504030 . doi :10.1109/TIT.2007.909166. S2CID  57228.
  9. ^ Löliger, Hans-Andrea (2004). «Введение в факторные графы». Журнал обработки сигналов IEEE . 21 (1): 28–41. Bibcode : 2004ISPM...21...28L. doi : 10.1109/msp.2004.1267047. S2CID  7722934.
  10. ^ ab Yedidia, JS; Freeman, WT; Weiss, Y.; Y. (июль 2005 г.). «Построение приближений свободной энергии и обобщенных алгоритмов распространения убеждений». IEEE Transactions on Information Theory . 51 (7): 2282–2312. CiteSeerX 10.1.1.3.5650 . doi :10.1109/TIT.2005.850085. S2CID  52835993 . Получено 28 марта 2009 г. . 
  11. Кикучи, Рёити (15 марта 1951 г.). «Теория кооперативных явлений». Physical Review . 81 (6): 988–1003. Bibcode : 1951PhRv...81..988K. doi : 10.1103/PhysRev.81.988.
  12. ^ Курата, Мичио; Кикучи, Рёити; Ватари, Тацуро (1953). «Теория кооперативных явлений. III. Подробные обсуждения метода кластерной вариации». Журнал химической физики . 21 (3): 434–448. Bibcode :1953JChPh..21..434K. doi : 10.1063/1.1698926 .
  13. ^ Кикучи, Рёити; Браш, Стивен Г. (1967). «Улучшение метода кластерной вариации». Журнал химической физики . 47 (1): 195–203. Bibcode : 1967JChPh..47..195K. doi : 10.1063/1.1711845.
  14. ^ Пелиццола, Алессандро (2005). «Метод вариации кластеров в статистической физике и вероятностных графических моделях». Журнал физики A: Mathematical and General . 38 (33): R309–R339. arXiv : cond-mat/0508216 . Bibcode : 2005JPhA...38R.309P. doi : 10.1088/0305-4470/38/33/R01. ISSN  0305-4470. S2CID  942.
  15. ^ Вайс, Яир; Фримен, Уильям Т. (октябрь 2001 г.). «Корректность распространения убеждений в гауссовых графических моделях произвольной топологии». Neural Computation . 13 (10): 2173–2200. CiteSeerX 10.1.1.44.794 . doi :10.1162/089976601750541769. PMID  11570995. S2CID  10624764. 
  16. ^ Малютов, Дмитрий М.; Джонсон, Джейсон К.; Вилски, Алан С. (октябрь 2006 г.). «Walk-sums and belief propagation in Gaussian graphal models». Journal of Machine Learning Research . 7 : 2031–2064 . Получено 28 марта 2009 г.
  17. ^ Су, Циньлян; У, Ик-Чунг (март 2015 г.). «Об условиях сходимости распространения гауссовского доверия». IEEE Trans. Signal Process. 63 (5): 1144–1155. Bibcode :2015ITSP...63.1144S. doi :10.1109/TSP.2015.2389755. S2CID  12055229.
  18. ^ Решатель распространения убеждений Гаусса для систем линейных уравнений. Авторы: O. Shental, D. Bickson, PH Siegel, JK Wolf и D. Dolev, IEEE Int. Symp. on Inform. Theory (ISIT), Торонто, Канада, июль 2008 г. http://www.cs.huji.ac.il/labs/danss/p2p/gabp/ Архивировано 14 июня 2011 г. на Wayback Machine
  19. ^ Линейное обнаружение посредством распространения убеждений. Дэнни Биксон, Дэнни Долев, Ори Шентал, Пол Х. Сигел и Джек К. Вольф. На 45-й ежегодной конференции Аллертона по коммуникациям, управлению и вычислениям, Allerton House, Иллинойс, 7 сентября. http://www.cs.huji.ac.il/labs/danss/p2p/gabp/ Архивировано 14 июня 2011 г. в Wayback Machine
  20. ^ Распределенная крупномасштабная сетевая максимизация полезности. D. Bickson, Y. Tock, A. Zymnis, S. Boyd и D. Dolev. На Международном симпозиуме по теории информации (ISIT), июль 2009 г. http://www.cs.huji.ac.il/labs/danss/p2p/gabp/ Архивировано 14 июня 2011 г. на Wayback Machine
  21. ^ Дэйв, Маулик А. (1 декабря 2006 г.). «Обзор «Теории информации, вывода и алгоритмов обучения» Дэвида Дж. К. Маккея, Cambridge University Press, 2003». ACM SIGACT News . 37 (4): 34–36. doi :10.1145/1189056.1189063. ISSN  0163-5700. S2CID  10570465.
  22. ^ Филлер, Томас (17 ноября 2009 г.). «Упрощение алгоритма распространения убеждений» (PDF) .
  23. ^ Лю, Йе-Хуа; Пулен, Дэвид (22 мая 2019 г.). «Нейронные декодеры распространения убеждений для квантовых кодов с исправлением ошибок». Physical Review Letters . 122 (20): 200501. arXiv : 1811.07835 . Bibcode : 2019PhRvL.122t0501L. doi : 10.1103/physrevlett.122.200501. ISSN  0031-9007. PMID  31172756. S2CID  53959182.

Дальнейшее чтение