stringtranslate.com

Взаимная информация

Диаграмма Венна , показывающая аддитивные и субтрактивные отношения различных информационных мер, связанных с коррелирующими переменными и . [1] Площадь, содержащаяся в обоих кругах, представляет собой совместную энтропию . Круг слева (красный и фиолетовый) — это индивидуальная энтропия , красный — условная энтропия . Круг справа (синий и фиолетовый) — , а синий — . Фиолетовый цвет – это взаимная информация .

В теории вероятностей и теории информации взаимная информация ( MI ) двух случайных величин является мерой взаимной зависимости между двумя переменными. Более конкретно, он количественно определяет « объем информации » (в таких единицах , как Шенноны ( биты ), натс или хартли ), полученный об одной случайной величине путем наблюдения за другой случайной величиной. Концепция взаимной информации тесно связана с концепцией энтропии случайной величины, фундаментальным понятием теории информации, которое количественно определяет ожидаемое «объем информации», содержащейся в случайной величине.

Не ограничиваясь вещественными случайными величинами и линейной зависимостью, такой как коэффициент корреляции , MI является более общим и определяет, насколько совместное распределение пары отличается от произведения маргинальных распределений и . MI — это ожидаемое значение точечной взаимной информации (PMI).

Величина была определена и проанализирована Клодом Шенноном в его знаковой статье « Математическая теория связи », хотя он и не называл ее «взаимной информацией». Этот термин был придуман позже Робертом Фано . [2] Взаимная информация также известна как получение информации .

Определение

Позвольте быть парой случайных величин со значениями в пространстве . Если их совместное распределение равно , а предельные распределения равны и , взаимная информация определяется как

где - расхождение Кульбака-Лейблера , и - внешнее распределение продуктов , которое присваивает вероятность каждому .

Обратите внимание, что согласно свойству расхождения Кульбака-Лейблера оно равно нулю именно тогда, когда совместное распределение совпадает с произведением маргиналов, т. е. когда и независимы (и, следовательно, наблюдение ничего не говорит вам о ). неотрицательен, это мера цены кодирования как пары независимых случайных величин, хотя на самом деле это не так.

Если используется натуральный логарифм , единицей взаимной информации является nat . Если используется логарифмическая база 2, единицей взаимной информации является шеннон , также известный как бит. Если используется база журнала 10, единицей взаимной информации является хартли , также известный как запрет или dit.

С точки зрения PMF для дискретных распределений

Взаимная информация двух совместно дискретных случайных величин рассчитывается как двойная сумма: [3] : 20 

где – совместная массовая функция вероятности и , и – предельные массовые функции вероятности и соответственно.

Что касается PDF-файлов для непрерывных дистрибутивов

В случае совместно непрерывных случайных величин двойная сумма заменяется двойным интегралом : [3] : 251 

где теперь - совместная функция плотности вероятности и , и - предельные функции плотности вероятности и соответственно.

Мотивация

Интуитивно, взаимная информация измеряет информацию, которой делятся : она измеряет, насколько знание одной из этих переменных снижает неопределенность в отношении другой. Например, если и независимы, то знание не дает никакой информации о и наоборот, поэтому их взаимная информация равна нулю. С другой стороны, если является детерминированной функцией и является детерминированной функцией, тогда вся информация, передаваемая с помощью, передается совместно с : знание определяет ценность и наоборот. В результате в этом случае взаимная информация такая же, как и неопределенность, содержащаяся только в (или ), а именно энтропия (или ) . Более того, эта взаимная информация такая же, как энтропия и энтропия . (Особый случай — когда и являются одной и той же случайной величиной.)

Взаимная информация является мерой внутренней зависимости, выраженной в совместном распределении и относительно предельного распределения и при предположении независимости. Таким образом, взаимная информация измеряет зависимость в следующем смысле: тогда и только тогда, когда и являются независимыми случайными величинами. Это легко увидеть в одном направлении: если и независимы, то , и, следовательно:

Более того, взаимная информация неотрицательна (см . ниже) и симметрична (см . ниже).

Характеристики

Неотрицательность

Используя неравенство Йенсена для определения взаимной информации, мы можем показать, что она неотрицательна, т.е. [3] : 28 

Симметрия

Доказательство дается с учетом связи с энтропией, как показано ниже.

Супермодульность при независимости

Если не зависит от , то

. [4]

Связь с условной и совместной энтропией

Взаимную информацию можно эквивалентно выразить как:

где и - предельные энтропии , и - условные энтропии , и - совместная энтропия и .

Обратите внимание на аналогию с объединением, разностью и пересечением двух множеств: в этом отношении все приведенные выше формулы очевидны из диаграммы Венна, приведенной в начале статьи.

С точки зрения канала связи, в котором выход представляет собой зашумленную версию входа , эти отношения суммированы на рисунке:

Отношения между теоретико-информационными величинами

Потому что неотрицательно, следовательно, . Здесь мы даем подробный вывод для случая совместно дискретных случайных величин:

Доказательства остальных приведенных выше тождеств аналогичны. Доказательство общего случая (а не только дискретного) аналогично, с заменой сумм интегралами.

Интуитивно понятно, что если энтропию рассматривать как меру неопределенности относительно случайной величины, то это мера того, чего не говорится о . Это «количество неопределенности, остающееся после того, как станет известно», и, таким образом, правую часть второго из этих равенств можно прочитать как «количество неопределенности в минус количество неопределенности, которое остается после того, как станет известно», что эквивалентно «количеству неопределенности, которая устраняется знанием ». Это подтверждает интуитивное значение взаимной информации как объема информации (то есть уменьшения неопределенности), которую знание одной переменной дает о другой.

Заметим, что в дискретном случае и, следовательно , . Таким образом , можно сформулировать основной принцип, согласно которому переменная содержит по крайней мере столько же информации о себе, сколько может предоставить любая другая переменная.

Связь с расхождением Кульбака – Лейблера

Для совместно дискретных или совместно непрерывных пар взаимная информация представляет собой расхождение Кульбака–Лейблера от произведения маргинальных распределений совместного распределения , то есть

Далее, пусть – условная функция массы или плотности. Тогда мы имеем тождество

Доказательство для совместно дискретных случайных величин выглядит следующим образом:

Аналогично это тождество можно установить и для совместно непрерывных случайных величин.

Обратите внимание, что здесь расхождение Кульбака – Лейблера включает интегрирование только по значениям случайной величины , и выражение по-прежнему обозначает случайную величину, поскольку она является случайной. Таким образом , взаимную информацию можно также понимать как ожидание отклонения Кульбака-Лейблера одномерного распределения от условного распределения заданного : чем более различны распределения и в среднем, тем больше прирост информации .

Байесовская оценка взаимной информации

Если доступны выборки из совместного распределения, для оценки взаимной информации этого распределения можно использовать байесовский подход. Это была первая работа, которая также показала, как выполнять байесовскую оценку многих других теоретико-информационных свойств, помимо взаимной информации. [5] Последующие исследователи переработали [6] и расширили [7] этот анализ. См. [8] недавнюю статью, основанную на априорном подходе, специально предназначенном для оценки взаимной информации как таковой. Кроме того, недавно в работе был предложен метод оценки, учитывающий непрерывные и многомерные результаты . [9]

Предположения о независимости

Формулировка дивергенции Кульбака-Лейблера для взаимной информации основана на том, что нас интересует сравнение с полностью факторизованным внешним продуктом . Во многих задачах, таких как факторизация неотрицательной матрицы , интересны менее экстремальные факторизации; в частности, нужно провести сравнение с матричной аппроксимацией низкого ранга с некоторой неизвестной переменной ; то есть в какой степени можно иметь

С другой стороны, может быть интересно узнать, сколько больше информации переносится при факторизации. В таком случае избыточная информация, которую полное распределение несет в себе при матричной факторизации, определяется расхождением Кульбака-Лейблера.

Традиционное определение взаимной информации восстанавливается в крайнем случае, когда процесс имеет только одно значение для .

Вариации

Для удовлетворения различных потребностей было предложено несколько вариантов взаимной информации. Среди них есть нормализованные варианты и обобщения для более чем двух переменных.

Метрика

Многие приложения требуют метрики , то есть меры расстояния между парами точек. Количество

удовлетворяет свойствам метрики ( неравенство треугольника , неотрицательность , неразличимость и симметрия). Этот показатель расстояния также известен как изменение информации .

Если это дискретные случайные величины, то все члены энтропии неотрицательны, поэтому можно определить нормализованное расстояние.

Метрика является универсальной метрикой: если какие-либо другие меры расстояния расположены рядом и находятся рядом, то они также будут оцениваться как близкие. [10] [ сомнительно ]

Подстановка определений показывает, что

Это известно как расстояние Райского. [11] В теоретико-множественной интерпретации информации (см. рисунок « Условная энтропия ») это фактически расстояние Жаккара между и .

Окончательно,

это тоже показатель.

Условная взаимная информация

Иногда полезно выразить взаимную информацию двух случайных величин, обусловленную третьей.

Для совместно дискретных случайных величин это принимает вид

который можно упростить как

Для совместно непрерывных случайных величин это имеет вид

который можно упростить как

Обуславливание третьей случайной величиной может либо увеличить, либо уменьшить взаимную информацию, но всегда верно, что

для дискретных, совместно распределенных случайных величин . Этот результат был использован в качестве основного строительного блока для доказательства других неравенств в теории информации .

Информация о взаимодействии

Было предложено несколько обобщений взаимной информации на более чем две случайные величины, такие как полная корреляция (или мультиинформация) и двойная полная корреляция . Выражение и изучение многомерной взаимной информации более высокой степени было достигнуто в двух, казалось бы, независимых работах: Макгилла (1954) [12] , который назвал эти функции «информацией взаимодействия», и Ху Го Тина (1962). [13] Информация о взаимодействии определяется для одной переменной следующим образом:

и для

Некоторые авторы меняют порядок членов в правой части предыдущего уравнения, что меняет знак, когда число случайных величин нечетное. (И в этом случае выражение с одной переменной становится отрицательным значением энтропии.) Обратите внимание, что

Многомерная статистическая независимость

Многомерные функции взаимной информации обобщают случай попарной независимости, который утверждает, что тогда и только тогда, когда , на произвольную многочисленную переменную. n переменных взаимно независимы тогда и только тогда, когда взаимные информационные функции равны нулю при (теорема 2 [14] ). В этом смысле его можно использовать как уточненный критерий статистической независимости.

Приложения

Для трех переменных Brenner et al. применили многомерную взаимную информацию к нейронному кодированию и назвали ее негативность «синергией» [15] , а Уоткинсон и др. применил его к генетическому выражению. [16] Для произвольных k переменных, Tapia et al. применил многомерную взаимную информацию к экспрессии генов. [17] [14] Оно может быть нулевым, положительным или отрицательным. [13] Позитивность соответствует отношениям, обобщающим парные корреляции, нуль соответствует уточненному понятию независимости, а отрицательность обнаруживает многомерные «новые» отношения и кластеризованные точки данных [17] ).

Было обнаружено, что одна схема многомерного обобщения, которая максимизирует взаимную информацию между совместным распределением и другими целевыми переменными, полезна при выборе признаков . [18]

Взаимная информация также используется в области обработки сигналов как мера сходства между двумя сигналами. Например, метрика FMI [19] — это показатель производительности слияния изображений, который использует взаимную информацию для измерения объема информации, которую слитое изображение содержит об исходных изображениях. Код Matlab для этой метрики можно найти по адресу. [20] Доступен пакет Python для вычисления всей многомерной взаимной информации, условной взаимной информации, совместной энтропии, общих корреляций, информационного расстояния в наборе данных из n переменных. [21]

Направленная информация

Направленная информация , , измеряет количество информации, поступающей от процесса к , где обозначает вектор и обозначает . Термин «направленная информация» был придуман Джеймсом Мэсси и определяется как

.

Обратите внимание, что если направленная информация становится взаимной информацией. Направленная информация имеет множество применений в задачах, где причинно-следственная связь играет важную роль, например, пропускная способность канала с обратной связью. [22] [23]

Нормализованные варианты

Нормализованные варианты взаимной информации представлены коэффициентами ограничения , [24] коэффициентом неопределенности [25] или компетентностью: [26]

Два коэффициента имеют значения в пределах [0, 1], но не обязательно равны. Эта мера не симметрична. Если кто-то желает симметричной меры, он может рассмотреть следующую меру избыточности :

который достигает минимума нуля, когда переменные независимы, и максимального значения

когда одна переменная становится совершенно избыточной при знании другой. См. также Избыточность (теория информации) .

Другой симметричной мерой является симметричная неопределенность (Witten & Frank 2005), определяемая формулой

которое представляет собой среднее гармоническое значение двух коэффициентов неопределенности . [25]

Если мы рассматриваем взаимную информацию как частный случай полной корреляции или двойной полной корреляции , нормализованная версия соответственно равна

и

Эта нормализованная версия, также известная как коэффициент качества информации (IQR) , которая количественно определяет объем информации переменной на основе другой переменной с учетом полной неопределенности: [27]

Существует нормализация [28] , которая вытекает из первоначального рассмотрения взаимной информации как аналога ковариации ( таким образом, энтропия Шеннона аналогична дисперсии ). Затем рассчитывается нормализованная взаимная информация, аналогичная коэффициенту корреляции Пирсона ,

Взвешенные варианты

В традиционной формулировке взаимной информации

каждое событие или объект , указанный с помощью, взвешивается соответствующей вероятностью . Это предполагает, что все объекты или события эквивалентны, за исключением вероятности их возникновения. Однако в некоторых приложениях может случиться так, что определенные объекты или события более значимы , чем другие, или что определенные шаблоны ассоциаций более семантически важны, чем другие.

Например, детерминированное отображение можно рассматривать как более сильное, чем детерминированное отображение , хотя эти отношения будут давать одну и ту же взаимную информацию. Это происходит потому, что взаимная информация совершенно не чувствительна к какому-либо внутреннему порядку значений переменных (Cronbach 1954, Coombs, Dawes & Tversky 1970, Lockhead 1970) и, следовательно, совершенно не чувствительна к форме реляционного отображения между связанные переменные. Если желательно, чтобы первое отношение, показывающее согласие по всем значениям переменных, оценивалось сильнее, чем более позднее отношение, то можно использовать следующую взвешенную взаимную информацию (Guiasu 1977).

который придает вес вероятности совместного появления каждого значения переменной, . Это позволяет некоторым вероятностям иметь большее или меньшее значение, чем другие, тем самым позволяя количественно оценить соответствующие целостные факторы или факторы Прегнанца . В приведенном выше примере использование больших относительных весов для , и будет иметь эффект оценки большей информативности для отношения , чем для отношения , что может быть желательно в некоторых случаях распознавания образов и т.п. Эта взвешенная взаимная информация представляет собой форму взвешенной KL-дивергенции, которая, как известно, принимает отрицательные значения для некоторых входных данных [29] , и есть примеры, когда взвешенная взаимная информация также принимает отрицательные значения. [30]

Скорректированная взаимная информация

Распределение вероятностей можно рассматривать как часть множества . Тогда можно задаться вопросом: если бы множество было разделено случайным образом, каково было бы распределение вероятностей? Какова будет ожидаемая ценность взаимной информации? Скорректированная взаимная информация или AMI вычитает математическое ожидание MI, так что AMI равен нулю, когда два разных распределения являются случайными, и единице, когда два распределения идентичны. AMI определяется по аналогии с скорректированным индексом Рэнда двух разных разделов набора.

Абсолютная взаимная информация

Используя идеи колмогоровской сложности , можно рассматривать взаимную информацию двух последовательностей независимо от какого-либо распределения вероятностей:

Чтобы установить, что эта величина симметрична с точностью до логарифмического множителя ( ), необходимо использовать цепное правило для сложности Колмогорова (Li & Vitány 1997). Аппроксимация этой величины посредством сжатия может использоваться для определения меры расстояния для выполнения иерархической кластеризации последовательностей без каких-либо знаний предметной области последовательностей (Cilibrasi & Vitány 2005).

Линейная корреляция

В отличие от коэффициентов корреляции, таких как коэффициент корреляции момента произведения , взаимная информация содержит информацию обо всех зависимостях — линейных и нелинейных, а не только о линейной зависимости, как измеряет коэффициент корреляции. Однако в узком случае, когда совместное распределение для и представляет собой двумерное нормальное распределение (подразумевается, в частности, что оба маргинальных распределения нормально распределены), существует точная связь между и коэффициентом корреляции (Гельфанд и Яглом, 1957).

Приведенное выше уравнение для двумерной гауссианы можно вывести следующим образом:

Поэтому,

Для дискретных данных

Когда и ограничены дискретным числом состояний, данные наблюдения суммируются в таблице сопряженности с переменной строки (или ) и переменной столбца (или ). Взаимная информация — это одна из мер связи или корреляции между переменными строки и столбца.

Другие меры связи включают статистику критерия хи-квадрат Пирсона , статистику G-теста и т. д. Фактически, при той же логарифмической базе взаимная информация будет равна логарифмической статистике правдоподобия G-теста, разделенной на , где - размер выборки .

Приложения

Во многих приложениях требуется максимизировать взаимную информацию (таким образом увеличивая зависимости), что часто эквивалентно минимизации условной энтропии . Примеры включают в себя:

где — сколько раз биграмма xy появляется в корпусе, — сколько раз униграмма x появляется в корпусе, B — общее количество биграмм, а U — общее количество униграмм. [31]

Смотрите также

Примечания

  1. ^ Обложка, Томас М.; Томас, Джой А. (2005). Элементы теории информации (PDF) . John Wiley & Sons, Ltd., стр. 13–55. ISBN 9780471748823.
  2. ^ Крир, JG (1957). «Вопрос терминологии». IRE Транзакции по теории информации . 3 (3): 208. doi :10.1109/TIT.1957.1057418.
  3. ^ abc Cover, TM; Томас, Дж. А. (1991). Элементы теории информации (изд. Уайли). Джон Уайли и сыновья. ISBN 978-0-471-24195-9.
  4. ^ Янссен, Джозеф; Гуан, Винсент; Робева, Элина (2023). «Сверхпредельная важность функций: обучение на данных с причинно-следственными гарантиями». Международная конференция по искусственному интеллекту и статистике : 10782–10814. arXiv : 2204.09938 .
  5. ^ Вулперт, Д.Х.; Вольф, ДР (1995). «Оценочные функции вероятностных распределений по конечному набору выборок». Физический обзор E . 52 (6): 6841–6854. Бибкод : 1995PhRvE..52.6841W. CiteSeerX 10.1.1.55.7122 . doi : 10.1103/PhysRevE.52.6841. PMID  9964199. S2CID  9795679. 
  6. ^ Хаттер, М. (2001). «Распространение взаимной информации». Достижения в области нейронных систем обработки информации .
  7. ^ Арчер, Э.; Парк, ИМ; Подушка, Дж. (2013). «Байесовские и квазибайесовские средства оценки взаимной информации из дискретных данных». Энтропия . 15 (12): 1738–1755. Бибкод : 2013Entrp..15.1738A. CiteSeerX 10.1.1.294.4690 . дои : 10.3390/e15051738 . 
  8. ^ Вулперт, Д.Х.; ДеДео, С. (2013). «Оценочные функции распределений, определенных в пространствах неизвестного размера». Энтропия . 15 (12): 4668–4699. arXiv : 1311.4548 . Бибкод : 2013Entrp..15.4668W. дои : 10.3390/e15114668 . S2CID  2737117.
  9. ^ Томаш Йетка; Кароль Ниенальтовский; Томаш Винарски; Славомир Блонский; Михал Коморовски (2019), «Информационный анализ многомерных одноклеточных сигнальных ответов», PLOS Computational Biology , 15 (7): e1007132, arXiv : 1808.05581 , Bibcode : 2019PLSCB..15E7132J, doi : 10.1371/journal.pcbi. 1007132 , ПМК 6655862 , ПМИД  31299056 
  10. ^ Красков, Александр; Стёгбауэр, Харальд; Анджейак, Ральф Г.; Грассбергер, Питер (2003). «Иерархическая кластеризация на основе взаимной информации». arXiv : q-bio/0311039 . Бибкод : 2003q.bio....11039K. {{cite journal}}: Требуется цитировать журнал |journal=( помощь )
  11. ^ Райски, К. (1961). «Метрическое пространство дискретных распределений вероятностей». Информация и контроль . 4 (4): 371–377. дои : 10.1016/S0019-9958(61)80055-7.
  12. ^ МакГилл, В. (1954). «Многовариантная передача информации». Психометрика . 19 (1): 97–116. дои : 10.1007/BF02289159. S2CID  126431489.
  13. ^ Аб Ху, КТ (1962). «Об объеме информации». Теория вероятностей. Приложение . 7 (4): 439–447. дои : 10.1137/1107041.
  14. ^ Аб Бодо, П.; Тапиа, М.; Беннекен, Д.; Гоайяр, JM (2019). «Анализ топологической информации». Энтропия . 21 (9). 869. arXiv : 1907.04242 . Бибкод : 2019Entrp..21..869B. дои : 10.3390/e21090869 . ПМЦ 7515398 . S2CID  195848308. 
  15. ^ Бреннер, Н.; Стронг, С.; Коберле, Р.; Бялек, В. (2000). «Синергия в нейронном коде». Нейронный компьютер . 12 (7): 1531–1552. дои : 10.1162/089976600300015259. PMID  10935917. S2CID  600528.
  16. ^ Уоткинсон, Дж.; Лян, К.; Ван, X.; Чжэн, Т.; Анастасиу, Д. (2009). «Вывод о регуляторных взаимодействиях генов на основе данных экспрессии с использованием трехсторонней взаимной информации». Чэлл. Сист. Биол. Анна. Н-Й акад. Наука . 1158 (1): 302–313. Бибкод : 2009NYASA1158..302W. дои : 10.1111/j.1749-6632.2008.03757.x. PMID  19348651. S2CID  8846229.
  17. ^ аб Тапиа, М.; Бодо, П.; Формизано-Трезины, К.; Дюфур, М.; Гоайяр, JM (2018). «Идентичность нейротрансмиттера и электрофизиологический фенотип генетически связаны в дофаминергических нейронах среднего мозга». наук. Представитель . 8 (1): 13637. Бибкод : 2018NatSR...813637T. doi : 10.1038/s41598-018-31765-z. ПМК 6134142 . ПМИД  30206240. 
  18. ^ Кристофер Д. Мэннинг; Прабхакар Рагхаван; Хинрих Шютце (2008). Введение в поиск информации . Издательство Кембриджского университета . ISBN 978-0-521-86571-5.
  19. ^ Хагигат, MBA; Агаголзаде, А.; Сейедараби, Х. (2011). «Неэталонный показатель объединения изображений, основанный на взаимной информации об особенностях изображения». Компьютеры и электротехника . 37 (5): 744–756. doi : 10.1016/j.compeleceng.2011.07.012. S2CID  7738541.
  20. ^ «Метрика взаимной информации о функциях (FMI) для слияния неэталонных изображений — обмен файлами — MATLAB Central» . www.mathworks.com . Проверено 4 апреля 2018 г.
  21. ^ «InfoTopo: Анализ данных топологической информации. Глубокое статистическое обучение без и с учителем — Обмен файлами — Github» . github.com/pierrebaudot/infotopopy/ . Проверено 26 сентября 2020 г.
  22. ^ Мэсси, Джеймс (1990). «Причинность, обратная связь и направленная информация». Учеб. 1990 Международный. Симп. на Инфо. Т.е. и его приложения, Вайкики, Гавайи, 27-30 ноября 1990 г. CiteSeerX 10.1.1.36.5688 . 
  23. ^ Пермутер, Хаим Генри; Вайсман, Цахи; Голдсмит, Андреа Дж. (февраль 2009 г.). «Каналы конечных состояний с инвариантной во времени детерминированной обратной связью». Транзакции IEEE по теории информации . 55 (2): 644–662. arXiv : cs/0608070 . дои : 10.1109/TIT.2008.2009849. S2CID  13178.
  24. ^ Кумбс, Дауэс и Тверски 1970.
  25. ^ ab Press, WH; Теукольский, С.А.; Феттерлинг, WT; Фланнери, BP (2007). «Раздел 14.7.3. Условная энтропия и взаимная информация». Численные рецепты: искусство научных вычислений (3-е изд.). Нью-Йорк: Издательство Кембриджского университета. ISBN 978-0-521-88068-8. Архивировано из оригинала 11 августа 2011 г. Проверено 13 августа 2011 г.
  26. ^ Уайт, Джим; Стейнгольд, Сэм; Фурнель, Конни. Показатели производительности алгоритмов группового обнаружения (PDF) . Интерфейс 2004. Архивировано из оригинала (PDF) 5 июля 2016 г. Проверено 19 февраля 2014 г.
  27. ^ Виджая, Деди Рахман; Сарно, Рианарто; Зулайка, Энни (2017). «Коэффициент качества информации как новый показатель для выбора исходного вейвлета». Хемометрика и интеллектуальные лабораторные системы . 160 : 59–71. doi : 10.1016/j.chemolab.2016.11.012.
  28. ^ Стрел, Александр; Гош, Джойдип (2003). «Кластерные ансамбли — структура повторного использования знаний для объединения нескольких разделов» (PDF) . Журнал исследований машинного обучения . 3 : 583–617. дои : 10.1162/153244303321897735.
  29. ^ Кволсет, Т.О. (1991). «Относительная мера полезной информации: некоторые комментарии». Информационные науки . 56 (1): 35–38. дои : 10.1016/0020-0255(91)90022-м.
  30. ^ Покок, А. (2012). Выбор функций с помощью совместного правдоподобия (PDF) (Диссертация).
  31. ^ ab Анализ естественного языка с использованием статистики взаимной информации Дэвида М. Магермана и Митчелла П. Маркуса
  32. ^ Теория универсальной волновой функции Хью Эверетта , диссертация, Принстонский университет, (1956, 1973), стр. 1–140 (стр. 30)
  33. ^ Эверетт, Хью (1957). «Формулировка относительного состояния квантовой механики». Обзоры современной физики . 29 (3): 454–462. Бибкод : 1957RvMP...29..454E. doi : 10.1103/revmodphys.29.454. Архивировано из оригинала 27 октября 2011 г. Проверено 16 июля 2012 г.
  34. ^ Николетти, Джорджио; Бузиелло, Даниэль Мария (22 ноября 2021 г.). «Взаимная информация отделяет взаимодействие от меняющейся среды». Письма о физических отзывах . 127 (22): 228301. arXiv : 2107.08985 . Бибкод : 2021PhRvL.127v8301N. doi : 10.1103/PhysRevLett.127.228301. PMID  34889638. S2CID  236087228.
  35. ^ Николетти, Джорджио; Бузиелло, Даниэль Мария (29 июля 2022 г.). «Взаимная информация в изменяющейся среде: нелинейные взаимодействия, неравновесные системы и постоянно меняющаяся диффузия». Физический обзор E . 106 (1): 014153. arXiv : 2204.01644 . doi : 10.1103/PhysRevE.106.014153.
  36. ^ GlobalMIT в Google Code
  37. ^ Ли, Се Юн (2021). «Сэмплер Гиббса и вариационный вывод по координатному восхождению: теоретико-множественный обзор». Коммуникации в статистике - теория и методы . 51 (6): 1549–1568. arXiv : 2008.01006 . дои : 10.1080/03610926.2021.1921214. S2CID  220935477.
  38. ^ Киз, Дастин; Холиков, Шукур; Певцов, Алексей А. (февраль 2015 г.). «Применение методов взаимной информации в дистанционной гелиосейсмологии». Солнечная физика . 290 (3): 659–671. arXiv : 1501.05597 . Бибкод : 2015SoPh..290..659K. дои : 10.1007/s11207-015-0650-y. S2CID  118472242.
  39. ^ Инвариантная кластеризация информации для неконтролируемой классификации и сегментации изображений, авторы Сюй Цзи, Жоао Энрикес и Андреа Ведальди.

Рекомендации