Диаграмма Венна , показывающая аддитивные и субтрактивные отношения различных информационных мер, связанных с коррелирующими переменными и . [1] Площадь, содержащаяся в обоих кругах, представляет собой совместную энтропию . Круг слева (красный и фиолетовый) — это индивидуальная энтропия , красный — условная энтропия . Круг справа (синий и фиолетовый) — , а синий — . Фиолетовый цвет – это взаимная информация .
В теории вероятностей и теории информации взаимная информация ( MI ) двух случайных величин является мерой взаимной зависимости между двумя переменными. Более конкретно, он количественно определяет « объем информации » (в таких единицах , как Шенноны ( биты ), натс или хартли ), полученный об одной случайной величине путем наблюдения за другой случайной величиной. Концепция взаимной информации тесно связана с концепцией энтропии случайной величины, фундаментальным понятием теории информации, которое количественно определяет ожидаемое «объем информации», содержащейся в случайной величине.
Позвольте быть парой случайных величин со значениями в пространстве . Если их совместное распределение равно , а предельные распределения равны и , взаимная информация определяется как
Обратите внимание, что согласно свойству расхождения Кульбака-Лейблера оно равно нулю именно тогда, когда совместное распределение совпадает с произведением маргиналов, т. е. когда и независимы (и, следовательно, наблюдение ничего не говорит вам о ). неотрицательен, это мера цены кодирования как пары независимых случайных величин, хотя на самом деле это не так.
Если используется натуральный логарифм , единицей взаимной информации является nat . Если используется логарифмическая база 2, единицей взаимной информации является шеннон , также известный как бит. Если используется база журнала 10, единицей взаимной информации является хартли , также известный как запрет или dit.
С точки зрения PMF для дискретных распределений
Взаимная информация двух совместно дискретных случайных величин рассчитывается как двойная сумма: [3] : 20
Что касается PDF-файлов для непрерывных дистрибутивов
В случае совместно непрерывных случайных величин двойная сумма заменяется двойным интегралом : [3] : 251
где теперь - совместная функция плотности вероятности и , и - предельные функции плотности вероятности и соответственно.
Мотивация
Интуитивно, взаимная информация измеряет информацию, которой делятся : она измеряет, насколько знание одной из этих переменных снижает неопределенность в отношении другой. Например, если и независимы, то знание не дает никакой информации о и наоборот, поэтому их взаимная информация равна нулю. С другой стороны, если является детерминированной функцией и является детерминированной функцией, тогда вся информация, передаваемая с помощью, передается совместно с : знание определяет ценность и наоборот. В результате в этом случае взаимная информация такая же, как и неопределенность, содержащаяся только в (или ), а именно энтропия (или ) . Более того, эта взаимная информация такая же, как энтропия и энтропия . (Особый случай — когда и являются одной и той же случайной величиной.)
Взаимная информация является мерой внутренней зависимости, выраженной в совместном распределении и относительно предельного распределения и при предположении независимости. Таким образом, взаимная информация измеряет зависимость в следующем смысле: тогда и только тогда, когда и являются независимыми случайными величинами. Это легко увидеть в одном направлении: если и независимы, то , и, следовательно:
Более того, взаимная информация неотрицательна (см . ниже) и симметрична (см . ниже).
Характеристики
Неотрицательность
Используя неравенство Йенсена для определения взаимной информации, мы можем показать, что она неотрицательна, т.е. [3] : 28
Симметрия
Доказательство дается с учетом связи с энтропией, как показано ниже.
Супермодульность при независимости
Если не зависит от , то
. [4]
Связь с условной и совместной энтропией
Взаимную информацию можно эквивалентно выразить как:
Обратите внимание на аналогию с объединением, разностью и пересечением двух множеств: в этом отношении все приведенные выше формулы очевидны из диаграммы Венна, приведенной в начале статьи.
С точки зрения канала связи, в котором выход представляет собой зашумленную версию входа , эти отношения суммированы на рисунке:
Отношения между теоретико-информационными величинами
Потому что неотрицательно, следовательно, . Здесь мы даем подробный вывод для случая совместно дискретных случайных величин:
Доказательства остальных приведенных выше тождеств аналогичны. Доказательство общего случая (а не только дискретного) аналогично, с заменой сумм интегралами.
Интуитивно понятно, что если энтропию рассматривать как меру неопределенности относительно случайной величины, то это мера того, чего не говорится о . Это «количество неопределенности, остающееся после того, как станет известно», и, таким образом, правую часть второго из этих равенств можно прочитать как «количество неопределенности в минус количество неопределенности, которое остается после того, как станет известно», что эквивалентно «количеству неопределенности, которая устраняется знанием ». Это подтверждает интуитивное значение взаимной информации как объема информации (то есть уменьшения неопределенности), которую знание одной переменной дает о другой.
Заметим, что в дискретном случае и, следовательно , . Таким образом , можно сформулировать основной принцип, согласно которому переменная содержит по крайней мере столько же информации о себе, сколько может предоставить любая другая переменная.
Далее, пусть – условная функция массы или плотности. Тогда мы имеем тождество
Доказательство для совместно дискретных случайных величин выглядит следующим образом:
Аналогично это тождество можно установить и для совместно непрерывных случайных величин.
Обратите внимание, что здесь расхождение Кульбака – Лейблера включает интегрирование только по значениям случайной величины , и выражение по-прежнему обозначает случайную величину, поскольку она является случайной. Таким образом , взаимную информацию можно также понимать как ожидание отклонения Кульбака-Лейблера одномерного распределения от условного распределения заданного : чем более различны распределения и в среднем, тем больше прирост информации .
Байесовская оценка взаимной информации
Если доступны выборки из совместного распределения, для оценки взаимной информации этого распределения можно использовать байесовский подход. Это была первая работа, которая также показала, как выполнять байесовскую оценку многих других теоретико-информационных свойств, помимо взаимной информации. [5] Последующие исследователи переработали [6] и расширили [7]
этот анализ. См. [8] недавнюю статью, основанную на априорном подходе, специально предназначенном для оценки взаимной информации как таковой. Кроме того, недавно в работе был предложен метод оценки, учитывающий непрерывные и многомерные результаты . [9]
Предположения о независимости
Формулировка дивергенции Кульбака-Лейблера для взаимной информации основана на том, что нас интересует сравнение с полностью факторизованным внешним продуктом . Во многих задачах, таких как факторизация неотрицательной матрицы , интересны менее экстремальные факторизации; в частности, нужно провести сравнение с матричной аппроксимацией низкого ранга с некоторой неизвестной переменной ; то есть в какой степени можно иметь
С другой стороны, может быть интересно узнать, сколько больше информации переносится при факторизации. В таком случае избыточная информация, которую полное распределение несет в себе при матричной факторизации, определяется расхождением Кульбака-Лейблера.
Традиционное определение взаимной информации восстанавливается в крайнем случае, когда процесс имеет только одно значение для .
Вариации
Для удовлетворения различных потребностей было предложено несколько вариантов взаимной информации. Среди них есть нормализованные варианты и обобщения для более чем двух переменных.
Метрика
Многие приложения требуют метрики , то есть меры расстояния между парами точек. Количество
Если это дискретные случайные величины, то все члены энтропии неотрицательны, поэтому можно определить нормализованное расстояние.
Метрика является универсальной метрикой: если какие-либо другие меры расстояния расположены рядом и находятся рядом, то они также будут оцениваться как близкие. [10] [ сомнительно – обсудить ]
Подстановка определений показывает, что
Это известно как расстояние Райского. [11] В теоретико-множественной интерпретации информации (см. рисунок « Условная энтропия ») это фактически расстояние Жаккара между и .
Окончательно,
это тоже показатель.
Условная взаимная информация
Иногда полезно выразить взаимную информацию двух случайных величин, обусловленную третьей.
Обуславливание третьей случайной величиной может либо увеличить, либо уменьшить взаимную информацию, но всегда верно, что
для дискретных, совместно распределенных случайных величин . Этот результат был использован в качестве основного строительного блока для доказательства других неравенств в теории информации .
Информация о взаимодействии
Было предложено несколько обобщений взаимной информации на более чем две случайные величины, такие как полная корреляция (или мультиинформация) и двойная полная корреляция . Выражение и изучение многомерной взаимной информации более высокой степени было достигнуто в двух, казалось бы, независимых работах: Макгилла (1954) [12] , который назвал эти функции «информацией взаимодействия», и Ху Го Тина (1962). [13] Информация о взаимодействии определяется для одной переменной следующим образом:
и для
Некоторые авторы меняют порядок членов в правой части предыдущего уравнения, что меняет знак, когда число случайных величин нечетное. (И в этом случае выражение с одной переменной становится отрицательным значением энтропии.) Обратите внимание, что
Многомерная статистическая независимость
Многомерные функции взаимной информации обобщают случай попарной независимости, который утверждает, что тогда и только тогда, когда , на произвольную многочисленную переменную. n переменных взаимно независимы тогда и только тогда, когда взаимные информационные функции равны нулю при (теорема 2 [14] ). В этом смысле его можно использовать как уточненный критерий статистической независимости.
Приложения
Для трех переменных Brenner et al. применили многомерную взаимную информацию к нейронному кодированию и назвали ее негативность «синергией» [15] , а Уоткинсон и др. применил его к генетическому выражению. [16] Для произвольных k переменных, Tapia et al. применил многомерную взаимную информацию к экспрессии генов. [17] [14] Оно может быть нулевым, положительным или отрицательным. [13] Позитивность соответствует отношениям, обобщающим парные корреляции, нуль соответствует уточненному понятию независимости, а отрицательность обнаруживает многомерные «новые» отношения и кластеризованные точки данных [17] ).
Было обнаружено, что одна схема многомерного обобщения, которая максимизирует взаимную информацию между совместным распределением и другими целевыми переменными, полезна при выборе признаков . [18]
Взаимная информация также используется в области обработки сигналов как мера сходства между двумя сигналами. Например, метрика FMI [19] — это показатель производительности слияния изображений, который использует взаимную информацию для измерения объема информации, которую слитое изображение содержит об исходных изображениях. Код Matlab для этой метрики можно найти по адресу. [20] Доступен пакет Python для вычисления всей многомерной взаимной информации, условной взаимной информации, совместной энтропии, общих корреляций, информационного расстояния в наборе данных из n переменных. [21]
Направленная информация
Направленная информация , , измеряет количество информации, поступающей от процесса к , где обозначает вектор и обозначает . Термин «направленная информация» был придуман Джеймсом Мэсси и определяется как
.
Обратите внимание, что если направленная информация становится взаимной информацией. Направленная информация имеет множество применений в задачах, где причинно-следственная связь играет важную роль, например, пропускная способность канала с обратной связью. [22] [23]
Нормализованные варианты
Нормализованные варианты взаимной информации представлены коэффициентами ограничения , [24] коэффициентом неопределенности [25] или компетентностью: [26]
Два коэффициента имеют значения в пределах [0, 1], но не обязательно равны. Эта мера не симметрична. Если кто-то желает симметричной меры, он может рассмотреть следующую меру избыточности :
который достигает минимума нуля, когда переменные независимы, и максимального значения
Если мы рассматриваем взаимную информацию как частный случай полной корреляции или двойной полной корреляции , нормализованная версия соответственно равна
и
Эта нормализованная версия, также известная как коэффициент качества информации (IQR) , которая количественно определяет объем информации переменной на основе другой переменной с учетом полной неопределенности: [27]
Существует нормализация [28] , которая вытекает из первоначального рассмотрения взаимной информации как аналога ковариации ( таким образом, энтропия Шеннона аналогична дисперсии ). Затем рассчитывается нормализованная взаимная информация, аналогичная коэффициенту корреляции Пирсона ,
Взвешенные варианты
В традиционной формулировке взаимной информации
каждое событие или объект , указанный с помощью, взвешивается соответствующей вероятностью . Это предполагает, что все объекты или события эквивалентны, за исключением вероятности их возникновения. Однако в некоторых приложениях может случиться так, что определенные объекты или события более значимы , чем другие, или что определенные шаблоны ассоциаций более семантически важны, чем другие.
Например, детерминированное отображение можно рассматривать как более сильное, чем детерминированное отображение , хотя эти отношения будут давать одну и ту же взаимную информацию. Это происходит потому, что взаимная информация совершенно не чувствительна к какому-либо внутреннему порядку значений переменных (Cronbach 1954, Coombs, Dawes & Tversky 1970, Lockhead 1970) и, следовательно, совершенно не чувствительна к форме реляционного отображения между связанные переменные. Если желательно, чтобы первое отношение, показывающее согласие по всем значениям переменных, оценивалось сильнее, чем более позднее отношение, то можно использовать следующую взвешенную взаимную информацию (Guiasu 1977).
который придает вес вероятности совместного появления каждого значения переменной, . Это позволяет некоторым вероятностям иметь большее или меньшее значение, чем другие, тем самым позволяя количественно оценить соответствующие целостные факторы или факторы Прегнанца . В приведенном выше примере использование больших относительных весов для , и будет иметь эффект оценки большей информативности для отношения , чем для отношения , что может быть желательно в некоторых случаях распознавания образов и т.п. Эта взвешенная взаимная информация представляет собой форму взвешенной KL-дивергенции, которая, как известно, принимает отрицательные значения для некоторых входных данных [29] , и есть примеры, когда взвешенная взаимная информация также принимает отрицательные значения. [30]
Скорректированная взаимная информация
Распределение вероятностей можно рассматривать как часть множества . Тогда можно задаться вопросом: если бы множество было разделено случайным образом, каково было бы распределение вероятностей? Какова будет ожидаемая ценность взаимной информации? Скорректированная взаимная информация или AMI вычитает математическое ожидание MI, так что AMI равен нулю, когда два разных распределения являются случайными, и единице, когда два распределения идентичны. AMI определяется по аналогии с скорректированным индексом Рэнда двух разных разделов набора.
Абсолютная взаимная информация
Используя идеи колмогоровской сложности , можно рассматривать взаимную информацию двух последовательностей независимо от какого-либо распределения вероятностей:
В отличие от коэффициентов корреляции, таких как коэффициент корреляции момента произведения , взаимная информация содержит информацию обо всех зависимостях — линейных и нелинейных, а не только о линейной зависимости, как измеряет коэффициент корреляции. Однако в узком случае, когда совместное распределение для и представляет собой двумерное нормальное распределение (подразумевается, в частности, что оба маргинальных распределения нормально распределены), существует точная связь между и коэффициентом корреляции (Гельфанд и Яглом, 1957).
Приведенное выше уравнение для двумерной гауссианы можно вывести следующим образом:
Поэтому,
Для дискретных данных
Когда и ограничены дискретным числом состояний, данные наблюдения суммируются в таблице сопряженности с переменной строки (или ) и переменной столбца (или ). Взаимная информация — это одна из мер связи или корреляции между переменными строки и столбца.
Другие меры связи включают статистику критерия хи-квадрат Пирсона , статистику G-теста и т. д. Фактически, при той же логарифмической базе взаимная информация будет равна логарифмической статистике правдоподобия G-теста, разделенной на , где - размер выборки .
Приложения
Во многих приложениях требуется максимизировать взаимную информацию (таким образом увеличивая зависимости), что часто эквивалентно минимизации условной энтропии . Примеры включают в себя:
В технологии поисковых систем взаимная информация между фразами и контекстами используется как функция кластеризации k-средних для обнаружения семантических кластеров (понятий). [31] Например, взаимная информация биграммы может быть рассчитана как:
где — сколько раз биграмма xy появляется в корпусе, — сколько раз униграмма x появляется в корпусе, B — общее количество биграмм, а U — общее количество униграмм. [31]
Взаимная информация используется для определения сходства двух разных кластеризаций набора данных. Таким образом, он дает некоторые преимущества перед традиционным индексом Рэнда .
Взаимная информация слов часто используется как функция значимости для вычисления словосочетаний в корпусной лингвистике . Это имеет дополнительную сложность, поскольку ни один экземпляр слова не является экземпляром двух разных слов; скорее, подсчитываются случаи, когда два слова встречаются рядом или в непосредственной близости; это немного усложняет расчет, поскольку ожидаемая вероятность появления одного слова внутри слов другого возрастает с увеличением
Взаимная информация используется в медицинской визуализации для регистрации изображений . Учитывая эталонное изображение (например, сканирование мозга) и второе изображение, которое необходимо поместить в ту же систему координат, что и эталонное изображение, это изображение деформируется до тех пор, пока взаимная информация между ним и эталонным изображением не будет максимальной.
В статистической механике парадокс Лошмидта может быть выражен в терминах взаимной информации. [32] [33] Лошмидт отметил, что невозможно определить физический закон, которому не хватает симметрии обращения времени (например, второй закон термодинамики ) только из физических законов, обладающих этой симметрией. Он отметил, что H-теорема Больцмана предполагает, что скорости частиц в газе постоянно некоррелированы, что устраняет временную симметрию, присущую H-теореме . Можно показать, что если система описывается плотностью вероятности в фазовом пространстве , то теорема Лиувилля подразумевает, что совместная информация (отрицательная от совместной энтропии) распределения остается постоянной во времени. Совместная информация равна взаимной информации плюс сумме всей предельной информации (отрицательной от предельной энтропии) для каждой координаты частицы. Предположение Больцмана сводится к игнорированию взаимной информации при вычислении энтропии, что дает термодинамическую энтропию (деленную на константу Больцмана).
В случайных процессах , связанных с изменением окружающей среды, взаимная информация может использоваться для распутывания внутренних и эффективных зависимостей от окружающей среды. [34] [35] Это особенно полезно, когда физическая система претерпевает изменения в параметрах, описывающих ее динамику, например, изменения температуры.
Взаимная информация используется для изучения структуры байесовских сетей / динамических байесовских сетей , которая, как считается, объясняет причинно-следственную связь между случайными величинами, на примере набора инструментов GlobalMIT: [36] изучение глобально оптимальной динамической байесовской сети с помощью взаимной информации. Критерий испытания.
Взаимная информация используется для количественной оценки информации, передаваемой во время процедуры обновления в алгоритме выборки Гиббса . [37]
Взаимная информация используется в космологии для проверки влияния крупномасштабной среды на свойства галактик в Галактическом зоопарке .
Взаимная информация использовалась в физике Солнца для получения профиля дифференциального вращения Солнца , карты отклонения времени пробега солнечных пятен и диаграммы время-расстояние на основе измерений спокойного Солнца [38]
Используется в кластеризации инвариантной информации для автоматического обучения классификаторов нейронных сетей и сегментаторов изображений при отсутствии помеченных данных. [39]
^ Обложка, Томас М.; Томас, Джой А. (2005). Элементы теории информации (PDF) . John Wiley & Sons, Ltd., стр. 13–55. ISBN 9780471748823.
^ Крир, JG (1957). «Вопрос терминологии». IRE Транзакции по теории информации . 3 (3): 208. doi :10.1109/TIT.1957.1057418.
^ abc Cover, TM; Томас, Дж. А. (1991). Элементы теории информации (изд. Уайли). Джон Уайли и сыновья. ISBN978-0-471-24195-9.
^ Янссен, Джозеф; Гуан, Винсент; Робева, Элина (2023). «Сверхпредельная важность функций: обучение на данных с причинно-следственными гарантиями». Международная конференция по искусственному интеллекту и статистике : 10782–10814. arXiv : 2204.09938 .
^ Вулперт, Д.Х.; Вольф, ДР (1995). «Оценочные функции вероятностных распределений по конечному набору выборок». Физический обзор E . 52 (6): 6841–6854. Бибкод : 1995PhRvE..52.6841W. CiteSeerX 10.1.1.55.7122 . doi : 10.1103/PhysRevE.52.6841. PMID 9964199. S2CID 9795679.
^ Хаттер, М. (2001). «Распространение взаимной информации». Достижения в области нейронных систем обработки информации .
^ Арчер, Э.; Парк, ИМ; Подушка, Дж. (2013). «Байесовские и квазибайесовские средства оценки взаимной информации из дискретных данных». Энтропия . 15 (12): 1738–1755. Бибкод : 2013Entrp..15.1738A. CiteSeerX 10.1.1.294.4690 . дои : 10.3390/e15051738 .
^ Красков, Александр; Стёгбауэр, Харальд; Анджейак, Ральф Г.; Грассбергер, Питер (2003). «Иерархическая кластеризация на основе взаимной информации». arXiv : q-bio/0311039 . Бибкод : 2003q.bio....11039K.{{cite journal}}: Требуется цитировать журнал |journal=( помощь )
^ Райски, К. (1961). «Метрическое пространство дискретных распределений вероятностей». Информация и контроль . 4 (4): 371–377. дои : 10.1016/S0019-9958(61)80055-7.
^ Бреннер, Н.; Стронг, С.; Коберле, Р.; Бялек, В. (2000). «Синергия в нейронном коде». Нейронный компьютер . 12 (7): 1531–1552. дои : 10.1162/089976600300015259. PMID 10935917. S2CID 600528.
^ Уоткинсон, Дж.; Лян, К.; Ван, X.; Чжэн, Т.; Анастасиу, Д. (2009). «Вывод о регуляторных взаимодействиях генов на основе данных экспрессии с использованием трехсторонней взаимной информации». Чэлл. Сист. Биол. Анна. Н-Й акад. Наука . 1158 (1): 302–313. Бибкод : 2009NYASA1158..302W. дои : 10.1111/j.1749-6632.2008.03757.x. PMID 19348651. S2CID 8846229.
^ аб Тапиа, М.; Бодо, П.; Формизано-Трезины, К.; Дюфур, М.; Гоайяр, JM (2018). «Идентичность нейротрансмиттера и электрофизиологический фенотип генетически связаны в дофаминергических нейронах среднего мозга». наук. Представитель . 8 (1): 13637. Бибкод : 2018NatSR...813637T. doi : 10.1038/s41598-018-31765-z. ПМК 6134142 . ПМИД 30206240.
^ Хагигат, MBA; Агаголзаде, А.; Сейедараби, Х. (2011). «Неэталонный показатель объединения изображений, основанный на взаимной информации об особенностях изображения». Компьютеры и электротехника . 37 (5): 744–756. doi : 10.1016/j.compeleceng.2011.07.012. S2CID 7738541.
^ «Метрика взаимной информации о функциях (FMI) для слияния неэталонных изображений — обмен файлами — MATLAB Central» . www.mathworks.com . Проверено 4 апреля 2018 г.
^ «InfoTopo: Анализ данных топологической информации. Глубокое статистическое обучение без и с учителем — Обмен файлами — Github» . github.com/pierrebaudot/infotopopy/ . Проверено 26 сентября 2020 г.
^ Мэсси, Джеймс (1990). «Причинность, обратная связь и направленная информация». Учеб. 1990 Международный. Симп. на Инфо. Т.е. и его приложения, Вайкики, Гавайи, 27-30 ноября 1990 г. CiteSeerX 10.1.1.36.5688 .
^ Пермутер, Хаим Генри; Вайсман, Цахи; Голдсмит, Андреа Дж. (февраль 2009 г.). «Каналы конечных состояний с инвариантной во времени детерминированной обратной связью». Транзакции IEEE по теории информации . 55 (2): 644–662. arXiv : cs/0608070 . дои : 10.1109/TIT.2008.2009849. S2CID 13178.
^ Кумбс, Дауэс и Тверски 1970.
^ ab Press, WH; Теукольский, С.А.; Феттерлинг, WT; Фланнери, BP (2007). «Раздел 14.7.3. Условная энтропия и взаимная информация». Численные рецепты: искусство научных вычислений (3-е изд.). Нью-Йорк: Издательство Кембриджского университета. ISBN978-0-521-88068-8. Архивировано из оригинала 11 августа 2011 г. Проверено 13 августа 2011 г.
^ Уайт, Джим; Стейнгольд, Сэм; Фурнель, Конни. Показатели производительности алгоритмов группового обнаружения (PDF) . Интерфейс 2004. Архивировано из оригинала (PDF) 5 июля 2016 г. Проверено 19 февраля 2014 г.
^ Виджая, Деди Рахман; Сарно, Рианарто; Зулайка, Энни (2017). «Коэффициент качества информации как новый показатель для выбора исходного вейвлета». Хемометрика и интеллектуальные лабораторные системы . 160 : 59–71. doi : 10.1016/j.chemolab.2016.11.012.
^ Стрел, Александр; Гош, Джойдип (2003). «Кластерные ансамбли — структура повторного использования знаний для объединения нескольких разделов» (PDF) . Журнал исследований машинного обучения . 3 : 583–617. дои : 10.1162/153244303321897735.
^ Кволсет, Т.О. (1991). «Относительная мера полезной информации: некоторые комментарии». Информационные науки . 56 (1): 35–38. дои : 10.1016/0020-0255(91)90022-м.
^ Покок, А. (2012). Выбор функций с помощью совместного правдоподобия (PDF) (Диссертация).
^ ab Анализ естественного языка с использованием статистики взаимной информации Дэвида М. Магермана и Митчелла П. Маркуса
^ Эверетт, Хью (1957). «Формулировка относительного состояния квантовой механики». Обзоры современной физики . 29 (3): 454–462. Бибкод : 1957RvMP...29..454E. doi : 10.1103/revmodphys.29.454. Архивировано из оригинала 27 октября 2011 г. Проверено 16 июля 2012 г.
^ Николетти, Джорджио; Бузиелло, Даниэль Мария (22 ноября 2021 г.). «Взаимная информация отделяет взаимодействие от меняющейся среды». Письма о физических отзывах . 127 (22): 228301. arXiv : 2107.08985 . Бибкод : 2021PhRvL.127v8301N. doi : 10.1103/PhysRevLett.127.228301. PMID 34889638. S2CID 236087228.
^ Николетти, Джорджио; Бузиелло, Даниэль Мария (29 июля 2022 г.). «Взаимная информация в изменяющейся среде: нелинейные взаимодействия, неравновесные системы и постоянно меняющаяся диффузия». Физический обзор E . 106 (1): 014153. arXiv : 2204.01644 . doi : 10.1103/PhysRevE.106.014153.
^ Ли, Се Юн (2021). «Сэмплер Гиббса и вариационный вывод по координатному восхождению: теоретико-множественный обзор». Коммуникации в статистике - теория и методы . 51 (6): 1549–1568. arXiv : 2008.01006 . дои : 10.1080/03610926.2021.1921214. S2CID 220935477.
^ Киз, Дастин; Холиков, Шукур; Певцов, Алексей А. (февраль 2015 г.). «Применение методов взаимной информации в дистанционной гелиосейсмологии». Солнечная физика . 290 (3): 659–671. arXiv : 1501.05597 . Бибкод : 2015SoPh..290..659K. дои : 10.1007/s11207-015-0650-y. S2CID 118472242.
^ Инвариантная кластеризация информации для неконтролируемой классификации и сегментации изображений, авторы Сюй Цзи, Жоао Энрикес и Андреа Ведальди.
Чилибрази, Р.; Витаньи, Пол (2005). «Кластеризация путем сжатия» (PDF) . Транзакции IEEE по теории информации . 51 (4): 1523–1545. arXiv : cs/0312044 . дои : 10.1109/TIT.2005.844059. S2CID 911.
Кронбах, ЖЖ (1954). «О нерациональном применении информационных мер в психологии». В Квастлере, Генри (ред.). Теория информации в психологии: проблемы и методы . Гленко, Иллинойс: Свободная пресса. стр. 14–30.
Черч, Кеннет Уорд; Хэнкс, Патрик (1989). «Нормы словесных ассоциаций, взаимная информация и лексикография». Материалы 27-го ежегодного собрания Ассоциации компьютерной лингвистики . 16 (1): 76–83. дои : 10.3115/981623.981633 .
Гельфанд, И.М.; Яглом, А.М. (1957). «Вычисление количества информации о случайной функции, содержащейся в другой такой же функции». Переводы Американского математического общества . Серия 2. 12 : 199–246. дои : 10.1090/trans2/012/09. ISBN 9780821817124.Английский перевод оригинала в Успехах математических наук 12 (1): 3-52.
Гуиасу, Сильвиу (1977). Теория информации с приложениями . МакГроу-Хилл, Нью-Йорк. ISBN 978-0-07-025109-0.
Ли, Мин; Витаньи, Пол (февраль 1997 г.). Введение в колмогоровскую сложность и ее приложения . Нью-Йорк: Springer-Verlag . ISBN 978-0-387-94868-3.
Локхед, Греция (1970). «Идентификация и форма многомерного дискриминационного пространства». Журнал экспериментальной психологии . 85 (1): 1–10. дои : 10.1037/h0029508. ПМИД 5458322.
Дэвид Дж. К. Маккей. Теория информации, вывод и алгоритмы обучения Кембридж: Издательство Кембриджского университета, 2003. ISBN 0-521-64298-1 (доступно бесплатно в Интернете)
Хагигат, MBA; Агаголзаде, А.; Сейедараби, Х. (2011). «Неэталонный показатель объединения изображений, основанный на взаимной информации об особенностях изображения». Компьютеры и электротехника . 37 (5): 744–756. doi : 10.1016/j.compeleceng.2011.07.012. S2CID 7738541.
Афанасиос Папулис . Вероятность, случайные величины и случайные процессы , второе издание. Нью-Йорк: McGraw-Hill, 1984. (См. главу 15.)
Виттен, Ян Х. и Франк, Эйбе (2005). Интеллектуальный анализ данных: практические инструменты и методы машинного обучения. Морган Кауфманн, Амстердам. ISBN 978-0-12-374856-0.
Пэн, ХК; Лонг, Ф. и Дин, К. (2005). «Выбор функций на основе взаимной информации: критерии максимальной зависимости, максимальной релевантности и минимальной избыточности». Транзакции IEEE по анализу шаблонов и машинному интеллекту . 27 (8): 1226–1238. CiteSeerX 10.1.1.63.5765 . дои : 10.1109/tpami.2005.159. PMID 16119262. S2CID 206764015.
Андре С. Рибейро; Стюарт А. Кауфман; Джейсон Ллойд-Прайс; Бьорн Самуэльссон и Джошуа Соколар (2008). «Взаимная информация в случайных логических моделях регулирующих сетей». Физический обзор E . 77 (1): 011901. arXiv : 0707.3642 . Бибкод : 2008PhRvE..77a1901R. doi : 10.1103/physreve.77.011901. PMID 18351870. S2CID 15232112.
Уэллс, WM III; Виола, П.; Ацуми, Х.; Накадзима, С.; Кикинис, Р. (1996). «Мультимодальная регистрация объемов путем максимизации взаимной информации» (PDF) . Анализ медицинских изображений . 1 (1): 35–51. дои : 10.1016/S1361-8415(01)80004-9. PMID 9873920. Архивировано из оригинала (PDF) 6 сентября 2008 г. Проверено 5 августа 2010 г.
Пандей, Бисваджит; Саркар, Суман (2017). «Как много галактика знает о своей крупномасштабной среде?: Теоретико-информационный взгляд». Ежемесячные уведомления о письмах Королевского астрономического общества . 467 (1): Л6. arXiv : 1611.00283 . Бибкод : 2017MNRAS.467L...6P. doi : 10.1093/mnrasl/slw250. S2CID 119095496.
Янссен, Джозеф; Гуан, Винсент; Робева, Элина (2023). «Сверхпредельная важность функций: обучение на данных с причинно-следственными гарантиями». Международная конференция по искусственному интеллекту и статистике : 10782–10814.