stringtranslate.com

Совместная энтропия

Вводящая в заблуждение [1] диаграмма Венна , показывающая аддитивные и субтрактивные отношения между различными информационными мерами , связанными с коррелирующими переменными X и Y. Область, содержащаяся в обоих кругах, представляет собой совместную энтропию H (X, Y). Круг слева (красный и фиолетовый) — это индивидуальная энтропия H(X), а красный — условная энтропия H(X|Y). Круг справа (синий и фиолетовый) — это H(Y), синий — H(Y|X). Фиолетовый — это взаимная информация I(X;Y).

В теории информации совместная энтропия является мерой неопределенности, связанной с набором переменных . [2]

Определение

Совместная энтропия Шеннонабитах ) двух дискретных случайных величин и изображений определяется как [3] : 16  .

где и - частные значения и , соответственно, - совместная вероятность того, что эти значения встречаются вместе, и определяется как 0, если .

Для более чем двух случайных величин это расширяется до

где - конкретные значения соответственно, - это вероятность того, что эти значения встречаются вместе, и определяется как 0, если .

Характеристики

Неотрицательность

Совместная энтропия набора случайных величин является неотрицательным числом.

Больше, чем индивидуальная энтропия

Совместная энтропия набора переменных больше или равна максимуму всех отдельных энтропий переменных в наборе.

Меньше или равно сумме индивидуальных энтропий

Совместная энтропия набора переменных меньше или равна сумме отдельных энтропий переменных в наборе. Это пример субаддитивности . Это неравенство является равенством тогда и только тогда, когда и статистически независимы . [3] : 30 

Связь с другими мерами энтропии

Совместная энтропия используется в определении условной энтропии [3] : 22 

,

и

взаимной информации [3] : 21. 

В квантовой теории информации совместная энтропия обобщается в совместную квантовую энтропию .

Совместная дифференциальная энтропия

Определение

Приведенное выше определение относится к дискретным случайным величинам и так же справедливо и в случае непрерывных случайных величин. Непрерывная версия дискретной совместной энтропии называется совместной дифференциальной (или непрерывной) энтропией . Пусть и — непрерывная случайная величина с совместной функцией плотности вероятности . Дифференциальная совместная энтропия определяется как [3] : 249. 

Для более чем двух непрерывных случайных величин определение обобщается до:

Интеграл берется по носителю . Возможно, что интеграл не существует, и в этом случае мы говорим, что дифференциальная энтропия не определена.

Характеристики

Как и в дискретном случае, совместная дифференциальная энтропия набора случайных величин меньше или равна сумме энтропий отдельных случайных величин:

[3] : 253 

Следующее цепное правило справедливо для двух случайных величин:

В случае более чем двух случайных величин это обобщается до: [3] : 253 

Совместная дифференциальная энтропия также используется при определении взаимной информации между непрерывными случайными величинами:

Рекомендации

  1. ^ DJC Маккей (2003). Теория информации, выводы и алгоритмы обучения . Бибкод : 2003itil.book.....М.: 141 
  2. ^ Тереза ​​М. Корн ; Корн, Гранино Артур (январь 2000 г.). Математический справочник для ученых и инженеров: определения, теоремы и формулы для справки и обзора . Нью-Йорк: Dover Publications. ISBN 0-486-41147-8.
  3. ^ abcdefg Томас М. Обложка; Джой А. Томас (18 июля 2006 г.). Элементы теории информации . Хобокен, Нью-Джерси: Уайли. ISBN 0-471-24195-4.