stringtranslate.com

Условная энтропия

Диаграмма Венна, показывающая аддитивные и субтрактивные отношения различных мер информации , связанных с коррелированными переменными и . Площадь, охватываемая обоими кругами, представляет собой совместную энтропию . Круг слева (красный и фиолетовый) представляет собой индивидуальную энтропию , причем красный является условной энтропией . Круг справа (синий и фиолетовый) представляет собой , причем синий является . Фиолетовый является взаимной информацией .

В теории информации условная энтропия количественно определяет объем информации, необходимой для описания результата случайной величины при условии, что значение другой случайной величины известно. Здесь информация измеряется в шеннонах , натах или хартли . Энтропия обусловленной записывается как .

Определение

Условная энтропия задана определяется как

где и обозначают опорные множества и .

Примечание: Здесь принято, что выражение следует рассматривать как равное нулю. Это потому , что . [1]

Интуитивно, обратите внимание, что по определению ожидаемого значения и условной вероятности , можно записать как , где определяется как . Можно думать о том, что каждая пара связана с величиной, измеряющей информационное содержание данного . Эта величина напрямую связана с количеством информации, необходимой для описания данного события . Следовательно, вычисляя ожидаемое значение по всем парам значений , условная энтропия измеряет, сколько информации в среднем кодирует переменная о .

Мотивация

Пусть будет энтропией дискретной случайной величины, обусловленной тем, что дискретная случайная величина принимает определенное значение . Обозначим опорные множества и через и . Пусть имеет функцию массы вероятности . Безусловная энтропия вычисляется как , т.е.

где - информационное содержание результата принятия значения . Энтропия обусловленного принятия значения определяется аналогично условным ожиданием :

Обратите внимание, что это результат усреднения по всем возможным значениям, которые могут быть. Кроме того, если указанная выше сумма берется по выборке , ожидаемое значение известно в некоторых областях какдвусмысленность .[2]

При наличии дискретных случайных величин с изображением и с изображением условная энтропия заданной определяется как взвешенная сумма для каждого возможного значения , используя в качестве весов: [3] : 15 

Характеристики

Условная энтропия равна нулю

тогда и только тогда, когда значение полностью определяется значением .

Условная энтропия независимых случайных величин

Наоборот, тогда и только тогда, когда и являются независимыми случайными величинами .

Правило цепочки

Предположим, что объединенная система определяется двумя случайными величинами и имеет совместную энтропию , то есть нам нужно бит информации в среднем для описания ее точного состояния. Теперь, если мы сначала узнаем значение , мы получим бит информации. Как только будет известно , нам понадобятся только биты для описания состояния всей системы. Эта величина равна в точности , что дает цепное правило условной энтропии:

[3] : 17 

Правило цепочки следует из приведенного выше определения условной энтропии:

В общем случае справедливо цепное правило для нескольких случайных величин:

[3] : 22 

По форме оно похоже на цепное правило в теории вероятностей, за исключением того, что вместо умножения используется сложение.

Правило Байеса

Правило Байеса для состояний условной энтропии

Доказательство. и . Симметрия влечет . Вычитание двух уравнений подразумевает правило Байеса.

Если условно независим от заданного, то имеем:

Другие свойства

Для любого и :

где взаимная информация между и .

Для независимых и :

и

Хотя удельная условная энтропия может быть как меньше, так и больше для заданной случайной величины , она никогда не может превышать .

Условная дифференциальная энтропия

Определение

Вышеприведенное определение относится к дискретным случайным величинам. Непрерывная версия дискретной условной энтропии называется условной дифференциальной (или непрерывной) энтропией . Пусть и будут непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная условная энтропия определяется как [3] : 249 

Характеристики

В отличие от условной энтропии для дискретных случайных величин, условная дифференциальная энтропия может быть отрицательной.

Как и в дискретном случае, для дифференциальной энтропии существует цепное правило:

[3] : 253 

Однако следует отметить, что это правило может быть неверным, если соответствующие дифференциальные энтропии не существуют или бесконечны.

Совместная дифференциальная энтропия также используется при определении взаимной информации между непрерывными случайными величинами:

с равенством тогда и только тогда , когда и независимы. [3] : 253 

Отношение к ошибке оценки

Условная дифференциальная энтропия дает нижнюю границу ожидаемой квадратичной ошибки оценщика . Для любой случайной величины , наблюдения и оценщика справедливо следующее: [3] : 255 

Это связано с принципом неопределенности квантовой механики .

Обобщение на квантовую теорию

В квантовой теории информации условная энтропия обобщается до условной квантовой энтропии . Последняя может принимать отрицательные значения, в отличие от своего классического аналога.

Смотрите также

Ссылки

  1. ^ "Дэвид Маккей: Теория информации, распознавание образов и нейронные сети: Книга". www.inference.org.uk . Получено 25.10.2019 .
  2. ^ Хеллман, М.; Равив, Дж. (1970). «Вероятность ошибки, неопределенность и граница Чернова». Труды IEEE по теории информации . 16 (4): 368–372. CiteSeerX 10.1.1.131.2865 . doi :10.1109/TIT.1970.1054466. 
  3. ^ abcdefg T. Cover ; J. Thomas (1991). Элементы теории информации . Wiley. ISBN 0-471-06259-6.