stringtranslate.com

Условная энтропия

Диаграмма Венна , показывающая аддитивные и вычитающие отношения различных информационных мер , связанных с коррелирующими переменными и . Площадь, содержащаяся в обоих кругах, представляет собой совместную энтропию . Круг слева (красный и фиолетовый) — это индивидуальная энтропия , красный — условная энтропия . Круг справа (синий и фиолетовый) — , а синий — . Фиолетовый цвет – это взаимная информация .

В теории информации условная энтропия определяет количество информации, необходимой для описания результата случайной величины , при условии, что известно значение другой случайной величины . Здесь информация измеряется в Шеннонах , Натсах или Хартли . Энтропия обусловленного состояния записывается как .

Определение

Условная энтропия данного определяется как

где и обозначают опорные множества и .

Примечание. Здесь принято соглашение, что выражение следует рассматривать как равное нулю. Это потому что . [1]

Интуитивно заметим, что по определению ожидаемого значения и условной вероятности можно записать как , где определяется как . Можно думать, что каждая пара связана с величиной, измеряющей информационное содержание данного . Эта величина напрямую связана с количеством информации, необходимой для описания данного события . Следовательно, вычисляя ожидаемое значение по всем парам значений , условная энтропия измеряет, сколько информации в среднем кодирует переменная о .

Мотивация

Пусть – энтропия дискретной случайной величины, обусловленная тем, что дискретная случайная величина принимает определенное значение . Обозначим опорные множества и через и . Пусть есть функция массы вероятности . Безусловная энтропия рассчитывается как , т.е.

где – информативность результата принятия значения . _ Энтропия условия принятия значения определяется аналогично условному ожиданию :

Обратите внимание, что это результат усреднения всех возможных значений , которые могут приниматься. Кроме того, если приведенная выше сумма взята для выборки , ожидаемое значение известно в некоторых областях какдвусмысленность .[2]

Учитывая дискретные случайные величины с изображением и с изображением , условная энтропия заданных определяется как взвешенная сумма для каждого возможного значения с использованием в качестве весов: [3] : 15 

Характеристики

Условная энтропия равна нулю

тогда и только тогда, когда значение полностью определяется значением .

Условная энтропия независимых случайных величин

И наоборот, тогда и только тогда, когда и являются независимыми случайными величинами .

Правило цепи

Предположим, что объединенная система определяется двумя случайными величинами и имеет совместную энтропию , то есть нам нужны в среднем биты информации для описания ее точного состояния. Теперь, если мы сначала узнаем значение , мы получим немного информации. Если оно известно, нам нужны только биты, чтобы описать состояние всей системы. Эта величина равна в точности , что дает цепное правило условной энтропии:

[3] : 17 

Цепное правило следует из приведенного выше определения условной энтропии:

В общем случае действует цепное правило для нескольких случайных величин:

[3] : 22 

Оно имеет форму, аналогичную цепному правилу в теории вероятностей, за исключением того, что вместо умножения используется сложение.

Правило Байеса

Правило Байеса для состояний условной энтропии

Доказательство. и . Симметрия предполагает . Вычитание двух уравнений подразумевает правило Байеса.

Если условно независимо от данного , то имеем:

Другие объекты недвижимости

Для любого и :

где взаимная информация между и .

Для независимых и :

и

Хотя конкретно-условная энтропия может быть как меньше, так и больше, чем для данной случайной величины , она никогда не может превышать .

Условная дифференциальная энтропия

Определение

Приведенное выше определение относится к дискретным случайным величинам. Непрерывная версия дискретной условной энтропии называется условной дифференциальной (или непрерывной) энтропией . Пусть и — непрерывная случайная величина с совместной функцией плотности вероятности . Дифференциальная условная энтропия определяется как [3] : 249 

Характеристики

В отличие от условной энтропии для дискретных случайных величин, условная дифференциальная энтропия может быть отрицательной.

Как и в дискретном случае, существует цепное правило для дифференциальной энтропии:

[3] : 253 

Однако обратите внимание, что это правило может быть неверным, если задействованная дифференциальная энтропия не существует или бесконечна.

Совместная дифференциальная энтропия также используется при определении взаимной информации между непрерывными случайными величинами:

с равенством тогда и только тогда, когда и независимы. [3] : 253 

Связь с ошибкой оценщика

Условная дифференциальная энтропия дает нижнюю границу ожидаемой квадратичной ошибки оценщика . Для любой случайной величины , наблюдения и оценки справедливо следующее: [3] : 255 

Это связано с принципом неопределенности из квантовой механики .

Обобщение на квантовую теорию

В квантовой теории информации условная энтропия обобщается до условной квантовой энтропии . Последний может принимать отрицательные значения, в отличие от своего классического аналога.

Смотрите также

Рекомендации

  1. ^ «Дэвид Маккей: Теория информации, распознавание образов и нейронные сети: Книга» . www.inference.org.uk . Проверено 25 октября 2019 г.
  2. ^ Хеллман, М.; Равив, Дж. (1970). «Вероятность ошибки, двусмысленность и граница Чернова». Транзакции IEEE по теории информации . 16 (4): 368–372. CiteSeerX 10.1.1.131.2865 . дои : 10.1109/TIT.1970.1054466. 
  3. ^ abcdefg Т. Обложка ; Дж. Томас (1991). Элементы теории информации . Уайли. ISBN 0-471-06259-6.