Мера относительной информации в теории вероятностей
В теории информации условная энтропия количественно определяет объем информации, необходимой для описания результата случайной величины при условии, что значение другой случайной величины известно. Здесь информация измеряется в шеннонах , натах или хартли . Энтропия обусловленной записывается как .
Примечание: Здесь принято, что выражение следует рассматривать как равное нулю. Это потому , что . [1]
Интуитивно, обратите внимание, что по определению ожидаемого значения и условной вероятности , можно записать как , где определяется как . Можно думать о том, что каждая пара связана с величиной, измеряющей информационное содержание данного . Эта величина напрямую связана с количеством информации, необходимой для описания данного события . Следовательно, вычисляя ожидаемое значение по всем парам значений , условная энтропия измеряет, сколько информации в среднем кодирует переменная о .
Мотивация
Пусть будет энтропией дискретной случайной величины, обусловленной тем, что дискретная случайная величина принимает определенное значение . Обозначим опорные множества и через и . Пусть имеет функцию массы вероятности . Безусловная энтропия вычисляется как , т.е.
Обратите внимание, что это результат усреднения по всем возможным значениям, которые могут быть. Кроме того, если указанная выше сумма берется по выборке , ожидаемое значение известно в некоторых областях какдвусмысленность .[2]
При наличии дискретных случайных величин с изображением и с изображением условная энтропия заданной определяется как взвешенная сумма для каждого возможного значения , используя в качестве весов: [3] : 15
Характеристики
Условная энтропия равна нулю
тогда и только тогда, когда значение полностью определяется значением .
Предположим, что объединенная система определяется двумя случайными величинами и имеет совместную энтропию , то есть нам нужно бит информации в среднем для описания ее точного состояния. Теперь, если мы сначала узнаем значение , мы получим бит информации. Как только будет известно , нам понадобятся только биты для описания состояния всей системы. Эта величина равна в точности , что дает цепное правило условной энтропии:
[3] : 17
Правило цепочки следует из приведенного выше определения условной энтропии:
В общем случае справедливо цепное правило для нескольких случайных величин:
[3] : 22
По форме оно похоже на цепное правило в теории вероятностей, за исключением того, что вместо умножения используется сложение.
Хотя удельная условная энтропия может быть как меньше, так и больше для заданной случайной величины , она никогда не может превышать .
Условная дифференциальная энтропия
Определение
Вышеприведенное определение относится к дискретным случайным величинам. Непрерывная версия дискретной условной энтропии называется условной дифференциальной (или непрерывной) энтропией . Пусть и будут непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная условная энтропия определяется как [3] : 249
Характеристики
В отличие от условной энтропии для дискретных случайных величин, условная дифференциальная энтропия может быть отрицательной.
Как и в дискретном случае, для дифференциальной энтропии существует цепное правило:
[3] : 253
Однако следует отметить, что это правило может быть неверным, если соответствующие дифференциальные энтропии не существуют или бесконечны.
Совместная дифференциальная энтропия также используется при определении взаимной информации между непрерывными случайными величинами:
с равенством тогда и только тогда , когда и независимы. [3] : 253
Отношение к ошибке оценки
Условная дифференциальная энтропия дает нижнюю границу ожидаемой квадратичной ошибки оценщика . Для любой случайной величины , наблюдения и оценщика справедливо следующее: [3] : 255
^ "Дэвид Маккей: Теория информации, распознавание образов и нейронные сети: Книга". www.inference.org.uk . Получено 25.10.2019 .
^ Хеллман, М.; Равив, Дж. (1970). «Вероятность ошибки, неопределенность и граница Чернова». Труды IEEE по теории информации . 16 (4): 368–372. CiteSeerX 10.1.1.131.2865 . doi :10.1109/TIT.1970.1054466.
^ abcdefg T. Cover ; J. Thomas (1991). Элементы теории информации . Wiley. ISBN0-471-06259-6.