В теории информации предельная плотность дискретных точек является корректировкой формулы Клода Шеннона для дифференциальной энтропии .
Он был сформулирован Эдвином Томпсоном Джейнсом для устранения недостатков первоначального определения дифференциальной энтропии.
Первоначально Шеннон записал следующую формулу для энтропии непрерывного распределения, известной как дифференциальная энтропия :
Однако, в отличие от формулы Шеннона для дискретной энтропии, это не результат какого-либо вывода (Шеннон просто заменил символ суммирования в дискретной версии на интеграл), и в ней отсутствуют многие свойства, которые делают дискретную энтропию полезной мерой неопределенности. В частности, она не инвариантна относительно замены переменных и может стать отрицательной. Кроме того, она даже не является размерно корректной. Поскольку будет безразмерной, должна иметь единицы измерения , что означает, что аргумент логарифма не является безразмерным, как требуется.
Джейнс утверждал, что формула для непрерывной энтропии должна быть выведена путем взятия предела все более плотных дискретных распределений. [1] [2] Предположим, что у нас есть набор дискретных точек , такой, что в пределе их плотность приближается к функции, называемой «инвариантной мерой»:
Джейнс вывел из этого следующую формулу для непрерывной энтропии, которую, по его мнению, следует считать правильной:
Обычно, когда это написано, термин опускается, так как он обычно не является конечным. Так что фактическое общее определение таково
Если неясно, следует ли опускать термин, можно написать
Обратите внимание, что в формуле Джейнса — это плотность вероятности. Для любого конечного [ необходимо дополнительное объяснение ] — это равномерная плотность по квантованию непрерывного пространства, которое используется в сумме Римана. В пределе — это непрерывная предельная плотность точек в квантовании, используемом для представления непрерывной переменной .
Предположим, что у нас есть числовой формат, который принимает возможные значения, распределенные как по . Тогда (если достаточно велико, чтобы непрерывное приближение было действительным) — это дискретная энтропия переменной в этой кодировке. Это равно среднему числу бит, необходимых для передачи этой информации, и не больше, чем . Следовательно, можно рассматривать как количество информации, полученной благодаря знанию того, что переменная следует распределению , а не равномерно распределена по возможным квантованным значениям, как было бы в случае, если бы она следовала . на самом деле является (отрицательным) расхождением Кульбака–Лейблера от до , которое рассматривается как информация, полученная благодаря изучению того, что переменная, которая ранее считалась распределенной как , на самом деле распределена как .
Формула непрерывной энтропии Джейнса обладает свойством инвариантности относительно замены переменных, при условии, что и преобразуются одинаково. (Это мотивирует название «инвариантная мера» для m .) Это решает многие трудности, возникающие при применении формулы непрерывной энтропии Шеннона. Сам Джейнс отбросил этот член, поскольку он не имел отношения к его работе (максимальные распределения энтропии), и несколько неудобно иметь бесконечный член в расчетах. К сожалению, это невозможно исправить, если квантование сделано произвольно тонким, как это было бы в случае непрерывного предела. Обратите внимание, что как определено здесь (без члена), всегда будет неположительным, потому что расхождение KL всегда будет неотрицательным.
Если это тот случай, когда величина постоянна в некотором интервале размеров и практически равна нулю за пределами этого интервала, то предельная плотность дискретных точек (LDDP) тесно связана с дифференциальной энтропией :