stringtranslate.com

Двоичная функция энтропии

Энтропия испытания Бернуллишеннонах ) как функция вероятности двоичного исхода, называемая функцией двоичной энтропии .

В теории информации бинарная энтропийная функция , обозначаемая или , определяется как энтропия процесса Бернулли ( бинарная переменная iid ) с вероятностью одного из двух значений и задается формулой:

Основание логарифма соответствует выбору единиц информации ; основание e соответствует натам и является математически удобным, в то время как основание 2 ( двоичный логарифм ) соответствует шеннонам и является общепринятым (как показано на графике); в явном виде:

Обратите внимание, что значения 0 и 1 задаются пределом (по правилу Лопиталя ); и что «двоичный» относится к двум возможным значениям переменной, а не к единицам информации.

Когда , функция двоичной энтропии достигает своего максимального значения, 1 шеннон (1 двоичная единица информации); это случай непредвзятого подбрасывания монеты . Когда или , двоичная энтропия равна 0 (в любых единицах), что соответствует отсутствию информации, поскольку нет неопределенности в переменной.

Обозначение

Двоичная энтропия является частным случаем , энтропийной функции . отличается от энтропийной функции тем, что первая принимает в качестве параметра одно действительное число, тогда как вторая принимает в качестве параметра распределение или случайную величину. Таким образом, двоичная энтропия (от p ) является энтропией распределения , поэтому .

Записывая вероятность того, что каждое из двух значений будет p и q , то есть и , это соответствует

Иногда бинарную функцию энтропии также записывают как . Однако она отличается от энтропии Реньи и ее не следует путать с ней , которая обозначается как .

Объяснение

С точки зрения теории информации энтропия считается мерой неопределенности в сообщении. Если говорить интуитивно, предположим, что . При этой вероятности событие наверняка никогда не произойдет, и поэтому неопределенности нет вообще, что приводит к энтропии 0. Если , результат снова определен, поэтому энтропия здесь также равна 0. Когда , неопределенность максимальна; если бы кто-то сделал честную ставку на результат в этом случае, то нет никакого преимущества, которое можно было бы получить с предварительным знанием вероятностей. В этом случае энтропия максимальна при значении 1 бит. Промежуточные значения находятся между этими случаями; например, если , все еще есть мера неопределенности в результате, но можно все еще предсказать результат правильно чаще, чем нет, поэтому мера неопределенности, или энтропия, меньше 1 полного бита.

Характеристики

Производный

Производную функции бинарной энтропии можно выразить как отрицательную функцию логита :

.

Выпуклый сопряженный

Выпуклое сопряжение (в частности, преобразование Лежандра ) бинарной энтропии (с основанием e ) является отрицательной функцией softplus . Это происходит потому, что (следуя определению преобразования Лежандра: производные являются обратными функциями) производная отрицательной бинарной энтропии является логитом, обратная функция которого является логистической функцией , которая является производной softplus.

Softplus можно интерпретировать как логистические потери , поэтому по двойственности минимизация логистических потерь соответствует максимизации энтропии. Это оправдывает принцип максимальной энтропии как минимизации потерь.

ряд Тейлора

Ряд Тейлора двоичной функции энтропии при 1/2 равен

которая сходится к двоичной функции энтропии для всех значений .

Границы

Для справедливы следующие оценки : [1]

и

где обозначает натуральный логарифм.

Смотрите также

Ссылки

  1. ^ Топсе, Флемминг (2001). «Границы энтропии и расходимости распределений по двухэлементному множеству». JIPAM. Журнал неравенств в чистой и прикладной математике . 2 (2): Статья № 25, 13 стр.- Статья № 25, 13 стр.

Дальнейшее чтение