Математическая теория информации основана на теории вероятностей и статистике и измеряет информацию несколькими количествами информации . Выбор логарифмического основания в следующих формулах определяет единицу используемой информационной энтропии. Наиболее распространенной единицей информации является бит , или , правильнее, шеннон , [2] на основе двоичного логарифма . Хотя «бит» чаще используется вместо «шеннона», его название не отличается от бита , используемого в обработке данных для обозначения двоичного значения или потока независимо от его энтропии (содержания информации). Другие единицы включают nat , основанный на натуральном логарифме , и hartley , основанный на основании 10 или десятичном логарифме .
В дальнейшем выражение вида по соглашению считается равным нулю, когда равно нулю. Это оправдано, поскольку для любого логарифмического основания. [3]
Шеннон вывел меру информационного содержания, называемую самоинформацией или « неожиданностью» сообщения :
где - вероятность того, что сообщение будет выбрано из всех возможных вариантов в пространстве сообщений . Основание логарифма влияет только на масштабный коэффициент и, следовательно, на единицы, в которых выражается измеряемое информационное содержание. Если логарифм имеет основание 2, мера информации выражается в единицах шеннонов или чаще просто «битах» ( бит в других контекстах скорее определяется как «двоичная цифра», чье среднее информационное содержание не превышает 1 шеннона).
Информация из источника поступает к получателю только в том случае, если получатель изначально не имел этой информации. Сообщения, которые передают информацию об определенном (P=1) событии (или о том, которое известно наверняка , например, через обратный канал), не предоставляют никакой информации, как показывает приведенное выше уравнение. Редко встречающиеся сообщения содержат больше информации, чем более часто встречающиеся сообщения.
Можно также показать, что составное сообщение из двух (или более) не связанных между собой сообщений будет иметь количество информации, которое является суммой мер информации каждого сообщения в отдельности. Это можно вывести с помощью этого определения, рассматривая составное сообщение, предоставляющее информацию относительно значений двух случайных величин M и N, используя сообщение, которое является конкатенацией элементарных сообщений m и n , каждое из которых информационное содержание задается как и соответственно. Если сообщения m и n зависят только от M и N, а процессы M и N независимы , то поскольку (определение статистической независимости), из приведенного выше определения ясно, что .
Пример: Прогноз погоды: "Прогноз на сегодня: темно. Продолжающаяся темнота до широко рассеянного света утром". Это сообщение не содержит почти никакой информации. Однако прогноз снежной бури, безусловно, будет содержать информацию, поскольку она случается не каждый вечер. Еще больше информации будет в точном прогнозе снега для теплого места, например, Майами . Количество информации в прогнозе снега для места, где никогда не идет снег (невозможное событие), является самым высоким (бесконечность).
Энтропия дискретного пространства сообщений является мерой степени неопределенности относительно того , какое сообщение будет выбрано. Она определяется как средняя самоинформация сообщения из этого пространства сообщений:
где
Важным свойством энтропии является то, что она максимизируется, когда все сообщения в пространстве сообщений равновероятны (например, ). В этом случае .
Иногда функцию выражают через вероятности распределения:
Важным частным случаем этого является бинарная функция энтропии :
Совместная энтропия двух дискретных случайных величин и определяется как энтропия совместного распределения и :
Если и независимы , то совместная энтропия представляет собой просто сумму их индивидуальных энтропий.
(Примечание: совместную энтропию не следует путать с перекрестной энтропией , несмотря на схожие обозначения.)
При заданном значении случайной величины условная энтропия данной величины определяется как:
где — условная вероятность данного .
Условная энтропия данного , также называемая неопределенностью около , тогда определяется по формуле :
Здесь используется условное ожидание из теории вероятностей.
Основное свойство условной энтропии заключается в том, что:
Расхождение Кульбака –Лейблера (или информационное расхождение , прирост информации или относительная энтропия ) — это способ сравнения двух распределений, «истинного» распределения вероятностей и произвольного распределения вероятностей . Если мы сжимаем данные способом, который предполагает, что — это распределение, лежащее в основе некоторых данных, когда на самом деле — это правильное распределение, расхождение Кульбака–Лейблера — это количество средних дополнительных битов на данные, необходимых для сжатия, или, математически,
В некотором смысле это «расстояние» от до , хотя это не истинная метрика, поскольку она не симметрична.
Оказывается, что одной из самых полезных и важных мер информации является взаимная информация , или трансинформация . Это мера того, сколько информации можно получить об одной случайной величине, наблюдая за другой. Взаимная информация относительно ( которая концептуально представляет собой среднее количество информации о том, что можно получить, наблюдая ) определяется по формуле:
Основным свойством взаимной информации является то, что:
То есть, зная , мы можем сэкономить в среднем бит при кодировании по сравнению с незнанием . Взаимная информация симметрична :
Взаимная информация может быть выражена как среднее отклонение Кульбака–Лейблера (прирост информации) апостериорного распределения вероятностей при заданном значении к априорному распределению на :
Другими словами, это мера того, насколько в среднем изменится распределение вероятностей на , если нам дано значение . Это часто пересчитывается как отклонение от произведения маргинальных распределений к фактическому совместному распределению:
Взаимная информация тесно связана с тестом логарифмического отношения правдоподобия в контексте таблиц сопряженности и полиномиального распределения , а также с тестом χ2 Пирсона : взаимную информацию можно рассматривать как статистику для оценки независимости между парой переменных, и она имеет четко определенное асимптотическое распределение.
Основные меры дискретной энтропии были расширены по аналогии на непрерывные пространства путем замены сумм интегралами, а функций массы вероятности — функциями плотности вероятности . Хотя в обоих случаях взаимная информация выражает количество бит информации, общих для двух рассматриваемых источников, аналогия не подразумевает идентичных свойств; например, дифференциальная энтропия может быть отрицательной.
Дифференциальные аналоги энтропии, совместной энтропии, условной энтропии и взаимной информации определяются следующим образом:
где — совместная функция плотности, — предельные распределения, — условное распределение.