stringtranslate.com

Энтропия Реньи

В теории информации энтропия Реньи — это величина, которая обобщает различные понятия энтропии , включая энтропию Хартли , энтропию Шеннона , энтропию столкновений и мин-энтропию . Энтропия Реньи названа в честь Альфреда Реньи , который искал наиболее общий способ количественной оценки информации, сохраняя при этом аддитивность для независимых событий. [1] [2] В контексте оценки фрактальной размерности энтропия Реньи составляет основу концепции обобщенных размерностей . [3]

Энтропия Реньи важна в экологии и статистике как показатель разнообразия . Энтропия Реньи также важна в квантовой информации , где ее можно использовать как меру запутанности . В модели спиновой цепи Гейзенберга XY энтропия Реньи как функция от α может быть вычислена явно, поскольку она является автоморфной функцией по отношению к определенной подгруппе модулярной группы . [4] [5] В теоретической информатике минимальная энтропия используется в контексте экстракторов случайности .

Определение

Энтропия Реньи порядка , где и , определяется как [1]

Далее он определяется как

Здесь – дискретная случайная величина с возможными исходами в наборе и соответствующими вероятностями для . Результирующая единица информации определяется основанием логарифма , например, Шеннон для основания 2 или nat для основания e . Если вероятности для всех , то все энтропии Реньи распределения равны: . В общем случае для всех дискретных случайных величин , является невозрастающей функцией по .

В приложениях часто используется следующая связь между энтропией Реньи и p -нормой вектора вероятностей:

.

Здесь дискретное распределение вероятностей интерпретируется как вектор в с и .

Энтропия Реньи для любого является вогнутой по Шуру . Доказано критерием Шура-Островского.

Особые случаи

Энтропия Реньи случайной величины с двумя возможными исходами против p 1 , где P = ( p 1 , 1 − p 1 ) . Показаны Η 0 , Η 1 , Η 2 и Η , причем единицей измерения на вертикальной оси является шеннон .

По мере приближения к нулю энтропия Реньи все более одинаково взвешивает все события с ненулевой вероятностью, независимо от их вероятностей. В пределе для энтропия Реньи представляет собой просто логарифм размера носителя X. Пределом для является энтропия Шеннона . По мере приближения к бесконечности энтропия Реньи все больше определяется событиями наибольшей вероятности.

Хартли или максимальная энтропия

При условии, что вероятности ненулевые, [6] представляет собой логарифм мощности алфавита ( ) of , иногда называемый энтропией Хартли ,

Энтропия Шеннона

Предельным значением as является энтропия Шеннона : [7]

Энтропия столкновений

Энтропия столкновений , иногда называемая просто «энтропией Реньи», относится к случаю ,

где X и Y независимы и одинаково распределены . Энтропия столкновений связана с индексом совпадения .

Минимальная энтропия

В пределе энтропия Реньи сходится к минимальной энтропии :

Аналогично, минимальная энтропия — это наибольшее действительное число b , при котором все события происходят с вероятностью не более .

Название « мин-энтропия» происходит от того факта, что это наименьшая мера энтропии в семействе энтропий Реньи. В этом смысле это самый надежный способ измерить информативность дискретной случайной величины. В частности, минимальная энтропия никогда не превышает энтропию Шеннона .

Минимальная энтропия имеет важные применения для экстракторов случайности в теоретической информатике : Экстракторы способны извлекать случайность из случайных источников, которые имеют большую минимальную энтропию; просто наличия большой энтропии Шеннона недостаточно для этой задачи.

Неравенства для разных порядков α

Это невозрастание при любом заданном распределении вероятностей , что можно доказать дифференцированием, [8] как

которая пропорциональна расходимости Кульбака–Лейблера (которая всегда неотрицательна), где . В частности, оно строго положительно, за исключением случаев, когда распределение равномерно.

На пределе мы имеем .

В частных случаях неравенства можно доказать также с помощью неравенства Йенсена : [9] [10]

При значениях справедливы неравенства и в обратном направлении. В частности, имеем [11] [12]

С другой стороны, энтропия Шеннона может быть сколь угодно высокой для случайной величины , имеющей заданную минимальную энтропию. Примером этого может служить последовательность случайных величин для таких что и так как но .

Расхождение Реньи

Помимо абсолютных энтропий Реньи, Реньи также определил спектр мер дивергенции, обобщающих дивергенцию Кульбака – Лейблера . [13]

Дивергенция Реньи порядка α или альфа-дивергенция распределения P от распределения Q определяется как

когда 0 < α < ∞ и α ≠ 1 . Мы можем определить дивергенцию Реньи для специальных значений α = 0, 1, ∞ , взяв предел, и, в частности, предел α → 1 дает дивергенцию Кульбака – Лейблера.

Некоторые особые случаи:

 : минус логарифмическая вероятность при Q того, что p i > 0 ;
 : минус двойной логарифм коэффициента Бхаттачарьи ; (Нильсен и Больц (2010))
 : расхождение Кульбака–Лейблера ;
 : лог ожидаемого отношения вероятностей;
 : журнал максимального отношения вероятностей.

Дивергенция Реньи действительно является дивергенцией , что означает просто то, что она больше или равна нулю, и равна нулю только тогда, когда P = Q . Для любых фиксированных распределений P и Q дивергенция Реньи не убывает как функция своего порядка α и непрерывна на множестве α , для которого она конечна, [13] или для краткости информация порядка α получается, если распределение P заменить распределением Q . [1]

Финансовая интерпретация

Пару распределений вероятностей можно рассматривать как азартную игру, в которой одно из распределений определяет официальные шансы, а другое содержит фактические вероятности. Знание реальных вероятностей позволяет игроку получить прибыль от игры. Ожидаемая норма прибыли связана с дивергенцией Реньи следующим образом [14]

где – распределение, определяющее официальные шансы (т. е. «рынок») для игры, – распределение, по мнению инвестора, и – неприятие риска инвестором ( относительное неприятие риска Эрроу – Пратта ).

Если истинное распределение (не обязательно совпадает с убеждением инвестора ), долгосрочная реализованная ставка сходится к истинному ожиданию, которое имеет аналогичную математическую структуру [14]

Свойства, характерные для α = 1

Значение α = 1 , которое дает энтропию Шеннона и дивергенцию Кульбака – Лейблера , является единственным значением, при котором точно выполняется цепное правило условной вероятности :

для абсолютной энтропии и

для относительных энтропий.

Последнее, в частности, означает, что если мы ищем распределение p ( x , a ) , которое минимизирует отклонение от некоторой базовой априорной меры m ( x , a ) , и мы получаем новую информацию, которая влияет только на распределение a , то распределение p ( x | a ) остается m ( x | a ) без изменений.

Другие расходимости Реньи удовлетворяют критериям положительности и непрерывности, инвариантности относительно преобразований координат 1 к 1 и аддитивного объединения, когда A и X независимы, так что если p ( A , X ) = p ( A ) p ( X ) , тогда

и

Более сильные свойства величин α = 1 позволяют определить условную информацию и взаимную информацию из теории связи.

Экспоненциальные семьи

Энтропии и дивергенции Реньи для экспоненциального семейства допускают простые выражения [15]

и

где

– это разностная дивергенция Дженсена.

Физический смысл

Энтропия Реньи в квантовой физике не считается наблюдаемой из- за ее нелинейной зависимости от матрицы плотности. (Эта нелинейная зависимость применима даже в частном случае энтропии Шеннона . ) Однако ей можно придать оперативный смысл посредством двукратных измерений (также известных как статистика полного счета) передач энергии .

Предел квантовомеханической энтропии Реньи, как и энтропия фон Неймана .

Смотрите также

Примечания

  1. ^ abc Реньи (1961)
  2. ^ Риуль (2021)
  3. ^ Баррос, Ванесса; Руссо, Жером (01 июня 2021 г.). «Кратчайшее расстояние между несколькими орбитами и обобщенными фрактальными размерностями». Анналы Анри Пуанкаре . 22 (6): 1853–1885. arXiv : 1912.07516 . Бибкод : 2021AnHP...22.1853B. дои : 10.1007/s00023-021-01039-y. ISSN  1424-0661. S2CID  209376774.
  4. ^ Франчини, Its и Корепин (2008)
  5. ^ Это и Корепин (2010)
  6. ^ RFC 4086, стр. 6.
  7. ^ Бромили, Такер и Бухова-Такер (2004)
  8. ^ Бек и Шлёгль (1993)
  9. ^ имеет силу, потому что .
  10. ^ имеет силу, потому что .
  11. ^ имеет силу, потому что
  12. ^ Деврой, Люк; Дьёрфи, Ласло; Лугоши, Габор (4 апреля 1996 г.). Вероятностная теория распознавания образов (Исправленная ред.). Нью-Йорк, штат Нью-Йорк: Спрингер. ISBN 978-0-387-94618-4.
  13. ^ аб Ван Эрвен, Тим; Харремоэс, Питер (2014). «Дивергенция Реньи и дивергенция Кульбака – Лейблера». Транзакции IEEE по теории информации . 60 (7): 3797–3820. arXiv : 1206.2459 . дои :10.1109/TIT.2014.2320500. S2CID  17522805.
  14. ^ аб Соклаков (2018)
  15. ^ Нильсен и Нок (2011)

Рекомендации