stringtranslate.com

энтропия Реньи

В теории информации энтропия Реньи — это величина, обобщающая различные понятия энтропии , включая энтропию Хартли , энтропию Шеннона , энтропию столкновений и минимальную энтропию . Энтропия Реньи названа в честь Альфреда Реньи , который искал наиболее общий способ количественной оценки информации, сохраняя при этом аддитивность для независимых событий. [1] [2] В контексте оценки фрактальной размерности энтропия Реньи составляет основу концепции обобщенных размерностей . [3]

Энтропия Реньи важна в экологии и статистике как индекс разнообразия . Энтропия Реньи также важна в квантовой информации , где она может использоваться как мера запутанности . В модели спиновой цепи Гейзенберга XY энтропия Реньи как функция α может быть вычислена явно, поскольку она является автоморфной функцией по отношению к конкретной подгруппе модулярной группы . [4] [5] В теоретической информатике минимальная энтропия используется в контексте экстракторов случайности .

Определение

Энтропия Реньи порядка ⁠ ⁠ , где и , определяется как [1]

Далее он определяется как

Здесь, — дискретная случайная величина с возможными результатами в наборе и соответствующими вероятностями для . Результирующая единица информации определяется основанием логарифма , например, Шеннон для основания 2 или nat для основания e . Если вероятности равны для всех , то все энтропии Реньи распределения равны: . В общем случае для всех дискретных случайных величин , — невозрастающая функция по .

Приложения часто используют следующее соотношение между энтропией Реньи и α - нормой вектора вероятностей:

Здесь дискретное распределение вероятностей интерпретируется как вектор с и .

Энтропия Реньи для любого является вогнутой по Шуру . Доказано критерием Шура–Островского.

Особые случаи

Энтропия Реньи случайной величины с двумя возможными исходами относительно p 1 , где P = ( p 1 , 1 − p 1 ) . Показаны Η 0 , Η 1 , Η 2 и Η , причем единицей на вертикальной оси является шеннон .

По мере приближения к нулю энтропия Реньи все более равномерно взвешивает все события с ненулевой вероятностью, независимо от их вероятностей. В пределе для энтропия Реньи — это просто логарифм размера носителя X . Пределом для является энтропия Шеннона . По мере приближения к бесконечности энтропия Реньи все больше определяется событиями с наибольшей вероятностью.

Хартли или максимальная энтропия

где — число ненулевых вероятностей. [6] Если все вероятности не равны нулю, то это просто логарифм мощности алфавита ( ) , иногда называемый энтропией Хартли ,

энтропия Шеннона

Предельное значение as — энтропия Шеннона : [7]

Энтропия столкновения

Энтропия столкновений , иногда называемая просто «энтропией Реньи», относится к случаю ⁠ ⁠ ,

где и независимы и одинаково распределены . Энтропия столкновений связана с индексом совпадения . Это отрицательный логарифм индекса разнообразия Симпсона .

Мин-энтропия

В пределе ⁠ ⁠ энтропия Реньи сходится к минимальной энтропии :

Эквивалентно, минимальная энтропия — это наибольшее действительное число b, такое, что все события происходят с вероятностью не более .

Название min-entropy происходит от того факта, что это наименьшая мера энтропии в семействе энтропий Реньи. В этом смысле это самый сильный способ измерения информационного содержания дискретной случайной величины. В частности, min-entropy никогда не превышает энтропию Шеннона .

Минимальная энтропия имеет важное применение для экстракторов случайности в теоретической информатике : экстракторы способны извлекать случайность из случайных источников, имеющих большую минимальную энтропию; для этой задачи недостаточно иметь только большую энтропию Шеннона .

Неравенства для разных порядковα

Это не возрастает для любого заданного распределения вероятностей , что может быть доказано дифференцированием, [8] как

которая пропорциональна расхождению Кульбака–Лейблера (которое всегда неотрицательно), где ⁠ ⁠ . В частности, она строго положительна, за исключением случаев, когда распределение равномерно.

В пределе мы имеем .

В частных случаях неравенства можно доказать также с помощью неравенства Йенсена : [9] [10]

Для значений ⁠ ⁠ неравенства в другую сторону также имеют место. В частности, имеем [11] [12]

С другой стороны, энтропия Шеннона может быть произвольно высокой для случайной величины , которая имеет заданную минимальную энтропию. Примером этого является последовательность случайных величин для таких, что и так как но .

расхождение Реньи

Наряду с абсолютными энтропиями Реньи, Реньи также определил спектр мер расхождения, обобщающих расхождение Кульбака–Лейблера . [13]

Расхождение Реньи порядка ⁠ ⁠ или альфа-расхождение распределения P от распределения Q определяется как

когда ⁠ ⁠ и ⁠ ⁠ . Мы можем определить расхождение Реньи для специальных значений α = 0, 1, ∞, взяв предел, и, в частности, предел α → 1 дает расхождение Кульбака–Лейблера.

Некоторые особые случаи:

⁠ ⁠ : минус логарифм вероятности под Q того, что p i > 0 ;
⁠ ⁠ : минус удвоенный логарифм коэффициента Бхаттачарьи ; (Nielsen & Boltz (2010))
⁠ ⁠ : расхождение Кульбака–Лейблера ;
⁠ ⁠ : логарифм ожидаемого отношения вероятностей;
⁠ ⁠ : логарифм максимального отношения вероятностей.

Расхождение Реньи действительно является расхождением , что означает, что оно больше или равно нулю, и равно нулю только при P = Q. Для любых фиксированных распределений P и Q расхождение Реньи не убывает как функция своего порядка α и является непрерывным на множестве α , для которых оно конечно, [13] или, для краткости, информации порядка α, полученной, если распределение P заменить распределением Q. [1 ]

Финансовая интерпретация

Пару распределений вероятностей можно рассматривать как азартную игру, в которой одно из распределений определяет официальные шансы, а другое содержит фактические вероятности. Знание фактических вероятностей позволяет игроку получать прибыль от игры. Ожидаемая норма прибыли связана с дивергенцией Реньи следующим образом [14]

где — распределение, определяющее официальные шансы (т.е. «рынок») для игры, — распределение, предполагаемое инвестором, а — неприятие риска инвестором ( относительное неприятие риска Эрроу–Пратта ).

Если истинное распределение (не обязательно совпадает с убеждением инвестора ) , то долгосрочная реализованная ставка сходится к истинному ожиданию, которое имеет схожую математическую структуру [14]

Свойства, характерные дляα= 1

Значение ⁠ ⁠ , которое дает энтропию Шеннона и расхождение Кульбака–Лейблера , является единственным значением, при котором цепное правило условной вероятности выполняется точно:

для абсолютных энтропий и

для относительных энтропий.

Последнее, в частности, означает, что если мы ищем распределение p ( x , a ) , которое минимизирует отклонение от некоторой базовой априорной меры m ( x , a ) , и получаем новую информацию, которая влияет только на распределение a , то распределение p ( x | a ) остается m ( x | a ) неизменным.

Другие расхождения Реньи удовлетворяют критериям положительности и непрерывности, инвариантности относительно преобразований координат один к одному и аддитивности, когда A и X независимы, так что если p ( A , X ) = p ( A ) p ( X ) , то

и

Более сильные свойства величин позволяют определить условную информацию и взаимную информацию из теории связи.

Экспоненциальные семьи

Энтропии и расхождения Реньи для экспоненциального семейства допускают простые выражения [15]

и

где

является разностным расхождением Йенсена.

Физическое значение

Энтропия Реньи в квантовой физике не считается наблюдаемой величиной из -за ее нелинейной зависимости от матрицы плотности. (Эта нелинейная зависимость применима даже в частном случае энтропии Шеннона.) Однако ей можно придать операциональное значение посредством двукратных измерений (также известных как статистика полного счета) переносов энергии [ требуется ссылка ] .

Предел квантово-механической энтропии Реньи равен энтропии фон Неймана .

Смотрите также

Примечания

  1. ^ abc Реньи (1961)
  2. ^ Риуль (2021)
  3. ^ Баррос, Ванесса; Руссо, Жером (2021-06-01). «Кратчайшее расстояние между несколькими орбитами и обобщенные фрактальные измерения». Annales Henri Poincaré . 22 (6): 1853–1885. arXiv : 1912.07516 . Bibcode : 2021AnHP...22.1853B. doi : 10.1007/s00023-021-01039-y. ISSN  1424-0661. S2CID  209376774.
  4. ^ Франчини, Its и Корепин (2008)
  5. ^ Итс и Корепин (2010)
  6. ^ RFC 4086, стр. 6
  7. ^ Бромили, Такер и Боухова-Такер (2004)
  8. ^ Бек и Шлегль (1993)
  9. ^ выполняется, потому что .
  10. ^ выполняется, потому что .
  11. ^ имеет место, потому что
  12. ^ Девройе, Люк; Дьёрфи, Ласло; Лугоши, Габор (1996-04-04). Вероятностная теория распознавания образов (исправленное издание). Нью-Йорк, Нью-Йорк: Springer. ISBN 978-0-387-94618-4.
  13. ^ аб Ван Эрвен, Тим; Харремоэс, Питер (2014). «Дивергенция Реньи и дивергенция Кульбака – Лейблера». Транзакции IEEE по теории информации . 60 (7): 3797–3820. arXiv : 1206.2459 . дои :10.1109/TIT.2014.2320500. S2CID  17522805.
  14. ^ ab Соклаков (2018)
  15. ^ Нильсен и Нок (2011)

Ссылки