В теории информации энтропия Реньи — это величина, обобщающая различные понятия энтропии , включая энтропию Хартли , энтропию Шеннона , энтропию столкновений и минимальную энтропию . Энтропия Реньи названа в честь Альфреда Реньи , который искал наиболее общий способ количественной оценки информации, сохраняя при этом аддитивность для независимых событий. [1] [2] В контексте оценки фрактальной размерности энтропия Реньи составляет основу концепции обобщенных размерностей . [3]
Энтропия Реньи порядка , где и , определяется как [1]
Далее он определяется как
Здесь, — дискретная случайная величина с возможными результатами в наборе и соответствующими вероятностями для . Результирующая единица информации определяется основанием логарифма , например, Шеннон для основания 2 или nat для основания e . Если вероятности равны для всех , то все энтропии Реньи распределения равны: . В общем случае для всех дискретных случайных величин , — невозрастающая функция по .
Приложения часто используют следующее соотношение между энтропией Реньи и α - нормой вектора вероятностей:
Здесь дискретное распределение вероятностей интерпретируется как вектор с и .
По мере приближения к нулю энтропия Реньи все более равномерно взвешивает все события с ненулевой вероятностью, независимо от их вероятностей. В пределе для энтропия Реньи — это просто логарифм размера носителя X . Пределом для является энтропия Шеннона . По мере приближения к бесконечности энтропия Реньи все больше определяется событиями с наибольшей вероятностью.
Хартли или максимальная энтропия
где — число ненулевых вероятностей. [6] Если все вероятности не равны нулю, то это просто логарифм мощности алфавита ( ) , иногда называемый энтропией Хартли ,
В пределе энтропия Реньи сходится к минимальной энтропии :
Эквивалентно, минимальная энтропия — это наибольшее действительное число b, такое, что все события происходят с вероятностью не более .
Название min-entropy происходит от того факта, что это наименьшая мера энтропии в семействе энтропий Реньи. В этом смысле это самый сильный способ измерения информационного содержания дискретной случайной величины. В частности, min-entropy никогда не превышает энтропию Шеннона .
Минимальная энтропия имеет важное применение для экстракторов случайности в теоретической информатике : экстракторы способны извлекать случайность из случайных источников, имеющих большую минимальную энтропию; для этой задачи недостаточно иметь только большую энтропию Шеннона .
Неравенства для разных порядковα
Это не возрастает для любого заданного распределения вероятностей , что может быть доказано дифференцированием, [8] как
которая пропорциональна расхождению Кульбака–Лейблера (которое всегда неотрицательно), где . В частности, она строго положительна, за исключением случаев, когда распределение равномерно.
В пределе мы имеем .
В частных случаях неравенства можно доказать также с помощью неравенства Йенсена : [9] [10]
Для значений неравенства в другую сторону также имеют место. В частности, имеем [11] [12]
С другой стороны, энтропия Шеннона может быть произвольно высокой для случайной величины , которая имеет заданную минимальную энтропию. Примером этого является последовательность случайных величин для таких, что и так как но .
расхождение Реньи
Наряду с абсолютными энтропиями Реньи, Реньи также определил спектр мер расхождения, обобщающих расхождение Кульбака–Лейблера . [13]
Расхождение Реньи порядка или альфа-расхождение распределения P от распределения Q определяется как
когда и . Мы можем определить расхождение Реньи для специальных значений α = 0, 1, ∞, взяв предел, и, в частности, предел α → 1 дает расхождение Кульбака–Лейблера.
Некоторые особые случаи:
: минус логарифм вероятности под Q того, что p i > 0 ;
: логарифм максимального отношения вероятностей.
Расхождение Реньи действительно является расхождением , что означает, что оно больше или равно нулю, и равно нулю только при P = Q. Для любых фиксированных распределений P и Q расхождение Реньи не убывает как функция своего порядка α и является непрерывным на множестве α , для которых оно конечно, [13] или, для краткости, информации порядка α, полученной, если распределение P заменить распределением Q. [1 ]
Финансовая интерпретация
Пару распределений вероятностей можно рассматривать как азартную игру, в которой одно из распределений определяет официальные шансы, а другое содержит фактические вероятности. Знание фактических вероятностей позволяет игроку получать прибыль от игры. Ожидаемая норма прибыли связана с дивергенцией Реньи следующим образом [14]
где — распределение, определяющее официальные шансы (т.е. «рынок») для игры, — распределение, предполагаемое инвестором, а — неприятие риска инвестором ( относительное неприятие риска Эрроу–Пратта ).
Если истинное распределение (не обязательно совпадает с убеждением инвестора ) , то долгосрочная реализованная ставка сходится к истинному ожиданию, которое имеет схожую математическую структуру [14]
Последнее, в частности, означает, что если мы ищем распределение p ( x , a ) , которое минимизирует отклонение от некоторой базовой априорной меры m ( x , a ) , и получаем новую информацию, которая влияет только на распределение a , то распределение p ( x | a ) остается m ( x | a ) неизменным.
Другие расхождения Реньи удовлетворяют критериям положительности и непрерывности, инвариантности относительно преобразований координат один к одному и аддитивности, когда A и X независимы, так что если p ( A , X ) = p ( A ) p ( X ) , то
Энтропия Реньи в квантовой физике не считается наблюдаемой величиной из -за ее нелинейной зависимости от матрицы плотности. (Эта нелинейная зависимость применима даже в частном случае энтропии Шеннона.) Однако ей можно придать операциональное значение посредством двукратных измерений (также известных как статистика полного счета) переносов энергии [ требуется ссылка ] .
Предел квантово-механической энтропии Реньи равен энтропии фон Неймана .
^ аб Ван Эрвен, Тим; Харремоэс, Питер (2014). «Дивергенция Реньи и дивергенция Кульбака – Лейблера». Транзакции IEEE по теории информации . 60 (7): 3797–3820. arXiv : 1206.2459 . дои :10.1109/TIT.2014.2320500. S2CID 17522805.
^ ab Соклаков (2018)
^ Нильсен и Нок (2011)
Ссылки
Бек, Кристиан; Шлегль, Фридрих (1993). Термодинамика хаотических систем: введение . Cambridge University Press. ISBN 0521433673.
Jizba, P.; Arimitsu, T. (2004). «Мир по Реньи: Термодинамика мультифрактальных систем». Annals of Physics . 312 (1): 17–59. arXiv : cond-mat/0207707 . Bibcode : 2004AnPhy.312...17J. doi : 10.1016/j.aop.2004.01.002. S2CID 119704502.
Jizba, P.; Arimitsu, T. (2004). "О наблюдаемости энтропии Реньи". Physical Review E. 69 ( 2): 026128. arXiv : cond-mat/0307698 . Bibcode : 2004PhRvE..69b6128J. doi : 10.1103/PhysRevE.69.026128. PMID 14995541. S2CID 39231939.
Бромили, Пенсильвания; Такер, Северная Каролина; Бухова-Такер, Э. (2004), Энтропия Шеннона, энтропия Реньи и информация , CiteSeerX 10.1.1.330.9856
Franchini, F.; Its, AR; Korepin, VE (2008). "Энтропия Реньи как мера запутанности в квантовой спиновой цепочке". Journal of Physics A: Mathematical and Theoretical . 41 (25302): 025302. arXiv : 0707.2534 . Bibcode :2008JPhA...41b5302F. doi :10.1088/1751-8113/41/2/025302. S2CID 119672750.
Hero, AO; Michael, O.; Gorman, J. (2002). Альфа-дивергенция для классификации, индексирования и поиска (PDF) (технический отчет CSPL-328). Лаборатория связи и обработки сигналов, Мичиганский университет. CiteSeerX 10.1.1.373.2763 .
Итс, АР; Корепин, В.Е. (2010). «Обобщенная энтропия спиновой цепочки Гейзенберга». Теоретическая и математическая физика . 164 (3): 1136–1139. Bibcode :2010TMP...164.1136I. doi :10.1007/s11232-010-0091-6. S2CID 119525704.
Нильсен, Ф.; Больц, С. (2010). «Центроиды Бурбеа-Рао и Бхаттачарьи». Труды IEEE по теории информации . 57 (8): 5455–5466. arXiv : 1004.5049 . doi : 10.1109/TIT.2011.2159046. S2CID 14238708.
Nielsen, Frank; Nock, Richard (2012). "Выражение в замкнутой форме для энтропии Шармы–Миттала экспоненциальных семейств". Journal of Physics A . 45 (3): 032003. arXiv : 1112.4221 . Bibcode :2012JPhA...45c2003N. doi :10.1088/1751-8113/45/3/032003. S2CID 8653096.
Нильсен, Франк; Нок, Ричард (2011). «Об энтропиях и расхождениях Реньи и Цаллиса для экспоненциальных семейств». Journal of Physics A . 45 (3): 032003. arXiv : 1105.3259 . Bibcode :2012JPhA...45c2003N. doi :10.1088/1751-8113/45/3/032003. S2CID 8653096.
Реньи, Альфред (1961). «О мерах информации и энтропии» (PDF) . Труды четвертого симпозиума в Беркли по математике, статистике и теории вероятностей 1960 г. стр. 547–561.
Россо, О.А. (2006). «Анализ ЭЭГ с использованием информационных инструментов на основе вейвлетов». Журнал методов нейронауки . 153 (2): 163–182. doi :10.1016/j.jneumeth.2005.10.009. PMID 16675027. S2CID 7134638.
Zachos, CK (2007). «Классическая граница квантовой энтропии». Journal of Physics A. 40 ( 21): F407–F412. arXiv : hep-th/0609148 . Bibcode : 2007JPhA...40..407Z. doi : 10.1088/1751-8113/40/21/F02. S2CID 1619604.
Назаров, Ю. (2011). "Потоки энтропий Реньи". Physical Review B. 84 ( 10): 205437. arXiv : 1108.3537 . Bibcode : 2015PhRvB..91j4303A. doi : 10.1103/PhysRevB.91.104303. S2CID 40312624.
Ансари, Мохаммад Х.; Назаров, Юлий В. (2015). «Потоки энтропии Реньи из квантовых тепловых двигателей». Physical Review B. 91 ( 10): 104303. arXiv : 1408.3910 . Bibcode : 2015PhRvB..91j4303A. doi : 10.1103/PhysRevB.91.104303. S2CID 40312624.
Ansari, Mohammad H.; Nazarov, Yuli V. (2015). "Точное соответствие между потоками энтропии Реньи и физическими потоками". Physical Review B. 91 ( 17): 174307. arXiv : 1502.08020 . Bibcode : 2015PhRvB..91q4307A. doi : 10.1103/PhysRevB.91.174307. S2CID 36847902.
Ансари, Мохаммед Х.; ван Стинсел, Элвин; Назаров, Юлий В. (2019). «Производство энтропии в квантовой системе разное». Энтропия . 21 (9): 854. arXiv : 1907.09241 . дои : 10.3390/e21090854 . S2CID 198148019.
Риуль, Оливье (2021). «Это ИТ: Учебник по энтропии и информации Шеннона» (PDF) . Теория информации . Прогресс в математической физике. Том 78. Биркхойзер. С. 49–86. doi :10.1007/978-3-030-81480-9_2. ISBN 978-3-030-81479-3. S2CID 204783328.