stringtranslate.com

Энтропийная неопределенность

В квантовой механике , теории информации и анализе Фурье энтропийная неопределенность или неопределенность Хиршмана определяется как сумма временной и спектральной энтропий Шеннона . Оказывается, что принцип неопределенности Гейзенберга можно выразить как нижнюю границу суммы этих энтропий. Это сильнее , чем обычная формулировка принципа неопределенности в терминах произведения стандартных отклонений.

В 1957 году [1] Хиршман рассмотрел функцию f и ее преобразование Фурье g, такие что

где «≈» указывает на сходимость в L 2 , и нормализовано так, что (по теореме Планшереля ),

Он показал, что для любых таких функций сумма энтропий Шеннона неотрицательна,

Более тесная связь,

было высказано предположение Хиршманом [1] и Эвереттом [2] , доказано в 1975 году В. Бекнером [3] и в том же году интерпретировано как обобщенный квантово-механический принцип неопределенности Бялыницким-Бирулей и Мыцельским. [4] Равенство справедливо в случае гауссовых распределений . [5] Отметим, однако, что указанная выше энтропийная функция неопределенности существенно отличается от квантовой энтропии фон Неймана, представленной в фазовом пространстве .

Эскиз доказательства

Доказательство этого строгого неравенства зависит от так называемой ( qp )-нормы преобразования Фурье. (Установление этой нормы является самой сложной частью доказательства.)

Из этой нормы можно установить нижнюю границу суммы (дифференциальных) энтропий Реньи , H α (|f|²)+H β (|g|²) , где 1/α + 1/β = 2 , которые обобщают энтропии Шеннона. Для простоты мы рассматриваем это неравенство только в одном измерении; расширение на несколько измерений является простым и может быть найдено в цитируемой литературе.

Неравенство Бабенко–Бекнера

Норма ( qp ) преобразования Фурье определяется как [6]

где   и

В 1961 году Бабенко [7] нашел эту норму для четных целых значений q . Наконец, в 1975 году, используя функции Эрмита в качестве собственных функций преобразования Фурье, Бекнер [3] доказал, что значение этой нормы (в одном измерении) для всех q ≥ 2 равно

Таким образом, мы имеем неравенство Бабенко–Бекнера , которое

Связанная энтропия Реньи

Из этого неравенства можно вывести выражение принципа неопределенности в терминах энтропии Реньи . [6] [8]

Пусть так, что и , имеем

Возводя обе части в квадрат и логарифмируя, получаем

Мы можем переписать условие как

Предположим , тогда мы умножаем обе части на отрицательное

получить

Перестановка членов дает неравенство относительно суммы энтропий Реньи:

Правая сторона

Шенноновская граница энтропии

Принимая предел этого последнего неравенства за и подстановки, получаем менее общее неравенство энтропии Шеннона:

справедливо для любого основания логарифма, если мы выберем соответствующую единицу информации: бит , физ. и т. д.

Однако константа будет другой для другой нормализации преобразования Фурье (такой, которая обычно используется в физике, при этом нормировки выбираются так, чтобы ħ =1), т. е.

В этом случае расширение квадрата абсолютного преобразования Фурье на коэффициент 2π просто добавляет log(2π ) к его энтропии.

Границы энтропии и дисперсии

Гауссово или нормальное распределение вероятностей играет важную роль в отношениях между дисперсией и энтропией : это проблема вариационного исчисления , чтобы показать, что это распределение максимизирует энтропию для данной дисперсии, и в то же время минимизирует дисперсию для данной энтропии. Фактически, для любой функции плотности вероятности на действительной прямой неравенство энтропии Шеннона определяет:

где H — энтропия Шеннона, а V — дисперсия, неравенство, которое насыщается только в случае нормального распределения .

Более того, преобразование Фурье гауссовой функции амплитуды вероятности также является гауссовым, и абсолютные квадраты обоих из них также являются гауссовыми. Это затем может быть использовано для вывода обычного неравенства неопределенности дисперсии Робертсона из приведенного выше энтропийного неравенства, позволяя последнему быть более жестким, чем первое . То есть (для ħ =1), возводя в степень неравенство Хиршмана и используя выражение Шеннона выше,

Хиршман [1] объяснил, что энтропия — его версия энтропии была отрицательным вариантом энтропии Шеннона — это «мера концентрации [распределения вероятностей] в наборе малой меры». Таким образом, низкая или большая отрицательная энтропия Шеннона означает, что значительная масса распределения вероятностей ограничена набором малой меры .

Обратите внимание, что этот набор малой меры не обязательно должен быть непрерывным; распределение вероятностей может иметь несколько концентраций массы в интервалах малой меры, и энтропия может быть низкой независимо от того, насколько широко разбросаны эти интервалы. Это не относится к дисперсии: дисперсия измеряет концентрацию массы вокруг среднего значения распределения, а низкая дисперсия означает, что значительная масса распределения вероятностей сосредоточена в непрерывном интервале малой меры.

Чтобы формализовать это различие, мы говорим, что две функции плотности вероятности и являются равноизмеримыми, если

где μмера Лебега . Любые две равноизмеримые функции плотности вероятности имеют одинаковую энтропию Шеннона и, по сути, одинаковую энтропию Реньи любого порядка. Однако то же самое не относится к дисперсии. Любая функция плотности вероятности имеет радиально убывающую равноизмеримую «перестановку», дисперсия которой меньше (с точностью до переноса), чем у любой другой перестановки функции; и существуют перестановки произвольно высокой дисперсии (все имеющие одинаковую энтропию).

Смотрите также

Ссылки

  1. ^ abc Хиршман, II младший (1957), «Заметка об энтропии», Американский журнал математики , 79 (1): 152–156, doi :10.2307/2372390, JSTOR  2372390.
  2. ^ Хью Эверетт , III. Многомировая интерпретация квантовой механики: теория универсальной волновой функции. Диссертация Эверетта
  3. ^ ab Бекнер, В. (1975), «Неравенства в анализе Фурье», Annals of Mathematics , 102 (6): 159–182, doi :10.2307/1970980, JSTOR  1970980, PMC 432369 , PMID  16592223. 
  4. ^ Бялыницкий-Бируля, И.; Мычельский, Дж. (1975), "Соотношения неопределенности для информационной энтропии в волновой механике", Communications in Mathematical Physics , 44 (2): 129, Bibcode : 1975CMaPh..44..129B, doi : 10.1007/BF01608825, S2CID  122277352
  5. ^ Ozaydin, Murad; Przebinda, Tomasz (2004). "Принцип неопределенности на основе энтропии для локально компактной абелевой группы" (PDF) . Журнал функционального анализа . 215 (1). Elsevier Inc.: 241–252. doi : 10.1016/j.jfa.2003.11.008 . Получено 23.06.2011 .
  6. ^ ab Bialynicki-Birula, I. (2006). "Формулировка соотношений неопределенности в терминах энтропий Реньи". Physical Review A. 74 ( 5): 052101. arXiv : quant-ph/0608116 . Bibcode : 2006PhRvA..74e2101B. doi : 10.1103/PhysRevA.74.052101. S2CID  19123961.
  7. ^ К. И. Бабенко. Неравенство в теории интегралов Фурье. Изв. АН СССР, Сер. Матем. 25 (1961) стр. 531–542. Английский перевод, Амер. Матем. Соц. Перевод (2) 44 , стр. 115–128.
  8. ^ HP Heinig и M. Smith, Расширения неравенства Гейзенберга–Вейля. Internat. J. Math. & Math. Sci., Vol. 9, No. 1 (1986) стр. 185–192. [1]

Дальнейшее чтение