stringtranslate.com

Информационное измерение

В теории информации информационная размерность — это информационная мера для случайных векторов в евклидовом пространстве , основанная на нормализованной энтропии тонко квантованных версий случайных векторов . Эта концепция была впервые введена Альфредом Реньи в 1959 году. [1]

Проще говоря, это мера фрактальной размерности распределения вероятностей . Она характеризует скорость роста энтропии Шеннона , задаваемую последовательными более мелкими дискретизациями пространства.

В 2010 году Ву и Верду дали операциональную характеристику информационного измерения Реньи как фундаментального предела сжатия данных практически без потерь для аналоговых источников при различных ограничениях регулярности кодера/декодера.

Определение и свойства

Энтропия дискретной случайной величины равна

где — вероятностная мера того, когда , а обозначает множество .

Пусть будет произвольной действительной случайной величиной. Учитывая положительное целое число , мы создаем новую дискретную случайную величину

где - это оператор округления, который преобразует действительное число в наибольшее целое число, меньшее его. Тогда

и

называются нижним и верхним информационными размерами соответственно. Когда , мы называем это значение информационным размером ,

Некоторые важные свойства информационного измерения :

г-Размерная энтропия

Если существует информационное измерение , то можно определить -мерную энтропию этого распределения как

при условии, что предел существует. Если , то нульмерная энтропия равна стандартной энтропии Шеннона . Для целочисленной размерности -мерная энтропия является -кратным интегралом, определяющим соответствующую дифференциальную энтропию .

Эквивалентное определение информационного измерения

В 1994 году Кавабата и Дембо в работе Kawabata & Dembo 1994 предложили новый способ измерения информации, основанный на значении искажения скорости случайной величины. Мера определяется как

где — функция скорости-искажения, которая определяется как

или, что эквивалентно, минимальная информация, которая может привести к близкому приближению к .

Они далее доказали, что такое определение эквивалентно определению информационного измерения. Формально,

Смещение размерной скорости

Используя приведенное выше определение информационного измерения Реньи, аналогичная мера d -мерной энтропии определена в Charusaie, Amini & Rini 2022. Это значение , которое называется смещением размерной скорости, определяется таким образом, чтобы охватить конечный член функции скорости-искажения. Формально,

Смещение размерной скорости равно d -мерной скорости для непрерывного , дискретного и дискретно-непрерывного смешанного распределения. Более того, оно вычисляется для набора сингулярных случайных величин , в то время как d -мерная энтропия не обязательно существует там.

Наконец, смещение размерной скорости обобщает энтропию Шеннона и дифференциальную энтропию , поскольку можно найти взаимную информацию, используя следующую формулу:

Дискретно-непрерывные распределения смесей

Согласно теореме о разложении Лебега [2] , распределение вероятностей может быть однозначно представлено смесью

где и ; — чисто атомарная вероятностная мера (дискретная часть), — абсолютно непрерывная вероятностная мера, а — вероятностная мера, сингулярная относительно меры Лебега, но без атомов (сингулярная часть). Пусть — случайная величина, такая что . Предположим, что распределение можно представить как

где — дискретная мера, а — абсолютно непрерывная вероятностная мера с . Тогда

Более того, при заданной и дифференциальной энтропии , -мерная энтропия просто задается выражением

где — энтропия Шеннона дискретной случайной величины с и и заданная формулой

Пример

Рассмотрим сигнал, имеющий гауссово распределение вероятностей .

Мы пропускаем сигнал через однополупериодный выпрямитель , который преобразует все отрицательные значения в 0, а все остальные значения сохраняет. Однополупериодный выпрямитель можно охарактеризовать функцией

Тогда на выходе выпрямителя сигнал имеет выпрямленное гауссово распределение . Он характеризуется атомной массой весом 0,5 и имеет гауссову PDF для всех .

Применяя приведенную выше формулу к этому смешанному распределению, мы получаем информационную размерность распределения и вычисляем -мерную энтропию.

Нормализованная правая часть гауссовского распределения с нулевым средним имеет энтропию , следовательно,

Связь с дифференциальной энтропией

Показано [3] , что информационная размерность и дифференциальная энтропия тесно связаны.

Пусть — случайная величина с непрерывной плотностью .

Предположим, мы разделили диапазон на ячейки длины . По теореме о среднем значении существует значение внутри каждой ячейки такое, что

Рассмотрим дискретизированную случайную величину, если .

Вероятность каждой опорной точки равна

Пусть . Энтропия равна

Если мы устанавливаем и тогда мы делаем точно такое же квантование, как и определение информационного измерения. Поскольку перемаркировка событий дискретной случайной величины не меняет ее энтропию, мы имеем

Это дает

и когда достаточно большой,

которая является дифференциальной энтропией непрерывной случайной величины. В частности, если интегрируема по Риману, то

Сравнение этого с -мерной энтропией показывает, что дифференциальная энтропия - это в точности одномерная энтропия

На самом деле это можно обобщить на более высокие измерения. Реньи показывает, что если — случайный вектор в -мерном евклидовом пространстве с абсолютно непрерывным распределением с функцией плотности вероятности и конечной энтропией целой части ( ), то мы имеем

и

если интеграл существует.

Сжатие данных без потерь

Информационное измерение распределения дает теоретическую верхнюю границу скорости сжатия, если кто-то хочет сжать переменную, полученную из этого распределения. В контексте сжатия данных без потерь мы пытаемся сжать действительное число меньшим действительным числом, оба из которых имеют бесконечную точность.

Основная цель сжатия данных без потерь — найти эффективные представления для исходных реализаций с помощью . Код для представляет собой пару отображений:

Вероятность ошибки блока составляет .

Определим как инфимум такого , что существует последовательность кодов такая, что для всех достаточно больших .

Так что в основном дает соотношение между длиной кода и длиной источника, он показывает, насколько хороша конкретная пара кодер-декодер. Основные ограничения в кодировании источника без потерь следующие. [4]

Рассмотрим непрерывную функцию кодера с ее непрерывной функцией декодера . Если мы не накладываем регулярности на и , то из-за богатой структуры мы имеем минимально достижимую скорость для всех . Это означает, что можно построить пару кодер-декодер с бесконечной скоростью сжатия.

Чтобы получить некоторые нетривиальные и содержательные выводы, пусть минимально достижимая скорость для линейного кодера и декодера Бореля. Если случайная величина имеет распределение, которое является смесью дискретной и непрерывной части. Тогда для всех Предположим, что мы ограничиваем декодер, чтобы он был непрерывной функцией Липшица и выполняется, тогда минимально достижимая скорость для всех .

Фундаментальная роль информационного измерения в сжатии данных без потерь выходит за рамки данных iid. Показано, что для определенных процессов (например, процессов скользящего среднего) отношение сжатия без потерь также равно скорости информационного измерения. [5] Этот результат допускает дальнейшее сжатие, которое было невозможно при рассмотрении только маргинального распределения процесса.

Смотрите также

Примечания

  1. См. Реньи 1959.
  2. ^ См. Чынлар 2011.
  3. См. Кавер и Томас 2012.
  4. См. Ву и Верду 2010.
  5. ^ См. Чарусайе, Амини и Рини, 2022 г.

Ссылки