Пусть будет произвольной действительной случайной величиной. Учитывая положительное целое число , мы создаем новую дискретную случайную величину
где - это оператор округления, который преобразует действительное число в наибольшее целое число, меньшее его. Тогда
и
называются нижним и верхним информационными размерами соответственно. Когда , мы называем это значение информационным размером ,
Некоторые важные свойства информационного измерения :
Если выполняется мягкое условие , то имеем .
Для -мерного случайного вектора первое свойство можно обобщить до .
Достаточно вычислить верхнее и нижнее информационные измерения, ограничиваясь экспоненциальной подпоследовательностью .
и остаются неизменными, если при квантовании используются функции округления или ограничения.
г-Размерная энтропия
Если существует информационное измерение , то можно определить -мерную энтропию этого распределения как
при условии, что предел существует. Если , то нульмерная энтропия равна стандартной энтропии Шеннона . Для целочисленной размерности -мерная энтропия является -кратным интегралом, определяющим соответствующую дифференциальную энтропию .
Эквивалентное определение информационного измерения
В 1994 году Кавабата и Дембо в работе Kawabata & Dembo 1994 предложили новый способ измерения информации, основанный на значении искажения скорости случайной величины. Мера определяется как
где — функция скорости-искажения, которая определяется как
или, что эквивалентно, минимальная информация, которая может привести к близкому приближению к .
Они далее доказали, что такое определение эквивалентно определению информационного измерения. Формально,
Смещение размерной скорости
Используя приведенное выше определение информационного измерения Реньи, аналогичная мера d -мерной энтропии определена в Charusaie, Amini & Rini 2022. Это значение , которое называется смещением размерной скорости, определяется таким образом, чтобы охватить конечный член функции скорости-искажения. Формально,
Смещение размерной скорости равно d -мерной скорости для непрерывного , дискретного и дискретно-непрерывного смешанного распределения. Более того, оно вычисляется для набора сингулярных случайных величин , в то время как d -мерная энтропия не обязательно существует там.
Наконец, смещение размерной скорости обобщает энтропию Шеннона и дифференциальную энтропию , поскольку можно найти взаимную информацию, используя следующую формулу:
где и ; — чисто атомарная вероятностная мера (дискретная часть), — абсолютно непрерывная вероятностная мера, а — вероятностная мера, сингулярная относительно меры Лебега, но без атомов (сингулярная часть). Пусть — случайная величина, такая что . Предположим, что распределение можно представить как
где — дискретная мера, а — абсолютно непрерывная вероятностная мера с . Тогда
Более того, при заданной и дифференциальной энтропии , -мерная энтропия просто задается выражением
где — энтропия Шеннона дискретной случайной величины с и и заданная формулой
Мы пропускаем сигнал через однополупериодный выпрямитель , который преобразует все отрицательные значения в 0, а все остальные значения сохраняет. Однополупериодный выпрямитель можно охарактеризовать функцией
Тогда на выходе выпрямителя сигнал имеет выпрямленное гауссово распределение . Он характеризуется атомной массой весом 0,5 и имеет гауссову PDF для всех .
Применяя приведенную выше формулу к этому смешанному распределению, мы получаем информационную размерность распределения и вычисляем -мерную энтропию.
Нормализованная правая часть гауссовского распределения с нулевым средним имеет энтропию , следовательно,
Пусть — случайная величина с непрерывной плотностью .
Предположим, мы разделили диапазон на ячейки длины . По теореме о среднем значении существует значение внутри каждой ячейки такое, что
Рассмотрим дискретизированную случайную величину, если .
Вероятность каждой опорной точки равна
Пусть . Энтропия равна
Если мы устанавливаем и тогда мы делаем точно такое же квантование, как и определение информационного измерения. Поскольку перемаркировка событий дискретной случайной величины не меняет ее энтропию, мы имеем
Это дает
и когда достаточно большой,
которая является дифференциальной энтропией непрерывной случайной величины. В частности, если интегрируема по Риману, то
Сравнение этого с -мерной энтропией показывает, что дифференциальная энтропия - это в точности одномерная энтропия
На самом деле это можно обобщить на более высокие измерения. Реньи показывает, что если — случайный вектор в -мерном евклидовом пространстве с абсолютно непрерывным распределением с функцией плотности вероятности и конечной энтропией целой части ( ), то мы имеем
и
если интеграл существует.
Сжатие данных без потерь
Информационное измерение распределения дает теоретическую верхнюю границу скорости сжатия, если кто-то хочет сжать переменную, полученную из этого распределения. В контексте сжатия данных без потерь мы пытаемся сжать действительное число меньшим действительным числом, оба из которых имеют бесконечную точность.
Основная цель сжатия данных без потерь — найти эффективные представления для исходных реализаций с помощью . Код для представляет собой пару отображений:
кодер: преобразует информацию из источника в символы для передачи или хранения;
декодер: обратный процесс, преобразующий кодовые символы обратно в форму, понятную получателю.
Вероятность ошибки блока составляет .
Определим как инфимум такого , что существует последовательность кодов такая, что для всех достаточно больших .
Так что в основном дает соотношение между длиной кода и длиной источника, он показывает, насколько хороша конкретная пара кодер-декодер. Основные ограничения в кодировании источника без потерь следующие. [4]
Рассмотрим непрерывную функцию кодера с ее непрерывной функцией декодера . Если мы не накладываем регулярности на и , то из-за богатой структуры мы имеем минимально достижимую скорость для всех . Это означает, что можно построить пару кодер-декодер с бесконечной скоростью сжатия.
Чтобы получить некоторые нетривиальные и содержательные выводы, пусть минимально достижимая скорость для линейного кодера и декодера Бореля. Если случайная величина имеет распределение, которое является смесью дискретной и непрерывной части. Тогда для всех Предположим, что мы ограничиваем декодер, чтобы он был непрерывной функцией Липшица и выполняется, тогда минимально достижимая скорость для всех .
Фундаментальная роль информационного измерения в сжатии данных без потерь выходит за рамки данных iid. Показано, что для определенных процессов (например, процессов скользящего среднего) отношение сжатия без потерь также равно скорости информационного измерения. [5] Этот результат допускает дальнейшее сжатие, которое было невозможно при рассмотрении только маргинального распределения процесса.
Чынлар, Эрхан (2011). Вероятность и стохастика . Graduate Texts in Mathematics. Vol. 261. Springer. doi :10.1007/978-0-387-87859-1. ISBN 978-0-387-87858-4.
Обложка, Томас М.; Томас, Джой А. (2012). Элементы теории информации (2-е изд.). Wiley. С. 247–248. ISBN 9781118585771.
Wu, Yihong; Verdu, S. (август 2010 г.). «Информационное измерение Реньи: фундаментальные пределы почти без потерь аналогового сжатия». IEEE Transactions on Information Theory . 56 (8): 3721–3748. doi :10.1109/TIT.2010.2050803. ISSN 0018-9448. S2CID 206737933.
Charusaie, M.; Amini, A.; Rini, S. (май 2022 г.). «Меры сжимаемости для аффинно-сингулярных случайных векторов». Труды IEEE по теории информации . 68 (9): 6245–6275. arXiv : 2001.03884 . doi : 10.1109/TIT.2022.3174623 .
Кавабата, Т.; Дембо, А. (сентябрь 1994 г.). «Измерение скорости-искажения множеств и мер». Труды IEEE по теории информации . 40 (5): 1564–1572. doi : 10.1109/18.333868 .