В математической теории вероятностей скорость энтропии или скорость получения исходной информации представляет собой функцию, присваивающую энтропию случайному процессу .
Для строго стационарного процесса условная энтропия для последней случайной величины в конечном итоге стремится к этому значению скорости.
Процесс со счетным индексом порождает последовательность его совместных энтропий . Если предел существует, скорость энтропии определяется как
Обратите внимание, что если задана любая последовательность с и позволяя , то при телескопировании получаем . Таким образом, скорость энтропии вычисляет среднее значение первых таких изменений энтропии, с уходом в бесконечность . Поведение совместных энтропий от одного индекса к другому также явно подчинено некоторым характеристикам энтропии .
Хотя скорость энтропии можно рассматривать как последовательность случайных величин, она представляет собой среднее изменение энтропии на одну случайную величину в долгосрочной перспективе.
Его можно рассматривать как общее свойство стохастических источников — это предмет свойства асимптотического равнораспределения .
Стохастический процесс также порождает последовательность условных энтропий, включающую все больше и больше случайных величин. Для сильно стационарных стохастических процессов скорость энтропии равна пределу этой последовательности
Величина, заданная пределом справа, также обозначается , что мотивируется тем, что здесь это снова скорость, связанная с процессом, в указанном выше смысле.
Поскольку стохастический процесс, определяемый цепью Маркова , которая является неприводимой , апериодической и положительно рекуррентной, имеет стационарное распределение , скорость энтропии не зависит от начального распределения.
Например, рассмотрим цепь Маркова, определенную на счетном числе состояний. Дана ее правая стохастическая матрица перехода и энтропия
связанный с каждым состоянием, можно найти
где — асимптотическое распределение цепи.
В частности, отсюда следует, что скорость энтропии случайного процесса iid такая же, как энтропия любого отдельного члена процесса.
Скорость энтропии скрытых марковских моделей (HMM) не имеет известного замкнутого решения. Однако у нее есть известные верхняя и нижняя границы. Пусть базовая марковская цепь стационарна, и пусть будут наблюдаемыми состояниями, тогда мы имеем и в пределе , обе стороны сходятся к середине. [1]
Скорость энтропии может использоваться для оценки сложности стохастических процессов. Она используется в различных приложениях, начиная от характеристики сложности языков, слепого разделения источников и заканчивая оптимизацией квантизаторов и алгоритмов сжатия данных. Например, критерий максимальной скорости энтропии может использоваться для выбора признаков в машинном обучении . [2]