В теории информации типичный набор — это набор последовательностей, вероятность которых близка к двум, возведенным в отрицательную степень энтропии их исходного распределения. То, что этот набор имеет общую вероятность, близкую к единице, является следствием свойства асимптотического равнораспределения (AEP), которое является своего рода законом больших чисел . Понятие типичности касается только вероятности последовательности, а не самой последовательности.
Это имеет большое применение в теории сжатия , поскольку обеспечивает теоретические средства для сжатия данных, позволяя нам представлять любую последовательность X n с использованием в среднем nH ( X ) бит и, следовательно, оправдывая использование энтропии в качестве меры информации из источника.
AEP также может быть доказан для большого класса стационарных эргодических процессов , что позволяет определить типичное множество в более общих случаях.
Кроме того, концепция типичного набора является основополагающей для понимания ограничений передачи данных и исправления ошибок в системах связи. Используя свойства типичных последовательностей, разрабатываются эффективные схемы кодирования, такие как теорема Шеннона о кодировании источника и теорема о кодировании канала, что позволяет осуществлять почти оптимальное сжатие данных и надежную передачу по зашумленным каналам.
Если последовательность x 1 , ..., x n получена из независимой одинаково распределенной случайной величины (IID) X , определенной над конечным алфавитом , то типичный набор A ε ( n ) ( n ) определяется как те последовательности, которые удовлетворяют:
где
есть информационная энтропия X. Вероятность выше должна быть только в пределах множителя 2 n ε . Взяв логарифм со всех сторон и разделив на -n , это определение можно эквивалентно сформулировать как
Для последовательности iid, так как
у нас далее есть
По закону больших чисел, для достаточно большого n
Существенной характеристикой типичного набора является то, что если из распределения X извлечь большое количество n независимых случайных выборок , то полученная последовательность ( x 1 , x 2 , ..., x n ) с большой вероятностью будет членом типичного набора, даже если типичный набор содержит лишь малую часть всех возможных последовательностей. Формально, при любом можно выбрать n таким образом, что:
Для общего стохастического процесса { X ( t )} с AEP (слабо) типичный набор может быть определен аналогично с заменой p ( x1 , x2 , ..., xn ) на p ( x0τ ) (т.е. вероятность выборки, ограниченной временным интервалом [0, τ ] ) , n — степень свободы процесса во временном интервале, а H ( X ) — скорость энтропии . Если процесс имеет непрерывные значения, вместо этого используется дифференциальная энтропия .
Вопреки интуиции, наиболее вероятная последовательность часто не является членом типичного набора. Например, предположим, что X — это iid Бернуллиевская случайная величина с p (0) = 0,1 и p (1) = 0,9. В n независимых испытаниях, поскольку p (1) > p (0), наиболее вероятная последовательность исхода — это последовательность всех единиц, (1,1,...,1). Здесь энтропия X равна H ( X ) = 0,469, тогда как
Таким образом, эта последовательность не входит в типичный набор, поскольку ее средняя логарифмическая вероятность не может сколь угодно близко подходить к энтропии случайной величины X, независимо от того, насколько большим мы возьмем значение n .
Для случайных величин Бернулли типичный набор состоит из последовательностей со средним числом нулей и единиц в n независимых испытаниях. Это легко продемонстрировать: если p(1) = p и p(0) = 1-p , то для n испытаний с m единицами мы имеем
Среднее число единиц в последовательности испытаний Бернулли равно m = np . Таким образом, имеем
Для этого примера, если n = 10, то типичный набор состоит из всех последовательностей, которые имеют один 0 во всей последовательности. В случае, если p (0) = p (1) = 0,5, то все возможные двоичные последовательности принадлежат типичному набору.
Если последовательность x 1 , ..., x n взята из некоторого заданного совместного распределения, определенного над конечным или бесконечным алфавитом , то строго типичное множество, A ε,strong ( n ), определяется как множество последовательностей, которые удовлетворяют
где — количество появлений определенного символа в последовательности.
Можно показать, что сильно типичные последовательности также являются слабо типичными (с другой константой ε), отсюда и название. Однако эти две формы не эквивалентны. С сильной типичностью часто проще работать при доказательстве теорем для каналов без памяти. Однако, как видно из определения, эта форма типичности определена только для случайных величин, имеющих конечный носитель.
Две последовательности и являются совместно ε-типичными, если пара является ε-типичной относительно совместного распределения и обе и являются ε-типичными относительно своих маргинальных распределений и . Множество всех таких пар последовательностей обозначается как . Совместно ε-типичные n -кортежные последовательности определяются аналогично.
Пусть и — две независимые последовательности случайных величин с одинаковыми маргинальными распределениями и . Тогда для любого ε>0 при достаточно большом n совместно типичные последовательности удовлетворяют следующим свойствам:
В теории информации типичное кодирование набора кодирует только последовательности в типичном наборе стохастического источника с фиксированной длиной блочных кодов. Поскольку размер типичного набора составляет около 2 nH(X) , для кодирования требуется только nH(X) бит, в то же время гарантируя, что вероятность ошибки кодирования ограничена ε. Асимптотически, согласно AEP, это без потерь и достигает минимальной скорости, равной скорости энтропии источника.
В теории информации типичное декодирование набора используется в сочетании со случайным кодированием для оценки переданного сообщения как сообщения с кодовым словом, которое является совместно ε-типичным с наблюдением. т.е.
где — оценка сообщения, кодовое слово сообщения и наблюдение соответственно. определяется относительно совместного распределения , где — вероятность перехода, характеризующая статистику канала, а — некоторое входное распределение, используемое для генерации кодовых слов в случайной кодовой книге.