В теории информации теорема о кодировании канала с шумом ( иногда теорема Шеннона или предел Шеннона ) устанавливает, что для любой заданной степени шумового загрязнения канала связи возможно (теоретически) передавать дискретные данные (цифровую информацию ) почти без ошибок до вычислимой максимальной скорости через канал. Этот результат был представлен Клодом Шенноном в 1948 году и был частично основан на более ранних работах и идеях Гарри Найквиста и Ральфа Хартли .
Предел Шеннона или пропускная способность Шеннона канала связи относится к максимальной скорости безошибочных данных, которые теоретически могут быть переданы по каналу, если связь подвержена случайным ошибкам передачи данных, для определенного уровня шума. Впервые он был описан Шенноном (1948), и вскоре после этого опубликован в книге Шеннона и Уоррена Уивера под названием «Математическая теория связи» (1949). Это положило начало современной дисциплине теории информации .
Обзор
Сформулированная Клодом Шенноном в 1948 году, теорема описывает максимально возможную эффективность методов исправления ошибок в зависимости от уровней помех и искажения данных. Теорема Шеннона имеет широкое применение как в коммуникациях, так и в хранении данных . Эта теорема имеет основополагающее значение для современной области теории информации . Шеннон дал только схему доказательства. Первое строгое доказательство для дискретного случая приведено в (Feinstein 1954).
Теорема Шеннона утверждает, что при наличии шумного канала с пропускной способностью C и информации, передаваемой со скоростью R , если существуют коды , которые позволяют сделать вероятность ошибки в приемнике произвольно малой. Это означает, что теоретически возможно передавать информацию почти без ошибок на любой скорости ниже предельной скорости C.
Обратное также важно. Если , произвольно малая вероятность ошибки недостижима. Все коды будут иметь вероятность ошибки больше определенного положительного минимального уровня, и этот уровень увеличивается с ростом скорости. Таким образом, нельзя гарантировать, что информация будет надежно передана по каналу на скоростях, превышающих пропускную способность канала. Теорема не рассматривает редкую ситуацию, в которой скорость и пропускная способность равны.
Пропускную способность канала можно рассчитать на основе его физических свойств; для канала с ограниченной полосой пропускания и гауссовым шумом — с помощью теоремы Шеннона–Хартли .
Простые схемы, такие как «отправить сообщение 3 раза и использовать лучшую схему голосования 2 из 3, если копии различаются», являются неэффективными методами исправления ошибок, неспособными асимптотически гарантировать, что блок данных может быть передан без ошибок. Продвинутые методы, такие как коды Рида–Соломона и, в последнее время, коды с низкой плотностью проверки на четность (LDPC) и турбокоды , намного ближе подходят к достижению теоретического предела Шеннона, но ценой высокой вычислительной сложности. Используя эти высокоэффективные коды и вычислительную мощность современных цифровых сигнальных процессоров , теперь можно достичь очень близкого предела Шеннона. Фактически, было показано, что коды LDPC могут достигать предела Шеннона в пределах 0,0045 дБ (для каналов с двоичным аддитивным белым гауссовым шумом (AWGN) с очень большой длиной блока). [1]
Математическое утверждение
Базовая математическая модель системы связи выглядит следующим образом:
Сообщение W передается через шумный канал с использованием функций кодирования и декодирования. Кодер отображает W в предопределенную последовательность символов канала длиной n . В своей самой базовой модели канал искажает каждый из этих символов независимо от других. Выход канала – полученная последовательность – подается в декодер , который отображает последовательность в оценку сообщения. В этой настройке вероятность ошибки определяется как:
имеет следующее свойство. Для любого и , для достаточно большого , существует код длины и скорости и алгоритм декодирования, такой что максимальная вероятность ошибки блока равна .
2. Если вероятность битовой ошибки приемлема, то достижимы скорости до , где
(Маккей (2003), стр. 162; ср. Галлагер (1968), гл. 5; Кавер и Томас (1991), стр. 198; Шеннон (1948), том. 11)
Схема доказательства
Как и в случае с несколькими другими важными результатами в теории информации, доказательство теоремы о кодировании канала с шумом включает в себя результат о достижимости и обратный результат о сопоставлении. Эти два компонента служат для ограничения, в данном случае, набора возможных скоростей, с которыми можно общаться по каналу с шумом, а сопоставление служит для демонстрации того, что эти границы являются жесткими.
Приведенные ниже схемы представляют собой лишь один из множества различных стилей, доступных для изучения в текстах по теории информации.
Оба типа доказательств используют аргумент случайного кодирования, при котором кодовая книга, используемая в канале, формируется случайным образом. Это упрощает анализ и в то же время доказывает существование кода, удовлетворяющего требуемой низкой вероятности ошибки при любой скорости передачи данных ниже пропускной способности канала .
Используя аргумент, связанный с AEP, учитывая канал, длину строк исходных символов и длину строк выходов канала , мы можем определить совместно типичный набор следующим образом:
Мы говорим, что две последовательности и являются совместно типичными , если они лежат в совместно типичном множестве, определенном выше.
Шаги
В стиле аргумента случайного кодирования мы случайным образом генерируем кодовые слова длины n из распределения вероятностей Q.
Этот код раскрывается отправителю и получателю. Также предполагается, что известна матрица перехода для используемого канала.
Сообщение W выбирается в соответствии с равномерным распределением на наборе кодовых слов. То есть, .
Сообщение W отправляется по каналу.
Приемник получает последовательность в соответствии с
Отправляя эти кодовые слова по каналу, мы получаем и декодируем в некоторую исходную последовательность, если существует ровно 1 кодовое слово, которое является совместно типичным с Y. Если нет совместно типичных кодовых слов или если их больше одного, объявляется ошибка. Ошибка также возникает, если декодированное кодовое слово не соответствует исходному кодовому слову. Это называется декодированием типичного набора .
Вероятность ошибки этой схемы делится на две части:
Во-первых, ошибка может возникнуть, если для полученной последовательности Y не найдено ни одной совместно типичной последовательности X.
Во-вторых, ошибка может возникнуть, если неверная последовательность X является типичной для полученной последовательности Y.
В силу случайности построения кода можно предположить, что средняя вероятность ошибки, усредненная по всем кодам, не зависит от переданного индекса. Таким образом, без потери общности можно предположить, что W = 1.
Из совместного AEP мы знаем, что вероятность того, что не существует совместно типичного X, стремится к 0 по мере увеличения n. Мы можем ограничить эту вероятность ошибки значением .
Также из совместного AEP мы знаем, что вероятность того, что частное и полученное из W = 1 являются совместно типичными, равна .
Определять:
как событие, что сообщение i является совместно типичным с последовательностью, полученной при отправке сообщения 1.
Мы можем заметить, что при стремлении к бесконечности, если для канала вероятность ошибки будет стремиться к 0.
Наконец, учитывая, что средняя кодовая книга является «хорошей», мы знаем, что существует кодовая книга, производительность которой выше средней, и, таким образом, удовлетворяет нашу потребность в произвольно низкой вероятности ошибок при передаче данных по зашумленному каналу.
Слабое обращение для дискретных каналов без памяти
Предположим, что есть код кодовых слов. Пусть W равномерно нарисовано по этому набору как индекс. Пусть и будут переданными кодовыми словами и принятыми кодовыми словами соответственно.
использование идентичностей, включающих энтропию и взаимную информацию
тем, что емкость взаимной информации максимизируется.
Результатом этих шагов является то, что . Поскольку длина блока стремится к бесконечности, мы получаем , что она ограничена 0, если R больше C - мы можем получить произвольно низкие показатели ошибок, только если R меньше C.
Строгое обратное утверждение для дискретных каналов без памяти
Сильная обратная теорема, доказанная Вулфовицем в 1957 году [3] , гласит, что
для некоторой конечной положительной константы . В то время как слабое обратное утверждение утверждает, что вероятность ошибки стремится от нуля к бесконечности, сильное обратное утверждение утверждает, что ошибка стремится к 1. Таким образом, является резким порогом между совершенно надежной и совершенно ненадежной связью.
Теорема кодирования каналов для нестационарных каналов без памяти
Мы предполагаем, что канал не имеет памяти, но его вероятности перехода со временем изменяются способом, известным как передатчику, так и приемнику.
Тогда пропускная способность канала определяется как
Максимум достигается при распределении пропускной способности для каждого соответствующего канала. То есть,
где — пропускная способность i- го канала.
План доказательства
Доказательство проводится почти так же, как и доказательство теоремы о канальном кодировании. Достижимость следует из случайного кодирования, когда каждый символ выбирается случайным образом из распределения, достигающего емкости для этого конкретного канала. Аргументы о типичности используют определение типичных множеств для нестационарных источников, определенных в статье о свойстве асимптотического равнораспределения .
Технический аспект lim inf вступает в игру, когда не сходится.
^ Sae-Young Chung; Forney, GD ; Richardson, TJ; Urbank, R. (февраль 2001 г.). «О разработке кодов с низкой плотностью проверок на четность в пределах 0,0045 дБ от предела Шеннона» (PDF) . IEEE Communications Letters . 5 (2): 58–60. doi :10.1109/4234.905935. S2CID 7381972.
Фано, Р. М. (1961). Передача информации; статистическая теория коммуникаций . MIT Press. ISBN 0-262-06001-9.
Файнстайн, Амиель (сентябрь 1954 г.). «Новая основная теорема теории информации». Труды Профессиональной группы IRE по теории информации . 4 (4): 2–22. Bibcode :1955PhDT........12F. doi :10.1109/TIT.1954.1057459. hdl : 1721.1/4798 .
Лундхейм, Ларс (2002). «О Шенноне и формуле Шеннона» (PDF) . Telektronik . 98 (1): 20–29.
MacKay, David JC (2003). Теория информации, вывод и алгоритмы обучения. Cambridge University Press. ISBN 0-521-64298-1. [бесплатно онлайн]
Шеннон, CE (1948). «Математическая теория связи». Bell System Technical Journal . 27 (3): 379–423. doi :10.1002/j.1538-7305.1948.tb01338.x.
Шеннон, CE (1998) [1948]. Математическая теория коммуникации. Издательство Иллинойсского университета.
Вулфовиц, Дж. (1957). «Кодирование сообщений, подверженных случайным ошибкам». Illinois J. Math . 1 (4): 591–606. doi : 10.1215/ijm/1255380682 .