stringtranslate.com

Теорема кодирования в шумном канале

В теории информации теорема о кодировании канала с шумом ( иногда теорема Шеннона или предел Шеннона ) устанавливает, что для любой заданной степени шумового загрязнения канала связи возможно (теоретически) передавать дискретные данные (цифровую информацию ) почти без ошибок до вычислимой максимальной скорости через канал. Этот результат был представлен Клодом Шенноном в 1948 году и был частично основан на более ранних работах и ​​идеях Гарри Найквиста и Ральфа Хартли .

Предел Шеннона или пропускная способность Шеннона канала связи относится к максимальной скорости безошибочных данных, которые теоретически могут быть переданы по каналу, если связь подвержена случайным ошибкам передачи данных, для определенного уровня шума. Впервые он был описан Шенноном (1948), и вскоре после этого опубликован в книге Шеннона и Уоррена Уивера под названием «Математическая теория связи» (1949). Это положило начало современной дисциплине теории информации .

Обзор

Сформулированная Клодом Шенноном в 1948 году, теорема описывает максимально возможную эффективность методов исправления ошибок в зависимости от уровней помех и искажения данных. Теорема Шеннона имеет широкое применение как в коммуникациях, так и в хранении данных . Эта теорема имеет основополагающее значение для современной области теории информации . Шеннон дал только схему доказательства. Первое строгое доказательство для дискретного случая приведено в (Feinstein 1954).

Теорема Шеннона утверждает, что при наличии шумного канала с пропускной способностью C и информации, передаваемой со скоростью R , если существуют коды , которые позволяют сделать вероятность ошибки в приемнике произвольно малой. Это означает, что теоретически возможно передавать информацию почти без ошибок на любой скорости ниже предельной скорости C.

Обратное также важно. Если , произвольно малая вероятность ошибки недостижима. Все коды будут иметь вероятность ошибки больше определенного положительного минимального уровня, и этот уровень увеличивается с ростом скорости. Таким образом, нельзя гарантировать, что информация будет надежно передана по каналу на скоростях, превышающих пропускную способность канала. Теорема не рассматривает редкую ситуацию, в которой скорость и пропускная способность равны.

Пропускную способность канала можно рассчитать на основе его физических свойств; для канала с ограниченной полосой пропускания и гауссовым шумом — с помощью теоремы Шеннона–Хартли .

Простые схемы, такие как «отправить сообщение 3 раза и использовать лучшую схему голосования 2 из 3, если копии различаются», являются неэффективными методами исправления ошибок, неспособными асимптотически гарантировать, что блок данных может быть передан без ошибок. Продвинутые методы, такие как коды Рида–Соломона и, в последнее время, коды с низкой плотностью проверки на четность (LDPC) и турбокоды , намного ближе подходят к достижению теоретического предела Шеннона, но ценой высокой вычислительной сложности. Используя эти высокоэффективные коды и вычислительную мощность современных цифровых сигнальных процессоров , теперь можно достичь очень близкого предела Шеннона. Фактически, было показано, что коды LDPC могут достигать предела Шеннона в пределах 0,0045 дБ (для каналов с двоичным аддитивным белым гауссовым шумом (AWGN) с очень большой длиной блока). [1]

Математическое утверждение

График, показывающий долю пропускной способности канала ( ось Y ), которую можно использовать для полезной нагрузки, в зависимости от уровня шума канала (вероятность инвертирования битов; ось X ).

Базовая математическая модель системы связи выглядит следующим образом:

Сообщение W передается через шумный канал с использованием функций кодирования и декодирования. Кодер отображает W в предопределенную последовательность символов канала длиной n . В своей самой базовой модели канал искажает каждый из этих символов независимо от других. Выход канала – полученная последовательность – подается в декодер , который отображает последовательность в оценку сообщения. В этой настройке вероятность ошибки определяется как:

Теорема (Шеннон, 1948):

1. Для каждого дискретного канала без памяти пропускная способность канала , определяемая в терминах взаимной информации как
[2]
имеет следующее свойство. Для любого и , для достаточно большого , существует код длины и скорости и алгоритм декодирования, такой что максимальная вероятность ошибки блока равна .
2. Если вероятность битовой ошибки приемлема, то достижимы скорости до , где
и является бинарным энтропийным функционалом
3. Для любого , ставки большие, чем недостижимы.

(Маккей (2003), стр. 162; ср. Галлагер (1968), гл. 5; Кавер и Томас (1991), стр. 198; Шеннон (1948), том. 11)

Схема доказательства

Как и в случае с несколькими другими важными результатами в теории информации, доказательство теоремы о кодировании канала с шумом включает в себя результат о достижимости и обратный результат о сопоставлении. Эти два компонента служат для ограничения, в данном случае, набора возможных скоростей, с которыми можно общаться по каналу с шумом, а сопоставление служит для демонстрации того, что эти границы являются жесткими.

Приведенные ниже схемы представляют собой лишь один из множества различных стилей, доступных для изучения в текстах по теории информации.

Достижимость для дискретных каналов без памяти

Это конкретное доказательство достижимости следует стилю доказательств, которые используют свойство асимптотического равнораспределения (AEP). Другой стиль можно найти в текстах по теории информации, использующих показатели ошибок .

Оба типа доказательств используют аргумент случайного кодирования, при котором кодовая книга, используемая в канале, формируется случайным образом. Это упрощает анализ и в то же время доказывает существование кода, удовлетворяющего требуемой низкой вероятности ошибки при любой скорости передачи данных ниже пропускной способности канала .

Используя аргумент, связанный с AEP, учитывая канал, длину строк исходных символов и длину строк выходов канала , мы можем определить совместно типичный набор следующим образом:

Мы говорим, что две последовательности и являются совместно типичными , если они лежат в совместно типичном множестве, определенном выше.

Шаги

  1. В стиле аргумента случайного кодирования мы случайным образом генерируем кодовые слова длины n из распределения вероятностей Q.
  2. Этот код раскрывается отправителю и получателю. Также предполагается, что известна матрица перехода для используемого канала.
  3. Сообщение W выбирается в соответствии с равномерным распределением на наборе кодовых слов. То есть, .
  4. Сообщение W отправляется по каналу.
  5. Приемник получает последовательность в соответствии с
  6. Отправляя эти кодовые слова по каналу, мы получаем и декодируем в некоторую исходную последовательность, если существует ровно 1 кодовое слово, которое является совместно типичным с Y. Если нет совместно типичных кодовых слов или если их больше одного, объявляется ошибка. Ошибка также возникает, если декодированное кодовое слово не соответствует исходному кодовому слову. Это называется декодированием типичного набора .

Вероятность ошибки этой схемы делится на две части:

  1. Во-первых, ошибка может возникнуть, если для полученной последовательности Y не найдено ни одной совместно типичной последовательности X.
  2. Во-вторых, ошибка может возникнуть, если неверная последовательность X является типичной для полученной последовательности Y.

Определять:

как событие, что сообщение i является совместно типичным с последовательностью, полученной при отправке сообщения 1.

Мы можем заметить, что при стремлении к бесконечности, если для канала вероятность ошибки будет стремиться к 0.

Наконец, учитывая, что средняя кодовая книга является «хорошей», мы знаем, что существует кодовая книга, производительность которой выше средней, и, таким образом, удовлетворяет нашу потребность в произвольно низкой вероятности ошибок при передаче данных по зашумленному каналу.

Слабое обращение для дискретных каналов без памяти

Предположим, что есть код кодовых слов. Пусть W равномерно нарисовано по этому набору как индекс. Пусть и будут переданными кодовыми словами и принятыми кодовыми словами соответственно.

  1. использование идентичностей, включающих энтропию и взаимную информацию
  2. поскольку X является функцией W
  3. с помощью неравенства Фано
  4. тем, что емкость взаимной информации максимизируется.

Результатом этих шагов является то, что . Поскольку длина блока стремится к бесконечности, мы получаем , что она ограничена 0, если R больше C - мы можем получить произвольно низкие показатели ошибок, только если R меньше C.

Строгое обратное утверждение для дискретных каналов без памяти

Сильная обратная теорема, доказанная Вулфовицем в 1957 году [3] , гласит, что

для некоторой конечной положительной константы . В то время как слабое обратное утверждение утверждает, что вероятность ошибки стремится от нуля к бесконечности, сильное обратное утверждение утверждает, что ошибка стремится к 1. Таким образом, является резким порогом между совершенно надежной и совершенно ненадежной связью.

Теорема кодирования каналов для нестационарных каналов без памяти

Мы предполагаем, что канал не имеет памяти, но его вероятности перехода со временем изменяются способом, известным как передатчику, так и приемнику.

Тогда пропускная способность канала определяется как

Максимум достигается при распределении пропускной способности для каждого соответствующего канала. То есть, где — пропускная способность i- го канала.

План доказательства

Доказательство проводится почти так же, как и доказательство теоремы о канальном кодировании. Достижимость следует из случайного кодирования, когда каждый символ выбирается случайным образом из распределения, достигающего емкости для этого конкретного канала. Аргументы о типичности используют определение типичных множеств для нестационарных источников, определенных в статье о свойстве асимптотического равнораспределения .

Технический аспект lim inf вступает в игру, когда не сходится.

Смотрите также

Примечания

  1. ^ Sae-Young Chung; Forney, GD ; Richardson, TJ; Urbank, R. (февраль 2001 г.). «О разработке кодов с низкой плотностью проверок на четность в пределах 0,0045 дБ от предела Шеннона» (PDF) . IEEE Communications Letters . 5 (2): 58–60. doi :10.1109/4234.905935. S2CID  7381972.
  2. ^ Описание функции "sup" см. в разделе Supremum.
  3. ^ Галлагер, Роберт (1968). Теория информации и надежная связь . Wiley. ISBN 0-471-29048-3.

Ссылки