Согласно теореме о кодировании канала с шумом , пропускная способность данного канала — это наивысшая скорость передачи информации (в единицах информации в единицу времени), которая может быть достигнута с произвольно малой вероятностью ошибки. [1] [2]
Теория информации , разработанная Клодом Э. Шенноном в 1948 году, определяет понятие пропускной способности канала и предоставляет математическую модель, с помощью которой она может быть вычислена. Ключевой результат гласит, что пропускная способность канала, как определено выше, задается максимумом взаимной информации между входом и выходом канала, где максимизация относится к распределению входных данных. [3]
Понятие пропускной способности канала стало центральным при разработке современных проводных и беспроводных систем связи с появлением новых механизмов кодирования с исправлением ошибок , которые привели к достижению производительности, очень близкой к пределам, обещанным пропускной способностью канала.
Формальное определение
Базовая математическая модель системы связи выглядит следующим образом:
где:
это сообщение, которое должно быть передано;
- входной символ канала ( последовательность символов), взятый в алфавите ;
- выходной символ канала ( последовательность символов), взятый в алфавите ;
что, в свою очередь, вызывает взаимную информацию . Пропускная способность канала определяется как
где супремум берется по всем возможным вариантам выбора .
Аддитивность пропускной способности канала
Пропускная способность канала является аддитивной по сравнению с независимыми каналами. [4] Это означает, что использование двух независимых каналов в комбинированном режиме обеспечивает ту же теоретическую пропускную способность, что и их независимое использование. Более формально, пусть и будут двумя независимыми каналами, смоделированными, как указано выше; имеющими входной алфавит и выходной алфавит . То же самое для . Мы определяем канал продукта как
Эта теорема гласит:
Доказательство
Сначала покажем, что .
Пусть и будут двумя независимыми случайными величинами. Пусть будет случайной величиной, соответствующей выходу через канал , и для через .
По определению .
Так как и независимы, а также и , независимы от . Мы можем применить следующее свойство взаимной информации :
Сейчас нам нужно только найти распределение такое, что . Фактически, и , достаточно двух распределений вероятностей для и достижения и :
т.е.
Теперь покажем это .
Пусть будет некоторым распределением для определения канала и соответствующего выхода . Пусть будет алфавитом для , и аналогично и .
По определению канала продукта, . Для данной пары мы можем переписать как:
Просуммировав это равенство по всем , получим .
Теперь мы можем дать верхнюю границу взаимной информации:
Это отношение сохраняется в супремуме. Поэтому
Объединяя два доказанных нами неравенства, получаем результат теоремы:
Емкость Шеннона графа
Если G — неориентированный граф , его можно использовать для определения канала связи, в котором символы являются вершинами графа, и два кодовых слова могут быть перепутаны друг с другом, если их символы в каждой позиции равны или смежны. Вычислительная сложность нахождения пропускной способности Шеннона такого канала остается открытой, но ее можно ограничить сверху другим важным инвариантом графа — числом Ловаса . [5]
Теорема кодирования в шумном канале
Теорема кодирования канала с шумом гласит, что для любой вероятности ошибки ε > 0 и для любой скорости передачи R, меньшей пропускной способности канала C , существует схема кодирования и декодирования, передающая данные со скоростью R , вероятность ошибки которой меньше ε, для достаточно большой длины блока. Кроме того, для любой скорости, большей пропускной способности канала, вероятность ошибки на приемнике стремится к 0,5, когда длина блока стремится к бесконечности.
C измеряется в битах в секунду, если логарифм берется по основанию 2, или в нацах в секунду, если используется натуральный логарифм , предполагая, что B измеряется в герцах ; мощности сигнала и шума S и N выражаются в линейных единицах мощности (например, ваттах или вольтах 2 ). Поскольку показатели S/N часто приводятся в дБ , может потребоваться преобразование. Например, отношение сигнал/шум 30 дБ соответствует линейному отношению мощности .
Оценка пропускной способности канала
Чтобы определить пропускную способность канала, необходимо найти распределение, обеспечивающее пропускную способность , и оценить взаимную информацию . Исследования в основном были сосредоточены на изучении каналов аддитивного шума при определенных ограничениях мощности и распределениях шума, поскольку аналитические методы нецелесообразны в большинстве других сценариев. Поэтому в литературе были предложены альтернативные подходы, такие как исследование поддержки входных данных, [6] релаксации [7] и ограничения пропускной способности [8] .
Пропускную способность дискретного канала без памяти можно вычислить с помощью алгоритма Блахута-Аримото .
Глубокое обучение может быть использовано для оценки пропускной способности канала. Фактически, пропускная способность канала и распределение достижения пропускной способности любого дискретного по времени непрерывного векторного канала без памяти могут быть получены с помощью CORTICAL [9] , кооперативной структуры, вдохновленной генеративно-состязательными сетями . CORTICAL состоит из двух кооперативных сетей: генератора, цель которого — научиться делать выборки из входного распределения достижения пропускной способности, и дискриминатора, цель которого — научиться различать парные и непарные выборки и оценки входных-выходных каналов .
Пропускная способность канала беспроводной связи
В этом разделе [10] основное внимание уделяется сценарию с одной антенной, точка-точка. Для информации о пропускной способности канала в системах с несколькими антеннами см. статью о MIMO .
Канал AWGN с ограниченной полосой пропускания
Если средняя принимаемая мощность равна [Вт], общая полоса пропускания выражена в герцах, а спектральная плотность мощности шума равна [Вт/Гц], то пропускная способность канала AWGN равна
[бит/с],
где - полученное отношение сигнал/шум (SNR). Этот результат известен как теорема Шеннона-Хартли . [11]
Когда SNR велико (SNR ≫ 0 дБ), емкость логарифмическая по мощности и приблизительно линейная по полосе пропускания. Это называется режимом с ограниченной полосой пропускания .
Когда SNR мало (SNR ≪ 0 дБ), емкость линейна по мощности, но нечувствительна к полосе пропускания. Это называется режимом ограничения мощности .
На рисунке проиллюстрированы режимы ограничения полосы пропускания и мощности.
где и - коэффициент усиления подканала , выбранный для удовлетворения ограничения мощности.
Медленно затухающий канал
В канале с медленным замиранием , где время когерентности больше, чем требуемое время задержки, нет определенной емкости, поскольку максимальная скорость надежной связи, поддерживаемая каналом, зависит от случайного коэффициента усиления канала , который неизвестен передатчику. Если передатчик кодирует данные со скоростью [бит/с/Гц], существует ненулевая вероятность того, что вероятность ошибки декодирования не может быть сделана произвольно малой,
,
в этом случае говорят, что система находится в состоянии отключения. При ненулевой вероятности того, что канал находится в состоянии глубокого замирания, пропускная способность медленно замирающего канала в строгом смысле равна нулю. Однако можно определить наибольшее значение такое, что вероятность отключения будет меньше . Это значение известно как пропускная способность -отключения.
Быстро затухающий канал
В канале с быстрым замиранием , где требования к задержке больше, чем время когерентности, а длина кодового слова охватывает много периодов когерентности, можно усреднить по многим независимым замираниям канала, кодируя по большому количеству интервалов времени когерентности. Таким образом, можно достичь надежной скорости связи [бит/с/Гц], и имеет смысл говорить об этом значении как о емкости канала с быстрым замиранием.
Емкость обратной связи
Пропускная способность обратной связи — это наибольшая скорость, с которой информация может быть надежно передана за единицу времени по каналу связи точка-точка , в котором приемник возвращает выходные данные канала передатчику. Информационно-теоретический анализ систем связи, включающих обратную связь, более сложен и труден, чем без обратной связи. Возможно, именно по этой причине CE Shannon выбрал обратную связь в качестве темы первой лекции Shannon, прочитанной на Международном симпозиуме IEEE по теории информации в 1973 году в Ашкелоне, Израиль.
Пропускная способность обратной связи характеризуется максимумом направленной информации между входами канала и выходами канала, где максимизация осуществляется по отношению к причинной обусловленности входа при заданном выходе. Направленная информация была введена Джеймсом Мэсси [12] в 1990 году, который показал, что это верхняя граница пропускной способности обратной связи. Для каналов без памяти Шеннон показал [13] , что обратная связь не увеличивает пропускную способность, а пропускная способность обратной связи совпадает с пропускной способностью канала, характеризуемой взаимной информацией между входом и выходом. Пропускная способность обратной связи известна как выражение в замкнутой форме только для нескольких примеров, таких как: канал Trapdoor, [14] канал Изинга, [15] [16] двоичный стирающий канал с ограничением на вход без последовательных единиц, каналы NOST.
Базовая математическая модель системы связи выглядит следующим образом:
Вот формальное определение каждого элемента (где единственное отличие относительно емкости без обратной связи — это определение кодера):
представляет собой передаваемое сообщение, записанное в алфавите ;
- входной символ канала ( последовательность символов), взятый в алфавите ;
- выходной символ канала ( последовательность символов), взятый в алфавите ;
оценка переданного сообщения;
— функция кодирования в момент времени для блока длиной ;
То есть, для каждого времени существует обратная связь предыдущего вывода , так что кодер имеет доступ ко всем предыдущим выводам . Код представляет собой пару отображений кодирования и декодирования с , и равномерно распределен. Скорость считается достижимой, если существует последовательность кодов, такая что средняя вероятность ошибки: стремится к нулю при .
Пропускная способность обратной связи обозначается как и определяется как супремум по всем достижимым скоростям.
Основные результаты по способности обратной связи
Пусть и моделируются как случайные величины. Причинно-следственная обусловленность описывает заданный канал. Выбор причинно-следственного распределения определяет совместное распределение из-за цепного правила для причинно-следственной обусловленности [17], которое, в свою очередь, индуцирует направленную информацию .
Мощность обратной связи определяется по формуле
,
где супремум берется по всем возможным вариантам выбора .
Гауссовская емкость обратной связи
Когда гауссовский шум окрашен, канал имеет память. Рассмотрим, например, простой случай на авторегрессионном модельном процессе шума , где есть iid-процесс.
Методы решения
Пропускную способность обратной связи трудно решить в общем случае. Существуют некоторые методы, связанные с теорией управления и марковскими процессами принятия решений , если канал дискретный.
Пропускная способность канала AWGN с различными ограничениями на входе канала (интерактивная демонстрация)
Ссылки
^ Салим Бхатти. "Пропускная способность канала". Конспект лекций для магистратуры. Сети передачи данных и распределенные системы D51 -- Основы коммуникаций и сетей . Архивировано из оригинала 21-08-2007.
^ Джим Лесёрф. «Сигналы выглядят как шум!». Информация и измерения, 2-е изд .
^ Томас М. Кавер, Джой А. Томас (2006). Элементы теории информации. John Wiley & Sons, Нью-Йорк. ISBN9781118585771.
^ Обложка, Томас М.; Томас, Джой А. (2006). "Глава 7: Пропускная способность канала". Элементы теории информации (Второе изд.). Wiley-Interscience. С. 206–207. ISBN978-0-471-24195-9.
^ Смит, Джоэл Г. (1971). «Информационная емкость склер-гауссовых каналов с ограничениями по амплитуде и дисперсии». Информация и управление . 18 (3): 203–219. doi :10.1016/S0019-9958(71)90346-9.
^ Хуан, Дж.; Мейн, С. П. (2005). «Характеристика и вычисление оптимальных распределений для канального кодирования». Труды IEEE по теории информации . 51 (7): 2336–2351. doi :10.1109/TIT.2005.850108. ISSN 0018-9448. S2CID 2560689.
^ Маккеллипс, АЛ (2004). "Простые строгие границы пропускной способности для дискретного канала с ограничением по пикам". Международный симпозиум по теории информации, 2004. ISIT 2004. Труды . IEEE. стр. 348. doi :10.1109/ISIT.2004.1365385. ISBN978-0-7803-8280-0. S2CID 41462226.
^ Летиция, Нунцио А.; Тонелло, Андреа М.; Пур, Х. Винсент (2023). «Кооперативное обучение пропускной способности канала». IEEE Communications Letters . 27 (8): 1984–1988. arXiv : 2305.13493 . doi : 10.1109/LCOMM.2023.3282307. ISSN 1089-7798.
^ Дэвид Це, Прамод Вишванат (2005), Основы беспроводной связи, Cambridge University Press, Великобритания, ISBN9780521845274
^ Справочник по электротехнике. Ассоциация исследований и образования. 1996. стр. D-149. ISBN9780878919819.
^ Мэсси, Джеймс (ноябрь 1990 г.). «Причинность, обратная связь и направленная информация» (PDF) . Proc. 1990 Int. Symp. On Information Theory and Its Applications (ISITA-90), Waikiki, HI. : 303–305.
^ Шеннон, К. (сентябрь 1956 г.). «Нулевая пропускная способность канала с шумом». Труды IEEE по теории информации . 2 (3): 8–19. doi :10.1109/TIT.1956.1056798.
^ Пермутер, Хаим; Кафф, Пол; Ван Рой, Бенджамин; Вайсман, Цахи (июль 2008 г.). «Пропускная способность канала с люком и обратной связью» (PDF) . IEEE Trans. Inf. Theory . 54 (7): 3150–3165. arXiv : cs/0610047 . doi :10.1109/TIT.2008.924681. S2CID 1265.
^ Элишко, Охад; Пермутер, Хаим (сентябрь 2014 г.). «Пропускная способность и кодирование для канала Изинга с обратной связью». Труды IEEE по теории информации . 60 (9): 5138–5149. arXiv : 1205.4674 . doi : 10.1109/TIT.2014.2331951. S2CID 9761759.
^ Ахарони, Зив; Сабаг, Орон; Пермутер, Хаим Х. (сентябрь 2022 г.). «Емкость обратной связи каналов Изинга с большим алфавитом с помощью обучения с подкреплением». Труды IEEE по теории информации . 68 (9): 5637–5656. doi :10.1109/TIT.2022.3168729. S2CID 248306743.
^ Пермутэр, Хаим Генри; Вайсман, Цахи; Голдсмит, Андреа Дж. (февраль 2009 г.). «Конечные каналы с инвариантной во времени детерминированной обратной связью». Труды IEEE по теории информации . 55 (2): 644–662. arXiv : cs/0608070 . doi : 10.1109/TIT.2008.2009849. S2CID 13178.