В теории информации теорема Шеннона–Хартли определяет максимальную скорость, с которой информация может передаваться по каналу связи с заданной полосой пропускания при наличии шума . Это приложение теоремы о кодировании канала с шумом к типичному случаю непрерывного во времени аналогового канала связи, подверженного гауссовскому шуму . Теорема устанавливает пропускную способность канала Шеннона для такого канала связи, ограничение на максимальный объем безошибочной информации за единицу времени, который может быть передан с заданной полосой пропускания при наличии шумовых помех, предполагая, что мощность сигнала ограничена, а процесс гауссовского шума характеризуется известной мощностью или спектральной плотностью мощности. Закон назван в честь Клода Шеннона и Ральфа Хартли .
Теорема Шеннона-Хартли устанавливает пропускную способность канала , то есть теоретически самую точную верхнюю границу скорости передачи данных, которую можно передать с произвольно низкой частотой ошибок , используя среднюю мощность принимаемого сигнала через аналоговый канал связи, подверженный аддитивному белому гауссовскому шуму (AWGN) мощностью :
где
В конце 1920-х годов Гарри Найквист и Ральф Хартли разработали несколько фундаментальных идей, связанных с передачей информации, особенно в контексте телеграфа как системы связи. В то время эти концепции были мощными прорывами по отдельности, но они не были частью всеобъемлющей теории. В 1940-х годах Клод Шеннон разработал концепцию пропускной способности канала, основанную частично на идеях Найквиста и Хартли, а затем сформулировал полную теорию информации и ее передачи.
В 1927 году Найквист определил, что число независимых импульсов, которые могут быть переданы по телеграфному каналу за единицу времени, ограничено двойной шириной полосы пропускания канала. В символической записи,
где - частота импульсов (в импульсах в секунду), а - ширина полосы пропускания (в герцах). Позже эта величина стала называться скоростью Найквиста , а передача с предельной частотой импульсов импульсов в секунду - передачей сигналов со скоростью Найквиста . Найквист опубликовал свои результаты в 1928 году в рамках своей статьи "Некоторые темы в теории телеграфной передачи". [1]
В 1928 году Хартли сформулировал способ количественной оценки информации и ее скорости передачи (также известной как скорость передачи данных R бит в секунду). [2] Этот метод, позже известный как закон Хартли, стал важным предшественником более сложного понятия Шеннона о пропускной способности канала.
Хартли утверждал, что максимальное количество различимых уровней импульсов, которые могут быть надежно переданы и приняты по каналу связи, ограничено динамическим диапазоном амплитуды сигнала и точностью, с которой приемник может различать уровни амплитуды. В частности, если амплитуда передаваемого сигнала ограничена диапазоном [− A ... + A ] вольт, а точность приемника составляет ±Δ V вольт, то максимальное количество различимых импульсов M определяется как
Приняв информацию на импульс в бит/импульс за логарифм по основанию 2 числа отдельных сообщений M , которые могли быть отправлены, Хартли [3] построил меру скорости линии R как:
где — частота импульсов, также известная как скорость передачи символов, в символах в секунду или бодах .
Затем Хартли объединил приведенную выше количественную оценку с наблюдением Найквиста, что число независимых импульсов, которые можно пропустить через канал с полосой пропускания герц, составляет импульсов в секунду, чтобы получить свою количественную меру достижимой скорости линии.
Закон Хартли иногда цитируется просто как пропорциональность между аналоговой полосой пропускания , в Герцах и тем, что сегодня называется цифровой полосой пропускания , в бит/с. [4] В других случаях он цитируется в более количественной форме, как достижимая скорость линии в битах в секунду: [5]
Хартли не выяснил, как именно число M должно зависеть от статистики шума канала или как можно сделать связь надежной, даже если отдельные импульсы символов не могут быть надежно различимы на уровнях M ; при использовании статистики гауссовского шума проектировщикам систем приходилось выбирать очень консервативное значение , чтобы добиться низкого уровня ошибок.
Концепция безошибочной пропускной способности была разработана Клодом Шенноном, который основывался на наблюдениях Хартли о логарифмической мере информации и наблюдениях Найквиста о влиянии ограничений полосы пропускания.
Результат скорости Хартли можно рассматривать как емкость безошибочного M -арного канала символов в секунду. Некоторые авторы называют его емкостью. Но такой безошибочный канал является идеализацией, и если M выбрано достаточно малым, чтобы сделать шумный канал почти безошибочным, результат обязательно будет меньше емкости Шеннона шумного канала полосы пропускания , что является результатом Хартли–Шеннона, который последовал позже.
Развитие теории информации Клодом Шенноном во время Второй мировой войны обеспечило следующий большой шаг в понимании того, сколько информации можно надежно передать через шумные каналы. Основываясь на фундаменте Хартли, теорема Шеннона о кодировании шумного канала (1948) описывает максимально возможную эффективность методов исправления ошибок в зависимости от уровней помех и искажения данных. [6] [7] Доказательство теоремы показывает, что случайно сконструированный код исправления ошибок по сути так же хорош, как и наилучший возможный код; теорема доказана с помощью статистики таких случайных кодов.
Теорема Шеннона показывает, как вычислить пропускную способность канала из статистического описания канала, и устанавливает, что если задан шумный канал с пропускной способностью и информацией, передаваемой со скоростью линии , то если
существует метод кодирования, который позволяет сделать вероятность ошибки в приемнике произвольно малой. Это означает, что теоретически возможно передавать информацию почти без ошибок вплоть до предела бит в секунду.
Обратное тоже важно. Если
вероятность ошибки на приемнике неограниченно возрастает с ростом скорости. Поэтому никакая полезная информация не может быть передана за пределы пропускной способности канала. Теорема не рассматривает редкую ситуацию, в которой скорость и пропускная способность равны.
Теорема Шеннона–Хартли устанавливает, какова пропускная способность канала для канала с конечной полосой пропускания и непрерывным временем, подверженного гауссовскому шуму. Она связывает результат Хартли с теоремой Шеннона о пропускной способности канала в форме, эквивалентной указанию M в формуле скорости линии Хартли в терминах отношения сигнал/шум, но достигая надежности посредством кодирования с исправлением ошибок, а не посредством надежно различимых уровней импульсов.
Если бы существовала такая вещь, как аналоговый канал без помех, по нему можно было бы передавать неограниченное количество безошибочных данных за единицу времени (обратите внимание, что аналоговый канал с бесконечной полосой пропускания не мог бы передавать неограниченное количество безошибочных данных в отсутствие бесконечной мощности сигнала). Однако реальные каналы подвержены ограничениям, налагаемым как конечной полосой пропускания, так и ненулевым шумом.
Полоса пропускания и шум влияют на скорость, с которой информация может передаваться по аналоговому каналу. Ограничения полосы пропускания сами по себе не накладывают ограничения на максимальную скорость передачи информации, поскольку сигнал все еще может принимать неопределенно большое количество различных уровней напряжения на каждом импульсе символа, причем каждому немного отличающемуся уровню присваивается разное значение или последовательность битов. Однако, принимая во внимание как ограничения шума, так и ограничения полосы пропускания, существует предел объему информации, который может быть передан сигналом ограниченной мощности, даже при использовании сложных многоуровневых методов кодирования.
В канале, рассматриваемом теоремой Шеннона–Хартли, шум и сигнал объединяются путем сложения. То есть приемник измеряет сигнал, который равен сумме сигнала, кодирующего желаемую информацию, и непрерывной случайной величины, представляющей шум. Это сложение создает неопределенность относительно значения исходного сигнала. Если у приемника есть некоторая информация о случайном процессе, который генерирует шум, в принципе можно восстановить информацию в исходном сигнале, рассмотрев все возможные состояния шумового процесса. В случае теоремы Шеннона–Хартли предполагается, что шум генерируется гауссовым процессом с известной дисперсией. Поскольку дисперсия гауссовского процесса эквивалентна его мощности, принято называть эту дисперсию мощностью шума.
Такой канал называется каналом аддитивного белого гауссовского шума, поскольку к сигналу добавляется гауссовский шум; «белый» означает одинаковое количество шума на всех частотах в пределах полосы пропускания канала. Такой шум может возникать как из случайных источников энергии, так и из-за ошибок кодирования и измерения на отправителе и получателе соответственно. Поскольку суммы независимых гауссовых случайных величин сами являются гауссовыми случайными величинами, это удобно упрощает анализ, если предположить, что такие источники ошибок также являются гауссовыми и независимыми.
Сравнивая пропускную способность канала со скоростью передачи информации из закона Хартли, можно найти эффективное число различимых уровней M : [8]
Квадратный корень эффективно преобразует отношение мощностей обратно в отношение напряжений, поэтому количество уровней приблизительно пропорционально отношению среднеквадратичной амплитуды сигнала к стандартному отклонению шума.
Это сходство по форме между емкостью Шеннона и законом Хартли не следует интерпретировать так, что уровни импульсов могут быть буквально отправлены без какой-либо путаницы. Больше уровней необходимо для обеспечения избыточного кодирования и исправления ошибок, но чистая скорость передачи данных, к которой можно приблизиться с помощью кодирования, эквивалентна использованию этого в законе Хартли.
В простой версии выше сигнал и шум полностью некоррелированы, в этом случае общая мощность принятого сигнала и шума вместе. Обобщение приведенного выше уравнения для случая, когда аддитивный шум не является белым (или что не является постоянным с частотой в полосе пропускания), получается путем обработки канала как множества узких, независимых гауссовых каналов параллельно:
где
Примечание: теорема применима только к гауссовскому стационарному шуму процесса . Способ введения частотно-зависимого шума этой формулой не может описывать все непрерывные во времени шумовые процессы. Например, рассмотрим шумовой процесс, состоящий из добавления случайной волны, амплитуда которой равна 1 или −1 в любой момент времени, и канал, который добавляет такую волну к исходному сигналу. Частотные компоненты такой волны сильно зависят. Хотя такой шум может иметь высокую мощность, довольно легко передать непрерывный сигнал с гораздо меньшей мощностью, чем это было бы необходимо, если бы базовый шум был суммой независимых шумов в каждой полосе частот.
Для больших или малых и постоянных отношений сигнал/шум формулу емкости можно аппроксимировать:
Когда SNR велико ( S / N ≫ 1 ), логарифм аппроксимируется выражением
в этом случае емкость логарифмическая по мощности и приблизительно линейная по полосе пропускания (не совсем линейная, поскольку N увеличивается с полосой пропускания, придавая логарифмический эффект). Это называется режимом с ограниченной полосой пропускания .
где
Аналогично, когда SNR мало (если ), применяем приближение к логарифму:
тогда мощность линейна по мощности. Это называется режимом ограничения мощности .
В этом приближении с низким отношением сигнал/шум емкость не зависит от полосы пропускания, если шум белый, и от спектральной плотности ватт на герц, в этом случае общая мощность шума равна .