Теорема Шеннона – Хартли

редактировать
Теорема, которая сообщает максимальную скорость, с которой может передаваться информация

В теории информации, теорема Шеннона – Хартли указывает максимальную скорость, с которой информация может передаваться по каналу связи с указанной шириной полосы в присутствии шума. Это приложение теоремы о кодировании канала с шумом к типичному случаю непрерывного времени аналогового канала связи с учетом Гауссов шум. Теорема устанавливает пропускную способность канала Шеннона для такого канала связи, ограничение на максимальное количество безошибочной информации за единицу времени, которое может быть передано с указанной полосой пропускания при наличии шумовых помех, предполагая, что мощность сигнала ограничена и что процесс гауссовского шума характеризуется известной мощностью или спектральной плотностью мощности. Закон назван в честь Клода Шеннона и Ральфа Хартли.

Содержание

  • 1 Утверждение теоремы
  • 2 Историческое развитие
    • 2.1 Ставка Найквиста
    • 2.2 Закон Хартли
    • 2.3 Теорема кодирования канала с шумом и пропускная способность
  • 3 Следствия теоремы
    • 3.1 Сравнение пропускной способности Шеннона с законом Хартли
  • 4 Частотно-зависимый (цветной шум) случай
  • 5 Приближения
    • 5.1 Полоса пропускания -ограниченный регистр
    • 5.2 Вариант с ограничением мощности
  • 6 Примеры
  • 7 См. также
  • 8 Примечания
  • 9 Ссылки
  • 10 Внешние ссылки

Формулировка теоремы

Теорема Шеннона – Хартли устанавливает пропускную способность канала C {\ displaystyle C}C , что означает теоретически наиболее жесткую верхнюю границу скорости передачи данных. которые могут передаваться с произвольно низкой частотой ошибок с использованием средней мощности принятого сигнала S {\ displaystyle S}S через аналоговый канал связи, подверженный аддитивному белому гауссову шум (AWGN) мощности N {\ displaystyle N}N :

C = B log 2 ⁡ (1 + SN) {\ displaystyle C = B \ log _ {2} \ left (1 + {\ frac {S} {N}} \ right)}{\ displaystyle C = B \ log _ {2} \ left (1 + {\ frac {S} {N}} \ right)}

где

Историческое развитие

В конце 1920-х годов Гарри Найквист и Ральф Хартли разработали несколько фундаментальных идей, связанных с передачей информации, особенно в контексте телеграфа как системы связи. В то время эти концепции были мощными прорывами по отдельности, но они не были частью всеобъемлющей теории. В 1940-х годах Клод Шеннон разработал концепцию пропускной способности канала, частично основанную на идеях Найквиста и Хартли, а затем сформулировал полная теория информации и ее передачи.

Коэффициент Найквиста

В 1927 году Найквист определил, что количество независимых импульсов, которые могут быть пропущены через телеграф, Канал raph в единицу времени ограничен удвоенной полосой канала. В символьной записи

fp ≤ 2 B {\ displaystyle f_ {p} \ leq 2B}{\ displaystyle f_ {p} \ leq 2B}

, где fp {\ displaystyle f_ {p}}f_ {p} - частота импульсов (в импульсов в секунду), а B {\ displaystyle B}B - полоса пропускания (в герцах). Величина 2 B {\ displaystyle 2B}2Bпозже стала называться частотой Найквиста и передается с предельной частотой следования импульсов 2 B {\ displaystyle 2B. }2Bимпульсов в секунду в качестве сигнализации с частотой Найквиста. Найквист опубликовал свои результаты в 1928 году в рамках своей статьи «Некоторые вопросы теории передачи телеграфа».

Закон Хартли

В 1928 году Хартли сформулировал способ количественной оценки информации и ее линейной скорости (также известной как скорость передачи данных R бит на второй). Этот метод, позже известный как закон Хартли, стал важным предшественником более изощренного представления Шеннона о пропускной способности канала.

Хартли утверждал, что максимальное количество различимых уровней импульсов, которые могут быть надежно переданы и приняты по каналу связи, ограничено динамическим диапазоном амплитуды сигнала и точностью, с которой приемник может различать уровни амплитуды. В частности, если амплитуда передаваемого сигнала ограничена диапазоном [-A... + A] вольт, а точность приемника составляет ± ΔV вольт, то максимальное количество отдельных импульсов M равно

M = 1 + A Δ V {\ displaystyle M = 1 + {A \ over \ Delta V}}{\ displaystyle M = 1 + {A \ over \ Delta V}} .

Принимая информацию на импульс в битах / импульсах как логарифм по основанию 2- количества различных сообщений M, которые могут быть отправлены, Хартли построил меру линейной скорости R как:

R = fp log 2 ⁡ (M), {\ displaystyle R = f_ {p} \ log _ {2 } (M),}{\ displaystyle R = f_ { p} \ log _ {2} (M),}

где fp {\ displaystyle f_ {p}}f_ {p} - частота следования импульсов, также известная как скорость передачи символов, в символах в секунду или бод.

Затем Хартли объединил приведенную выше количественную оценку с наблюдением Найквиста о том, что количество независимых импульсов, которые можно пропустить через канал с полосой пропускания B {\ displaystyle B}B герц, было 2 B {\ displaystyle 2B}2Bимпульсов в секунду, чтобы получить его количественную меру для достижимой линейной скорости.

Закон Хартли иногда называют просто пропорциональностью между аналоговой полосой пропускания, B {\ displaystyle B}B в Герцах и тем, что сегодня называют цифровая полоса пропускания, R {\ displaystyle R}R , в бит / с. В других случаях он цитируется в этой более количественной форме, как достижимая линейная скорость R {\ displaystyle R}R бит в секунду:

R ≤ 2 B log 2 ⁡ (M). {\ displaystyle R \ leq 2B \ log _ {2} (M).}R \ le 2B \ log_2 (M).

Хартли не смог точно выяснить, как число M должно зависеть от статистики шума канала или как сделать связь надежной даже когда отдельные символьные импульсы нельзя было достоверно различить до M уровней; со статистикой гауссовского шума разработчики системы должны были выбрать очень консервативное значение M {\ displaystyle M}Mдля достижения низкого уровня ошибок.

Концепция безошибочной пропускной способности ждала Клода Шеннона, который основывался на наблюдениях Хартли о логарифмической мере информации и наблюдениях Найквиста о влиянии ограничений пропускной способности.

Результат скорости Хартли можно рассматривать как пропускную способность безошибочного M-арного канала 2 B {\ displaystyle 2B}2Bсимволов в секунду. Некоторые авторы называют это емкостью. Но такой канал без ошибок является идеализацией, и если M выбрано достаточно маленьким, чтобы сделать шумный канал почти безошибочным, результат обязательно будет меньше, чем пропускная способность Шеннона шумного канала с полосой пропускания B {\ displaystyle B}B , который является результатом Хартли – Шеннона, полученным позже.

Теорема кодирования зашумленного канала и пропускная способность

Разработка Клодом Шенноном теории информации во время Второй мировой войны стала следующим большим шагом в понимании того, какой объем информации может быть надежно передан через шумные каналы. Основываясь на фундаменте Хартли, теорема Шеннона о кодировании канала с шумом (1948) описывает максимально возможную эффективность методов исправления ошибок по сравнению с уровнями шумовых помех и искажения данных. Доказательство теоремы показывает, что случайно построенный код с исправлением ошибок по существу не хуже наилучшего возможного кода; Теорема доказывается с помощью статистики таких случайных кодов.

Теорема Шеннона показывает, как вычислить пропускную способность канала из статистического описания канала, и устанавливает, что это зашумленный канал с пропускной способностью C и информацией, передаваемой со скоростью линии R {\ displaystyle R}R , тогда, если

R < C {\displaystyle R{\ displaystyle R <C}

существует метод кодирования, который позволяет сделать вероятность ошибки в приемнике сколь угодно малой. Это означает, что теоретически можно передавать информацию почти без ошибок с точностью почти до C {\ displaystyle C}C бит в секунду.

Обратное тоже важно. Если

R>C {\ displaystyle R>C}{\displaystyle R>C}

вероятность ошибки на приемнике неограниченно увеличивается с увеличением скорости. Таким образом, никакая полезная информация не может быть передана за пределы пропускной способности канала. Теорема не касается Редкая ситуация, когда скорость и пропускная способность равны.

Теорема Шеннона – Хартли устанавливает, какова пропускная способность канала для канала с конечной полосой непрерывного времени, подверженного гауссовскому шуму. Результатом является теорема Шеннона о пропускной способности канала в форме, которая эквивалентна указанию M в формуле линейной скорости Хартли с точки зрения отношения сигнал / шум, но обеспечивает надежность за счет кодирования с исправлением ошибок, а не за счет надежно различимых уровней импульсов.

Если бы существовала такая вещь, как аналоговый канал без шума, можно было бы передавать без ограниченное количество безошибочных данных по нему в единицу времени (Примечание: аналоговый канал с бесконечной полосой пропускания не может передавать неограниченное количество безошибочных данных без бесконечной мощности сигнала). Однако реальные каналы подвержены ограничениям, налагаемым как конечной полосой пропускания, так и ненулевым шумом.

Полоса пропускания и шум влияют на скорость, с которой информация может передаваться по аналоговому каналу. Сами по себе ограничения полосы пропускания не накладывают ограничения на максимальную скорость передачи информации, потому что сигнал все еще может принимать неопределенно большое количество различных уровней напряжения для каждого символьного импульса, причем каждому немного разному уровню присваивается другое значение или битовая последовательность.. Однако, принимая во внимание ограничения как шума, так и полосы пропускания, существует ограничение на количество информации, которое может быть передано с помощью сигнала ограниченной мощности, даже когда используются сложные методы многоуровневого кодирования.

В канале, рассматриваемом теоремой Шеннона – Хартли, шум и сигнал объединяются путем сложения. То есть приемник измеряет сигнал, который равен сумме сигнала, кодирующего желаемую информацию, и непрерывной случайной величины, представляющей шум. Это добавление создает неопределенность относительно значения исходного сигнала. Если приемник имеет некоторую информацию о случайном процессе, который генерирует шум, в принципе можно восстановить информацию в исходном сигнале, рассматривая все возможные состояния шумового процесса. В случае теоремы Шеннона – Хартли предполагается, что шум генерируется гауссовским процессом с известной дисперсией. Поскольку дисперсия гауссовского процесса эквивалентна его мощности, принято называть эту дисперсию мощностью шума.

Такой канал называется каналом аддитивного белого гауссова шума, потому что к сигналу добавляется гауссовский шум; «белый» означает равное количество шума на всех частотах в полосе пропускания канала. Такой шум может возникать как из-за случайных источников энергии, так и из-за ошибок кодирования и измерения на отправителе и получателе соответственно. Поскольку суммы независимых гауссовских случайных величин сами являются гауссовыми случайными величинами, это удобно упрощает анализ, если предположить, что такие источники ошибок также являются гауссовыми и независимыми.

Следствия теоремы

Сравнение пропускной способности Шеннона с законом Хартли

Сравнивая пропускную способность канала со скоростью передачи информации из закона Хартли, мы можем найти эффективное количество различимых уровней M:

2 B журнал 2 ⁡ (M) = B журнал 2 ⁡ (1 + SN) {\ displaystyle 2B \ log _ {2} (M) = B \ log _ {2} \ left (1+ { \ frac {S} {N}} \ right)}2B \ log_2 (M) = B \ log_2 \ left (1+ \ frac {S} {N} \ right)
M = 1 + SN. {\ displaystyle M = {\ sqrt {1 + {\ frac {S} {N}}}}.}M = \ sqrt {1+ \ frac {S} {N}}.

Квадратный корень эффективно преобразует коэффициент мощности обратно в коэффициент напряжения, поэтому количество уровней приблизительно пропорционально к отношению сигнала RMS амплитуды к стандартному отклонению шума.

Это сходство по форме между пропускной способностью Шеннона и законом Хартли не следует интерпретировать как означающее, что M {\ displaystyle M}Mуровни импульсов могут быть отправлены буквально без какой-либо путаницы. Для обеспечения избыточного кодирования и исправления ошибок необходимо больше уровней, но чистая скорость передачи данных, которую можно достичь с помощью кодирования, эквивалентна использованию этого M {\ displaystyle M}Mв законе Хартли.

Частотно-зависимый (цветной шум) случай

В приведенной выше простой версии сигнал и шум полностью некоррелированы, и в этом случае S + N {\ displaystyle S + N}S + N - общая мощность принятого сигнала и шума вместе. Получено обобщение приведенного выше уравнения для случая, когда аддитивный шум не является белым (или что S / N {\ displaystyle S / N}S / N не является постоянным с частотой в пределах полосы пропускания). рассматривая канал как множество параллельных узких независимых гауссовских каналов:

C = ∫ 0 B log 2 ⁡ (1 + S (f) N (f)) df {\ displaystyle C = \ int _ {0} ^ {B} \ log _ {2} \ left (1 + {\ frac {S (f)} {N (f)}} \ right) df}C = \ int_ {0} ^ B \ log_2 \ left (1+ \ frac {S (f)} {N (f)} \ right) df

где

Примечание: теорема применима только к гауссовскому стационарному процессу шуму. Способ введения частотно-зависимого шума с помощью этой формулы не может описать все шумовые процессы в непрерывном времени. Например, рассмотрим шумовой процесс, состоящий из добавления случайной волны с амплитудой 1 или -1 в любой момент времени и канала, который добавляет такую ​​волну к исходному сигналу. Частотные составляющие такой волны сильно зависят. Хотя такой шум может иметь большую мощность, довольно легко передать непрерывный сигнал с гораздо меньшей мощностью, чем это потребовалось бы, если бы основной шум был суммой независимых шумов в каждой полосе частот.

Приближения

пропускной способности канала AWGN с указанием режима ограничения мощности и режима ограничения полосы пропускания. Здесь S N 0 = 1 {\ displaystyle {\ frac {S} {N_ {0}}} = 1}{\ displaystyle {\ frac {S} {N_ {0}}} = 1} ; B и C можно пропорционально масштабировать для других значений.

Для больших или малых и постоянных отношений сигнал / шум формулу пропускной способности можно приблизить:

Случай с ограниченной полосой пропускания

Когда SNR велико (S / N>>1), логарифм аппроксимируется как

log 2 ⁡ (1 + SN) ≈ log 2 ⁡ SN = ln ⁡ 10 ln ⁡ 2 ⋅ log 10 ⁡ SN ≈ 3,32 ⋅ журнал 10 ⁡ SN {\ displaystyle \ log _ {2} \ left (1 + {\ frac {S} {N}} \ right) \ приблизительно \ log _ {2} {\ frac {S} {N}} = {\ frac {\ ln 10} {\ ln 2}} \ cdot \ log _ {10} {\ frac {S} {N}} \ приблизительно 3,32 \ cdot \ log _ {10} {\ frac {S} { N}}}{\ displaystyle \ log _ {2} \ left (1 + {\ frac {S}) {N}} \ right) \ приблизительно \ log _ {2} {\ frac {S} {N}} = {\ frac {\ ln 10} {\ ln 2}} \ cdot \ log _ {10} {\ гидроразрыв {S} {N}} \ приблизительно 3,32 \ cdot \ log _ {10} {\ frac {S} {N}}} ,

, и в этом случае пропускная способность является логарифмической по мощности и приблизительно линейной по ширине полосы (не совсем линейной, поскольку N увеличивается с увеличением ширины полосы, что дает логарифмический эффект). Это называется режимом с ограниченной полосой пропускания .

C ≈ 0,332 ⋅ B ⋅ SNR (ind B) {\ displaystyle C \ приблизительно 0,332 \ cdot B \ cdot \ mathrm {SNR \ (in \ dB)}}C \ приблизительно 0,332 \ cdot B \ cdot \ mathrm {SNR \ (в \ дБ)}

, где

SNR (ind B) = 10 log 10 SN. {\ displaystyle \ mathrm {SNR \ (in \ dB)} = 10 \ log _ {10} {S \ over N}.}\ mathrm {SNR \ (в \ дБ)} = 10 \ log_ {10} {S \ over N}.

Случай с ограничением мощности

Аналогично, когда SNR мало (если S / N << 1), applying the approximation to the logarithm:

журнал 2 ⁡ (1 + SN) = 1 пер ⁡ 2 ⋅ пер ⁡ (1 + SN) ≈ 1 пер ⁡ 2 ⋅ SN ≈ 1,44 ⋅ SN {\ displaystyle \ log _ {2} \ left (1 + {\ frac {S} {N}} \ right) = {\ frac {1} {\ ln 2}} \ cdot \ ln \ left (1 + {\ frac {S} {N}} \ справа) \ приблизительно {\ frac {1} {\ ln 2}} \ cdot {\ frac {S} {N}} \ приблизительно 1,44 \ cdot {S \ over N}}{\ displaystyle \ log _ {2} \ left (1 + {\ frac {S} {N}} \ right) = {\ frac {1} {\ ln 2}} \ cdot \ ln \ left ( 1 + {\ frac {S} {N}} \ right) \ приблизительно {\ frac {1} {\ ln 2}} \ cdot {\ frac {S} {N}} \ приблизительно 1,44 \ cdot {S \ over N}} ;

то емкость линейна по мощности. Это называется режимом ограничения мощности .

C ≈ 1,44 ⋅ B ⋅ SN. {\ Displaystyle C \ приблизительно 1,44 \ cdot B \ cdot {S \ over N}.}C \ приблизительно 1,44 \ cdot B \ cdot {S \ over N}.

В этом низком Приближение SNR, емкость не зависит от полосы пропускания, если шум белый, со спектральной плотностью N 0 {\ displaystyle N_ {0}}N_ {0} ватт на герц, и в этом случае общая мощность шума составляет N = B ⋅ N 0 {\ displaystyle N = B \ cdot N_ {0}}{ \ displaystyle N = B \ cdot N_ {0}} .

C ≈ 1,44 ⋅ SN 0 {\ displaystyle C \ приблизительно 1,44 \ cdot {S \ over N_ { 0}}}C \ приблизительно 1,44 \ cdot {S \ over N_0}

Примеры

  1. При ОСШ 0 дБ (мощность сигнала = мощность шума) пропускная способность в битах / с равно пропускной способности в герцах.
  2. Если SNR составляет 20 дБ, а доступная полоса пропускания составляет 4 кГц, что подходит для телефонной связи, тогда C = 4000 log 2 (1 + 100) = 4000 log 2 (101) = 26,63 кбит / с. Обратите внимание, что значение S / N = 100 эквивалентно соотношению сигнал / шум 20 дБ.
  3. Если требуется передача со скоростью 50 кбит / с и используется полоса пропускания 10 кГц, то минимальное значение S Требуемый / N равен 50000 = 10000 log 2 (1 + S / N), поэтому C / B = 5, затем S / N = 2 - 1 = 31, что соответствует SNR 14,91 дБ (10 x log 10 (31)).
  4. Какова пропускная способность канала для сигнала с полосой пропускания 1 МГц, принятого с SNR -30 дБ? Это означает, что сигнал сильно зашумлен. −30 дБ означает отношение сигнал / шум = 10. Это приводит к максимальной скорости передачи информации 10 log 2 (1 + 10) = 1443 бит / с. Эти значения типичны для принятых сигналов измерения дальности GPS, где навигационное сообщение отправляется со скоростью 50 бит / с (ниже пропускной способности канала для данного S / N), и чья полоса пропускания расширяется примерно до 1 МГц за счет псевдо- умножение шума перед передачей.
  5. Как указано выше, пропускная способность канала пропорциональна ширине полосы канала и логарифму отношения сигнал / шум. Это означает, что пропускная способность канала может быть увеличена линейно либо за счет увеличения полосы пропускания канала при фиксированном требовании SNR, либо, при фиксированной полосе пропускания, за счет использования модуляции более высокого порядка, для работы которой требуется очень высокий SNR. По мере увеличения скорости модуляции спектральная эффективность улучшается, но за счет требования SNR. Таким образом, существует экспоненциальный рост требований к SNR, если применяется 16QAM или 64QAM (см.: квадратурная амплитудная модуляция ); однако спектральная эффективность улучшается.

См. также

Примечания

Ссылки

  • Герберт Тауб, Дональд Л. Шиллинг (1986). Принципы систем связи. Макгроу-Хилл.
  • Джон М. Возенкрафт и Ирвин Марк Джейкобс (1965). Принципы коммуникационной инженерии. Нью-Йорк: John Wiley Sons.

Внешние ссылки

Последняя правка сделана 2021-06-08 03:35:29
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте