Емкость канала

редактировать

Емкость канала, в электротехнике, информатике и теория информации - это жесткая верхняя граница скорости, с которой информация может надежно передаваться по каналу связи.

В соответствии с условиями теорема кодирования с шумом, пропускная способность данного канала является наивысшей скоростью передачи информации (в единицах информации в единицу времени), которая может быть достигнута с помощью сколь угодно малая вероятность ошибки.

Теория информации, разработанная Клодом Э. Шенноном в 1948 году, определяет понятие пропускной способности канала и предоставляет математическую модель, с помощью которой можно ее вычислить. Ключевой результат состоит в том, что пропускная способность канала, как определено выше, задается максимумом взаимной информации между входом и выходом канала, где максимизация относится к входному распределению.

Понятие пропускной способности канала стало центральным при разработке современных систем проводной и беспроводной связи с появлением новых механизмов кодирования с исправлением ошибок, которые привели к достижению производительности, очень близкой к пределам, обещанным пропускной способностью канала.

Содержание

  • 1 Формальное определение
  • 2 Аддитивность пропускной способности канала
  • 3 Пропускная способность Шеннона графа
  • 4 Теорема о шумном канальном кодировании
  • 5 Пример приложения
  • 6 Пропускная способность канала в беспроводной сети связь
    • 6.1 Канал AWGN с ограничением полосы
    • 6.2 Частотно-избирательный канал AWGN
    • 6.3 Канал с медленным замиранием
    • 6.4 Канал с быстрым замиранием
  • 7 См. также
    • 7.1 Расширенные темы связи
  • 8 Внешние ссылки
  • 9 Ссылки

Формальное определение

Базовая математическая модель для системы связи следующая:

Модель канала

где:

  • W {\ displaystyle W}W - сообщение, которое нужно передать;
  • X {\ displaystyle X}X - символ ввода канала (X n {\ displaystyle X ^ {n}}X ^ {n} - последовательность символов n {\ displaystyle n}n ), взятых в алфавите X {\ displaystyle {\ mathcal {X}}}{\ mathcal {X}} ;
  • Y {\ displaystyle Y}Y - символ вывода канала (Y n {\ displaystyle Y ^ {n}}Y ^ {n} - последовательность n {\ displaystyle n}n символов), взятых в алфавите Y {\ displaystyle {\ mathcal {Y}}}{\ mathcal {Y}} ;
  • W ^ {\ displaystyle {\ hat {W}}}{\ hat {W}} оценка переданного сообщения;
  • fn {\ displaystyle f_ {n}}f_ {n} - функция кодирования для блока длины n {\ displaystyle n}n ;
  • p (y | x) = p Y | X (y | x) {\ displaystyle p (y | x) = p_ {Y | X} (y | x)}{ \ displaystyle p (y | x) = p_ {Y | X} (y | x)} - канал с шумом, который моделируется условным распределением вероятностей ; и
  • gn {\ displaystyle g_ {n}}g_{n}- функция декодирования для блока длиной n {\ displaystyle n}n .

Пусть X {\ displaystyle X }X и Y {\ displaystyle Y}Y можно моделировать как случайные величины. Кроме того, пусть p Y | X (y | x) {\ displaystyle p_ {Y | X} (y | x)}p _ {{Y | X}} (y ​​| x) быть функцией условного распределения вероятностей от Y {\ displaystyle Y}Y задано X {\ displaystyle X}X , которое является неотъемлемым фиксированным свойством канала связи. Тогда выбор предельного распределения p X (x) {\ displaystyle p_ {X} (x)}p_ { X} (x) полностью определяет совместное распределение p X, Y (x, y) {\ displaystyle p_ {X, Y} (x, y)}p_{{X,Y}}(x,y)в силу тождества

p X, Y (x, y) = p Y | Икс (Y | Икс) п Икс (Икс) {\ Displaystyle \ p_ {X, Y} (x, y) = p_ {Y | X} (y | x) \, p_ {X} (x)}\ p _ {{X, Y}} (x, y) = p _ {{Y | X}} (y | x) \, p_ {X} (x)

который, в свою очередь, индуцирует взаимную информацию I (X; Y) {\ displaystyle I (X; Y)}I (X; Y) . пропускная способность канала определяется как

C = sup p X (x) I (X; Y) {\ displaystyle \ C = \ sup _ {p_ {X} (x)} I (X ; Y) \,}\ C = \ sup _ {{ p_ {X} (x)}} I (X; Y) \,

где supremum берется по всем возможным вариантам p X (x) {\ displaystyle p_ {X} (x)}p_ { X} (x) .

Аддитивность канала емкость

Пропускная способность канала является аддитивной по сравнению с независимыми каналами. Это означает, что использование двух независимых каналов в сочетании обеспечивает такую ​​же теоретическую пропускную способность, как и их независимое использование. Более формально, пусть p 1 {\ displaystyle p_ {1}}p _ {{1}} и p 2 {\ displaystyle p_ {2}}p _ {{2}} будут двумя независимыми каналами, смоделированными, как указано выше. ; p 1 {\ displaystyle p_ {1}}p _ {{1}} с входным алфавитом X 1 {\ displaystyle {\ mathcal {X}} _ {1}}{\ displaystyle {\ mathcal {X} } _ {1}} и выходной алфавит Y 1 {\ displaystyle {\ mathcal {Y}} _ {1}}{\ displaystyle {\ mathcal {Y}} _ {1}} . То же для p 2 {\ displaystyle p_ {2}}p _ {{2}} . Мы определяем канал продукта p 1 × p 2 {\ displaystyle p_ {1} \ times p_ {2}}{\ displaystyle p_ {1} \ times p_ {2}} как ∀ (x 1, x 2) ∈ (X 1, X 2), (y 1, y 2) ∈ (Y 1, Y 2), (p 1 × p 2) ((y 1, y 2) | (x 1, x 2)) = p 1 (y 1 | Икс 1) п 2 (Y 2 | Икс 2) {\ Displaystyle \ forall (x_ {1}, x_ {2}) \ in ({\ mathcal {X}} _ {1}, {\ mathcal {X} } _ {2}), \; (y_ {1}, y_ {2}) \ in ({\ mathcal {Y}} _ {1}, {\ mathcal {Y}} _ {2}), \; (p_ {1} \ times p_ {2}) ((y_ {1}, y_ {2}) | (x_ {1}, x_ {2})) = p_ {1} (y_ {1} | x_ { 1}) p_ {2} (y_ {2} | x_ {2})}{\ displaystyle \ forall (x_ {1}, x_ {2}) \ in ({\ mathcal {X}} _ {1}, {\ mathcal {X}} _ {2}), \; (y_ {1}, y_ {2 }) \ in ({\ mathcal {Y}} _ {1}, {\ mathcal {Y}} _ {2}), \; (p_ {1} \ times p_ {2}) ((y_ {1}, y_ {2}) | (x_ {1}, x_ {2})) = p_ {1} (y_ {1} | x_ {1}) p_ {2} (y_ {2} | x_ {2}) }

Эта теорема утверждает:

C (p 1 × p 2) = C (p 1) + C (p 2) { \ displaystyle C (p_ {1} \ times p_ {2}) = C (p_ {1}) + C (p_ {2})}{\ displaystyle C (p_ {1} \ times p_ {2}) = C (p_ {1}) + C (p_ {2})} Доказательство -

Сначала мы покажем, что С (п 1 × п 2) ≥ С (п 1) + С (п 2) {\ Displaystyle C (p_ {1} \ times p_ {2}) \ geq C (p_ {1}) + C (p_ { 2})}{\ displaystyle C (p_ {1} \ times p_ {2}) \ geq C (p_ {1}) + C (p_ {2})} .

Пусть X 1 {\ displaystyle X_ {1}}X_ {1 } и X 2 {\ displaystyle X_ {2}}X_ {2} два независимых случайные переменные. Пусть Y 1 {\ displaystyle Y_ {1}}Y_ {1} будет случайной величиной, соответствующей выходным данным X 1 {\ displaystyle X_ {1}}X_ {1 } через канал p 1 {\ displaystyle p_ {1}}p _ {{1}} и Y 2 {\ displaystyle Y_ {2}}Y_2 для X 2 {\ displaystyle X_ {2}}X_ {2} - p 2 {\ displaystyle p_ {2}}p_ {2} .

По определению C (p 1 × p 2) = sup p X 1, X 2 ( Я (Икс 1, Икс 2: Y 1, Y 2)) {\ Displaystyle C (p_ {1} \ times p_ {2}) = \ sup _ {p_ {X_ {1}, X_ {2}}} ( I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}))}{\ displaystyle C (p_ {1} \ times p_ {2}) = \ sup _ {p_ {X_ {1}, X_ {2}}} (I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}))} .

Поскольку X 1 {\ displaystyle X_ {1}}X_ {1 } и Икс 2 {\ displaystyle X_ {2}}X_ {2} являются независимыми, а также p 1 {\ displaystyle p_ {1}}p_ {1} и p 2 {\ displaystyle p_ {2}}p_ {2} , (X 1, Y 1) {\ displaystyle (X_ {1}, Y_ {1})}{\ displaystyle (X_ {1}, Y_ {1})} не зависит от (X 2, Y 2) {\ displaystyle (X_ {2}, Y_ {2})}{\ displaystyle (X_ {2}, Y_ {2})} . Мы можем применить следующее свойство взаимной информации : I (X 1, X 2: Y 1, Y 2) = I (X 1: Y 1) + I (X 2: Y 2) {\ displaystyle I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2 })}{\ d isplaystyle I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2})}

Сейчас нам нужно только найти такое распределение p X 1, X 2 {\ displaystyle p_ {X_ {1}, X_ {2}}}{\ displaystyle p_ {X_ {1}, X_ {2}}} такое, что Я (Икс 1, Икс 2: Y 1, Y 2) ≥ I (Икс 1: Y 1) + I (X 2: Y 2) {\ displaystyle I (X_ {1}, X_ {2}: Y_ { 1}, Y_ {2}) \ geq I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2})}{\ displaystyle I (X_ {1}, X_ {2}: Y_ {1}, Y_ { 2}) \ geq I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2})} . Фактически, π 1 {\ displaystyle \ pi _ {1}}\ pi _ {1} и π 2 {\ displaystyle \ pi _ {2}}\ pi _ {2} , два распределения вероятностей для Икс 1 {\ displaystyle X_ {1}}X_ {1 } и X 2 {\ displaystyle X_ {2}}X_ {2} достижения C (p 1) { \ Displaystyle C (p_ {1})}{\ displaystyle C (p_ {1})} и C (p 2) {\ displaystyle C (p_ {2})}{\ displaystyle C (p_ {2})} , достаточно:

C ( p 1 × p 2) ≥ I (X 1, X 2: Y 1, Y 2) = I (X 1: Y 1) + I (X 2: Y 2) = C (p 1) + C (p 2) {\ displaystyle C (p_ {1} \ times p_ {2}) \ geq I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2}) = C (p_ {1}) + C (p_ {2})}{\ displaystyle C (p_ {1} \ times p_ {2}) \ geq I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2}) = C (p_ {1}) + C (p_ {2})}

т.е. С (п 1 × п 2) ≥ С (п 1) + С (п 2) {\ Displaystyle C (p_ {1} \ times p_ {2}) \ geq C (p_ {1}) + C (p_ {2})}{\ displaystyle C (p_ {1} \ times p_ {2}) \ geq C (p_ {1}) + C (p_ {2})}

.

Теперь покажем, что C (p 1 × p 2) ≤ C (p 1) + C (p 2) {\ displaystyle C (p_ {1} \ times p_ {2}) \ leq C (p_ {1}) + C (p_ {2})}{\ displaystyle C (p_ {1} \ times p_ {2}) \ leq C (p_ {1}) + C (p_ {2})} .

Пусть π 12 {\ displaystyle \ pi _ {12}}{\ displaystyle \ pi _ {12}} некоторое распределение для канала p 1 × p 2 {\ displaystyle p_ {1} \ times p_ {2}}{\ displaystyle p_ {1} \ times p_ {2}} , определяющий (X 1, X 2) {\ displaystyle (X_ {1}), X_ {2})}(X_ {1}, X_ {2}) и соответствующий вывод (Y 1, Y 2) {\ displaystyle (Y_ {1}, Y_ {2})}{\ displaystyle (Y_ {1}, Y_ {2})} . Пусть X 1 {\ displaystyle {\ mathcal {X}} _ {1}}{\ displaystyle {\ mathcal {X} } _ {1}} будет алфавитом X 1 {\ displaystyle X_ {1}}X_ {1 } , Y 1 { \ displaystyle {\ mathcal {Y}} _ {1}}{\ displaystyle {\ mathcal {Y}} _ {1}} для Y 1 {\ displaystyle Y_ {1}}Y_ {1} и аналогично X 2 {\ displaystyle {\ mathcal {X}} _ {2}}{\ displaystyle {\ mathcal {X}} _ {2}} и Y 2 {\ displaystyle {\ mathcal {Y}} _ {2}}{\ displaystyle {\ mathcal {Y}} _ {2}} .

По определению взаимной информации мы иметь

I (X 1, X 2: Y 1, Y 2) = H (Y 1, Y 2) - H (Y 1, Y 2 | X 1, X 2) ≤ H (Y 1) + H (Y 2) - H (Y 1, Y 2 | X 1, X 2) {\ displaystyle {\ begin {выровнено} I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) = H (Y_ {1}, Y_ {2}) - H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) \\ \ leq H (Y_ {1}) + H (Y_ {2}) - H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) \ end {align}}}{\ displaystyle {\ begin {align} I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) = H (Y_ {1}, Y_ {2}) - H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) \\ \ leq H (Y_ {1}) + H (Y_ {2}) - H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) \ end {align}}}

Давайте перепишем последний член энтропия.

H (Y 1, Y 2 | X 1, X 2) = ∑ (x 1, x 2) ∈ X 1 × X 2 P (X 1, X 2 = x 1, x 2) H (Y 1, Y 2 | Икс 1, Икс 2 знак равно Икс 1, Икс 2) {\ Displaystyle H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) = \ sum _ {(x_ { 1}, x_ {2}) \ in {\ mathcal {X}} _ {1} \ times {\ mathcal {X}} _ {2}} \ mathbb {P} (X_ {1}, X_ {2} = x_ {1}, x_ {2}) H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})}{\ displaystyle H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) = \ sum _ {(x_ { 1}, x_ {2}) \ in {\ mathcal {X}} _ {1} \ times {\ mathcal {X}} _ {2}} \ mathbb {P} (X_ {1}, X_ {2} = x_ {1}, x_ {2}) H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})}

По определению канала продукта, P (Y 1, Y 2 = y 1, y 2 | Икс 1, Икс 2 знак равно Икс 1, Икс 2) знак равно п (Y 1 = Y 1 | Икс 1 = х 1) P (Y 2 = Y 2 | X 2 = х 2) {\ Displaystyle \ mathbb {P} ( Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) = \ mathbb {P} (Y_ {1 } = y_ {1} | X_ {1} = x_ {1}) \ mathbb {P} (Y_ {2} = y_ {2} | X_ {2} = x_ {2})}{\ displaystyle \ mathbb {P} (Y_ {1 }, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) = \ mathbb {P} (Y_ {1} = y_ {1} | X_ {1} = x_ {1}) \ mathbb {P} (Y_ {2} = y_ {2} | X_ {2} = x_ {2})} . Для данной пары (x 1, x 2) {\ displaystyle (x_ {1}, x_ {2})}(x_ {1}, x_ {2}) мы можем переписать H (Y 1, Y 2 | Икс 1, Икс 2 = Икс 1, Икс 2) {\ Displaystyle H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})}{\ displaystyle H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ { 1}, x_ {2})} как:

H (Y 1, Y 2 | X 1, X 2 = x 1, x 2) = ∑ (y 1, y 2) ∈ Y 1 × Y 2 P (Y 1, Y 2 = y 1, y 2 | X 1, X 2 = x 1, x 2) журнал ⁡ (P (Y 1, Y 2 = y 1, y 2 | X 1, X 2 = x 1, x 2)) = ∑ (y 1, y 2) ∈ Y 1 × Y 2 P (Y 1, Y 2 = y 1, y 2 | X 1, X 2 = x 1, x 2) [журнал ⁡ (P (Y 1 = y 1 | X 1 = x 1)) + журнал ⁡ (P (Y 2 = y 2 | X 2 = x 2))] = H (Y 1 | X 1 = x 1) + H (Y 2 | X 2 = Икс 2) {\ Displaystyle {\ begin {Выровнено} H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) = \ sum _ {(y_ {1}, y_ {2}) \ in {\ mathcal {Y}} _ {1} \ times {\ mathcal {Y}} _ {2}} \ mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) \ log (\ mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})) \\ = \ sum _ {(y_ {1}, y_ {2}) \ in {\ mathcal {Y}} _ {1} \ times {\ mathcal {Y}} _ {2}} \ mathbb {P} (Y_ {1}, Y_ {2} = y_ {1 }, y_ {2} | X_ {1}, X_ {2} = x_ {1 }, x_ {2}) [\ log (\ mathbb {P} (Y_ {1} = y_ {1} | X_ {1} = x_ {1})) + \ log (\ mathbb {P} (Y_ { 2} = y_ {2} | X_ {2} = x_ {2}))] \\ = H (Y_ {1} | X_ {1} = x_ {1}) + H (Y_ {2} | X_ {2} = x_ {2}) \ end {align}}}{\ displaystyle {\ begin {выровнено} H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) = \ sum _ { (y_ {1}, y_ {2}) \ in {\ mathcal {Y}} _ {1} \ times {\ mathcal {Y}} _ {2}} \ mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) \ log (\ mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})) \\ = \ sum _ {(y_ {1}, y_ {2}) \ in {\ mathcal {Y}} _ {1} \ times {\ mathcal {Y}} _ {2}} \ mathbb {P } (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) [\ log (\ mathbb {P } (Y_ {1} = y_ {1} | X_ {1} = x_ {1})) + \ log (\ mathbb {P} (Y_ {2} = y_ {2} | X_ {2} = x_ { 2}))] \\ = H (Y_ {1} | X_ {1} = x_ {1}) + H (Y_ {2} | X_ {2} = x_ {2}) \ end {выровнено}} }

Суммируя это равенство по всем (x 1, x 2) {\ displaystyle (x_ {1}, x_ {2})}(x_ {1}, x_ {2}) , получаем H (Y 1, Y 2 | Икс 1, Икс 2) знак равно ЧАС (Y 1 | Икс 1) + ЧАС (Y 2 | Икс 2) {\ Displaystyle Н (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) = H (Y_ {1} | X_ {1}) + H (Y_ {2} | X_ {2})}{\ displaystyle H (Y_ {1 }, Y_ {2} | X_ {1}, X_ {2}) = H (Y_ {1} | X_ {1}) + H (Y_ {2} | X_ {2})} .

Теперь мы можем дать верхнюю границу взаимной информации:

I (X 1, X 2 : Y 1, Y 2) ≤ H (Y 1) + H (Y 2) - H (Y 1 | X 1) - H (Y 2 | X 2) = I (X 1: Y 1) + I (X 2: Y 2) {\ displaystyle {\ begin {align} I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) \ leq H (Y_ {1}) + H (Y_ {2}) - H (Y_ {1} | X_ {1}) - H (Y_ {2} | X_ {2}) \\ = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2}) \ end {align}}}{\ displaystyle {\ begin {align} I (X_ {1}, X_ { 2}: Y_ {1}, Y_ {2}) \ leq H (Y_ {1}) + H (Y_ {2}) - H (Y_ {1} | X_ {1}) - H (Y_ {2 } | X_ {2}) \\ = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2}) \ end {align}}}

Это отношение сохраняется в верхней части. Следовательно,

C (p 1 × p 2) ≤ C (p 1) + C (p 2) {\ displaystyle C (p_ {1} \ times p_ {2}) \ leq C (p_ {1}) + C (p_ {2})}{\ displaystyle C (p_ {1} \ times p_ {2}) \ leq C (p_ {1}) + C (p_ {2})}

.

Объединяя два доказанных неравенства, мы получаем результат теоремы:

C (p 1 × p 2) = C (p 1) + C (p 2) { \ displaystyle C (p_ {1} \ times p_ {2}) = C (p_ {1}) + C (p_ {2})}{\ displaystyle C (p_ {1} \ times p_ {2}) = C (p_ {1}) + C (p_ {2})}

пропускная способность Шеннона графа

Если G является неориентированный граф, его можно использовать для определения канала связи, в котором символы являются вершинами графа, и два кодовых слова могут быть перепутаны друг с другом, если их символы в каждой позиции равны или смежны. Вычислительная сложность определения пропускной способности Шеннона такого канала остается открытой, но она может быть ограничена сверху другим важным инвариантом графа, числом Ловаса.

теоремой кодирования с шумом

теорема кодирования с шумом утверждает, что для любой вероятности ошибки ε>0 и для любой скорости R передачи, меньшей, чем пропускная способность канала C, существует схема кодирования и декодирования, передающая данные со скоростью R, чья вероятность ошибки меньше ε для достаточно большой длины блока. Кроме того, для любой скорости, превышающей пропускную способность канала, вероятность ошибки на приемнике достигает 0,5, поскольку длина блока стремится к бесконечности.

Пример приложения

Применение концепции пропускной способности канала к каналу аддитивного белого гауссовского шума (AWGN) с полосой B Гц и отношение сигнал / шум S / N - это теорема Шеннона – Хартли :

C = B log 2 ⁡ (1 + SN) {\ displaystyle C = B \ log _ {2} \ left (1 + {\ frac {S} {N}} \ right) \}C = B \ log _ {2} \ left (1 + {\ frac {S} {N}} \ right) \

C измеряется в битах в секунду, если логарифм взят по основанию 2, или нат в секунду, если используется натуральный логарифм, при условии, что B находится в герцах ; мощности сигнала и шума S и N выражаются в линейных единицах мощности (например, в ваттах или вольтах). Поскольку значения отношения сигнал / шум часто приводятся в дБ, может потребоваться преобразование. Например, отношение сигнал / шум 30 дБ соответствует линейному отношению мощностей 10 30/10 = 10 3 = 1000 {\ displaystyle 10 ^ {30/10} = 10 ^ {3} = 1000 }10 ^ {{30/10}} = 10 ^ {3} = 1000 .

Пропускная способность канала беспроводной связи

В этом разделе основное внимание уделяется сценарию с одной антенной и двухточечным соединением. Информацию о пропускной способности канала в системах с несколькими антеннами см. В статье MIMO.

Канал AWGN с ограниченной полосой пропускания

Пропускная способность канала AWGN с указанием режима ограничения мощности и режима ограничения полосы пропускания. Здесь P ¯ N 0 = 1 {\ displaystyle {\ frac {\ bar {P}} {N_ {0}}} = 1}{\ displaystyle {\ frac {\ bar {P}} {N_ {0}}} = 1} ; B и C можно пропорционально масштабировать для других значений.

Если средняя полученная мощность составляет P ¯ {\ displaystyle {\ bar {P}}}{\ bar {P}} [W] и шум спектральная плотность мощности равна N 0 {\ displaystyle N_ {0}}N_ {0} [Вт / Гц], пропускная способность канала AWGN составляет

C AWGN = W log 2 ⁡ (1 + P ¯ N 0 W) {\ displaystyle C _ {\ text {AWGN}} = W \ log _ {2} \ left (1 + {\ frac {\ bar {P}} {N_ {0} W}} \ справа)}C_ {\ text {AWGN}} = W \ log_2 \ left (1+ \ frac {\ bar {P}} {N_0 W} \ right) [бит / с],

где P ¯ N 0 W {\ displaystyle {\ frac {\ bar {P}} {N_ {0} W}}}{\ frac {{\ bar {P }}} {N_ {0} W}} - отношение принятого сигнала к шуму (SNR). Этот результат известен как теорема Шеннона – Хартли .

. Когда отношение сигнал / шум большое (SNR>>0 дБ), емкость C ≈ W log 2 ⁡ P ¯ N 0 W {\ displaystyle C \ приблизительно W \ log _ {2} {\ frac {\ bar {P}} {N_ {0} W}}}C \ приблизительно W \ log _ {2} {\ frac {{\ bar { P}}} {N_ {0} W}} является логарифмическим по мощности и приблизительно линейным по полосе пропускания. Это называется режимом с ограниченной полосой пропускания.

Когда отношение сигнал / шум мало (SNR << 0 dB), the capacity C ≈ P ¯ N 0 ln ⁡ 2 {\ displaystyle C \ приблизительно {\ frac {\ bar {P}} {N_ {0} \ ln 2} }}{\ displaystyle C \ приблизительно {\ frac {\ bar {P}} {N_ {0} \ ln 2}}} имеет линейную мощность, но нечувствителен к полосе пропускания. Это называется режимом ограничения мощности.

Режим ограничения полосы пропускания и режим ограничения мощности показаны на рисунке.

Частотно-избирательный канал AWGN

Пропускная способность частотно-избирательного канала задается так называемым заполнением водой распределением мощности,

CN с знак равно ∑ N знак равно 0 N с - 1 журнал 2 ⁡ (1 + P n ∗ | час ¯ n | 2 N 0), {\ displaystyle C_ {N_ {c}} = \ sum _ {n = 0} ^ { N_ {c} -1} \ log _ {2} \ left (1 + {\ frac {P_ {n} ^ {*} | {\ bar {h}} _ {n} | ^ {2}} {N_ {0}}} \ right),}C _ {{N_ {c}}} = \ sum _ {{n = 0}} ^ {{N_ {c} -1}} \ log _ {2} \ left (1 + {\ frac {P_ {n} ^ {*} | {\ bar {h}} _ {n} | ^ {2}} {N_ {0}}} \ right),

где P n ∗ = max {(1 λ - N 0 | h ¯ n | 2), 0} {\ displaystyle P_ {n} ^ {*} = \ max \ left \ {\ left ({\ frac {1} {\ lambda}} - {\ frac {N_ {0}} {| {\ bar {h}} _ {n} | ^ {2}}) } \ right), 0 \ right \}}{\ displaystyle P_ {n} ^ {*} = \ max \ left \ {\ left ({\ frac {1} {\ lambda}} - {\ frac {N_ {0}} {| {\ bar {h}} _ {n} | ^ {2}}} \ right), 0 \ right \}} и | h ¯ n | 2 {\ displaystyle | {\ bar {h}} _ {n} | ^ {2}}| {\ bar {h}} _ {n} | ^ {2} - усиление подканала n {\ displaystyle n}n , остроумие h λ {\ displaystyle \ lambda}\ lambda выбрано для удовлетворения ограничения мощности.

Канал с медленным замиранием

В канале с медленным замиранием, где время когерентности больше, чем требуемая задержка, нет определенной емкости в качестве максимальной скорости надежная связь, поддерживаемая каналом, log 2 ⁡ (1 + | h | 2 SNR) {\ displaystyle \ log _ {2} (1+ | h | ^ {2} SNR)}\ log _ {2} (1+ | h | ^ {2} SNR) , зависит от случайного усиления канала | h | 2 {\ displaystyle | h | ^ {2}}| h | ^ {2} , который неизвестен передатчику. Если передатчик кодирует данные со скоростью R {\ displaystyle R}R [бит / с / Гц], существует ненулевая вероятность того, что вероятность ошибки декодирования не может быть сделана сколь угодно малой,

pout = P (log ⁡ (1 + | h | 2 SNR) < R) {\displaystyle p_{out}=\mathbb {P} (\log(1+|h|^{2}SNR)p _ {{ out}} = {\ mathbb {P}} (\ log (1+ | h | ^ {2} SNR) <R) ,

, и в этом случае говорят, что система находится в отключении. С ненулевой вероятностью того, что канал находится в состоянии глубокого замирания, пропускная способность медленного канал с затуханием в строгом смысле слова равен нулю. Однако можно определить наибольшее значение R {\ displaystyle R}R так, чтобы вероятность сбоя pout {\ displaystyle p_ {out }}p _ {{out}} меньше, чем ϵ {\ displaystyle \ epsilon}\ epsilon . Это значение известно как ϵ {\ displaystyle \ epsilon}\ epsilon -пропускная способность.

канал с быстрым замиранием

В канале с быстрым замиранием, где требование задержки больше, чем время когерентности, а длина кодового слова охватывает много когерентности периодов, можно усреднить по нескольким независимым замираниям каналов путем кодирования по большое количество временных интервалов согласованности. Таким образом, можно достичь надежной скорости передачи E (log 2 ⁡ (1 + | h | 2 SNR)) {\ displaystyle \ mathbb {E} (\ log _ {2} (1+ | h | ^ {2} SNR))}{\ math bb {E}} (\ log _ {2} (1+ | h | ^ {2} SNR)) [бит / с / Гц], и имеет смысл говорить об этом значении как о пропускной способности канала с быстрым замиранием.

См. Также

Расширенные темы связи

Внешние ссылки

Ссылки

Последняя правка сделана 2021-05-14 05:46:16
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте