Аддитивный белый гауссовский шум

редактировать
Базовая модель шума, используемая в теории информации для имитации эффекта многих случайных процессов, происходящих в природе

Аддитивный белый гауссовский noise (AWGN ) - это базовая модель шума, используемая в теории информации для имитации эффекта многих случайных процессов, происходящих в природе. Модификаторы обозначают определенные характеристики:

  • Аддитив , потому что он добавляется к любому шуму, который может быть характерен для информационной системы.
  • Белый относится к идее, что он имеет равномерную мощность в полосе частот для информационная система. Это аналогия белого цвета, который имеет однородное излучение на всех частотах в видимом спектре.
  • по Гауссу , потому что он имеет нормальное распределение во временной области со средней временной областью. нулевое значение.

Широкополосный шум возникает из многих естественных источников шума, таких как тепловые колебания атомов в проводниках (называемые тепловыми шумами или шумом Джонсона – Найквиста ), дробовым шумом, излучение черного тела от Земли и других теплых объектов, а также от небесных источников, таких как Солнце. центральная предельная теорема из теории вероятностей указывает, что суммирование многих случайных процессов будет иметь тенденцию к распределению, называемому гауссовым или нормальным.

AWGN часто используется в качестве модели канала , в которой единственное ухудшение связи - линейное добавление широкополосного или белого шума с постоянная спектральная плотность (выраженная как ватт на герц из ширины полосы ) и гауссово распределение амплитуды. Модель не учитывает замирание, частоту избирательность, помехи, нелинейность или дисперсию. Тем не менее, он создает простые и понятные математические модели, которые полезны для понимания основного поведения системы до рассмотрения этих других явлений.

Канал AWGN является хорошей моделью для многих спутниковых каналов связи в дальнем космосе. Это не лучшая модель для большинства наземных линий связи из-за многолучевого распространения, блокировки местности, помех и т. Д. Однако для моделирования наземного пути AWGN обычно используется для моделирования фонового шума исследуемого канала в дополнение к многолучевости, блокировке местности и т. Д. помехи, помехи от земли и собственные помехи, с которыми современные радиосистемы сталкиваются при наземной эксплуатации.

Содержание
  • 1 Пропускная способность канала
    • 1.1 Пропускная способность канала и упаковка сфер
    • 1.2 Достижимость
    • 1.3 Преобразование теоремы кодирования
  • 2 Эффекты во временной области
  • 3 Эффекты в векторной области
  • 4 См. Также
  • 5 Ссылки
Емкость канала

Канал AWGN представлен серией выходов Y i {\ displaystyle Y_ {i}}Y_ {i} на дискретных индекс временного события i {\ displaystyle i}i . Y i {\ displaystyle Y_ {i}}Y_ {i} - это сумма входных X i {\ displaystyle X_ {i}}X_ {i} и шум, Z i {\ displaystyle Z_ {i}}Z_ {i} , где Z i {\ displaystyle Z_ {i}}Z_ {i} - независимый и одинаково распределенный и полученный из нормального распределения с нулевым средним с дисперсией N {\ displaystyle N}N( шум). Z i {\ displaystyle Z_ {i}}Z_ {i} также предполагается, что не коррелирует с X i {\ displaystyle X_ {i}}X_ {i} .

Z i ∼ N ( 0, N) {\ displaystyle Z_ {i} \ sim {\ mathcal {N}} (0, N) \, \!}Z_ { i} \ sim {\ mathcal {N}} (0, N) \, \!
Y i = X i + Z i. {\ displaystyle Y_ {i} = X_ {i} + Z_ {i}. \, \!}{\ displaystyle Y_ {i} = X_ {i} + Z_ { i}. \, \!}

Емкость канала бесконечна, если только шум N {\ displaystyle N}Nне равно нулю, и X i {\ displaystyle X_ {i}}X_ {i} достаточно ограничены. Наиболее распространенным ограничением ввода является так называемое ограничение «мощности», которое требует, чтобы для кодового слова (x 1, x 2,…, xk) {\ displaystyle (x_ {1}, x_ {2}, \ dots, x_ {k})}(x_ {1}, x_ {2}, \ dots, x_ {k}) передается по каналу, мы имеем:

1 k ∑ i = 1 kxi 2 ≤ P, {\ displaystyle {\ frac {1} {k}} \ sum _ {i = 1} ^ {k} x_ {i} ^ {2} \ leq P,}{\ frac {1} {k}} \ sum _ {{i = 1}} ^ {k} x_ {i} ^ {2} \ leq P,

где P {\ displaystyle P}P представляет максимальную мощность канала. Следовательно, пропускная способность канала для канала с ограниченной мощностью определяется как:

C = max f (x) s.t. Е (Икс 2) ≤ п я (Икс; Y) {\ Displaystyle C = \ max _ {е (х) {\ text {s.t. }} E \ left (X ^ {2} \ right) \ leq P} I (X; Y) \, \!}C = \ max _ {{f (x) {\ text {s.t. }} E \ left (X ^ {2} \ right) \ leq P}} I (X; Y) \, \!

где f (x) {\ displaystyle f (x)}f (x) - это распределение X {\ displaystyle X}X . Разверните I (X; Y) {\ displaystyle I (X; Y)}I (X; Y) , записав его в терминах дифференциальной энтропии :

I (X; Y) = h ( Y) - час (Y | X) знак равно час (Y) - час (X + Z | X) = час (Y) - час (Z | X) {\ displaystyle {\ begin {выровнено} I (X; Y) = h (Y) -h (Y | X) = h (Y) -h (X + Z | X) = h (Y) -h (Z | X) \ end {align}} \, \! }{\ begin {выровнено} I (X; Y) = h (Y) -h (Y | X) = h (Y) -h (X + Z | X) = h (Y) -h (Z | X) \ end {align}} \, \!

Но X {\ displaystyle X}X и Z {\ displaystyle Z}Z независимы, поэтому:

I (X; Y) = h (Y) - h (Z) {\ displaystyle I (X; Y) = h (Y) -h (Z) \, \!}I (X; Y) = h (Y) -h (Z) \, \!

Оценка дифференциальной энтропии гауссовского дает:

час (Z) = 1 2 журнал ⁡ (2 π e N) {\ displaystyle h (Z) = {\ frac {1} {2}} \ log (2 \ pi eN) \, \! }h (Z) = { \ frac {1} {2}} \ log (2 \ pi eN) \, \!

Поскольку X {\ displaystyle X}X и Z {\ displaystyle Z}Z независимы и их сумма дает Y {\ displaystyle Y }Y :

E (Y 2) = E ((X + Z) 2) = E (X 2) + 2 E (X) E (Z) + E (Z 2) = P + N {\ displaystyle E ( Y ^ {2}) = E ((X + Z) ^ {2}) = E (X ^ {2}) + 2E (X) E (Z) + E (Z ^ {2}) = P + N \, \!}{\ displaystyle E (Y ^ {2}) = E ((X + Z) ^ {2 }) = E (X ^ {2}) + 2E (X) E (Z) + E (Z ^ {2}) = P + N \, \!}

Из этой оценки мы получаем из собственного ty дифференциальной энтропии, что

час (Y) ≤ 1 2 log ⁡ (2 π e (P + N)) {\ displaystyle h (Y) \ leq {\ frac {1} {2}} \ log ( 2 \ pi e (P + N)) \, \!}h (Y) \ leq {\ frac {1} {2}} \ log (2 \ pi e (P + N)) \, \!

Следовательно, пропускная способность канала задается наивысшей достижимой границей взаимной информации :

I (X; Y) ≤ 1 2 журнал ⁡ (2 π e (P + N)) - 1 2 журнал ⁡ (2 π e N) {\ displaystyle I (X; Y) \ leq {\ frac {1} {2}} \ log (2 \ pi e (P + N)) - {\ frac {1} {2}} \ log (2 \ pi eN) \, \!}I (X; Y) \ leq {\ frac {1} {2}} \ log (2 \ pi e (P + N)) - {\ frac {1} {2}} \ log (2 \ pi eN) \, \!

Где I (X; Y) { \ displaystyle I (X; Y)}I (X; Y) максимизируется, когда:

X ∼ N (0, P) {\ displaystyle X \ sim {\ mathcal {N}} (0, P) \, \!}X \ sim {\ mathcal {N}} (0, P) \, \!

Таким образом, пропускная способность канала C {\ displaystyle C}C для канала AWGN определяется как:

C = 1 2 log ⁡ (1 + PN) {\ displaystyle C = {\ frac {1} {2}} \ log \ left (1 + {\ frac {P} {N}} \ right) \, \!}C = {\ frac {1} {2}} \ log \ left (1 + {\ frac {P} {N}} \ right) \, \!

Пропускная способность канала и упаковка сфер

Предположим, что мы отправляем сообщения по каналу с индексом от 1 {\ displaystyle 1}1до M {\ displaystyle M}M , количество различных возможные сообщения. Если мы кодируем сообщения M {\ displaystyle M}M в n {\ displaystyle n}n бит, то мы определяем скорость R {\ displaystyle R}R как:

R = log ⁡ M n {\ displaystyle R = {\ frac {\ log M} {n}} \, \!}R = {\ frac {\ log M} {n}} \, \!

Скорость называется достижимо, если существует последовательность кодов, так что максимальная вероятность ошибки стремится к нулю, поскольку n {\ displaystyle n}n приближается к бесконечности. Емкость C {\ displaystyle C}C - это наивысшая достижимая скорость.

Рассмотрим кодовое слово длиной n {\ displaystyle n}n , отправленное через канал AWGN с уровнем шума N {\ displaystyle N}N. При получении отклонение вектора кодового слова теперь составляет N {\ displaystyle N}N, а его средним значением является отправленное кодовое слово. Скорее всего, вектор будет находиться в сфере радиуса n (N + ϵ) {\ displaystyle {\ sqrt {n (N + \ epsilon)}}}{\ sqrt {n (N + \ epsilon)}} вокруг отправленного кодового слова. Если мы декодируем, отображая каждое полученное сообщение на кодовое слово в центре этой сферы, то ошибка возникает только тогда, когда полученный вектор находится за пределами этой сферы, что очень маловероятно.

С каждым вектором кодового слова связана сфера принятых векторов кодового слова, которые декодируются в него, и каждая такая сфера должна однозначно отображаться на кодовое слово. Поскольку эти сферы не должны пересекаться, мы сталкиваемся с проблемой упаковки сфер. Сколько различных кодовых слов мы можем упаковать в наш n {\ displaystyle n}n -битный вектор кодовых слов? Полученные векторы имеют максимальную энергию n (P + N) {\ displaystyle n (P + N)}n (P + N) и, следовательно, должны занимать сферу радиуса n (P + N) {\ displaystyle {\ sqrt {n (P + N)}}}{\ sqrt {n (P + N)}} . Каждая сфера кодового слова имеет радиус n N {\ displaystyle {\ sqrt {nN}}}{\ sqrt {nN}} . Объем n-мерной сферы прямо пропорционален rn {\ displaystyle r ^ {n}}r ^ {n} , поэтому максимальное количество уникально декодируемых сфер, которые могут быть упакованы в нашу сферу с мощностью передачи P равно:

(N (P + N)) n 2 (n N) n 2 = 2 n 2 журнал ⁡ (1 + P / N) {\ displaystyle {\ frac {(n (P + N)) ^ {\ frac {n} {2}}} {(nN) ^ {\ frac {n} {2}}}} = 2 ^ {{\ frac {n} {2}} \ log (1 + P / N)} \, \!}{\ frac {(n (P + N)) ^ {{\ frac {n} {2}}}} {(nN) ^ {{\ frac {n} {2}}}}} = 2 ^ {{{\ frac {n} {2}} \ log (1 + P / N)} } \, \!

Согласно этому аргументу, коэффициент R не может быть больше 1 2 log ⁡ (1 + P / N) {\ displaystyle {\ frac {1} {2}} \ log (1 + P / N)}{\ frac {1} {2}} \ log (1 + P / N) .

Достижимость

В этом разделе мы показываем достижимость верхней границы ставки из последнего раздела.

Кодовая книга, известная как кодировщику, так и декодеру, создается путем выбора кодовых слов длины n, i.i.d. Гауссовский с дисперсией P - ϵ {\ displaystyle P- \ epsilon}P- \ epsilon и нулевым средним. Для большого n эмпирическая дисперсия кодовой книги будет очень близка к дисперсии ее распределения, тем самым избегая вероятностного нарушения ограничения мощности.

Принятые сообщения декодируются в сообщение в кодовой книге, которое является уникальным совместно типичным. Если такого сообщения нет или если ограничение мощности нарушено, объявляется ошибка декодирования.

Пусть X n (i) {\ displaystyle X ^ {n} (i)}X ^ {n} (i) обозначает кодовое слово для сообщения i {\ displaystyle i}i , а Y n {\ displaystyle Y ^ {n}}Y ^ {n} , как и перед полученным вектором. Определите следующие три события:

  1. Событие U {\ displaystyle U}U : мощность полученного сообщения больше, чем P {\ displaystyle P}P .
  2. Event V {\ displaystyle V}V : переданные и полученные кодовые слова не являются типичными вместе.
  3. Событие E j {\ displaystyle E_ {j}}E_ { j} : (X n (j), Y n) {\ displaystyle (X ^ {n} (j), Y ^ {n})}(X ^ {n} (j), Y ^ {n}) находится в A ϵ (n) {\ displaystyle A _ {\ epsilon } ^ {(n)}}A _ {\ epsilon} ^ {{(n)}} , типичный набор, где i ≠ j {\ displaystyle i \ neq j}i \ neq j , то есть что неверное кодовое слово является типичным вместе с полученным вектором.

Следовательно, возникает ошибка, если U {\ displaystyle U}U , V {\ displaystyle V}V или любое из E i {\ displaystyle E_ {i}}E_ {i} встречаются. По закону больших чисел P (U) {\ displaystyle P (U)}P (U) стремится к нулю, когда n приближается к бесконечности, а по совместному свойству асимптотической равнораспределенности то же самое относится к P (V) {\ displaystyle P (V)}P (V) . Следовательно, для достаточно большого n {\ displaystyle n}n оба P (U) {\ displaystyle P (U)}P (U) и P ( V) {\ displaystyle P (V)}P (V) меньше, чем ϵ {\ displaystyle \ epsilon}\ epsilon . Поскольку X n (i) {\ displaystyle X ^ {n} (i)}X ^ {n} (i) и X n (j) {\ displaystyle X ^ {n} (j)}X ^ {n} (j) независимы для я ≠ j {\ displaystyle i \ neq j}i \ neq j , мы имеем, что X n (i) {\ displaystyle X ^ {n} (i) }X ^ {n} (i) и Y n {\ displaystyle Y ^ {n}}Y ^ {n} также независимы. Следовательно, по совместному AEP P (E j) = 2 - n (I (X; Y) - 3 ϵ) {\ displaystyle P (E_ {j}) = 2 ^ {- n (I (X ; Y) -3 \ epsilon)}}P (E_ {j}) = 2 ^ {{- n (I (X; Y) -3 \ epsilon)}} . Это позволяет нам вычислить P e (n) {\ displaystyle P_ {e} ^ {(n)}}P_ {e} ^ {{(n)}} вероятность ошибки следующим образом:

P e (n) ≤ P (U) + P (V) + ∑ j ≠ i P (E j) ≤ ϵ + ϵ + ∑ j ≠ i 2 - n (I (X; Y) - 3 ϵ) ≤ 2 ϵ + (2 n R - 1) 2 - N (I (X; Y) - 3 ϵ) ≤ 2 ϵ + (2 3 n ϵ) 2 - n (I (X; Y) - R) ≤ 3 ϵ {\ displaystyle {\ begin { выровнено} P_ {e} ^ {(n)} \ leq P (U) + P (V) + \ sum _ {j \ neq i} P (E_ {j}) \\ \ leq \ epsilon + \ эпсилон + \ сумма _ {j \ neq i} 2 ^ {- n (I (X; Y) -3 \ epsilon)} \\ \ leq 2 \ epsilon + (2 ^ {nR} -1) 2 ^ { -n (I (X; Y) -3 \ epsilon)} \\ \ leq 2 \ epsilon + (2 ^ {3n \ epsilon}) 2 ^ {- n (I (X; Y) -R)} \ \ \ leq 3 \ epsilon \ end {align}}}{\ begin {align} P_ {e} ^ {{(n)}} \ leq P (U) + P ( V) + \ sum _ {{j \ neq i}} P (E_ {j}) \\ \ leq \ epsilon + \ epsilon + \ sum _ {{j \ neq i}} 2 ^ {{- n ( I (X; Y) -3 \ epsilon)}} \\ \ leq 2 \ epsilon + (2 ^ {{nR}} - 1) 2 ^ {{- n (I (X; Y) -3 \ epsilon)}} \\ \ leq 2 \ epsilon + (2 ^ {{3n \ epsilon}}) 2 ^ {{- n (I (X; Y) -R)}} \\ \ leq 3 \ epsilon \ конец {выровнен}}

Следовательно, когда n приближается к бесконечности, P e (n) {\ displaystyle P_ {e} ^ {(n)}}P_ {e} ^ {{(n)}} обнуляется и R < I ( X ; Y) − 3 ϵ {\displaystyle RR <I (X; Y) -3 \ epsilon . Следовательно, существует код скорости R, произвольно близкий к мощности, полученной ранее.

Теорема кодирования, обратная

Здесь мы показываем, что ставки выше емкости C = 1 2 log ⁡ (1 + PN) {\ displaystyle C = {\ frac {1} {2 }} \ log (1 + {\ frac {P} {N}})}C = {\ frac {1} {2}} \ log (1 + {\ frac {P} {N}}) недостижимы.

Предположим, что ограничение мощности удовлетворено для кодовой книги, и дополнительно предположим, что сообщения следуют равномерному распределению. Пусть W {\ displaystyle W}W будет входными сообщениями, а W ^ {\ displaystyle {\ hat {W}}}{\ hat {W}} выходными сообщениями. Таким образом, информация течет следующим образом:

W ⟶ X (n) (W) ⟶ Y (n) ⟶ W ^ {\ displaystyle W \ longrightarrow X ^ {(n)} (W) \ longrightarrow Y ^ {(n) } \ longrightarrow {\ hat {W}}}W \ longrightarrow X ^ {{(n)}} (W) \ longrightarrow Y ^ {{(n)}} \ longrightarrow {\ hat {W}}

Использование неравенства Фано дает:

H (W | W ^) ≤ 1 + n RP e (n) = n ϵ n {\ displaystyle H (W | {\ hat {W}}) \ leq 1 + nRP_ {e} ^ {(n)} = n \ epsilon _ {n}}H (W | {\ hat {W}}) \ leq 1 + nRP_ {e} ^ {{(n)}} = n \ epsilon _ {n} где ϵ n → 0 {\ displaystyle \ epsilon _ {n} \ rightarrow 0}\ epsilon _ {n} \ rightarrow 0 как P e (n) → 0 {\ displaystyle P_ {e} ^ {(n)} \ rightarrow 0}P_ {e} ^ { {(n)}} \ rightarrow 0

Пусть X i {\ displaystyle X_ {i}}X_ {i} будет закодированным сообщением с индексом кодового слова i. Тогда:

n R = H (W) = I (W; W ^) + H (W | W ^) ≤ I (W; W ^) + n ϵ n ≤ I (X (n); Y ( n)) + n ϵ n = h (Y (n)) - h (Y (n) | X (n)) + n ϵ n = h (Y (n)) - h (Z (n)) + n ϵ N ≤ ∑ я знак равно 1 NH (Y я) - час (Z (N)) + N ϵ N ≤ ∑ я знак равно 1 N I (X я; Y я) + N ϵ N {\ Displaystyle {\ begin {выровнено } nR = H (W) \\ = I (W; {\ hat {W}}) + H (W | {\ hat {W}}) \\ \ leq I (W; {\ hat {W }}) + n \ epsilon _ {n} \\ \ leq I (X ^ {(n)}; Y ^ {(n)}) + n \ epsilon _ {n} \\ = h (Y ^ {(n)}) - h (Y ^ {(n)} | X ^ {(n)}) + n \ epsilon _ {n} \\ = h (Y ^ {(n)}) - h ( Z ^ {(n)}) + n \ epsilon _ {n} \\ \ leq \ sum _ {i = 1} ^ {n} h (Y_ {i}) - h (Z ^ {(n)}) + n \ epsilon _ {n} \\ \ leq \ sum _ {i = 1} ^ {n} I (X_ {i}; Y_ {i}) + n \ epsilon _ {n} \ end {выровнено }}}{\ displaystyle {\ begin {align} nR = H (W) \\ = I ( W; {\ hat {W}}) + H (W | {\ hat {W}}) \\ \ leq I (W; {\ hat {W}}) + n \ epsilon _ {n} \\ \ leq I (X ^ {(n)}; Y ^ {(n)}) + n \ epsilon _ {n} \\ = h (Y ^ {(n)}) - h (Y ^ {( n)} | X ^ {(n)}) + n \ epsilon _ {n} \\ = h (Y ^ {(n)}) - h (Z ^ {(n)}) + n \ epsilon _ {n} \\ \ leq \ sum _ {i = 1} ^ {n} h (Y_ {i}) - h (Z ^ {(n)}) + n \ epsilon _ {n} \\ \ leq \ sum _ {i = 1} ^ {n} I (X_ {i}; Y_ {i}) + n \ epsilon _ { n} \ end {align}}}

Пусть P i {\ displaystyle P_ {i}}P_ {i} будет средней мощностью кодового слова индекса i:

P i = 1 2 n R ∑ wxi 2 (ш) {\ displaystyle P_ {i} = {\ frac {1} {2 ^ {nR}}} \ sum _ {w} x_ {i} ^ {2} (w) \, \!}P_ {i} = {\ frac {1} {2 ^ {{nR}}}} \ sum _ {{w}} x_ {i} ^ {2} (w) \, \!

Где сумма по всем входным сообщениям w {\ displaystyle w}w. X i {\ displaystyle X_ {i}}X_ {i} и Z i {\ displaystyle Z_ {i}}Z_ {i} независимы, поэтому ожидание мощности Y i {\ displaystyle Y_ {i}}Y_ {i} является для уровня шума N {\ displaystyle N}N:

E (Y i 2) = P i + N {\ displaystyle E (Y_ {i} ^ {2}) = P_ {i} + N \, \!}E (Y_ {i} ^ {2}) = P_ {i} + N \, \!

И, если Y i {\ displaystyle Y_ {i}}Y_ {i} нормально распределен, мы имеем, что

h (Y i) ≤ 1 2 log ⁡ 2 π e (P i + N) {\ displaystyle h (Y_ { i}) \ leq {\ frac {1} {2}} \ log {2 \ pi e} (P_ {i} + N) \, \!}h (Y_ { i}) \ leq {\ frac {1} {2}} \ log {2 \ pi e} (P_ {i} + N) \, \!

Следовательно,

n R ≤ ∑ (h (Y i) - h (Z i)) + n ϵ n ≤ ∑ (1 2 журнал ⁡ (2 π e (P i + N)) - 1 2 журнал ⁡ (2 π e N)) + n ϵ n = ∑ 1 2 журнал ⁡ (1 + п я N) + N ϵ N {\ displaystyle {\ begin {выровнено} nR \ leq \ sum (h (Y_ {i}) - h (Z_ {i})) + n \ эпсилон _ {п} \\ \ leq \ sum \ left ({\ frac {1} {2}} \ log (2 \ pi e (P_ {i} + N)) - {\ frac {1} {2 }} \ log (2 \ pi eN) \ right) + n \ epsilon _ {n} \\ = \ sum {\ frac {1} {2}} \ log (1 + {\ frac {P_ {i}) } {N}}) + n \ epsilon _ {n} \ end {align}}}{\ begin {align} nR \ leq \ sum (h (Y_ {i}) - h (Z_ { i})) + n \ epsilon _ {n} \\ \ leq \ sum \ left ({\ frac {1} {2}} \ log (2 \ pi e (P_ {i} + N)) - { \ frac {1} {2}} \ log (2 \ pi eN) \ right) + n \ epsilon _ {n} \\ = \ sum {\ frac {1} {2}} \ log (1+ { \ frac {P_ {i}} {N}}) + n \ epsilon _ {n} \ end {align}}

Мы можем применить равенство Дженсена к log ⁡ (1 + x) {\ displaystyle \ log (1 + x) }\log(1+x), вогнутая (нисходящая) функция от x, чтобы получить:

1 N ∑ я знак равно 1 N 1 2 журнал ⁡ (1 + P я N) ≤ 1 2 журнал ⁡ (1 + 1 N ∑ я = 1 N P я N) {\ Displaystyle {\ frac {1} { n}} \ sum _ {i = 1} ^ {n} {\ frac {1} {2}} \ log \ left (1 + {\ frac {P_ {i}} {N}} \ right) \ leq {\ frac {1} {2}} \ log \ left (1 + {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} {\ frac {P_ {i}} {N }} \ right) \, \!}{\ frac {1} {n}} \ sum _ {{i = 1}} ^ {{n}} {\ frac {1} {2}} \ log \ left (1 + {\ frac {P_ {i}} {N}} \ right) \ leq {\ frac {1} {2}} \ log \ left (1 + {\ frac {1} {n}} \ sum _ {{i = 1}} ^ {{n}} {\ frac {P_ {i}} {N}} \ right) \, \!

Поскольку каждое кодовое слово индивидуально удовлетворяет ограничению мощности, среднее значение также удовлетворяет ограничению мощности. Следовательно,

1 n ∑ i = 1 n P i N {\ displaystyle {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} {\ frac {P_ {i}} { N}} \, \!}{ \ frac {1} {n}} \ sum _ {{i = 1}} ^ {{n}} {\ frac {P_ {i}} {N}} \, \!

Что мы можем применить, чтобы упростить неравенство выше, и получить:

1 2 log ⁡ (1 + 1 n ∑ i = 1 n P i N) ≤ 1 2 log ⁡ ( 1 + PN) {\ displaystyle {\ frac {1} {2}} \ log \ left (1 + {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} {\ frac { P_ {i}} {N}} \ right) \ leq {\ frac {1} {2}} \ log \ left (1 + {\ frac {P} {N}} \ right) \, \!}{\ frac {1} {2}} \ log \ left (1 + {\ frac {1} {n}} \ sum _ {{i = 1}} ^ {{n}} {\ frac {P_ {i}} {N}} \ right) \ leq {\ frac {1} {2}} \ log \ left (1 + {\ frac {P} {N}} \ right) \, \!

Следовательно, должно быть, что R ≤ 1 2 log ⁡ (1 + PN) + ϵ n {\ displaystyle R \ leq {\ frac {1} {2}} \ log \ left (1 + {\ frac {P} {N}} \ right) + \ epsilon _ {n}}R \ leq {\ frac {1} {2}} \ log \ left (1 + {\ frac {P} {N}} \ right) + \ epsilon _ {n} . Следовательно, R должно быть меньше значения, произвольно близкого к мощности, полученной ранее, так как ϵ n → 0 {\ displaystyle \ epsilon _ {n} \ rightarrow 0}\ epsilon _ {n} \ rightarrow 0 .

Эффекты во временной области
Ноль- Пересечение зашумленного косинуса

При последовательной передаче данных математическая модель AWGN используется для моделирования ошибки синхронизации, вызванной случайным джиттером (RJ).

На графике справа показан пример ошибок синхронизации, связанных с AWGN. Переменная Δt представляет собой неопределенность перехода через нуль. По мере увеличения амплитуды AWGN отношение сигнал / шум уменьшается. Это приводит к увеличению неопределенности Δt.

Под воздействием AWGN среднее количество переходов через нуль в положительную или отрицательную сторону в секунду на выходе узкополосного фильтра, когда на входе является синусоидальная волна:

секунда положительного пересечения нуля = секунда отрицательного пересечения нуля {\ displaystyle {\ frac {\ mathrm {положительный \ ноль \ crossings}} {\ mathrm {second}}} = {\ frac {\ mathrm {отрицательный \ ноль \ crossings}} {\ mathrm {second}}}}{\ frac {{\ mathrm {положительный \ zero \ crossings}}} {{\ mathrm {second}}}} = {\ frac {{\ mathrm {negative \ zero \ crossings}}} {{\ mathrm {second}}}}
= f 0 SNR + 1 + B 2 12 f 0 2 SNR + 1 {\ displaystyle = f_ {0} {\ sqrt {\ frac {\ mathrm {SNR} +1+ { \ frac {B ^ {2}} {12f_ {0} ^ {2}}}} {\ mathrm {SNR} +1}}}}= f_ {0} {\ sqrt {{\ frac {{\ mathrm {SNR}} + 1 + {\ frac {B ^ {2}} {12f_) {0} ^ {2}}}} {{\ mathrm {SNR}} + 1}}}}

Где

  • f0= центральная частота фильтра
  • B = ширина полосы фильтра
  • SNR = отношение мощности сигнала к шуму в линейном выражении
Эффекты в векторной области
Вклад AWGN в фазорной области

В современных системах связи, AWGN с ограничением полосы пропускания игнорировать нельзя. При моделировании AWGN с ограниченной полосой пропускания в области вектор статистический анализ показывает, что амплитуды реальных и мнимых вкладов являются независимыми переменными, которые следуют модели гауссова распределения. При объединении величина результирующего фазора представляет собой случайную величину с распределением Рэлея, в то время как фаза равномерно распределена от 0 до 2π.

График справа показывает пример того, как AWGN с ограниченной полосой частот может влиять на сигнал когерентной несущей. Мгновенный отклик вектора шума невозможно точно предсказать, однако его усредненный по времени отклик можно предсказать статистически. Как показано на графике, мы уверенно прогнозируем, что вектор шума будет находиться внутри круга 1σ примерно 38% времени; вектор шума будет находиться внутри круга 2σ примерно 86% времени; а вектор шума будет находиться внутри круга 3σ около 98% времени.

См. также
Ссылки
Последняя правка сделана 2021-06-10 00:17:33
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте