Теорема кодирования с шумным каналом

редактировать
Предел скорости передачи данных

В теории информации теорема кодирования с шумом (иногда теорема Шеннона или предел Шеннона ), устанавливает, что для любой заданной степени шумового загрязнения канала связи, можно передавать дискретные данные (цифровую информацию ) почти без ошибок до вычисляемой максимальной скорости через канал. Этот результат был представлен Клодом Шенноном в 1948 году и частично основан на более ранних работах и ​​идеях Гарри Найквиста и Ральфа Хартли.

Предел Шеннона или Шенноновская пропускная способность канала связи означает максимальную скорость безошибочных данных, которые теоретически могут быть переданы по каналу, если канал подвержен случайным ошибкам передачи данных, для определенного уровня шума. Впервые он был описан Шенноном (1948) и вскоре после этого опубликован в книге Клода Элвуда Шеннона и Уоррена Уивера в 1949 под названием The Mathematical Theory of Communication. (ISBN 0252725484 ). Это положило начало современной дисциплине теории информации.

Содержание
  • 1 Обзор
  • 2 Математическое утверждение
  • 3 Схема доказательства
    • 3.1 Достижимость для дискретных каналов без памяти
    • 3.2 Слабое преобразование для дискретных каналы без памяти
    • 3.3 Строгое преобразование для дискретных каналов без памяти
  • 4 Теорема кодирования каналов для нестационарных каналов без памяти
    • 4.1 Схема доказательства
  • 5 См. также
  • 6 Примечания
  • 7 Ссылки
  • 8 Внешние ссылки
Обзор

Теорема, сформулированная Клодом Шенноном в 1948 году, описывает максимально возможную эффективность методов исправления ошибок по сравнению с уровнями шума вмешательство и повреждение данных. Теорема Шеннона находит широкое применение как в связи, так и в хранении данных. Эта теорема имеет фундаментальное значение для современной области теории информации. Шеннон только набросал доказательство. Первое строгое доказательство для дискретного случая было проведено в 1954 году.

Теорема Шеннона утверждает, что при наличии зашумленного канала с пропускной способностью канала C и информацией, передаваемой со скоростью R, то, если R < C {\displaystyle RR <C существуют коды , которые позволяют сделать вероятность ошибки на приемнике сколь угодно малой. Это означает, что теоретически можно передавать информацию почти без ошибок со скоростью ниже предельной, C.

Обратное также важно. Если R>C {\ displaystyle R>C}R>C , произвольно малая вероятность ошибки недостижима. Все коды будут иметь вероятность ошибки выше определенного положительного минимального уровня, и этот уровень увеличивается с увеличением скорости. Итак, не может быть гарантирована надежная передача информации по каналу со скоростью, превышающей пропускную способность канала. Теорема не рассматривает редкую ситуацию, когда скорость и пропускная способность равны.

Емкость канала C {\ displaystyle C}C можно вычислить на основе физических свойств канала; для канала с ограниченной полосой пропускания с гауссовым шумом, используя теорему Шеннона – Хартли.

Простые схемы, такие как «отправить сообщение 3 раз и использовать лучшую схему голосования 2 из 3, если копии различаются, являются неэффективными методами исправления ошибок, неспособными асимптотически гарантировать t что блок данных может быть передан без ошибок. Передовые методы, такие как коды Рида – Соломона и, в последнее время, коды с низкой плотностью проверки четности (LDPC) и турбокоды, намного ближе к достижению теоретический предел Шеннона, но за счет высокой вычислительной сложности. Используя эти высокоэффективные коды и вычислительную мощность современных цифровых сигнальных процессоров, теперь можно очень близко приблизиться к пределу Шеннона. Фактически, было показано, что коды LDPC могут достигать предела Шеннона в пределах 0,0045 дБ (для двоичных каналов Аддитивный белый гауссовский шум (AWGN) с очень большой длиной блока).

Математический оператор

Основная математическая модель для системы связи следующая:

.

Модель канала

. A сообщение W передается по зашумленному каналу с использованием функций кодирования и декодирования. Кодер отображает W в заранее определенную последовательность канальных символов длиной n. В своей базовой модели канал искажает каждый из этих символов независимо от других. Выходной сигнал канала - полученная последовательность - подается в декодер, который преобразует последовательность в оценку сообщения. В этой настройке вероятность ошибки определяется как:

P e = Pr {W ^ ≠ W}. {\ displaystyle P_ {e} = {\ text {Pr}} \ left \ {{\ hat {W}} \ neq W \ right \}.}{\ displaystyle P_ {e} = {\ text {Pr}} \ left \ {{\ hat {W}} \ neq W \ right \}.}

. Теорема (Шеннон, 1948):

1. Для каждого дискретного канала без памяти емкость канала определяется в терминах взаимной информации I (X; Y) {\ displaystyle I (X; Y)}I (X; Y) ,
C = sup p XI (X; Y) {\ displaystyle \ C = \ sup _ {p_ {X}} I (X; Y)}{\ displaystyle \ C = \ sup _ {p_ {X}} I (X; Y)}
обладает следующим свойством. Для любого ϵ>0 {\ displaystyle \ epsilon>0}\epsilon>0 и R < C {\displaystyle R{\ displaystyle R <C} , для достаточно большого N {\ displaystyle N}N существует код длины N {\ displaystyle N}N и скорость ≥ R {\ displaystyle \ geq R}{\ displaystyle \ geq R} и алгоритм декодирования, такой, что максимальная вероятность ошибки блока составляет ≤ ϵ {\ displaystyle \ leq \ epsilon}{\ displaystyle \ leq \ epsilon} .
2. Если вероятность битовой ошибки pb {\ displaystyle p_ {b}}p_b является приемлемой, значения могут достигать R (pb) {\ displaystyle R (p_ {b})}{\ displaystyle R (p_ {b})} достижимы, где
R (pb) = C 1 - H 2 (pb). {\ displaystyle R (p_ {b}) = {\ frac {C} {1-H_ {2} (p_ {b})}}.}R (p_ {b}) = {\ frac {C} {1-H_ {2} ( p_ {b})}}.
и H 2 (pb) {\ displaystyle H_ {2} (p_ {b})}H_ {2} (p_ {b}) - это функция бинарной энтропии
H 2 (pb) = - [pb log 2 ⁡ pb + (1 - pb) log 2 ⁡ (1 - pb)] {\ displaystyle H_ {2} (p_ {b}) = - \ left [p_ {b} \ log _ {2} {p_ {b}} + (1-p_ { b}) \ log _ {2} ({1-p_ {b}}) \ right]}H_ {2} (p_ {b}) = - \ left [p_ {b} \ log _ {2} {p_ {b}} + (1-p_ {b}) \ log _ {2} ({1-p_ {b}}) \ right]
3. Для любого pb {\ displaystyle p_ {b}}p_b значения больше R (pb) {\ displaystyle R (p_ {b})}{\ displaystyle R (p_ {b})} не являются

(MacKay (2003), стр. 162; см. Gallager (1968), глава 5; Cover and Thomas (1991), стр. 198; Shannon (1948) thm. 11)

Схема доказательства

Как и в случае с некоторыми другими важными результатами в теории информации, доказательство теоремы о кодировании зашумленного канала включает результат достижимости и соответствующий обратный результат. Эти два компонента служат для ограничения, в данном случае, набора возможных скоростей, с которыми можно общаться по зашумленному каналу, а сопоставление служит для демонстрации того, что эти границы являются жесткими.

Следующие наброски представляют собой лишь один набор множества различных стилей, доступных для изучения в текстах по теории информации.

Достижимость для дискретных каналов без памяти

Это конкретное доказательство достижимости следует стилю доказательств, которые используют свойство асимптотического равнораспределения (AEP). Другой стиль можно найти в текстах теории информации с использованием показателей степени ошибок.

Оба типа доказательств используют аргумент случайного кодирования, когда кодовая книга, используемая по каналу, строится случайным образом - это служит для упрощения анализа, но при этом доказывает наличие кода, удовлетворяющего желаемой низкой вероятности ошибки при любой скорости передачи данных ниже пропускной способности канала.

По аргументу, связанному с AEP, для данного канала длиной n {\ displaystyle n}n строки исходных символов X 1 n {\ displaystyle X_ {1} ^ {n}}X_ {1} ^ {{n}} и длины n {\ displaystyle n}n строк выходов каналов Y 1 n {\ displaystyle Y_ {1} ^ {n}}Y_ {1} ^ {{n}} , мы можем определить совместно типичный набор следующим образом:

A ε (n) = {( xn, yn) ∈ Икс N × Y n {\ Displaystyle A _ {\ varepsilon} ^ {(n)} = \ {(x ^ {n}, y ^ {n}) \ in {\ mathcal {X}} ^ {n} \ times {\ mathcal {Y}} ^ {n}}A _ {\ varepsilon} ^ {{(n)}} = \ {(x ^ {n}, y ^ {n}) \ in {\ mathcal X} ^ {n} \ times {\ mathcal Y} ^ {n}
2 - n (H (X) + ε) ≤ p (X 1 n) ≤ 2 - n (H (X) - ε) {\ Displaystyle 2 ^ {- п (ЧАС (Х) + \ varepsilon)} \ leq p (X_ {1} ^ {n}) \ leq 2 ^ {- n (H (X) - \ varepsilon)}}2 ^ {{- n (H (X) + \ varepsilon)}} \ leq p ( X_ {1} ^ {n}) \ leq 2 ^ {{- n (H (X) - \ varepsilon)}}
2 - n (H (Y) + ε) ≤ p (Y 1 n) ≤ 2 - n (H (Y) - ε) {\ Displaystyle 2 ^ {- п (ЧАС (Y) + \ varepsilon)} \ leq p (Y_ {1} ^ {n}) \ leq 2 ^ {- n (H (Y) - \ varepsilon)}}2 ^ {{- n (H (Y) + \ varepsilon)}} \ leq p (Y_ {1} ^ {n}) \ leq 2 ^ {{- n (H (Y) - \ varepsilon)}}
2 - N (ЧАС (X, Y) + ε) ≤ п (X 1 n, Y 1 n) ≤ 2 - n (H (X, Y) - ε)} {\ Displaystyle {2 ^ {- n (H (X, Y) + \ varepsilon)}} \ leq p (X_ {1} ^ {n}, Y_ {1} ^ {n}) \ leq 2 ^ {- n (H (X, Y) - \ varepsilon)} \}}{2 ^ {{- n (H (X, Y) + \ varepsilon)}}} \ leq p (X_ {1} ^ {n}, Y_ {1} ^ {n}) \ leq 2 ^ {{- n (H (X, Y) - \ varepsilon)}} \}

Мы говорим, что две последовательности X 1 n {\ displaystyle {X_ {1} ^ {n}}}{X_ {1} ^ {n}} и Y 1 n { \ displaystyle Y_ {1} ^ {n}}Y_ {1} ^ {n} являются совместно типичными, если они лежат в совместно типичном наборе, определенном выше.

Шаги

  1. В стиле аргумента случайного кодирования мы случайным образом генерируем 2 n R {\ displaystyle 2 ^ {nR}}2 ^ {{nR}} кодовых слов длины n из распределения вероятностей Q.
  2. Этот код раскрывается отправителю и получателю. Также предполагается, что известна матрица перехода p (y | x) {\ displaystyle p (y | x)}p (y | x) для используемого канала.
  3. Сообщение W выбирается согласно равномерному распределению на множестве кодовых слов. То есть P r (W = w) = 2 - n R, w = 1, 2,…, 2 n R {\ displaystyle Pr (W = w) = 2 ^ {- nR}, w = 1, 2, \ dots, 2 ^ {nR}}Pr (W = w) = 2 ^ {{ -nR}}, w = 1,2, \ dots, 2 ^ {{nR}} .
  4. По каналу отправляется сообщение W.
  5. Получатель принимает последовательность согласно P (yn | xn (w)) = ∏ я знак равно 1 np (yi | xi (w)) {\ displaystyle P (y ^ {n} | x ^ {n} (w)) = \ prod _ {i = 1} ^ {n} p (y_ { i} | x_ {i} (w))}P (y ^ {n} | x ^ {n} (w)) = \ prod _ {{i = 1}} ^ {n} p (y_ {i} | x_ {i} (w))
  6. Отправляя эти кодовые слова по каналу, мы получаем Y 1 n {\ displaystyle Y_ {1} ^ {n}}Y_ {1} ^ {n} , и декодировать в некоторую исходную последовательность, если существует ровно 1 кодовое слово, которое совместно типично с Y. Если нет совместно типичных кодовых слов или если их более одного, объявляется ошибка. Ошибка также возникает, если декодированное кодовое слово не соответствует исходному кодовому слову. Это называется типичным декодированием набора.

Вероятность ошибки этой схемы делится на две части:

  1. Во-первых, ошибка может возникнуть, если для принятой последовательности Y не обнаружены совместно типичные X-последовательности
  2. Во-вторых, ошибка может возникнуть, если неверная последовательность X является типичной вместе с принятой последовательностью Y.
  • Исходя из случайности конструкции кода, мы можем предположить, что средняя вероятность ошибки, усредненная по всем кодам, не зависит от отправленного индекса.. Таким образом, без ограничения общности, мы можем принять W = 1.
  • Из совместного AEP мы знаем, что вероятность того, что не существует совместно типичного X, стремится к 0 при увеличении n. Мы можем ограничить эту вероятность ошибки с помощью ε {\ displaystyle \ varepsilon}\ varepsilon .
  • Также из совместного AEP мы знаем вероятность того, что конкретный X 1 n (i) {\ displaystyle X_ {1} ^ {n} (i)}X_ {1} ^ {{n}} (i) и Y 1 n {\ displaystyle Y_ {1} ^ {n}}Y_ {1} ^ {n} , полученный из W = 1, вместе являются типичными: ≤ 2 - n (I (X; Y) - 3 ε) {\ displaystyle \ leq 2 ^ {- n (I (X; Y) -3 \ varepsilon)}}\ leq 2 ^ {{- n (I (X; Y) -3 \ varepsilon)}} .

Определить: E i Знак равно {(Икс 1 n (я), Y 1 n) ∈ A ε (n)}, я = 1, 2,…, 2 n R {\ displaystyle E_ {i} = \ {(X_ {1} ^ { n} (i), Y_ {1} ^ {n}) \ in A _ {\ varepsilon} ^ {(n)} \}, i = 1,2, \ dots, 2 ^ {nR}}E_ {i} = \ {( X_ {1} ^ {n} (i), Y_ {1} ^ {n}) \ in A _ {\ varepsilon} ^ {{(n)}} \}, i = 1,2, \ точки, 2 ^ {{nR}}

как событие, при котором сообщение i является типичным вместе с последовательностью, полученной при отправке сообщения 1.

P (ошибка) = P (ошибка | W = 1) ≤ P (E 1 c) + ∑ i = 2 2 n RP (E i) ≤ P (E 1 c) + (2 n R - 1) 2 - n (I (X; Y) - 3 ε) ≤ ε + 2 - n (I (X; Y) - R - 3 ε). {\ displaystyle {\ begin {align} P ({\ text {error}}) {} = P ({\ text {error}} | W = 1) \ leq P (E_ {1} ^ {c}) + \ sum _ {i = 2} ^ {2 ^ {nR}} P (E_ {i}) \\ {} \ leq P (E_ {1} ^ {c}) + (2 ^ {nR} - 1) 2 ^ {- n (I (X; Y) -3 \ varepsilon)} \\ {} \ leq \ varepsilon +2 ^ {- n (I (X; Y) -R-3 \ varepsilon)}. \ end {align}}}{\ begin {align} P ({\ text {error}}) {} = P ({\ text {error}} | W = 1) \ leq P (E_ {1} ^ {c}) + \ sum _ {{i = 2}} ^ {{2 ^ {{nR}}}} P (E_ {i}) \\ {} \ leq P (E_ {1} ^ {c}) + (2 ^ {{nR}} - 1) 2 ^ {- n (I (X; Y) - 3 \ varepsilon)}} \\ {} \ leq \ varepsilon +2 ^ {{- n (I (X; Y) -R-3 \ varepsilon)}}. \ End {выравнивается}}

Мы можем заметить, что когда n {\ displaystyle n}n стремится к бесконечности, если R < I ( X ; Y) {\displaystyle RR <I (X; Y) для канала, вероятность ошибки будет 0.

Наконец, учитывая, что средняя кодовая книга показана как «хорошая», мы знаем, что существует кодовая книга, производительность которой лучше, чем в среднем, и, таким образом, удовлетворяет нашу потребность в сколь угодно низкой вероятности ошибки, передаваемой через шумный канал.

Слабое преобразование для дискретных каналов без памяти

Предположим, что код 2 n R {\ displaystyle 2 ^ {nR}}2 ^ {{nR}} кодовых слов. Пусть W равномерно проведен по этому множеству как индекс. Пусть X n {\ displaystyle X ^ {n}}X ^ {n} и Y n {\ displaystyle Y ^ {n}}Y ^ {n} будут переданными кодовыми словами и принятыми кодовыми словами, соответственно.

  1. N R = H (W) = H (W | Y n) + I (W; Y n) {\ displaystyle nR = H (W) = H (W | Y ^ {n}) + I (W ; Y ^ {n})}{\ displaystyle nR = H (W) = H (W | Y ^ {n}) + I (W; Y ^ {n})} с использованием тождеств, включающих энтропию и взаимную информацию
  2. ≤ H (W | Y n) + I (X n (W); Y n) {\ displaystyle \ leq H (W | Y ^ {n}) + I (X ^ {n} (W); Y ^ {n})}\ leq H (W | Y ^ { n}) + I (X ^ {n} (W); Y ^ {{n}}) , поскольку X является функцией W
  3. ≤ 1 + П е (п) N р + я (Икс N (W); Y N) {\ Displaystyle \ leq 1 + P_ {e} ^ {(n)} nR + I (X ^ {n} (W); Y ^ {n})}\ leq 1 + P_ {e} ^ {{(n)}} nR + I (X ^ {n} (W); Y ^ {n}) с использованием неравенства Фано
  4. ≤ 1 + P e (n) n R + n C {\ displaystyle \ leq 1 + P_ {e} ^ { (n)} nR + nC}\ leq 1 + P_ {e} ^ {{(n)}} nR + nC тем фактом, что емкость - это максимальная взаимная информация.

Результатом этих шагов является то, что P e (n) ≥ 1 - 1 n R - CR {\ displaystyle P_ {e} ^ {(n)} \ geq 1 - {\ frac {1} {nR}} - {\ frac {C} {R}}}P_ {e} ^ {{(n)}} \ geq 1- {\ frac {1} {nR}} - {\ frac {C} {R}} . Поскольку длина блока n {\ displaystyle n}n стремится к бесконечности, мы получаем P e (n) {\ displaystyle P_ {e} ^ {(n)}}P_ {e} ^ {{(n)}} отделен от 0, если R больше C - мы можем получить произвольно низкие частоты ошибок, только если R меньше C.

Сильное преобразование для дискретных каналов без памяти

A сильная обратная теорема, доказанная Вулфовицем в 1957 г., утверждает, что

P e ≥ 1-4 A n (R - C) 2 - e - n (R - C) 2 {\ displaystyle P_ {e} \ geq 1 - {\ frac {4A} {n (RC) ^ {2}}} - e ^ {- {\ frac {n (RC)} {2}}}}P_ {e} \ geq 1 - {\ frac {4A} {n (RC) ^ {2}} } -e ^ {{- {\ frac {n (RC)} {2}}}}

для некоторой конечной положительной константы A {\ Displaystyle A}A . В то время как слабое обратное утверждение утверждает, что вероятность ошибки отделена от нуля, поскольку n {\ displaystyle n}n стремится к бесконечности, сильное обратное утверждение утверждает, что ошибка принимает значение 1. Таким образом, C {\ displaystyle C}C - это резкий порог между совершенно надежной и совершенно ненадежной связью.

Теорема кодирования канала для нестационарных каналов без памяти

Мы предполагаем, что канал не имеет памяти, но его вероятности перехода меняются со временем, как это известно как передатчику, так и приемнику.

Тогда пропускная способность канала определяется как

C = lim inf max p (X 1), p (X 2),... 1 n ∑ i знак равно 1 n I (X i; Y i). {\ displaystyle C = \ lim \ inf \ max _ {p ^ {(X_ {1})}, p ^ {(X_ {2})},...} {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} I (X_ {i}; Y_ {i}).}{\ displaystyle C = \ lim \ inf \ max _ {p ^ {(X_ {1})}, p ^ {(X_ {2})},...} {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} I (X_ {i}; Y_ {i}).}

Максимум достигается при пропускной способности, достигающей распределения для каждого соответствующего канала. То есть C = lim inf 1 n ∑ i = 1 n C i {\ displaystyle C = \ lim \ inf {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} C_ {i}}C = \ lim \ inf {\ frac {1} {n}} \ sum _ {{i = 1}} ^ {n} C_ {i} где C i {\ displaystyle C_ {i}}C_ {i} - пропускная способность i-го канала.

Схема доказательства

Доказательство проходит почти так же, как и теорема канального кодирования. Достижимость следует из случайного кодирования, при котором каждый символ выбирается случайным образом из распределения достижения пропускной способности для этого конкретного канала. Аргументы типичности используют определение типичных наборов для нестационарных источников, определенных в статье асимптотическое равнораспределение, свойство.

Технический аспект lim inf вступает в игру, когда 1 n ∑ i = 1 n C i {\ displaystyle {\ frac {1} {n}} \ sum _ { i = 1} ^ {n} C_ {i}}{\ frac {1} {n}} \ sum _ {{i = 1}} ^ {n} C_ {i} не сходится.

См. Также
Примечания
Ссылки
Внешние ссылки
Последняя правка сделана 2021-05-31 11:46:50
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте