Теория скоростей – искажений

редактировать

Теория скоростей – искажений является основным разделом теории информации, которая обеспечивает теоретические основы для сжатия данных с потерями ; он решает проблему определения минимального количества битов на символ, измеряемого скоростью R, которое должно передаваться по каналу, так что источник (входной сигнал) может быть приблизительно восстановлен в приемнике (выходной сигнал) без превышения ожидаемое искажение D.

Содержание
  • 1 Введение
  • 2 Функции искажения
    • 2.1 Искажение Хэмминга
    • 2.2 Искажение в квадрате ошибки
  • 3 Функции коэффициента искажения
    • 3.1 Без памяти (независимые) Источник Гаусса с искажением в квадрате ошибки
    • 3.2 Источник Бернулли без памяти (независимый) с искажением Хэмминга
  • 4 Связь теории искажения скорости с пропускной способностью канала
  • 5 См. Также
  • 6 Ссылки
  • 7 Внешние ссылки
Введение
Кодер и декодер искажения скорости. Кодировщик f n {\ displaystyle f_ {n}}f_ {n} кодирует последовательность X n {\ displaystyle X ^ {n}}X ^ {n} . Закодированная последовательность Y n {\ displaystyle Y ^ {n}}Y ^ {n} затем подается в декодер gn {\ displaystyle g_ {n}}g_ {n} , который выводит последовательность X ^ n {\ displaystyle {\ hat {X}} ^ {n}}\ hat {X} ^ n . Мы пытаемся минимизировать искажение между исходной последовательностью X n {\ displaystyle X ^ {n}}X ^ {n} и восстановленной последовательностью X ^ n {\ displaystyle {\ hat {X}} ^ {n}}\ hat {X} ^ n .

Теория искажения скорости дает аналитическое выражение того, насколько сжатие может быть достигнуто с использованием методов сжатия с потерями. Многие из существующих методов сжатия звука, речи, изображений и видео имеют процедуры преобразования, квантования и распределения битовой скорости, в которых используется общая форма функций скорость-искажение.

Теория искажения скорости была создана Клодом Шенноном в его фундаментальной работе по теории информации.

В теории искажений скорость обычно понимается как количество бит на выборку данных, которая должна быть сохранена или передана. Понятие искажения является предметом постоянных дискуссий. В самом простом случае (который фактически используется в большинстве случаев) искажение определяется как ожидаемое значение квадрата разницы между входным и выходным сигналами (то есть среднеквадратичная ошибка ). Однако, поскольку мы знаем, что большинство методов сжатия с потерями работают с данными, которые будут восприниматься потребителями (прослушивание музыки, просмотр изображений и видео), мера искажения предпочтительно должна быть смоделирована на человеческое восприятие и, возможно, эстетика : так же, как и использование вероятности в сжатии без потерь, меры искажения в конечном итоге могут быть идентифицированы с функции потерь, используемые в байесовской оценке и теории принятия решений. При сжатии звука модели восприятия (и, следовательно, меры искажения восприятия) относительно хорошо разработаны и обычно используются в таких методах сжатия, как MP3 или Vorbis, но часто их нелегко включить в коэффициент –Теория искажений. При сжатии изображений и видео модели человеческого восприятия менее развиты, и включение в них в основном ограничивается взвешиванием JPEG и MPEG (квантование, нормализация ) матрица.

Функции искажения

Функции искажения измеряют стоимость представления символа x {\ displaystyle x}x приближенным символом x ^ {\ displaystyle {\ hat {x}}}{\ hat {x}} . Типичными функциями искажения являются искажение Хэмминга и искажение квадратичной ошибки.

Искажение Хэмминга

d (x, x ^) = {0, если x = x ^ 1, если x ≠ x ^ {\ displaystyle d (x, {\ hat {x}}) = {\ begin {case} 0 {\ text {if}} x = {\ hat {x}} \\ 1 {\ text {if}} x \ neq {\ hat {x}} \ end {cases}}}{\ displaystyle d (x, {\ hat {x}}) = {\ begin {cases} 0 {\ text {if}} x = {\ hat {x}} \\ 1 { \ text {if}} x \ neq {\ hat {x}} \ end {cases}}}

Искажение квадратичной ошибки

d (x, x ^) = (x - x ^) 2 {\ displaystyle d (x, {\ hat {x}}) = \ left (x - {\ hat {x}) } \ right) ^ {2}}{\ displaystyle d (x, {\ hat {x}}) = \ left (x - {\ hat {x}} \ right) ^ {2 }}
Функции коэффициента искажения

Функции, которые связывают скорость и искажение, находятся как решение следующей задачи минимизации:

inf QY ∣ X (y ∣ x) IQ (Y; X) при условии DQ ≤ D ∗. {\ displaystyle \ inf _ {Q_ {Y \ mid X} (y \ mid x)} I_ {Q} (Y; X) {\ text {при условии}} D_ {Q} \ leq D ^ {*}. }{\ displaystyle \ inf _ {Q_ {Y \ mid X} (y \ mid x)} I_ {Q} (Y; X) {\ text {тема to}} D_ {Q} \ leq D ^ {*}.}

Здесь QY ∣ X (y ∣ x) {\ displaystyle Q_ {Y \ mid X} (y \ mid x)}{\ displaystyle Q_ {Y \ mid X} (y \ mid x)} , иногда называемый тестовым каналом, - это условная функция плотности вероятности (PDF) выхода канала связи (сжатый сигнал) Y {\ displaystyle Y}Y для заданного входа (исходный сигнал) X {\ displaystyle X}X и IQ (Y; X) {\ displaystyle I_ {Q} (Y; X)}{\ displaystyle I_ {Q} (Y; X)} - это взаимная информация между Y {\ displaystyle Y}Y и X {\ displaystyle X}X , определенная как

I (Y ; Икс) знак равно ЧАС (Y) - ЧАС (Y ∣ Икс) {\ Displaystyle I (Y; X) = H (Y) -H (Y \ mid X) \,}{\ displaystyle I (Y; X) = H (Y) -H (Y \ mid X) \,}

где H (Y) {\ displaystyle H (Y)}H (Y) и H (Y ∣ X) {\ displaystyle H (Y \ mid X)}{\ displaystyle H (Y \ mid X)} - энтропия выходного сигнала Y и условная энтропия выходного сигнала для входного сигнала, соответственно:

H (Y) = - ∫ - ∞ ∞ PY (Y) журнал 2 ⁡ (PY (y)) dy {\ displaystyle H (Y) = - \ int _ {- \ infty} ^ {\ infty} P_ {Y} (y) \ log _ {2} (P_ {Y} (y)) \, dy}H (Y) = - \ int _ {- \ infty} ^ \ infty P_Y (y) \ log_ {2} (P_Y (y)) \, dy
H (Y ∣ X) = - ∫ - ∞ ∞ ∫ - ∞ ∞ QY ∣ X (y ∣ x) PX (x) log 2 ⁡ (QY ∣ X ( у ∣ х)) dxdy. {\ Displaystyle H (Y \ mid X) = - \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} Q_ {Y \ mid X} (y \ mid x) P_ {X} (x) \ log _ {2} (Q_ {Y \ mid X} (y \ mid x)) \, dx \, dy.}{\ displaystyle H (Y \ mid X) = - \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ { \ infty} Q_ {Y \ mid X} (y \ mid x) P_ {X} (x) \ log _ {2} (Q_ {Y \ mid X} (y \ mid x)) \, dx \, dy.}

Проблема также может быть сформулирована как искажение - функция скорости, где мы находим нижнюю границу по достижимым искажениям для данного ограничения скорости. Соответствующее выражение:

inf Q Y ∣ X (y ∣ x) E [D Q [X, Y]] при условии I Q (Y; X) ≤ R. {\ displaystyle \ inf _ {Q_ {Y \ mid X} (y \ mid x)} E [D_ {Q} [X, Y]] {\ text {при условии}} I_ {Q} (Y; X) \ leq R.}{\ displaystyle \ inf _ {Q_ {Y \ mid X} (y \ mid x)} E [D_ {Q} [X, Y]] {\ text {при условии}} I_ {Q} (Y; X) \ leq R.}

Эти две формулировки приводят к функциям, обратным друг другу.

Взаимная информация может пониматься как мера «предшествующей» неопределенности получателя в отношении сигнала отправителя (H (Y)), уменьшенной за счет неопределенности, которая остается после получения информации о сигнале отправителя (ЧАС (Y ∣ Икс) {\ Displaystyle H (Y \ mid X)}{\ displaystyle H (Y \ mid X)} ). Конечно, уменьшение неопределенности происходит из-за переданного количества информации, а именно: I (Y; X) {\ displaystyle I \ left (Y; X \ right)}{\ displaystyle I \ left (Y; X \ right)} .

В качестве примера, в случае, если отсутствует связь, тогда H (Y ∣ X) = H (Y) {\ displaystyle H (Y \ mid X) = H (Y)}{\ displaystyle H (Y \ mid X) = H (Y)} и I (Y ; Икс) = 0 {\ Displaystyle I (Y; X) = 0}{\ displaystyle I (Y; X) = 0} . В качестве альтернативы, если канал связи идеален и принятый сигнал Y {\ displaystyle Y}Y идентичен сигналу X {\ displaystyle X}X у отправителя, тогда H (Y ∣ X) = 0 {\ displaystyle H (Y \ mid X) = 0}{\ displaystyle H (Y \ mid X) = 0} и I (Y; X) = H (X) = H ( Y) {\ displaystyle I (Y; X) = H (X) = H (Y)}{\ Displaystyle I (Y; X) = H (X) = H (Y)} .

В определении функции "скорость – искажение" DQ {\ displaystyle D_ {Q}}{\ displaystyle D_ {Q}} и D ∗ {\ displaystyle D ^ {*}}D^{{*}}- это искажение между X {\ displaystyle X}X и Y {\ displaystyle Y}Y для данного QY ∣ X (y ∣ x) {\ displaystyle Q_ {Y \ mid X} (y \ mid x)}{\ displaystyle Q_ {Y \ mid X} (y \ mid x)} и предписанного максимума искажения соответственно. Когда мы используем среднеквадратичную ошибку в качестве меры искажения, мы имеем (для амплитуды - непрерывных сигналов ):

DQ = ∫ - ∞ ∞ ∫ - ∞ ∞ PX, Y (x, y) (x - y) 2 dxdy = ∫ - ∞ ∞ ∫ - ∞ ∞ QY ∣ X (y ∣ x) PX (x) (x - y) 2 dxdy. {\ Displaystyle D_ {Q} = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} P_ {X, Y} (x, y) (xy) ^ { 2} \, dx \, dy = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} Q_ {Y \ mid X} (y \ mid x) P_ { X} (x) (xy) ^ {2} \, dx \, dy.}{\ displaystyle D_ {Q} = \ int _ { - \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} P_ {X, Y} (x, y) (xy) ^ {2} \, dx \, dy = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} Q_ {Y \ mid X} (y \ mid x) P_ {X} (x) (xy) ^ {2} \, dx \, dy.}

Как показывают приведенные выше уравнения, для вычисления функции "скорость – искажение" требуется стохастическое описание входных данных X {\ displaystyle X }X в терминах PDF PX (x) {\ displaystyle P_ {X} (x)}{\ displaystyle P_ {X} (x)} , а затем направлен на поиск условного PDF QY ∣ Икс (Y ∣ Икс) {\ Displaystyle Q_ {Y \ mid X} (y \ mid x)}{\ displaystyle Q_ {Y \ mid X} (y \ mid x)} , которые минимизируют скорость для данного искажения D ∗ {\ displaystyle D ^ {*}}D^{{*}}. Эти определения могут быть сформулированы с точки зрения теории меры для учета дискретных и смешанных случайных величин.

аналитическое решение этой задачи минимизации часто бывает трудно получить, за исключением некоторых случаев, для которых мы предлагаем два наиболее известных примера. Известно, что функция скорость – искажение любого источника подчиняется нескольким фундаментальным свойствам, наиболее важными из которых являются то, что он непрерывный, монотонно убывающий выпуклый (U) function и, таким образом, форма функции в примерах является типичной (даже измеренные функции скорость – искажение в реальной жизни имеют тенденцию иметь очень похожие формы).

Хотя аналитических решений этой проблемы мало, существуют верхние и нижние границы этих функций, включая знаменитую (SLB), которая в случае квадратичной ошибки и источников без памяти утверждает, что для произвольных источников с конечным дифференциалом энтропия,

R (D) ≥ h (X) - h (D) {\ displaystyle R (D) \ geq h (X) -h (D) \,}R (D) \ ge h (X) - h (D) \,

где h (D) - это дифференциальная энтропия гауссовской случайной величины с дисперсией D. Эта нижняя граница может быть расширена для источников с памятью и другими мерами искажения. Одной из важных особенностей SLB является то, что он асимптотически плотный в режиме низких искажений для широкого класса источников и в некоторых случаях фактически совпадает с функцией скорость – искажение. Нижние границы Шеннона обычно могут быть найдены, если искажение между любыми двумя числами может быть выражено как функция разницы между значениями этих двух чисел.

Алгоритм Блахута – Аримото, совместно изобретенный Ричардом Блаутом, представляет собой элегантный итерационный метод для численного получения функций скорость – искажение произвольного конечного алфавита ввода / вывода. источников, и была проделана большая работа по его распространению на более общие примеры проблем.

При работе со стационарными источниками с памятью необходимо изменить определение функции искажения скорости, и это следует понимать в смысле ограничения, принятого для последовательностей увеличивающейся длины.

R (D) = lim n → ∞ R n (D) {\ displaystyle R (D) = \ lim _ {n \ rightarrow \ infty} R_ {n} (D)}R (D) = \ lim_ {n \ rightarrow \ infty} R_n (D)

где

Р N (D) знак равно 1 N Inf QY N ∣ Икс N ∈ QI (Y N, X n) {\ Displaystyle R_ {n} (D) = {\ frac {1} {n}} \ inf _ {Q_ { Y ^ {n} \ mid X ^ {n}} \ in {\ mathcal {Q}}} I (Y ^ {n}, X ^ {n})}{\ displaystyle R_ {n} (D) = {\ frac {1} {n}} \ inf _ {Q_ {Y ^ {n} \ mid X ^ {n}} \ in {\ mathcal {Q}}} I (Y ^ {n}, X ^ {n}) }

и

Q = {QY n ∣ Икс N (Y N ∣ Икс N, Икс 0): E [d (X n, Y n)] ≤ D} {\ displaystyle {\ mathcal {Q}} = \ {Q_ {Y ^ {n} \ mid X ^ {n}} (Y ^ {n} \ mid X ^ {n}, X_ {0}): E [d (X ^ {n}, Y ^ {n})] \ leq D \}}{\ displaystyle {\ mathcal {Q}} = \ {Q_ {Y ^ {n} \ mid X ^ {n}} (Y ^ {n} \ mid X ^ {n}, X_ {0}): E [ d (X ^ {n}, Y ^ {n})] \ leq D \}}

, где верхний индекс обозначает полную последовательность до этого времени, а нижний индекс 0 указывает начальное состояние.

Гауссовский источник без памяти (независимый) с искажением в квадрате ошибки

Если предположить, что X {\ displaystyle X}X является Gaussian случайная величина с дисперсией σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} , и если мы предположим, что последовательные выборки сигнала X {\ displaystyle X}X являются стохастически независимыми (или, что эквивалентно, источник без памяти, или сигнал некоррелирован), мы находим следующее аналитическое выражение для функции скорость – искажение:

R (D) = {1 2 log 2 ⁡ (σ x 2 / D), если 0 ≤ D ≤ σ x 2 0, если D>σ x 2. {\ Displaystyle R (D) = {\ begin {case} {\ frac {1} {2}} \ log _ {2} (\ sigma _ {x} ^ {2} / D), {\ text { if}} 0 \ leq D \ leq \ sigma _ {x} ^ {2} \\ 0, {\ text {if}} D>\ sigma _ {x} ^ {2}. \ end {cases}} }{\displaystyle R(D)={\begin{cases}{\frac {1}{2}}\log _{2}(\sigma _{x}^{2}/D),{\text{if }}0\leq D\leq \sigma _{x}^{2}\\0,{\text{if }}D>\ sigma _ {x} ^ {2}. \ End {cases}}}

На следующем рисунке показано, как выглядит эта функция:

Функция искажения скорости.png

Теория скоростного искажения говорит нам, что« не существует системы сжатия, работающей за пределами серой области. Чем ближе практическая система сжатия к красной (нижней) границе, тем лучше она работает. Как правило, эта граница может быть достигнута только путем увеличения параметра длины блока кодирования. Тем не менее, даже при единичной длине блока часто можно найти хорошие (скалярные) квантователи, которые работают на расстояниях от функции скорость-искажение, которые имеют практическое значение.

Эта функция скорость-искажение верна только для гауссовых источников без памяти. Известно, что t Источник Гаусса является наиболее "трудным" для кодирования: для данной среднеквадратичной ошибки требуется наибольшее количество битов. Производительность практической системы сжатия, работающей, скажем, с изображениями, вполне может быть ниже показанной нижней границы R (D) {\ displaystyle R \ left (D \ right)}{\ displaystyle R \ left (D \ right)} .

Источник Бернулли без памяти (независимый) с искажением Хэмминга

Функция скорости-искажения случайной величины Бернулли с искажением Хэмминга определяется выражением:

R (D) Знак равно {ЧАС б (п) - ЧАС б (D), 0 ≤ D ≤ мин (п, 1 - р) 0, D>мин (р, 1 - р) {\ Displaystyle R (D) = \ влево \ {{\ begin {matrix} H_ {b} (p) -H_ {b} (D), 0 \ leq D \ leq \ min {(p, 1-p)} \\ 0, D>\ min {( p, 1-p)} \ end {matrix}} \ right.}{\displaystyle R(D)=\left\{{\begin{matrix}H_{b}(p)-H_{b}(D),0\leq D\leq \min {(p,1-p)}\\0,D>\ min {(p, 1-p)} \ end {matrix}} \ right.}

где H b {\ displaystyle H_ }}{\ displaystyle H_ {b}} обозначает двоичную энтропийную функцию.

График функции скорости-искажения для p = 0,5 {\ displaystyle p = 0,5}p = 0,5 :

Оцените функцию искажения Bernoulli.png

Связь теории скорости-искажения с каналом емкость

Предположим, мы хотим передать пользователю информацию об источнике с искажением, не превышающим D. Теория скоростных искажений говорит нам, что по крайней мере R ( D) {\ displaystyle R (D)}{\ displaystyle R (D)} бит / символ информации из источника должен достигнуть пользователя. Мы также знаем из теоремы Шеннона о кодировании каналов, что если энтропия источника составляет H бит / символ, а пропускная способность канала равна C (где C < H {\displaystyle C{\ displaystyle C <H} ), то H - C {\ displaystyle HC}{\ displaystyle HC} бит / символ будут потеряны при передаче этой информации по данному каналу. Чтобы у пользователя была какая-либо надежда на реконструкцию с максимальным искажением D, мы должны наложить требование, чтобы информация, теряемая при передаче, не превышала максимально допустимую потерю H - R (D) {\ displaystyle HR (D) }{\ dis playstyle HR (D)} бит / символ. Это означает, что пропускная способность канала должна быть не менее R (D) {\ displaystyle R (D)}{\ displaystyle R (D)} .

См. Также
Ссылки
Внешние ссылки
Последняя правка сделана 2021-06-03 08:53:50
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте