Фильтр Винера

редактировать

В обработке сигналов фильтр Винера является фильтром используется для получения оценки желаемого или целевого случайного процесса посредством линейной не зависящей от времени (LTI ) фильтрации наблюдаемого зашумленного процесса, предполагая известные стационарные спектры сигнала и шума, а также аддитивные шум. Фильтр Винера минимизирует среднеквадратичную ошибку между оцененным случайным процессом и желаемым процессом.

Содержание

  • 1 Описание
  • 2 Решения с фильтром Винера
    • 2.1 Непричинное решение
    • 2.2 Причинное решение
  • 3 Фильтр Винера с конечной импульсной характеристикой для дискретных серий
    • 3.1 Связь с фильтром наименьших квадратов
    • 3.2 Сложные сигналы
  • 4 Приложения
  • 5 История
  • 6 См. Также
  • 7 Ссылки
  • 8 Внешние ссылки

Описание

Цель фильтра Винера - для вычисления статистической оценки неизвестного сигнала с использованием связанного сигнала в качестве входа и фильтрации этого известного сигнала для получения оценки в качестве выхода. Например, известный сигнал может состоять из интересующего неизвестного сигнала, который был искажен аддитивным шумом. Фильтр Винера может использоваться для фильтрации шума из искаженного сигнала, чтобы обеспечить оценку основного сигнала, представляющего интерес. Фильтр Винера основан на статистическом подходе, и более статистическое изложение теории дается в статье оценщика минимальной среднеквадратичной ошибки (MMSE).

Типичные детерминированные фильтры разработаны для желаемой частотной характеристики. Однако конструкция фильтра Винера использует другой подход. Предполагается, что кто-то знает спектральные свойства исходного сигнала и шума, а другой ищет линейный не зависящий от времени фильтр, выходной сигнал которого будет максимально приближен к исходному сигналу. Фильтры Винера характеризуются следующим:

  1. Допущение: сигнал и (аддитивный) шум являются стационарными линейными случайными процессами с известными спектральными характеристиками или известной автокорреляцией и взаимной корреляцией.
  2. Требование: фильтр должен быть физически реализуемым / причинным (это требование можно отбросить, что приведет к непричинному решению)
  3. Критерий эффективности: минимальный среднеквадратичный ошибка (MMSE)

Этот фильтр часто используется в процессе деконволюции ; для этого приложения см. деконволюция Винера.

Решения винеровского фильтра

Пусть s (t) {\ displaystyle s (t)}s (t) будет неизвестным сигналом, который должен оцениваться по сигналу измерения x (t) {\ displaystyle x (t)}x (t) . Проблема фильтра Винера имеет решения для трех возможных случаев: первый, когда непричинный фильтр приемлем (требует бесконечного количества как прошлых, так и будущих данных), случай, когда желателен причинный фильтр (с использованием бесконечного количества прошлых данных), и случай конечной импульсной характеристики (FIR), когда используются только входные данные (т. е. результат или выход не передаются обратно в фильтр, как в случае IIR). Первый случай легко решить, но он не подходит для приложений реального времени. Основным достижением Винера было решение случая, в котором действует требование причинности; Норман Левинсон дал решение FIR в приложении к книге Винера.

Непричинное решение

G (s) = S x, s (s) S x (s) e α s, {\ displaystyle G (s) = {\ frac {S_ {x, s}) (s)} {S_ {x} (s)}} e ^ {\ alpha s},}{\ displaystyle G (s) = {\ frac {S_ {x, s} (s)} {S_ {x} (s)}} e ^ {\ alpha s},}

где S {\ displaystyle S}S - спектральные плотности. При условии, что g (t) {\ displaystyle g (t)}g (t) является оптимальным, тогда уравнение минимальной среднеквадратичной ошибки сводится к

E (e 2) Знак равно р s (0) - ∫ - ∞ ∞ г (τ) р Икс, s (τ + α) d τ, {\ displaystyle E (e ^ {2}) = R_ {s} (0) - \ int _ {- \ infty} ^ {\ infty} g (\ tau) R_ {x, s} (\ tau + \ alpha) \, d \ tau,}{\ displaystyle E (e ^ {2}) = R_ {s} (0) - \ int _ {- \ infty} ^ {\ infty} g (\ tau) R_ {x, s} (\ tau + \ alpha) \, d \ tau,}

и решение g (t) {\ displaystyle g (t)}g (t) - обратное двустороннее преобразование Лапласа для G (s) {\ displaystyle G (s)}G (s) .

Причинное решение

G (s) = H (s) S Икс + (s), {\ Displaystyle G (s) = {\ frac {H (s)} {S_ {x} ^ {+} (s)}},}G (s) = {\ гидроразрыв {H (s)} {S_ {x} ^ {{+}} (s)}},

где

  • H (s) {\ displaystyle H (s)}H (s) состоит из причинной части S x, s (s) S x - (s) e α s { \ displaystyle {\ frac {S_ {x, s} (s)} {S_ {x} ^ {-} (s)}} e ^ {\ alpha s}}{\ frac {S _ {{x, s}} (s)} {S_ {x} ^ {{-}} (s)}} e ^ {{\ alpha s}} (то есть эта часть этой дроби, имеющей положительное временное решение при обратном преобразовании Лапласа)
  • S x + (s) {\ displaystyle S_ {x} ^ {+} (s)}S_ {x} ^ {{+}} (s) является причинным компонентом S x (s) {\ displaystyle S_ {x} (s)}S_ {x} (s) (т.е.., обратное преобразование Лапласа S x + (s) {\ displaystyle S_ {x} ^ {+} (s)}S_ {x} ^ {{+}} (s) отлично от нуля только для t ≥ 0 { \ displaystyle t \ geq 0}{\ displaystyle t \ geq 0} )
  • S x - (s) {\ displaystyle S_ {x} ^ {-} (s)}S_ {x} ^ {{ -}} (s) - антипричинный компонент S x ( s) {\ displaystyle S_ {x} (s)}S_ {x} (s) (т.е. обратное преобразование Лапласа для S x - (s) {\ displaystyle S_ {x} ^ {-} (s) }S_ {x} ^ {{ -}} (s) не равно нулю только для t < 0 {\displaystyle t<0}t <0 )

Эта общая формула сложна и заслуживает более подробного объяснения. Чтобы записать решение G (s) {\ displaystyle G (s)}G (s) в конкретном случае, необходимо выполнить следующие шаги:

  1. Начать со спектра S x ( s) {\ displaystyle S_ {x} (s)}S_ {x} (s) в рациональной форме и разложите его на причинные и антипричинные компоненты: S x (s) = S x + (s) S x - (s) {\ displaystyle S_ {x} (s) = S_ {x} ^ {+} (s) S_ {x} ^ {-} (s)}S_ {x} (s) = S_ {x} ^ {{+}} (s) S_ {x} ^ {{-}} (s) где S + {\ displaystyle S ^ {+}}S ^ {{+}} содержит все нули и полюсы в левой полуплоскости (LHP), а S - {\ displaystyle S ^ {-}}S ^ {{-}} содержит нули и полюсы в правой полуплоскости (RHP). Это называется факторизацией Винера – Хопфа.
  2. Divide S x, s (s) e α s {\ displaystyle S_ {x, s} (s) e ^ {\ alpha s}}S _ {{x, s}} (s) e ^ {{\ alpha s}} на S x - (s) {\ displaystyle S_ {x} ^ {-} (s)}S_ {x} ^ {{ -}} (s) и запишите результат в виде разложения частичной дроби.
  3. Выберите в этом расширении только те термины, у которых есть полюсы в LHP. Назовите эти термины H (s) {\ displaystyle H (s)}H (s) .
  4. Разделите H (s) {\ displaystyle H (s)}H (s) на S x + (s) {\ displaystyle S_ {x} ^ {+} (s)}S_ {x} ^ {{+}} (s) . Результатом является желаемая передаточная функция фильтра G (s) {\ displaystyle G (s)}G (s) .

Фильтр Винера с конечной импульсной характеристикой для дискретных серий

Блок-схема КИХ-фильтра Винера для дискретных серий. Входной сигнал w [n] свертывается с помощью фильтра Винера g [n], и результат сравнивается с опорным сигналом s [n] для получения ошибки фильтрации e [n].

Причинный конечный импульс response (FIR) Фильтр Винера вместо использования некоторой заданной матрицы данных X и выходного вектора Y находит оптимальные веса отводов, используя статистику входных и выходных сигналов. Он заполняет входную матрицу X оценками автокорреляции входного сигнала (T) и заполняет выходной вектор Y оценками взаимной корреляции между выходным и входным сигналами (V).

Чтобы вывести коэффициенты фильтра Винера, рассмотрим сигнал w [n], подаваемый на фильтр Винера порядка (количества прошедших отводов) N и с коэффициентами {a 0, ⋯, а N} {\ displaystyle \ {a_ {0}, \ cdots, a_ {N} \}}{\ displaystyle \ {a_ {0}, \ cdots, a_ {N} \}} . Выходной сигнал фильтра обозначается x [n], который задается выражением

x [n] = ∑ i = 0 N a i w [n - i]. {\ displaystyle x [n] = \ sum _ {i = 0} ^ {N} a_ {i} w [ni].}x [n] = \ sum _ {{i = 0}} ^ {N} a_ {i} w [ni].

Остаточная ошибка обозначается e [n] и определяется как e [n] = x [n] - s [n] (см. соответствующую блок-схему). Фильтр Винера разработан таким образом, чтобы минимизировать среднеквадратичную ошибку (критерии MMSE ), которую можно кратко сформулировать следующим образом:

ai = arg ⁡ min E [e 2 [n]], {\ displaystyle a_ {i} = \ arg \ min E \ left [e ^ {2} [n] \ right],}{\ displaystyle a_ {i} = \ arg \ min E \ left [e ^ {2} [n] \ right],}

где E [⋅] {\ displaystyle E [\ cdot]}E [\ cdot] обозначает оператор ожидания. В общем случае коэффициенты a i {\ displaystyle a_ {i}}a_ {i } могут быть сложными и могут быть получены для случая, когда w [n] и s [n] также являются комплексными. При сложном сигнале решаемой матрицей является эрмитова матрица Теплица, а не симметричная матрица Теплица. Для простоты ниже рассматривается только случай, когда все эти величины действительны. Среднеквадратичная ошибка (MSE) может быть переписана как:

E [e 2 [n]] = E [(x [n] - s [n]) 2] = E [x 2 [n]] + E [s 2 [n]] - 2 E [x [n] s [n]] = E [(∑ i = 0 N aiw [n - i]) 2] + E [s 2 [n]] - 2 E [∑ я знак равно 0 N aiw [n - я] s [n]] {\ displaystyle {\ begin {выровнено} E \ left [e ^ {2} [n] \ right] = E \ left [(x [ n] -s [n]) ^ {2} \ right] \\ = E \ left [x ^ {2} [n] \ right] + E \ left [s ^ {2} [n] \ right] -2E [x [n] s [n]] \\ = E \ left [\ left (\ sum _ {i = 0} ^ {N} a_ {i} w [ni] \ right) ^ {2} \ right] + E \ left [s ^ {2} [n] \ right] -2E \ left [\ sum _ {i = 0} ^ {N} a_ {i} w [ni] s [n] \ right ] \ end {align}}}{\ displaystyle {\ begin {align} E \ left [e ^ {2} [n] \ right] = E \ left [(x [n] -s [n]) ^ {2} \ right] \\ = E \ left [x ^ {2} [n] \ right] + E \ left [s ^ {2} [n] \ right] -2E [x [n] s [n]] \\ = E \ left [\ left (\ sum _ {i = 0} ^ {N} a_ {i} w [ni] \ right) ^ {2} \ right] + E \ left [s ^ {2} [n] \ right] -2E \ left [\ sum _ {i = 0 } ^ {N} a_ {i} w [ni] s [n] \ right] \ end {align}}}

Найти вектор [a 0,…, a N] {\ displaystyle [a_ {0}, \, \ ldots, \, a_ {N}]}[a_ {0}, \, \ ldots, \, a_ {N}] , который минимизирует указанное выше выражение, вычислите его производную по каждому ai {\ displaystyle a_ {i}}a_i

∂ ∂ ai E [e 2 [n]] = ∂ ∂ ai {E [(∑ i = 0 N aiw [n - i]) 2] + E [s 2 [n]] - 2 E [∑ i = 0 N aiw [n - i] s [n]]} = 2 E [ (∑ j = 0 N ajw [n - j]) w [n - i]] - 2 E [w [n - i] s [n]] = 2 (∑ J = 0 NE [вес [N - J] вес [N - I]] aj) - 2 E [вес [N - I] s [N]] {\ Displaystyle {\ begin {align} {\ frac { \ partial} {\ partial a_ {i}}} E \ left [e ^ {2} [n] \ right] = {\ frac {\ partial} {\ partial a_ {i}}} \ left \ {E \ left [\ left (\ sum _ {i = 0} ^ {N} a_ {i} w [ni] \ right) ^ {2} \ right] + E \ left [s ^ {2} [n] \ right] -2E \ left [\ sum _ {i = 0} ^ {N} a_ {i} w [ni] s [n] \ right] \ right \} \\ = 2E \ left [\ left (\ sum _ {j = 0} ^ {N} a_ {j} w [nj] \ right) w [ni] \ right] -2E [w [ni] s [n]] \\ = 2 \ left (\ sum _ {j = 0} ^ {N} E [w [nj] w [ni]] a_ {j} \ right) -2E [w [ni] s [n]] \ end {align}}}{\ displaystyle {\ begin {выровнено} {\ frac {\ partial} {\ partial a_ {i}}} E \ left [e ^ {2} [n] \ right] = {\ frac {\ partial} {\ partial a_ {i}}} \ left \ {E \ left [\ left (\ sum _ {i = 0} ^ {N} a_ {i} w [ni] \ right) ^ {2} \ right] + E \ left [s ^ {2} [n] \ right] -2E \ left [\ sum _ {i = 0} ^ {N } a_ {i} w [ni] s [n] \ right] \ right \} \\ = 2E \ left [\ left (\ sum _ {j = 0} ^ {N} a_ {j} w [nj ] \ right) w [ni] \ right] -2E [w [ni] s [n]] \\ = 2 \ left (\ sum _ {j = 0} ^ {N} E [w [nj] w [ni]] a_ {j} \ right) -2E [w [ni] s [n]] \ end {align}}}

Предполагая, что каждый из w [n] и s [n] является стационарным и вместе стационарным, последовательности R w [m] {\ displaystyle R_ {w} [m]}R_ {w} [m] и R ws [m] {\ displaystyle R_ {ws} [m]}{\ displaystyle R_ {ws} [m]} , известное соответственно как автокорреляция w [n] и взаимная корреляция между w [n] и s [n], могут быть определены следующим образом:

R w [m] = E {w [n] w [n + m]} R ws [m] = E {w [n] s [n + m]} {\ displaystyle {\ begin {выровнено} R_ {w} [m] = E \ {w [n] w [n + m] \} \\ R_ {ws} [m] = E \ {w [n] s [n + m ]\}\конец {выравнивается}}}{\ displaystyle {\ begin {align} R_ {w } [m] = E \ {w [n] w [n + m] \} \\ R_ {ws} [m] = E \ {w [n] s [n + m] \} \ end { выровнено}}}

Следовательно, производная MSE может быть переписана как:

∂ ∂ ai E [e 2 [n]] = 2 (∑ j = 0 NR w [j - i] aj) - 2 R ws [i] i = 0, ⋯, N. {\ displaystyle {\ frac {\ partial} {\ partial a_ {i}}} E \ left [e ^ {2} [n] \ right] = 2 \ left (\ sum _ {j = 0} ^ {N } R_ {w} [ji] a_ {j} \ right) -2R_ {ws} [i] \ qquad i = 0, \ cdots, N.}{\ displaystyle {\ frac {\ partial} {\ partial a_ {i} }} E \ left [e ^ {2} [n] \ right] = 2 \ left (\ sum _ {j = 0} ^ {N} R_ {w} [ji] a_ {j} \ right) -2R_ {ws} [i] \ qquad i = 0, \ cdots, N.}

Обратите внимание, что для реального w [n] { \ displaystyle w [n]}w [n] , автокорреляция симметрична:

R w [j - i] = R w [i - j] {\ displaystyle R_ {w} [ji] = R_ { w} [ij]}{\ displaystyle R_ {w} [ji] = R_ {w} [ij]} Принятие производной равной нулю приводит к:
∑ j = 0 NR w [j - i] aj = R ws [i] i = 0, ⋯, N. {\ displaystyle \ sum _ {j = 0} ^ {N} R_ {w} [ji] a_ {j} = R_ {ws} [i] \ qquad i = 0, \ cdots, N.}{\ displaystyle \ sum _ {j = 0} ^ {N} R_ {w} [ji] a_ { j} = R_ {ws} [i] \ qquad i = 0, \ cdots, N.}

который можно переписать (используя указанное выше свойство симметрии) в матричной форме

[R w [0] R w [1] ⋯ R w [N] R w [1] R w [0] ⋯ R w [N - 1] ] ⋮ ⋮ ⋱ ⋮ R w [N] R w [N - 1] ⋯ R w [0]] ⏟ T [a 0 a 1 ⋮ a N] ⏟ a = [R ws [0] R ws [1] ⋮ R ws [N]] ⏟ v {\ displaystyle \ underbrace {\ begin {bmatrix} R_ {w} [0] R_ {w} [1] \ cdots R_ {w} [N] \\ R_ {w} [ 1] R_ {w} [0] \ cdots R_ {w} [N-1] \\\ vdots \ vdots \ ddots \ vdots \\ R_ {w} [N] R_ {w} [N- 1] \ cdots R_ {w} [0] \ end {bmatrix}} _ {\ mathbf {T}} \ underbrace {\ begin {bmatrix} a_ {0} \\ a_ {1} \\\ vdots \\ a_ {N} \ end {bmatrix}} _ {\ mathbf {a}} = \ underbrace {\ begin {bmatrix} R_ {ws} [0] \\ R_ {ws} [1] \\\ vdots \\ R_ {ws} [N] \ end {bmatrix}} _ {\ mathbf {v}}}{\ displaystyle \ underbrace {\ begin {bmatrix} R_ {w} [0] R_ {w} [1] \ cdots R_ {w} [N] \\ R_ {w} [1] R_ {w} [0] \ cdots R_ {w} [N-1] \\\ vdots \ vdots \ ddots \ vdots \\ R_ {w} [N] R_ {w} [N-1] \ cdots R_ {w} [0] \ end {bmatrix}} _ {\ mathbf {T}} \ underbrace {\ begin {bmatrix} a_ {0} \\ a_ {1} \\\ vdots \\ a_ {N} \ end {bmatrix}} _ { \ mathbf {a}} = \ underbrace {\ begin {bmatrix} R_ {ws} [0] \\ R_ {ws} [1] \\\ vdots \\ R_ {ws} [N] \ end {bmatrix}} _ {\ mathbf {v}}}

Эти уравнения известны как уравнения Винера – Хопфа. Матрица T, встречающаяся в уравнении, является симметричной матрицей Теплица. При подходящих условиях на R {\ displaystyle R}R эти матрицы, как известно, являются положительно определенными и, следовательно, неособыми, что дает уникальное решение для определения вектора коэффициентов фильтра Винера, a = T - 1 v {\ displaystyle \ mathbf {a} = \ mathbf {T} ^ {- 1} \ mathbf {v}}{\ displaystyle \ mathbf {a} = \ mathbf {T} ^ {- 1} \ mathbf {v}} . Кроме того, существует эффективный алгоритм для решения таких уравнений Винера – Хопфа, известный как алгоритм Левинсона-Дурбина, поэтому явное обращение T не требуется.

В некоторых статьях функция взаимной корреляции определяется противоположным образом:

R sw [m] = E {w [n] s [n + m]} {\ displaystyle R_ {sw} [m] = E \ {w [n] s [n + m] \}}{\ displaystyle R_ {sw} [m] = E \ {w [n] s [n + m] \}} Тогда матрица v {\ displaystyle \ mathbf {v}}\ mathbf {v} будет содержать R sw [0]… R sw [N] {\ displaystyle R_ {sw} [0] \ ldots R_ {sw} [N]}{\ displaystyle R_ {sw } [0] \ ldots R_ {sw} [N]} ; это просто разница в обозначениях.

Какое бы обозначение ни использовалось, обратите внимание, что для вещественного w [n], s [n] {\ displaystyle w [n], s [n]}{\ displaystyle w [n], s [n]} :

R sw [k] = R ws [- k] {\ displaystyle R_ {sw} [k] = R_ {ws} [- k]}{\ displaystyle R_ {sw} [k] = R_ {ws} [- k]}

Отношение к фильтру наименьших квадратов

Реализация причинного фильтра Винера очень похожа на решение к оценке наименьших квадратов, за исключением области обработки сигналов. Решение методом наименьших квадратов для входной матрицы X {\ displaystyle \ mathbf {X}}\ mathbf {X} и выходного вектора y {\ displaystyle \ mathbf {y}}\ mathbf {y} равно

β ^ = (XTX) - 1 XT y. {\ displaystyle {\ boldsymbol {\ hat {\ beta}}} = (\ mathbf {X} ^ {\ mathbf {T}} \ mathbf {X}) ^ {- 1} \ mathbf {X} ^ {\ mathbf {T}} {\ boldsymbol {y}}.}{\ boldsymbol { {\ hat \ beta}}} = ({\ mathbf {X}} ^ {{\ mathbf {T}}} {\ mathbf {X}}) ^ {{- 1}} {\ mathbf {X}} ^ {{{\ mathbf {T}}}} {\ boldsymbol y}.

КИХ-фильтр Винера связан с фильтром наименьших средних квадратов, но минимизация критерия ошибки последнего не зависит от взаимной корреляции или автокорреляции. Его решение сходится к решению фильтра Винера.

Сложные сигналы

Для сложных сигналов вывод комплексного винеровского фильтра выполняется путем минимизации E [| e [n] | 2] {\ displaystyle E \ left [| e [n] | ^ {2} \ right]}{\ displaystyle E \ left [| e [n] | ^ {2} \ right]} =E [e [n] e ∗ [n]] {\ displaystyle E \ left [e [n] e ^ {*} [n] \ right]}{\ displaystyle E \ left [e [n] e ^ {*} [n] \ справа]} . Это включает в себя вычисление частных производных как по действительной, так и по мнимой части a i {\ displaystyle a_ {i}}a_ {i } и требование, чтобы они оба были равны нулю.

Результирующие уравнения Винера-Хопфа:

∑ j = 0 N R w [j - i] a j ∗ = R w s [i] i = 0, ⋯, N. {\ displaystyle \ sum _ {j = 0} ^ {N} R_ {w} [ji] a_ {j} ^ {*} = R_ {ws} [i] \ qquad i = 0, \ cdots, N.}{\ displaystyle \ sum _ {j = 0} ^ {N} R_ {w} [ji] a_ {j} ^ { *} = R_ {ws} [i] \ qquad i = 0, \ cdots, N.}

, который можно переписать в матричном виде:

[R w [0] R w ∗ [1] ⋯ R w ∗ [N - 1] R w ∗ [N] R w [1] R w [0 ] ⋯ R w ∗ [N - 2] R w ∗ [N - 1] ⋮ ⋮ ⋱ ⋮ ⋮ R w [N - 1] R w [N - 2] ⋯ R w [0] R w ∗ [1] R w [N] R w [N - 1] ⋯ R w [1] R w [0]] ⏟ T [a 0 ∗ a 1 ∗ ⋮ a N - 1 ∗ a N ∗] ⏟ a ∗ = [R ws [ 0] R WS [1] ⋮ R WS [N - 1] R WS [N]] ⏟ v {\ displaystyle \ underbrace {\ begin {bmatrix} R_ {w} [0] R_ {w} ^ {*} [ 1] \ cdots R_ {w} ^ {*} [N-1] R_ {w} ^ {*} [N] \\ R_ {w} [1] R_ {w} [0] \ cdots R_ { w} ^ {*} [N-2] R_ {w} ^ {*} [N-1] \\\ vdots \ vdots \ ddots \ vdots \ vdots \\ R_ {w} [N-1 ] R_ {w} [N-2] \ cdots R_ {w} [0] R_ {w} ^ {*} [1] \\ R_ {w} [N] R_ {w} [N-1] \ cdots R_ {w} [1] R_ {w} [0] \ end {bmatrix}} _ {\ mathbf {T}} \ underbrace {\ begin {bmatrix} a_ {0} ^ {*} \\ a_ { 1} ^ {*} \\\ vdots \\ a_ {N-1} ^ {*} \\ a_ {N} ^ {*} \ end {bmatrix}} _ {\ mathbf {a ^ {*}}} = \ underbrace {\ begin {bmatrix} R_ {ws} [0] \\ R_ {ws} [1] \\\ vdots \\ R_ {ws} [N-1] \\ R_ {ws} [N] \ конец {bmatrix}} _ {\ mathbf {v}}}{\ displaystyle \ underbrace {\ begin {bmatrix} R_ {w} [0] R_ {w} ^ {*} [1] \ cdots R_ {w } ^ {*} [N-1] R_ {w} ^ {*} [N] \\ R_ {w} [1] R_ {w} [0] \ cdots R_ {w} ^ {*} [N -2] R_ {w} ^ {*} [N-1] \\\ vdots \ vdots \ ddots \ vdots \ vdots \\ R_ {w} [N-1] R_ {w} [N- 2] \ cdots R_ {w} [0] R_ {w} ^ {*} [1] \\ R_ {w} [N] R_ {w} [N-1] \ cdots R_ {w} [1 ] R_ {w} [0] \ end {bmatrix}} _ {\ mathbf {T}} \ underbrace {\ begin {bmatrix} a_ {0} ^ {*} \\ a_ {1} ^ {*} \\ \ vdots \\ a_ {N-1} ^ {*} \\ a_ {N} ^ {*} \ end {bmatrix}} _ {\ mathbf {a ^ {*}}} = \ underbrace {\ begin {bmatrix } R_ {ws} [0] \\ R_ {ws} [1] \\\ vdots \\ R_ {ws} [N-1] \\ R_ {ws} [N] \ end {bmatrix}} _ {\ mathbf {v}}}

Обратите внимание, что:

R w [- k] = R w ∗ [k] R sw [k] = R ws ∗ [- k] {\ displaystyle {\ begin {выровнено } R_ {w} [- k] = R_ {w} ^ {*} [k] \\ R_ {sw} [k] = R_ {ws} ^ {*} [- k] \ end {выровнено} }}{\ displaystyle {\ begin {align} R_ {w} [- k] = R_ {w} ^ {*} [k] \\ R_ {sw} [k] = R_ {ws} ^ {*} [- k ] \ end {align}}}

Затем вектор коэффициентов Винера вычисляется как:

a = (T - 1 v) ∗ {\ displaystyle \ mathbf {a} = {(\ mathbf {T} ^ {- 1} \ mathbf { v})} ^ {*}}{\ displaystyle \ mathbf {a} = {(\ mathbf {T} ^ {- 1} \ mathbf {v})} ^ {*}}

Приложения

Фильтр Винера имеет множество применений в обработке сигналов, обработке изображений, системах управления и цифровой связи. Эти приложения обычно относятся к одной из четырех основных категорий:

Например, фильтр Винера может использоваться при обработке изображений для удаления шума из картина. Например, использование функции Mathematica: WienerFilter [image, 2]на первом изображении справа, создает отфильтрованное изображение под ним.

Шумное изображение космонавта. Шумное изображение космонавта после применения фильтра Винера.

Обычно используется для подавления звуковых сигналов, особенно речи, в качестве препроцессора перед распознаванием речи.

История

Фильтр был предложен Норбертом Винером в 1940-х годах и опубликован в 1949 году. Дискретный эквивалент работы Винера был независимо выведен Андреем Колмогоровым и опубликован в 1941 году. Поэтому эту теорию часто называют теорией фильтрации Винера – Колмогорова (см. Кригинг ). Фильтр Винера был первым предложенным статистически разработанным фильтром, впоследствии породившим множество других, включая фильтр Калмана.

См. Также

Ссылки

  • Томас Кайлат, Али Х. Сайед и Бабак Хассиби, Линейная оценка, Прентис-Холл, Нью-Джерси, 2000, ISBN 978-0-13-022464-4.
  • Винер Н.: Интерполяция, экстраполяция и сглаживание стационарных временных рядов », Отчет Службы 19, Исследовательский проект DIC-6037 MIT, февраль 1942 г.
  • Колмогоров АН: Стационарные последовательности в гильбертовом пространстве, Бюл. Московский унив. 1941 том 2 номер 6 1-40. Английский перевод в Kailath T. (ред.) Оценка линейных наименьших квадратов Dowden, Hutchinson Ross 1977

Внешние ссылки

Последняя правка сделана 2021-06-20 15:18:15
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте