Линейное предсказание

редактировать

Линейное предсказание - это математическая операция, в которой будущие значения сигнала discrete-time оцениваются как линейная функция предыдущих выборок.

В цифровой обработке сигналов линейное предсказание часто называется кодированием с линейным предсказанием (LPC) и, таким образом, может рассматриваться как подмножество теории фильтров. В системном анализе, подполе математика, линейное прогнозирование можно рассматривать как часть математического моделирования или оптимизации.

Содержание
  • 1 Модель прогнозирования
    • 1.1 Оценка параметров
  • 2 См. Также
  • 3 Ссылки
  • 4 Дополнительная литература
  • 5 Внешние ссылки
Модель прогнозирования

Наиболее распространенное представление равно

x ^ (n) = ∑ i = 1 paix (n - i) {\ displaystyle {\ widehat {x}} (n) = \ sum _ {i = 1} ^ {p} a_ {i} x (ni) \,}{\ widehat {x}} (n) = \ sum _ {i = 1 } ^ {p} a_ {i} x (ni) \,

где x ^ (n) {\ displaystyle {\ widehat {x}} (n)}{\ widehat {x}} ( n) - прогнозируемое значение сигнала, x ( n - i) {\ displaystyle x (ni)}x (ni) предыдущие наблюдаемые значения с p <= n {\displaystyle p<=n}{\ displaystyle p <= n} и ai {\ displaystyle a_ {i}}a_ {i} коэффициентами предиктора. Ошибка, вызванная этой оценкой, составляет

e (n) = x (n) - x ^ (n) {\ displaystyle e (n) = x (n) - {\ widehat {x}} (n) \, }e (n) = x (n) - {\ widehat {x}} (n) \,

где x (n) {\ displaystyle x (n)}x (n) - истинное значение сигнала.

Эти уравнения действительны для всех типов (одномерного) линейного прогнозирования. Различия обнаруживаются в способе выбора коэффициентов предиктора a i {\ displaystyle a_ {i}}a_ {i} .

Для многомерных сигналов показатель ошибки часто определяется как

e (n) = ‖ x (n) - x ^ (n) ‖ {\ displaystyle e (n) = \ | x ( n) - {\ widehat {x}} (n) \ | \,}e (n) = \ | x (n) - {\ widehat {x} } (п) \ | \,

где ‖ ⋅ ‖ {\ displaystyle \ | \ cdot \ |}\ | \ cdot \ | - подходящий выбранный вектор норма. Прогнозы, такие как x ^ (n) {\ displaystyle {\ widehat {x}} (n)}{\ widehat {x}} ( n) , обычно используются в фильтрах Калмана и сглаживателях для оценки текущего и прошлого значения сигналов соответственно.

Оценка параметров

Наиболее распространенный выбор при оптимизации параметров ai {\ displaystyle a_ {i}}a_ {i} - это критерий среднеквадратичного значения, который также называется критерием автокорреляции. В этом методе мы минимизируем ожидаемое значение квадрата ошибки E [e 2 (n)] {\ displaystyle E [e ^ {2} (n)]}E[e^{2}(n)pting, что дает уравнение

∑ я знак равно 1 пай R (J - I) = R (J), {\ Displaystyle \ sum _ {я = 1} ^ {p} a_ {i} R (ji) = R (j),}{\ displaystyle \ sum _ {i = 1} ^ {p} a_ {i} R (ji) = R (j),}

для 1 ≤ j ≤ p, где R - автокорреляция сигнала x n, определяемая как

R (i) = E {x (n) x (n - i)} {\ displaystyle \ R (i) = E \ {x (n) x (ni) \} \,}\ R (i) = E \ {x (n) x (ni) \} \, ,

, а E - ожидаемое значение. В многомерном случае это соответствует минимизации L2нормы.

Вышеупомянутые уравнения называются нормальными уравнениями или уравнениями Юла-Уокера. В матричной форме уравнения могут быть эквивалентно записаны как

RA = r {\ displaystyle \ mathbf {RA} = \ mathbf {r}}{\ displaystyle \ mathbf {RA} = \ mathbf {r}}

, где матрица автокорреляции R {\ displaystyle \ mathbf {R} }\ mathbf {R} - симметричная, p × p {\ displaystyle p \ times p}p \ times p матрица Теплица с элементами rij = R (i - j), 0 ≤ i, j < p {\displaystyle r_{ij}=R(i-j),0\leq i,jr_ {ij} = R (ij), 0 \ leq i, j <p , вектор r {\ displaystyle \ mathbf {r}}\ mathbf {r} является вектором автокорреляции rj = R (j), 0 < j ≤ p {\displaystyle r_{j}=R(j),0r_ {j} = R (j), 0 <j \ Leq p и A = [a 1, a 2, ⋯, ap - 1, ap] {\ displaystyle \ mathbf {A} = [a_ {1}, a_ {2}, \, \ cdots \,, a_ {p-1}, a_ {p}]}{ \ ди splaystyle \ mathbf {A} = [a_ {1}, a_ {2}, \, \ cdots \,, a_ {p-1}, a_ {p}]} , вектор параметров.

Другой, более общий подход заключается в минимизации суммы квадратов ошибок, определенных в форме

e (n) = x (n) - x ^ (n) = x (n) - ∑ я знак равно 1 паикс (N - я) = - ∑ я знак равно 0 паикс (N - я) {\ Displaystyle е (п) = х (п) - {\ widehat {х}} (п) = х (п) - \ sum _ {i = 1} ^ {p} a_ {i} x (ni) = - \ sum _ {i = 0} ^ {p} a_ {i} x (ni)}e (n) = x (n) - {\ widehat {x}} (n) = x (n) - \ sum _ {i = 1} ^ {p} a_ {i} x (ni) = - \ sum _ {i = 0} ^ {p} a_ {i} x (ni)

где оптимизация поиск проблем по всем ai {\ displaystyle a_ {i}}a_ {i} теперь должен быть ограничен с помощью a 0 = - 1 {\ displaystyle a_ {0} = - 1}a_{0}=-1.

On с другой стороны, если среднеквадратическая ошибка предсказания ограничена единицей и уравнение ошибки предсказания включено поверх обычных уравнений, расширенный набор уравнений получается как

RA = [1, 0,..., 0] T {\ displaystyle \ \ mathbf {RA} = [1,0,..., 0] ^ {\ mathrm {T}}}{\ displaystyle \ \ mathbf {RA} = [1,0,..., 0] ^ {\ mathrm {T}}}

, где индекс i {\ displaystyle i}i находится в диапазоне от 0 до p {\ displaystyle p}p , а R {\ displaystyle \ mathbf {R}}\ mathbf {R} является (p + 1) × (p + 1) {\ displaystyle (p + 1) \ times (p + 1)}{\ displaystyle (p + 1) \ times (p + 1)} матрица.

Спецификация параметров линейного предсказателя является широкой темой, и было предложено большое количество других подходов. Фактически, метод автокорреляции является наиболее распространенным и используется, например, для кодирования речи в стандарте GSM.

Решение матричного уравнения R A = r {\ displaystyle \ mathbf {RA} = \ mathbf {r}}{\ displaystyle \ mathbf {RA} = \ mathbf {r}} является относительно дорогостоящим с вычислительной точки зрения процессом. Исключение Гаусса для инверсии матрицы, вероятно, является самым старым решением, но этот подход неэффективно использует симметрию R {\ displaystyle \ mathbf {R}}\ mathbf {R} . Более быстрый алгоритм - это рекурсия Левинсона, предложенная Норманом Левинсоном в 1947 году, которая рекурсивно вычисляет решение. В частности, приведенные выше автокорреляционные уравнения могут быть более эффективно решены с помощью алгоритма Дарбина.

В 1986 году Филипп Дельсарт и Ю.В. Генин предложил усовершенствование этого алгоритма, названное разделенной рекурсией Левинсона, которая требует примерно половины числа умножений и делений. Он использует особое свойство симметрии векторов параметров на последующих уровнях рекурсии. Таким образом, вычисления для оптимального предиктора, содержащего p {\ displaystyle p}p термины, используют аналогичные вычисления для оптимального предиктора, содержащего p - 1 {\ displaystyle p-1}p-1 условия.

Другой способ определения параметров модели - итеративное вычисление оценок состояния с использованием фильтров Калмана и получение оценок максимального правдоподобия в рамках алгоритмов максимизации ожидания.

Для равноотстоящие значения, полиномиальная интерполяция представляет собой линейную комбинацию известных значений. Если дискретный сигнал времени оценивается как подчиняющийся полиному степени p - 1, {\ displaystyle p-1, }{\ displaystyle p-1,} тогда коэффициенты предиктора ai {\ displaystyle a_ {i}}a_ {i} задаются соответствующей строкой треугольника коэффициентов биномиального преобразования. Это оценка может быть подходящей для медленно меняющегося сигнала с низким уровнем шума. Прогнозы для первых нескольких значений p {\ displaystyle p}p :

p = 1: x ^ (n) = 1 x (n - 1) p = 2: x ^ (n) = 2 x (n - 1) - 1 x (n - 2) p = 3: x ^ (n) = 3 x (n - 1) - 3 x (n - 2) + 1 x (n - 3) п знак равно 4: х ^ (п) = 4 х (п - 1) - 6 х (п - 2) + 4 х (п - 3) - 1 х (п - 4) {\ displaystyle {\ begin { массив} {lcl} p = 1 : {\ widehat {x}} (n) = 1x (n-1) \\ p = 2 : {\ widehat {x}} (n) = 2x (n-1) -1x (n-2) \\ p = 3 : {\ widehat {x}} (n) = 3x (n-1) -3x (n-2) + 1x (n-3) \\ p = 4 : {\ widehat {x}} (n) = 4x (n-1) -6x (n-2) + 4x (n-3) -1x (n-4) \\\ end {array}}}{\ displaystyle {\ begin {array} {lcl} p = 1 : {\ widehat {x}} (n) = 1x (n -1) \\ p = 2 : {\ widehat {x}} (n) = 2x (n-1) -1x (n-2) \\ p = 3 : {\ widehat {x}} (n) = 3x (n-1) -3x (n-2) + 1x (n-3) \\ p = 4 : {\ widehat {x}} (n) = 4x (n-1) -6x (n -2) + 4x (n-3) -1x (n-4) \\\ end {array}}}
См. Также
Ссылки
Дополнительная литература
Внешние ссылки
Последняя правка сделана 2021-05-27 10:32:03
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте