Модель авторегрессии

редактировать
Представление типа случайного процесса

В статистика, эконометрика и обработка сигналов, авторегрессивная (AR) модель является представлением типа случайного процесса ; как таковой, он используется для описания определенных изменяющихся во времени процессов природы, экономики и т. д. Модель авторегрессии определяет, что выходная переменная линейно зависит от собственных значений и на стохастическом члене (неточно предсказуемый термин); таким образом, модель имеет форму стохастического разностного уравнения (или рекуррентного отношения, которое не следует путать с дифференциальным уравнением). Вместе с моделью скользящего среднего (MA), это частный случай и ключевой компонент более общего авторегрессионного скользящего среднего (ARMA) и интегрированного авторегрессионного скользящего усредненные модели (ARIMA) временного ряда , которые имеют более сложную стохастическую структуру; это также частный случай модели векторной авторегрессии (VAR), которая состоит из более чем одного взаимосвязанного стохастического разностного уравнения для более чем одной развивающейся случайной величины.

В отличие от модели скользящего среднего (MA), авторегрессионная модель не всегда стационарная, поскольку может содержать единичный корень.

Содержание
  • 1 Определение
  • 2 Межвременной эффект шоков
  • 3 Характеристический полином
  • 4 Графики значение процессов AR (p)
  • 5 Пример: процесс AR (1)
    • 5.1 Явное среднее / разница форма процесса AR (1)
  • 6 Выбор максимального запаздывания
  • 7 Расчет параметров AR
    • 7.1 Уравнения Юла - Уокера
    • 7.2 Оценка параметров AR
  • 8 Спектр
    • 8.1 AR (0)
    • 8.2 AR (1)
    • 8.3 AR (2)
  • 9 Реализации в статистических пакетах
  • 10 Импульсная характеристика
  • 11 Прогнозирование на n-шаг вперед
  • 12 Оценка качества прогнозов
  • 13 См. также
  • 14 Примечания
  • 15 Ссылки
  • 16 Внешние ссылки
Определение

Обозначение AR (p) {\ displaystyle AR (p)}AR(p)указывает авторегрессионную модель порядка p. Модель AR (p) определяется как

Икс t = c + ∑ i = 1 p φ i X t - i + ε t {\ displaystyle X_ {t} = c + \ sum _ {i = 1} ^ {p } \ varphi _ {i} X_ {ti} + \ varepsilon _ {t} \,}X_ { t} = c + \ sum _ {{i = 1}} ^ {p} \ varphi _ {i} X _ {{ti}} + \ varepsilon _ {t} \,

где φ 1,…, φ p {\ displaystyle \ varphi _ {1}, \ ldots, \ varphi _ {p}}\ varphi _ {1}, \ ldots, \ varphi _ {p} - параметры модели, c {\ displaystyle c}c - константа, и ε t {\ displaystyle \ varepsilon _ {t}}\ varepsilon _ {t} - это белый шум. Это может быть эквивалентно записано с использованием оператора обратного сдвига B как

X t = c + ∑ i = 1 p φ i B i X t + ε t {\ displaystyle X_ {t} = c + \ sum _ {i = 1} ^ {p} \ varphi _ {i} B ^ {i} X_ {t} + \ varepsilon _ {t}}X_{t}=c+\sum _{{i=1}}^{p}\varphi _{i}B^{i}X_{t}+\varepsilon _{t}

так, чтобы переместить член суммирования влево и используя полиномиальное обозначение, имеем

ϕ [B] X t = c + ε t. {\ displaystyle \ phi [B] X_ {t} = c + \ varepsilon _ {t} \,.}{\ displaystyle \ phi [B] X_ {t} = c + \ varepsilon _ {t} \,.}

Таким образом, авторегрессионная модель может рассматривать как результат всего- полюса фильтр с бесконечной импульсной характеристикой, входной сигнал которого - белый шум.

Некоторые ограничения параметров необходимы для того, чтобы модель оставалась стационарной в широком смысле. Например, процессы в модели AR (1) с | φ 1 | ≥ 1 {\ Displaystyle | \ varphi _ {1} | \ geq 1}| \ varphi _ {1} | \ geq 1 не являются стационарными. В более общем смысле, чтобы модель AR (p) была стационарной в широком смысле, корни многочлена Φ (z): = 1 - ∑ i = 1 p φ izp - i {\ displaystyle \ Phi (z): = \ textstyle 1- \ sum _ {i = 1} ^ {p} \ varphi _ {i} z ^ {pi}}{\ displaystyle \ Phi (z): = \ textstyle 1- \ sum _ {i = 1} ^ {p} \ varphi _ {i} z ^ {pi}} должен лежать за пределами единичного круга, т. е., каждый (комплексный) корень zi {\ displaystyle z_ {i}}z_ {i} должен удовлетворять | z i |>1 {\ displaystyle | z_ {i} |>1}{\displaystyle |z_{i}|>1} (см. стр. 88,90).

Межвременной эффект шоков

В процессе AR одноразовый шок влияет на значения эволюционирующей переменной бесконечно далеко в будущее. модель AR (1) Икс T знак равно с + φ 1 Икс T - 1 + ε t {\ displaystyle X_ {t} = c + \ varphi _ {1} X_ {t-1} + \ varepsilon _ {t }}X_ {t} = c + \ varphi _ {1 } X _ {{t-1}} + \ varepsilon _ {t} . Ненулевое значение для ε t {\ displaystyle \ varepsilon _ {t}}\ varepsilon _ {t} при скажем, время t = 1 влияет на X 1 {\ displaystyle X_ {1}}X_{1}на отношение ε 1 {\ displaystyle \ varepsilon _ {1}}\ varepsilon _ {1} . Тогда по уравнению AR для X 2 {\ displaystyle X_ { 2}}X_ {2} в терминах X 1 {\ displaystyle X_ {1}}X_{1}, это влияет на Икс 2 {\ displaystyle X_ {2}}X_ {2} на отношение φ 1 ε 1 {\ displaystyle \ varphi _ {1} \ varepsilon _ {1}}\ varphi _ {1 } \ varepsilon _ {1} . Тогда по уравнению AR для X 3 {\ displaystyle X_ {3}}X_3 в терминах X 2 {\ displaystyle X_ {2}}X_ {2} , это влияет на Икс 3 {\ displaystyle X_ {3}}X_3 на сумму φ 1 2 ε 1 {\ displaystyle \ varphi _ {1} ^ {2} \ varepsilon _ {1}}\ varphi _ {1} ^ {2} \ varepsilon _ {1} . Продолжение этого процесса показывает, что эффект ε 1 {\ displaystyle \ varepsilon _ {1}}\ varepsilon _ {1} никогда не заканчивается, хотя процесс стационарный, то эффект уменьшается до нуля. в пределе.

Временя каждого шок влияет на значения X бесконечно далеко в будущем их возникновения, на заданное значение X t влиять на шоки, происходящие бесконечно далеко в прошлом. Это также можно увидеть, переписав авторегрессию

ϕ (B) X t = ε t {\ displaystyle \ phi (B) X_ {t} = \ varepsilon _ {t} \,}\ phi (B) X_ {t} = \ varepsilon _ {t} \,

(где константа термин был опущен, предполагаемая, что переменная была измерена как отклонение от своего среднего) как

X t = 1 ϕ (B) ε t. {\ displaystyle X_ {t} = {\ frac {1} {\ phi (B)}} \ varepsilon _ {t} \,.}X_ {t} = { \ frac {1} {\ phi (B)}} \ varepsilon _ {t} \,.

Когда полиномиальное деление справа равно полином в операторе обратного сдвига, примененный к ε t {\ displaystyle \ varepsilon _ {t}}\ varepsilon _ {t} , имеет бесконечный порядок, то есть бесконечное количество запаздывающих значений ε t {\ displaystyle \ varepsilon _ {t} }\ varepsilon _ {t} появляется в правой части уравнения.

Характеристический многочлен

автокорреляционная функция процесса AR (p) может быть выражена как

ρ (τ) = ∑ k = 1 p a k y k - | τ |, {\ displaystyle \ rho (\ tau) = \ sum _ {k = 1} ^ {p} a_ {k} y_ {k} ^ {- | \ tau |},}\ rho (\ tau) = \ sum _ {{k = 1}} ^ {p} a_ {k} y_ {k} ^ {{- | \ tau |}},

где yk {\ displaystyle y_ {k}}y_ {k} являются корнями многочлена

ϕ (B) = 1 - ∑ k = 1 p φ k B k {\ displaystyle \ phi (B) = 1- \ сумма _ {k = 1} ^ {p} \ varphi _ {k} B ^ {k}}\ phi (B) = 1- \ sum _ {{k = 1 }} ^ {p} \ varphi _ {k} B ^ {k}

где B - оператор обратного сдвига, где ϕ (⋅) {\ displaystyle \ phi (\ cdot)}\ phi (\ cdot) - функция, определяющая авторегрессию, а где φ k {\ displaystyle \ varphi _ {k}}\ varphi _ {k} - коэффициенты авторегрессии.

Автокорреляционная функция процесса AR (p) представляет собой сумму убывающих экспонент.

  • Каждый действительный корень вносит свой вклад в автокорреляционную функцию, которая экспоненциально затухает.
  • Точно так же каждая пара комплексно-сопряженных корней вносит свой вклад в экспоненциально затухающие колебания.
Графики процессов AR (p)
"Figure has 5 plots of AR processes. AR(0) and AR(0.3) are white noise or look like white noise. AR(0.9) has some large scale oscillating structure." AR (0); AR (1) с параметром AR 0.3; AR (1) с параметром AR 0.9; AR (2) с строгими AR 0,3 и 0,3; и AR (2) включает AR 0,9 и -0,8

Простейшим AR является AR (0), который не имеет зависимости между членами. Только термин ошибка / инновация / шум вносит вклад в результат процесса, поэтому на рисунке AR (0) соответствует белому шуму.

Для процесса AR (1) с положительным значением φ {\ displaystyle \ varphi}\ varphi , только предыдущий член в процессе и шумовой член вносит вклад в вывод. Если φ {\ displaystyle \ varphi}\ varphi близко к 0, тогда процесс по-прежнему выглядит как белый шум, но по мере приближения φ {\ displaystyle \ varphi}\ varphi 1, выходной сигнал получает больший вклад от предыдущего члена по сравнению с шумом. Это приводит к «сглаживанию» или интеграции выходного сигнала, аналогичному фильтру нижних частот.

Для процесса AR (2) два предыдущих члена и шумовой член вносят вклад в вывод. Если оба значения φ 1 {\ displaystyle \ varphi _ {1}}\ varphi _ {1} и φ 2 {\ displaystyle \ varphi _ {2}}\ varphi _ {2} положительны, вывод будет напоминать фильтр нижних частот, с уменьшением высокочастотной части шума. Если φ 1 {\ displaystyle \ varphi _ {1}}\ varphi _ {1} положительно, а φ 2 {\ displaystyle \ varphi _ {2}}\ varphi _ {2} отрицательно, то процесс способствует смене знака между сроками процесса. Выход колеблется. Это можно сравнить с обнаружением края или изменением направления.

Пример: процесс AR (1)

Процесс AR (1) задается следующим образом:

X t = c + φ X t - 1 + ε t {\ displaystyle X_ {t } = c + \ varphi X_ {t-1} + \ varepsilon _ {t} \,}X_ {t} = c + \ varphi X _ {{t-1}} + \ varepsilon _ {t} \,

где ε t {\ displaystyle \ varepsilon _ {t}}\ varepsilon _ {t} - белый шум с нулевым средним и постоянной дисперсией σ ε 2 {\ displaystyle \ sigma _ {\ varepsilon} ^ {2}}\ sigma _ {\ varepsilon} ^ {2} . (Примечание: индекс в φ 1 {\ displaystyle \ varphi _ {1}}\ varphi _ {1} был опущен.) Процесс является стационарным в широком смысле, если | φ | < 1 {\displaystyle |\varphi |<1}| \ varphi | <1 , поскольку он получается как выходной сигнал стабильного фильтра, на входе которого используется белый шум. (Если φ = 1 {\ displaystyle \ varphi = 1}\ varphi = 1 , тогда дисперсия X t {\ displaystyle X_ {t}}X_ {t} зависит от запаздывания t, так что дисперсия ряда расходится до бесконечности, когда t стремится к бесконечности, и, следовательно, не является стационарной в широком смысле.) Предполагаемая, что | φ | < 1 {\displaystyle |\varphi |<1}| \ varphi | <1 , среднее E ⁡ (X t) {\ displaystyle \ operatorname {E} (X_ {t})}\ operatorname {E} (X_ {t}) идентично для всех значений t по самому определению стационарности в широком смысле. Если среднее обозначено как μ {\ displaystyle \ mu}\ mu , из

E ⁡ (X t) = E ⁡ (c) + φ E ⁡ (X t - 1) + Е ⁡ (ε T), {\ Displaystyle \ OperatorName {E} (X_ {t}) = \ OperatorName {E} (c) + \ varphi \ OperatorName {E} (X_ {t-1}) + \ имя оператора {E } (\ varepsilon _ {t}),}\operatorname {E}(X_{t})=\operatorname {E}(c)+\varphi \operatorname {E}(X_{{t-1}})+\operatorname {E}(\varepsilon _{t}),

что

μ = c + φ μ + 0, {\ displaystyle \ mu = c + \ varphi \ mu +0,}\ mu = c + \ varphi \ mu +0,

и, следовательно,

μ = c 1 - φ. {\ displaystyle \ mu = {\ frac {c} {1- \ varphi}}.}\ mu = {\ frac {c} { 1- \ varphi}}.

В частности, если c = 0 {\ displaystyle c = 0}c=0, то среднее

дисперсия равна

var (X t) = E ⁡ (X t 2) - μ 2 = σ ε 2 1 - φ 2, {\ displaystyle {\ textrm {var}} (X_ {t}) = \ operatorname {E} (X_ {t} ^ {2}) - \ mu ^ {2} = {\ frac {\ sigma _ {\ varepsilon} ^ {2} } {1- \ varphi ^ {2}}},}{\ textrm {var}} (X_ {t}) = \ operatorname {E} (X_ {t} ^ {2}) - \ mu ^ {2} = {\ frac {\ sigma _ {\ varepsilon} ^ {2}} {1- \ varphi ^ {2}}},

где σ ε {\ displaystyle \ sigma _ {\ varepsilon}}\ sigma _ {\ varepsilon} - стандартное отклонение ε T {\ Displaystyle \ varepsilon _ {t}}\ varepsilon _ {t} . Это можно показать, заметив, что

var (X t) = φ 2 var (X t - 1) + σ ε 2, {\ displaystyle {\ textrm {var}} (X_ {t}) = \ varphi ^ {2} {\ textrm {var}} (X_ {t-1}) + \ sigma _ {\ varepsilon} ^ {2},}{\ textrm {var}} (X_ {t}) = \ varphi ^ {2} {\ textrm {var}} (X _ {{t-1}}) + \ sigma _ {\ varepsilon} ^ {2},

, а, заметив, что указанная выше величина является стабильной фиксированной точкой этой связь.

автоковариация определяется как

B n = E ⁡ (X t + n X t) - μ 2 = σ ε 2 1 - φ 2 φ | п |. {\ displaystyle B_ {n} = \ operatorname {E} (X_ {t + n} X_ {t}) - \ mu ^ {2} = {\ frac {\ sigma _ {\ varepsilon} ^ {2}} { 1- \ varphi ^ {2}}} \, \, \ varphi ^ {| n |}.}B_ {n} = \ operatorname {E} (X_ {{t + n}} X_ {t}) - \ mu ^ {2} = {\ frac {\ sigma _ {\ varepsilon} ^ {2}} {1- \ varphi ^ {2}}} \, \, \ varphi ^ {{| n |}}.

Можно видеть, что функция автоковариации затухает со временем спада (также называемым временем ) от τ = - 1 / ln ⁡ (φ) {\ displaystyle \ tau = -1 / \ ln (\ varphi)}\ tau = -1 / \ ln (\ varphi) [чтобы увидеть это, напишите B n = K φ | п | {\ displaystyle B_ {n} = K \ varphi ^ {| n |}}{\ displaystyle B_ {n} = K \ varphi ^ {| n |}} где K {\ displaystyle K}K не зависит от n {\ displaystyle n}n . Тогда заметим, что φ | п | = e | п | пер ⁡ φ {\ Displaystyle \ varphi ^ {| n |} = e ^ {| п | \ ln \ varphi}}{\ displaystyle \ varphi ^ {| n |} = e ^ {| n | \ ln \ varphi}} и сопоставьте это с законом экспоненциального затухания e - n / τ {\ displaystyle e ^ {- n / \ tau}}e ^ {{- n / \ tau}} ].

Функция спектральной плотности представляет собой преобразование Фурье функции автоковариации. В дискретных терминах это будет преобразование Фурье с дискретным временем:

Φ (ω) = 1 2 π ∑ n = - ∞ ∞ B ne - i ω n = 1 2 π (σ ε 2 1 + φ 2 - 2 φ cos ⁡ (ω)). {\ displaystyle \ Phi (\ omega) = {\ frac {1} {\ sqrt {2 \ pi}}} \, \ sum _ {n = - \ infty} ^ {\ infty} B_ {n} e ^ { -i \ omega n} = {\ frac {1} {\ sqrt {2 \ pi}}} \, \ left ({\ frac {\ sigma _ {\ varepsilon} ^ {2}} {1+ \ varphi ^ {2} -2 \ varphi \ cos (\ omega)}} \ right).}\ Phi (\ omega) = {\ frac {1} {{\ sqrt {2 \ pi}}}} \, \ sum _ {{n = - \ infty}} ^ {\ infty} B_ {n} e ^ {{-i \ omega n}} = {\ frac {1} {{\ sqrt {2 \ pi}}}} \, \ left ({\ frac {\ sigma _ {\ varepsilon} ^ {2}} { 1+ \ varphi ^ {2} -2 \ varphi \ cos (\ omeg a)}} \ right).

Это выражение является периодическим из-за дискретного характера X j {\ displaystyle X_ {j}}X_ {j} , который проявляется как член косинуса в знаменателе. Если предположить, что время выборки (Δ t = 1 {\ displaystyle \ Delta t = 1}\ Delta t = 1 ) намного меньше, чем время затухания (τ {\ displaystyle \ tau}\ tau ), то мы можем использовать континуальное приближение к B n {\ displaystyle B_ {n}}B_ {n} :

B (t) ≈ σ ε 2 1 - φ 2 φ | т | {\ Displaystyle B (т) \ приблизительно {\ гидроразрыва {\ sigma _ {\ varepsilon} ^ {2}} {1- \ varphi ^ {2}}} \, \, \ varphi ^ {| t |}}B (t) \ приблизительно {\ гидроразрыв {\ sigma _ {\ varepsilon} ^ {2}} {1- \ varphi ^ {2}}} \, \, \ varphi ^ {{| t |}}

, что дает лоренцев профиль для спектральной плотности:

Φ (ω) = 1 2 π σ ε 2 1 - φ 2 γ π (γ 2 + ω 2) { \ Displaystyle \ Phi (\ omega) = {\ frac {1} {\ sqrt {2 \ pi}}} \, {\ frac {\ sigma _ {\ varepsilon} ^ {2}} {1- \ varphi ^ { 2}}} \, {\ frac {\ gamma} {\ pi (\ gamma ^ {2} + \ omega ^ {2})}}}\ Phi (\ omega) = {\ frac {1} {{\ sqrt {2 \ pi}}} } \, {\ frac {\ sigma _ {\ varepsilon} ^ {2}} {1- \ varphi ^ {2}}} \, {\ frac {\ gamma} {\ pi (\ gamma ^ {2} + \ omega ^ {2})}}

, где γ = 1 / τ {\ displaystyle \ gamma = 1 / \ tau}\ gamma = 1 / \ tau - угловая частота, связанная со временем затухания. τ {\ displaystyle \ tau}\ tau .

Альтернативное выражение для X t {\ displaystyle X_ {t}}X_ {t} можно получить, сначала подставив c + φ X t - 2 + ε t - 1 {\ displaystyle c + \ varphi X_ {t-2} + \ varepsilon _ {t-1}}c + \ varphi X _ {{t-2}} + \ varepsilon _ {{t-1}} для X t - 1 {\ displaystyle X_ {t-1 }}X _ {{t-1}} в определении уравнении. Продолжение этого процесса N раз дает

X t = c ∑ k = 0 N - 1 φ k + φ N X t - N + ∑ k = 0 N - 1 φ k ε t - k. {\ Displaystyle X_ {T} = с \ сумма _ {к = 0} ^ {N-1} \ varphi ^ {k} + \ varphi ^ {N} X_ {tN} + \ sum _ {k = 0} ^ {N-1} \ varphi ^ {k} \ varepsilon _ {tk}.}X_ {t} = c \ sum _ {{k = 0} } ^ {{N-1}} \ varphi ^ {k} + \ varphi ^ {N} X _ {{tN}} + \ sum _ {{k = 0}} ^ {{N-1}} \ varphi ^ {k} \ varepsilon _ {{tk}}.

Если N приближается к бесконечности, φ N {\ displaystyle \ varphi ^ {N}}\ varphi ^ {N} подойдет нуль и:

X t = c 1 - φ + ∑ k = 0 ∞ φ k ε t - k. {\ displaystyle X_ {t} = {\ frac {c} {1- \ varphi}} + \ sum _ {k = 0} ^ {\ infty} \ varphi ^ {k} \ varepsilon _ {tk}.}X_ {t} = {\ frac {c} {1- \ varphi}} + \ sum _ {{k = 0}} ^ {\ infty} \ varphi ^ {k} \ varepsilon _ {{tk}}.

Видно, что X t {\ displaystyle X_ {t}}X_ {t} представляет собой белый шум, свёрнутый с φ k {\ displaystyle \ varphi ^ {k}}\varphi ^{k}ядро ​​плюс постоянное среднее. Если белый шум ε t {\ displaystyle \ varepsilon _ {t}}\ varepsilon _ {t} является гауссовским процессом, то X t {\ displaystyle X_ {t}}X_ {t} также является гауссовским процессом. В других случаях центральная предельная теорема указывает, что X t {\ displaystyle X_ {t}}X_ {t} будет приблизительно нормально распределиться, когда φ {\ displaystyle \ varphi}\ varphi близок к единице.

Явная форма среднего / разностного процесса AR (1)

Модель AR (1) представляет собой дискретную временную аналогию непрерывного процесса Орнштейна-Уленбека. Поэтому иногда полезно понимать модели AR (1), приведенной в эквивалентной форме. В этой модели AR (1) с параметром формы процесса θ {\ displaystyle \ theta}\ theta задается следующим образом:

X t + 1 = X t + (1 - θ) (μ - Икс T) + ϵ T + 1 {\ Displaystyle X_ {t + 1} = X_ {t} + (1- \ theta) (\ mu -X_ {t}) + \ epsilon _ {t + 1} \,}{\ displaystyl e X_{t+1}=X_{t}+(1-\theta)(\mu -X_{t})+\epsilon _{t+1}\,}, где | θ | < 1 {\displaystyle |\theta |<1\,}| \ theta | <1 \, и μ {\ displaystyle \ mu}\ mu - это модельное среднее.

Поместить это в формулу Икс t + 1 = c + ϕ X t + ϵ t + 1, {\ displaystyle X_ {t + 1} = c + \ phi X_ {t} \ + \ epsilon _ { t + 1},}{\ displaystyle X_ {t + 1} = c + \ phi X_ {t} \ + \ epsilon _ {t + 1},} , а затем развернуть ряд для X t + n {\ displaystyle X_ {t + n}}{\ displaystyle X_ {t + n}} , можно показать, что:

Е ⁡ (Икс T + N | Икс T) знак равно μ [1 - θ N] + X T θ п {\ displaystyle \ operatorname {E} (X_ {t + n} | X_ {t}) = \ mu \ left [1- \ theta ^ {n} \ right] + X_ {t} \ theta ^ {n}}{\ displaystyle \ operatorname {E} (X_ {t + n } | X_ {t}) = \ mu \ left [1- \ theta ^ {n} \ right] + X_ {t} \ theta ^ {n}} и
Var ⁡ (X t + n | X t) = σ 2 1 - θ 2 N 1 - θ 2 {\ displaystyle \ operatorname {Var} (X_ {t + n} | X_ {t}) = \ sigma ^ {2} {\ frac {1- \ theta ^ {2n}} {1 - \ theta ^ {2}}}}{\ displaystyle \ operatorname {Var} ( X_ {t + n} | X_ {t}) = \ sigma ^ {2} {\ frac {1- \ theta ^ {2n}} {1- \ theta ^ {2}}}} .
Выбор максимальной задержки

Частичная автокорреляция процесса AR (p) равна нулю ской, не превышающей порядок p, и обеспечивает хорошую модель для корреляции между X 1 {\ displaystyle X_ {1}}X_{1}и X p + 1 {\ displaystyle X_ {p + 1}}{\ displaystyle X_ {p + 1}} , поэтому соответствующая максимальная задержка - это та, при превышении которой частичная автокорреляция все равны нулю.

Расчет параметров AR

Существует множество способов оценки коэффициентов, например, обычная процедура наименьших квадратов или метод моментов (через уравнения Юла - Уокера).

Модель AR (p) задается уравнением

X t = ∑ i = 1 p φ i X t - i + ε t. {\ displaystyle X_ {t} = \ sum _ {i = 1} ^ {p} \ varphi _ {i} X_ {ti} + \ varepsilon _ {t}. \,}X_ {t} = \ sum _ {{i = 1}} ^ {p} \ varphi _ {i} X _ {{ti }} + \ varepsilon _ {t}. \,

Он основан на параметрах φ я {\ displaystyle \ varphi _ {i}}\varphi _{i}где i = 1,..., p. Между этими функциями процесса существует прямое соответствие, это соответствие может быть инвертировано для определения параметров из автокорреляционной функции (сама получается из ковариаций). Это делается с помощью формулы Юла - Уокера.

Уравнения Юла - Уокера

Уравнения Юла - Уокера, названные в честь Удни Юла и Гилберта Уокера, представленные собой соответствующие системы.

γ м знак равно ∑ К знак равно 1 п φ К γ м - К + σ ε 2 δ м, 0, {\ displaystyle \ gamma _ {m} = \ sum _ {k = 1} ^ {p} \ varphi _ {k} \ gamma _ {mk} + \ sigma _ {\ varepsilon} ^ {2} \ delta _ {m, 0},}\ gamma _ {m} = \ sum _ {{ k = 1}} ^ {p} \ varphi _ {k} \ gamma _ {{mk}} + \ si gma _ {\ varepsilon} ^ {2} \ delta _ {{m, 0}},

где m = 0,..., p, что дает p + 1 уравнение. Здесь γ m {\ displaystyle \ gamma _ {m}}\ gamma _ {m} - автоковариационная функция X t, σ ε {\ displaystyle \ sigma _ {\ varepsilon}}\ sigma _ {\ varepsilon} - стандартное а δ m, 0 {\ displaystyle \ delta _ {m, 0}}\ delta _ {{m, 0}} - дельта-функция Кронекера.

Временная последняя часть отдельного уравнения отлична от нуля, только если m = 0, система уравнений может быть решена путем представления для m>0 в матричной форме, таким образом получая уравнение

[γ 1 γ 2 γ 3 ⋮ γ p] = [γ 0 γ - 1 γ - 2 … Γ 1 γ 0 γ - 1… γ 2 γ 1 γ 0… ⋮ ⋮ ⋮ ⋱ γ p - 1 γ p - 2 γ p - 3…] [φ 1 φ 2 φ 3 ⋮ φ p] {\ displaystyle {\ begin {bmatrix} \ gamma _ {1} \\\ gamma _ {2} \\\ gamma _ {3} \ vdots \\\ gamma _ {p} \\\ end {bmatrix}} = {\ begin {bmatrix} } \ gamma _ {0} \ gamma _ {- 1} \ gamma _ {- 2} \ dots \\\ gamma _ {1} \ gamma _ {0} \ gamma _ {- 1} \ dots \\\ gamma _ {2} \ gamma _ {1} \ gamma _ {0} \ dots \\\ vdots \ vdots \ vdots \ ddots \\\ gamma _ {p-1} \ гамма _ {p-2} \ gamma _ {p-3} \ dots \\\ end {bmatrix}} {\ begin {bmatrix} \ вар phi _ {1} \\\ varphi _ {2} \\ \ varphi _ {3} \\\ vdots \\\ varphi _ {p} \\\ end {bmatrix}}}{\ begin {bmatrix} \ gamma _ {1} \\\ gamma _ {2} \\\ gamma _ {3} \\\ vdots \\\ gamma _ {p} \\\ end {bmatrix}} = {\ begin {bmatrix} \ gamma _ {0} \ gamma _ {{- 1}} \ gamma _ {{- 2}} \ dots \\\ gamma _ {1} \ gamma _ {0} \ gamma _ {{- 1}} \ dots \\\ gamma _ {2} \ gamma _ {1} } \ gamma _ {{0}} \ dots \\\ vdots \ vdots \ vdots \ ddots \\\ gamma _ {{p-1}} \ gamma _ {{p-2}} \ gamma _ {{p-3}} \ dots \\\ end {bmatrix}} {\ begin {bmatrix} \ varphi _ {{1}} \\\ varphi _ {{2}} \\\ varphi _ {{3}} \\\ vdots \\\ varphi _ {{p}} \\\ end {bmatrix}}

который может быть решен для всех {φ m; m = 1, 2, ⋯, p}. {\ Displaystyle \ {\ varphi _ {м}; m = 1,2, \ cdots, p \}.}\{\varphi _{m};m=1,2,\cdots,p\}.Оставшееся уравнение для m = 0:

γ 0 = ∑ k = 1 п φ К γ - К + σ ε 2, {\ Displaystyle \ gamma _ {0} = \ sum _ {k = 1} ^ {p} \ varphi _ {k} \ gamma _ {- k} + \ sigma _ {\ varepsilon} ^ {2},}\ gamma _ {0} = \ sum _ {{k = 1}} ^ {p} \ varphi _ {k} \ gamma _ {{- k}} + \ sigma _ {\ varepsilon} ^ {2},

который, однажды {φ m; м знак равно 1, 2, ⋯, п} {\ Displaystyle \ {\ varphi _ {м}; m = 1,2, \ cdots, p \}}\ {\ varphi _ {m}; m = 1,2, \ cdots, п \} известны, могут быть решены для σ ε 2. {\ displaystyle \ sigma _ {\ varepsilon} ^ {2}.}\ sigma _ {\ varepsilon} ^ {2}.

Альтернативная формулировка в терминах автокорреляционная функция. Параметры AR определяются первыми p + 1 элементами ρ (τ) {\ displaystyle \ rh o (\ tau)}\ rho (\ tau) автокорреляционная функция. Затем полная автокорреляционная функция может быть получена путем рекурсивного вычисления

ρ (τ) = ∑ k = 1 p φ k ρ (k - τ) {\ displaystyle \ rho (\ tau) = \ sum _ {k = 1} ^ {p} \ varphi _ {k} \ rho (k- \ tau)}\ rho (\ tau) = \ sum _ {{k = 1}} ^ {p} \ varphi _ {k} \ rho (k- \ tau)

Примеры для некоторых процессов AR (p) низкого порядка

  • p = 1
    • γ 1 = φ 1 γ 0 {\ Displaystyle \ gamma _ {1} = \ varphi _ {1} \ gamma _ {0}}\ gamma _ {1} = \ varphi _ {1} \ gamma _ {0}
    • , следовательно, ρ 1 = γ 1 / γ 0 = φ 1 {\ displaystyle \ rho _ {1} = \ gamma _ {1} / \ gamma _ {0} = \ varphi _ {1}}\ rho _ {1} = \ gamma _ {1} / \ gamma _ {0 } = \ varphi _ {1}
  • p = 2
    • Уравнения Юла - Уокера для процесса AR (2):
      γ 1 знак равно φ 1 γ 0 + φ 2 γ - 1 {\ Displaystyle \ gamma _ {1} = \ varphi _ {1} \ gamma _ {0} + \ varphi _ {2} \ gamma _ {- 1}}\ gamma _ {1} = \ varphi _ {1 } \ gamma _ {0} + \ varphi _ {2} \ gamma _ {{- 1}}
      γ 2 знак равно φ 1 γ 1 + φ 2 γ 0 {\ displaystyle \ gamma _ {2} = \ varphi _ {1} \ gamma _ {1} + \ varphi _ {2} \ gamma _ {0}}\ gamma _ {2} = \ varphi _ {1} \ gamma _ { 1} + \ varphi _ {2} \ gamma _ {0}
      • Помните, что γ - k = γ k {\ displaystyle \ gamma _ {- k} = \ gamma _ {k}}\ gamma _ {{-k}} = \ gamma _ {k}
      • Первое использование уравнения дает ρ 1 = γ 1 / γ 0 знак равно φ 1 1 - φ 2 {\ di s playstyle \ rho _ {1} = \ gamma _ {1} / \ gamma _ {0} = {\ frac {\ varphi _ {1}} {1- \ varphi _ {2}}}}\ rho _ {1} = \ gamma _ {1} / \ gamma _ {0} = {\ frac {\ varphi _ {1}} {1- \ varphi _ {2}}}
      • Используя формулу рекурсии, получаем ρ 2 = γ 2 / γ 0 знак равно φ 1 2 - φ 2 2 + φ 2 1 - φ 2 {\ displaystyle \ rho _ {2} = \ gamma _ {2} / \ gamma _ {0} = {\ frac {\ varphi _ {1} ^ {2} - \ varphi _ {2} ^ {2} + \ varphi _ {2}} {1- \ varphi _ {2}}}}\ rho _ {2 } = \ gamma _ {2} / \ gamma _ {0} = {\ frac {\ varphi _ {1} ^ {2} - \ varphi _ {2} ^ {2} + \ varphi _ {2}} { 1- \ varphi _ {2}}}

Оценка параметров параметров AR

Приведенные выше уравнения (уравнения Юла-Уокера) используют несколько способов оценки параметров модели AR (p) путем теоретических ковариаций оценочных значений. Некоторые из этих вариантов можно описать следующим образом:

  • Оценка автоковариаций или автокорреляций. Здесь каждый из этих слагаемых оценивается отдельно с использованием этих общепринятых оценок. Есть разные способы сделать это, и выбор между ними влияет на свойства схемы оценки. Например, отрицательные оценки дисперсии могут быть получены с помощью некоторых вариантов.
  • Формулировка в виде задачи регрессии наименьших квадратов, в которой строится обычная задача прогнозирования методом наименьших квадратов на основе прогнозирования значений X t на p предыдущих значений той же серии. Это можно рассматривать как схему прямого прогнозирования. Можно, что нормальные уравнения для этой задачи соответствуют аппроксимации матричной формы уравнений Юла - Уокера, в котором появляется новое появление автоковариантности одного и того же запаздывания, заменяется несколько иной оценкой.
  • Формулировка как расширенная форма обычной задачи прогнозирования методом наименьших квадратов. Здесь два набора прогнозных соотношений объединены в единую схему оценки и единый набор нормальных соотношений. Один набор представляет собой набор способов прямого прогнозирования, а другой - соответствующий набор способов обратного прогнозирования, относящихся к обратному представлению модели AR:
X t = c + ∑ i = 1 p φ i X t - i + ε t ∗. {\ displaystyle X_ {t} = c + \ sum _ {i = 1} ^ {p} \ varphi _ {i} X_ {ti} + \ varepsilon _ {t} ^ {*} \,.}X_ {t} = c + \ sum _ {{i = 1}} ^ {p} \ varphi _ {i} X _ {{ti}} + \ varepsilon _ { t} ^ {*} \,.
Здесь прогнозируемые значения X t будут основаны на будущих значениях того же ряда. Этот способ оценки параметров AR разработан Бургом и называется методом Бурга: Бургом и более поздние авторы назвали эти оценки «оценками максимальными энтропии», но аргументация, лежащая в основе этого, применима к использованию любого набора оцененных параметров AR. По сравнению со схемой оценивания, используются только уравнения прогнозирования, производятся оценки разные автоковариации, и оценки разные свойства устойчивости. Оценки Бург, в частности, связаны с спектральной оценкой максимальной энтропии.

Другие возможные подходы к оценке включают в себя оценку максимальной правдоподобия. Доступны два варианта размера правдоподобия: в одном (в целом эквивалентном схеме наименьших квадратов прямого прогнозирования) рассматриваемая функция правдоподобия соответствует условному распределению более поздних значений в ряду при начальных значениях p в ряду; во втором случае функция правдоподобия соответствующая безусловному распределению всех значений в наблюдаемом ряду. Существующие ряды коротких подходов.

Спектр
AutocorrTimeAr.svg AutoCorrAR.svg

спектральная плотность мощности (PSD) процесса AR (p) с дисперсией шума V ar (Z t) = σ Z 2 {\ displaystyle \ mathrm {Var } (Z_ {t}) = \ sigma _ {Z} ^ {2}}{\ mathrm {Var}} (Z_ {t}) = \ sigma _ {Z} ^ {2} is

S (f) = σ Z 2 | 1 - ∑ k = 1 p φ k e - i 2 π f k | 2. {\ Displaystyle S (е) = {\ гидроразрыва {\ sigma _ {Z} ^ {2}} {| 1- \ sum _ {k = 1} ^ {p} \ varphi _ {k} e ^ {- i2 \ pi fk} | ^ {2}}}.}{\ displaystyle S (f) = {\ frac {\ sigma _ {Z} ^ {2}} {| 1- \ sum _ { k = 1} ^ {p} \ varphi _ {k} e ^ {- i2 \ pi fk} | ^ {2}}}.}

AR (0)

Для белого шума (AR (0))

S (f) = σ Z 2. {\ Displaystyle S (f) = \ sigma _ {Z} ^ {2}.}S (f) = \ sigma _ {Z} ^ {2}.

AR (1)

Для AR (1)

S (f) = σ Z 2 | 1 - φ 1 e - 2 π i f | 2 знак равно σ Z 2 1 + φ 1 2 - 2 φ 1 соз ⁡ 2 π е {\ Displaystyle S (f) = {\ frac {\ sigma _ {Z} ^ {2}} {| 1- \ varphi _ {1} e ^ {- 2 \ pi if} | ^ {2}}} = {\ frac {\ sigma _ {Z} ^ {2}} {1+ \ varphi _ {1} ^ {2} -2 \ varphi _ {1} \ cos 2 \ pi f} }}S (f) = {\ frac {\ sigma _ {Z} ^ {2}} {| 1- \ varphi _ {1} e ^ {{- 2 \ pi if}} | ^ {2}}} = {\ frac {\ sigma _ {Z} ^ {2}} {1+ \ varphi _ {1} ^ {2} -2 \ varphi _ {1} \ cos 2 \ pi f}}
  • Если φ 1>0 {\ displaystyle \ varphi _ {1}>0}\varphi _{1}>0 есть один спектральный пик при f = 0, часто называемый красный шум. По мере того, как φ 1 {\ displaystyle \ varphi _ {1}}\ varphi _ {1} становится ближе к 1, появляется более высокая мощность на низких частотах, т. Е. Большие временные задержки.
  • Если φ 1 < 0 {\displaystyle \varphi _{1}<0}\ varphi _ {1 } <0 , существует минимум при f = 0, часто называемый синим шумом, спектру света, все, кроме красного света, будет отфильтровано.

AR (2)

AR (2) процессы можно разделить на три группы в зависимости от характеристик. также действует как фильтр верхних частот, все, кроме синего света, будет отфильтровано. их корней:

z 1, z 2 = 1 2 (φ 1 ± φ 1 2 + 4 φ 2) {\ displaystyle z_ {1}, z_ {2} = {\ frac {1} {2}} \ left (\ varphi _ {1} \ pm {\ sqrt {\ varphi _ {1} ^ {2} +4 \ varphi _ {2}}} \ right)}z_ {1}, z_ {2} = {\ frac {1} {2}} \ слева (\ varphi _ {1} \ pm {\ sqrt {\ varphi _ {1} ^ {2} +4 \ varphi _ {2}}} \ right)
  • Когда φ 1 2 + 4 φ 2 < 0 {\displaystyle \varphi _{1}^{2}+4\varphi _{2}<0}\ varphi _ {1} ^ {2} +4 \ varphi _ {2} <0 , процесс имеет пару комплексно-сопряженных корней, создающих среднечастотный пик при:
f ∗ = 1 2 π cos - 1 ⁡ (φ 1 (φ 2 - 1) 4 φ 2) {\ displaystyle f ^ {*} = {\ frac {1} {2 \ pi}} \ cos ^ {- 1} \ left ({\ frac {\ varphi _ {1} (\ varphi _ {2} -1)} {4 \ varphi _ {2}}} \ right)}f ^ {*} = {\ frac {1} {2 \ pi}} \ cos ^ {{- 1}} \ left ({\ frac {\ varphi _ {1} (\ varphi _ {2} -1)} {4 \ varphi _ {2 }}} \ right)

В противном случае процесс имеет действительные корни и:

  • Когда φ 1>0 {\ displaystyle \ varphi _ {1}>0}\varphi _{1}>0 он действует как фильтр нижних частот для белого шума со спектральным пиком при f = 0 {\ displaystyle f = 0}f = 0
  • Когда φ 1 < 0 {\displaystyle \varphi _{1}<0}\ varphi _ {1 } <0 он действует как фильтр верхних частот для белого шума со спектральным пиком при f = 1/2 {\ displaystyle f = 1/2}f = 1/2 .

Процесс нестационарен, когда корни находятся вне единичной окружности. Процесс устойчиво, когда корни находятся внутри единого круга или, что эквивалентно, когда коэффициенты находятся в треугольнике - 1 ≤ φ 2 ≤ 1 - | φ 1 | {\ displaystyle -1 \ leq \ varphi _ {2} \ leq 1- | \ varphi _ {1} |}-1 \ leq \ varphi _ {2} \ leq 1- | \ varphi _ {1} | .

Полная функция PSD может быть выражена в вещественной форме как:

S (f) = σ Z 2 1 + φ 1 2 + φ 2 2-2 φ 1 (1 - φ 2) соз ⁡ (2 π е) - 2 φ 2 соз ⁡ (4 π f) {\ displaystyle S (f) = {\ frac {\ sigma _ {Z} ^ {2}} {1+ \ varphi _ { 1} ^ {2} + \ varphi _ {2} ^ {2} -2 \ varphi _ {1} (1- \ varphi _ {2}) \ cos (2 \ pi f) -2 \ varphi _ {2 } \ cos (4 \ pi f)}}}S (f) = {\ frac {\ sigma _ {Z} ^ {2}} {1+ \ varphi _ {1} ^ {2} + \ varphi _ {2} ^ {2} -2 \ varphi _ {1} (1- \ varphi _ {2}) \ cos (2 \ pi f) -2 \ varphi _ {2} \ cos (4 \ pi f)}}
Реализации в статистических пакетах
  • R, статистика пакета включает функцию ar.
  • MATLAB Econometrics Toolbox и System Identification Toolbox включает модели авторегрессии
  • Matlab и Octave : набор инструментов TSA содержит несколько функций оценки для одно-, многомерных и адаптивные модели авторегрессии.
  • PyMC3 : структура байесовской статистики и вероятностного программирования поддерживает режимы авторегрессии с p-лагами.
  • bayesloop поддерживает вывод параметров и выбор моделей для процесса AR-1 с изменяющимися во времени параметров.
  • Python : реализовать в статистических моделях.
Импульсный отклик

Импульсный отклик системы - это изменение развивающейся в ответ на изменение значений шокового члена за k периодов ранее, как функция от k. Модель AR используется частным случаем модели векторной авторегрессии, здесь используется вычисление импульсной характеристики в векторной авторегрессии # импульсная характеристика.

n-шаговое прогнозирование

того, как параметры авторегрессии

X t = c + ∑ i = 1 p φ i X t - i + ε t {\ displaystyle X_ {t } = c + \ sum _ {i = 1} ^ {p} \ varphi _ {i} X_ {ti} + \ varepsilon _ {t} \,}X_ { t} = c + \ sum _ {{i = 1}} ^ {p} \ varphi _ {i} X _ {{ti}} + \ varepsilon _ {t} \,

были оценены, авторегрессия может быть назначена для прогнозирования произвольное количество периодов в будущем. Сначала используйте t для обозначения первого периода, по которому еще нет данных; замените известные предыдущие значения X ti вместо i = 1,..., p в уравнении авторегрессии при установке члена ошибки ε t {\ displaystyle \ varepsilon _ {t}}\ varepsilon _ {t} равно нулю (потому что мы прогнозируем, что X t равно его ожидаемому значению, а ожидаемое значение ненаблюдаемого члена равно нулю). Результатом уравнения авторегрессии прогноз на первый ненаблюдаемый период. Затем используйте t для обозначения следующего периода. опять же, уравнение авторегрессии используется для составления прогноза, с одним отличием: значение X за период до текущего прогнозируемого неизвестно, поэтому вместо него используется его ожидаемое значение - прогнозируемое значение, полученное на предыдущем этапе прогнозирования.. Затем для будущих периодов используется та же процедура, каждый раз с использованием одного прогнозируемого значения в правой части прогнозного уравнения до тех пор, пока предсказанные значения не предсказываются из предыдущих шагов.

Существует четыре неопределенности относительно прогнозов, полученного таким образом: (1) неопределенность относительно того, является ли авторегрессионная модель правильной моделью; (2) неопределенность относительно точности прогнозируемых значений, используемые в качестве запаздывающих значений в правой части уравнения авторегрессии; (3) неопределенность истинных значений коэффициентов авторегрессии; и (4) неопределенность в отношении значения члена ε t {\ displaystyle \ varepsilon _ {t} \,}\ varepsilon _ {t} \, для прогнозируемого периода. Каждый из трех последних может быть определен количественно и объединен для расчета доверительного интервала для прогнозов на n шагов вперед; доверительный интервал будет становиться интервалом по мере увеличения n из-за использования все большего числа оценочных значений для числа с правой стороны.

Оценка качества прогнозов

Прогностическая эффективность авторегрессионной модели может быть оценена, как только оценка будет выполнена, если используется перекрестная проверка. В этом подходе использовались некоторые из доступных для целей оценки параметров, а некоторые из возможных наблюдений позже в наборе данных были задержаны для тестирования вне выборки. В качестве альтернативы, по прошествии некоторого времени после того, как была проведена оценка параметров, станет доступным больше данных, и прогностическая характеристика может быть оценена с использованием новых данных.

В любом случае есть два аспекта прогнозной производительности, которые могут быть оценены: на один шаг вперед и на n шагов вперед. Для производительности на один шаг вперед оцененные параметры используются в уравнении авторегрессии вместе с наблюдаемыми значениями X для всех периодов, предшествующих прогнозируемому, и выходом уравнения является прогноз на один шаг вперед; эта процедура используется для получения прогнозов для каждого из наблюдений вне выборки. Чтобы оценить качество прогнозов на n шагов вперед, для получения прогнозов используется процедура прогнозирования, описанная в предыдущем разделе.

Учитывая набор прогнозируемых значений и соответствующий набор фактических значений для X для различных периодов времени, общий метод оценки заключается в использовании среднеквадратичной ошибки прогнозирования ; доступны и другие меры (см. прогнозирование # точность прогнозирования ).

Возникает вопрос, как интерпретировать измеренную точность прогноза - например, что такое «высокое» (плохое) или «низкое» (хорошее) значение для среднеквадратичной ошибки прогноза? Есть две возможные точки сравнения. Во-первых, точность прогнозирования альтернативной модели, оцененная при различных допущениях моделирования или различных методах оценки, может использоваться для целей сравнения. Во-вторых, показатель точности вне выборки можно сравнить с той же мерой, вычисленной для точек данных в выборке (которые использовались для оценки параметров), для которых доступно достаточно значений предшествующих данных (то есть отбрасывание первых p данных точки, для которых p предварительных данных недоступны). Поскольку модель была оценена специально для максимального соответствия точкам в выборке, обычно бывает так, что прогностическая эффективность вне выборки будет хуже, чем прогностическая эффективность внутри выборки. Но если качество прогнозирования ухудшается вне выборки на «не очень сильно» (что не поддается точному определению), то прогнозист может быть удовлетворен производительностью.

См. Также
Примечания
Ссылки
  • Миллс, Теренс К. (1990). Методы временных рядов для экономистов. Cambridge University Press.
  • Персиваль, Дональд Б.; Уолден, Эндрю Т. (1993). Спектральный анализ для физических приложений. Cambridge University Press.
  • Pandit, Sudhakar M.; Ву, Шиен-Мин (1983). Временные ряды и системный анализ с приложениями. John Wiley Sons.
Внешние ссылки
Последняя правка сделана 2021-06-12 19:29:40
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте