Автокорреляция

редактировать
корреляция сигнала со сдвинутой во времени его копией как функция сдвига Вверху: график серии из 100 случайных чисел, скрывающая функция синус. Ниже функция: синуса, показанная на коррелограмме , полученной с помощью автокорреляции. Визуальное сравнение свертки, взаимной корреляции и автокорреляции . Для операций с функцией f и при условии, что высота f равна 1,0, значение результата в различных точках указывается заштрихованной областью под каждой точкой. Кроме того, симметрия является причиной того, что g ∗ f {\ displaystyle g * f}{\ displaystyle g * f} и f ⋆ g {\ displaystyle f \ star g}f \ star g являются идентичны в этом примере.

Автокорреляция, также известная как последовательная корреляция, это корреляция сигнала с задержанной копией самого себя как функция задержки. Неформально это сходство между наблюдениями как функция временного интервала между ними. Анализ автокорреляции - это математический инструмент для поиска повторяющихся закономерностей, таких как периодического сигнала, скрытого шумом, или отсутствующей основной частоты в сигнал, подразумеваемый его частотами гармоники. Он часто используется в обработка сигналов для анализа функций или серий значений, таких как сигналы временной области.

В разных областях исследования автокорреляция определяется по-разному, и не все эти определения эквивалентны. В некоторых областях этот термин используется взаимозаменяемо с автоковариантностью.

процессами единичного корня, тренд-стационарными процессами, авторегрессионными процессами и вспомогательным средним. процессы - это особые формы процессов с автокорреляцией.

Содержание
  • 1 Автокорреляция случайных процессов
    • 1.1 Определение для стационарного случайного процесса в широком смысле
    • 1.2 Нормализация
    • 1.3 Свойства
      • 1.3.1 Свойство симметрии
      • 1.3.2 Максимум в нуле
      • 1.3.3 Неравенство Коши - Шварца
      • 1.3.4 Автокорреляция шума белого
      • 1.3.5 Теорема Винера - Хинчина
  • 2 Автокорреляция случайных векторов
    • 2.1 Свойства матрица автокорреляции сигналов
  • 3 Автокорреляция детерминированных сигналов
    • 3.1 Автокорреляция сигнала непрерывного времени
    • 3.2 Автокорреляция сигнала дискретного времени
    • 3.3 Определение для периодических сигналов
    • 3.4 Свойства
  • 4 Многомерная автокорреляция
  • 5 Эффективные вычисления
  • 6 Оценка
  • 7 Регрессионный анализ
  • 8 Приложения
  • 9 Последовательная зависимость
  • 10 См. Также
  • 11 Ссылки
  • 12 Дополнительная литература
Автокорреляция случайных процессов

В статистике автокорреляция реального или сложного является случайного процесса грушей корреляция между значениями процесса в разное время в зависимости от двух моментов времени или временной задержки. Пусть {Икс t} {\ displaystyle \ left \ {X_ {t} \ right \}}{\ displaystyle \ left \ {X_ {t} \ right \}} будет случайным процессом, а t {\ displaystyle t}t быть любым моментом времени (t {\ displaystyle t}t может быть целым числом для процесса дискретного времени или реальным номером для процесса непрерывного времени ). Тогда X t {\ displaystyle X_ {t}}X_ {t} - значение (или реализация ), созданные данные запуском процесса во время т { \ displaystyle t}t . Предположим, что процесс имеет mean μ t {\ displaystyle \ mu _ {t}}\ mu _ {t} и variance σ t 2 {\ displaystyle \ sigma _ {t} ^ {2}}\ sigma _ {t} ^ {2} в момент t {\ displaystyle t}t для каждого t {\ displaystyle t}t . Затем определение функции автокорреляции между моментами времени t 1 {\ displaystyle t_ {1}}t_ {1} и t 2 {\ displaystyle t_ {2}}t_{2}is

RXX ⁡ (T 1, T 2) знак равно E ⁡ [Икс T 1 Икс ¯ t 2] {\ Displaystyle \ OperatorName {R} _ {XX} (t_ {1}, t_ {2}) = \ operatorname {E} \ left [X_ {t_ {1}} {\ overline {X}} _ {t_ {2}} \ right]}{\ displaystyle \ operatorname {R} _ {XX} (t_ {1}, t_ {2}) = \ operatorname {E} \ left [X_ {t_ {1}} {\ overline {X}} _ {t_ {2}} \ right]}

(Eq.1)

где E {\ displaystyle \ operatorname {E }}\ operatorname {E} - оператор ожидаемого значения, а полоса представляет комплексное сопряжение. Обратите внимание, что ожидание не может быть четко определено.

Вычитание среднего перед умножением дает автоковариационную функцию между временами t 1 {\ displaystyle t_ {1}}t_ {1} и t 2 {\ displaystyle t_ {2}}t_{2}:

KXX ⁡ (t 1, t 2) = E ⁡ [(X t 1 - μ t 1) (X t 2 - μ t 2) ¯] = E ⁡ [X t 1 Икс ¯ t 2] - μ t 1 μ ¯ t 2 {\ displaystyle \ operatorname {K} _ {XX} (t_ {1}, t_ {2}) = \ operatorname {E} \ left [(X_ {t_ {1}} - \ mu _ {t_ {1}}) {\ overline {(X_ {t_ {2}} - \ mu _ {t_ {2}})}} \ right] = \ operatorname {E} \ слева [X_ { t_ {1}} {\ overline {X}} _ {t_ {2}} \ right] - \ mu _ {t_ {1}} {\ overline {\ mu}} _ {t_ {2}}}{\ displaystyle \ operatorname {K} _ {XX} (t_ {1}, t_ {2}) = \ operatorname {E} \ left [(X_ {t_ {1}} - \ mu _ {t_ {1}}) {\ overline {(X_ {t_ {2}} - \ mu _ {t_ {2}})}} \ right] = \ operatorname {E} \ left [X_ {t_ {1} } {\ overline {X}} _ {t_ {2}} \ right] - \ mu _ {t_ {1}} {\ overline {\ mu}} _ {t_ {2}}}

(Уравнение 2)

Обратите внимание, что это выражение не является четко определенным для всех временных рядов или процессов, потому что среднее может не существовать, или дисперсия может быть равна нулю (для постоянного процесса) или бесконечный (для процессов с распределением, не имеющим хороших моментов.

Определение стационарного случайного процесса в широком смысле

Если {X t} {\ displaystyle \ left \ {X_ {t} \ right \}}{\ displaystyle \ left \ {X_ {t} \ right \}} стационарным процессом в широком смысле, тогда среднее μ {\ displaystyle \ mu}\ mu и дисперсия σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} не зависит от времени, и, кроме того, функция зависит только от задержки t 1 {\ displaystyle t_ {1}}t_ {1} и t 2 {\ displaystyle t_ { 2}}t_{2}: автоковариация зависит только от временного расстояния между парой значений, но не от их положения во времени. Это подразумевает, что автоковариация и автокорреляция могут быть выражены как функция запаздывания по времени, и что это будет четная функция запаздывания τ = t 2 - t 1 {\ Displaystyle \ тау = t_ {2} -t_ {1}}{\ displaystyle \ tau = t_ {2 } -t_ {1}} . Это дает более знакомые формы для функций автокорреляции

RXX ⁡ (τ) = E ⁡ [X t X ¯ t + τ] {\ displaystyle \ operatorname {R} _ {XX} (\ tau) = \ operatorname {E} \ left [X_ {t} {\ overline {X}} _ {t + \ tau} \ right]}{\ displaystyle \ operatorname {R} _ {XX} (\ tau) = \ operatorname {E} \ left [X_ {t} {\ overline {X}} _ {t + \ tau} \ right] }

(уравнение 3)

и автоковариация функция :

KXX ⁡ ( τ) знак равно E ⁡ [(X t - μ) (X t + τ - μ) ¯] = E ⁡ [X t X ¯ t + τ] - μ μ ¯ {\ displaystyle \ operatorname {K} _ {XX} (\ tau) = \ operatorname {E} \ left [(X_ {t} - \ mu) {\ overline {(X_ {t + \ tau} - \ mu)}} \ right] = \ operatorname {E} \ left [X_ {t} {\ overline {X}} _ {t + \ tau} \ right] - \ mu {\ overline {\ mu}}}{\ displaystyle \ operatorname {K} _ {XX } (\ tau) = \ operatorname {E} \ left [(X_ {t} - \ mu) {\ overline {(X_ {t + \ tau} - \ mu)}} \ right] = \ operatorname {E} \ left [X_ {t} {\ overline {X}} _ {t + \ tau} \ right] - \ mu {\ overline {\ mu}}}

(уравнение 4)

Нормализация

Обычной практикой в ​​некоторых дисциплинах (например, в статистике временных рядов ) нормализация функции автоковариации для получения зависящего от времени296>коэффициента корреляции Пирсона. Однако в других дисциплинах (например, инженерии) от нормы обычно отказываются, и термины «автокорреляция» и «автоковариация» используются как взаимозаменяемые.

Определение коэффициента автокорреляции случайного процесса:

ρ XX (t 1, t 2) = KXX ⁡ (t 1, t 2) σ t 1 σ t 2 = E ⁡ [(X t 1 - μ T 1) (Икс T 2 - μ T 2) ¯] σ T 1 σ T 2. {\ Displaystyle \ rho _ {XX} (t_ {1}, t_ {2}) = {\ frac {\ operatorname {K } _ {XX} (t_ {1}, t_ {2})} {\ sigma _ {t_ {1}} \ sigma _ {t_ {2}}}} = {\ frac {\ operatorname {E} \ left [(X_ {t_ {1}} - \ mu _ {t_ {1}}) {\ overline {(X_ {t_ {2}} - \ mu _ {t_ {2}})}} \ right]} { \ sigma _ {t_ {1}} \ sigma _ {t_ {2}}}}. }{\ displaystyle \ rho _ {XX} (t_ {1}, t_ {2}) = {\ frac {\ operatorname {K} _ {XX} (t_ {1}, t_ {2}) } {\ sigma _ {t_ {1}} \ sigma _ {t_ {2}}}} = {\ frac {\ operatorname {E} \ left [(X_ {t_ {1}} - \ mu _ {t _ {1}}) {\ overline {(X_ {t_ {2}} - \ mu _ {t_ {2}})}} \ right]} {\ sigma _ {t_ {1}} \ sigma _ {t_ {2}}}}.}

Если функция ρ XX {\ displaystyle \ rho _ {XX}}{\ displaystyle \ rho _ {XX}} определена правильно, ее значение должно лежать в диапазоне [- 1, 1] {\ displaystyle [- 1,1]}[-1,1] , где 1 указывает на идеальную корреляцию, а -1 указывает на идеальную антикорреляцию.

Для слабой стационарности, стационарности в широком смысле (WSS), определение имеет вид

ρ XX (τ) = KXX ⁡ (τ) σ 2 = E ⁡ [(X t - μ) (X t + τ - μ) ¯] σ 2 {\ displaystyle \ rho _ {XX} (\ tau) = {\ frac {\ operatorname {K} _ {XX} (\ tau)} {\ sigma ^ {2}}} = {\ frac {\ operatorname {E} \ left [(X_ {t} - \ mu) {\ overline {(X_ {t + \ tau} - \ mu)}} \ right]} {\ sigma ^ {2}}}}{\ displaystyle \ rho _ {XX} (\ tau) = {\ frac {\ operatorname {K} _ {XX} (\ tau)} {\ sigma ^ {2 }}} = {\ frac {\ operatorname {E} \ left [(X_ {t} - \ mu) {\ overline {(X_ {t + \ tau} - \ mu)}} \ right]} {\ sigma ^ {2}}}}

где

KXX ⁡ (0) = σ 2. {\ displaystyle \ operatorname {K} _ {XX} (0) = \ sigma ^ {2}.}{\ displaystyle \ operatorname {K} _ {XX} (0) = \ sigma ^ {2}.}

Нормализация важна и потому, что интерпретация автокорреляции как корреляции обеспечивает безмасштабную меру силы статистической зависимости , а также потому, что нормализация влияет на статистические свойства оцененных автокор реляций.

Свойства

Свойство симметрии

Тот факт, что функция автокорреляции RXX {\ displaystyle \ operatorname {R} _ {XX}}{\ displaystyle \ operatorname {R} _ {XX}} является четной функцией. можно представить как

RXX ⁡ (t 1, t 2) = RXX ⁡ (t 2, t 1) ¯ {\ displaystyle \ operatorname {R} _ {XX} (t_ {1}, t_ {2 }) = {\ overline {\ operatorname {R} _ {XX} (t_ {2}, t_ {1})}}{\ displaystyle \ operatorname {R} _ {XX} (t_ {1}, t_ {2 }) = {\ overline {\ operatorname {R} _ {XX} (t_ {2}, t_ {1})}}}

Соответственно для процесса WSS:

RXX ⁡ (τ) = RXX ⁡ ( - τ) ¯. {\ displaystyle \ operatorname {R} _ {XX} (\ tau) = {\ overline {\ operatorname {R} _ {XX} (- \ tau)}}.}{\ displaystyle \ operatorname {R} _ {XX} (\ tau) = {\ overline {\ operatorname {R} _ {XX} (- \ tau)}}.}

Максимум при нуле

Для процесса WSS:

| R X X ⁡ (τ) | ≤ RXX ⁡ (0) {\ displaystyle \ left | \ operatorname {R} _ {XX} (\ tau) \ right | \ leq \ operatorname {R} _ {XX} (0)}{\ displaystyle \ left | \ operatorname {R} _ {XX} (\ tau) \ right | \ leq \ operatorname {R} _ {XX} (0)}

Обратите внимание, что RXX ⁡ (0) {\ displaystyle \ operatorname {R} _ {XX} (0)}{\ displaystyle \ operatorname {R} _ {XX} (0)} всегда реально.

Неравенство Коши - Шварца

Неравенство Коши - Шварца, неравенство для случайных процессов:

| R X X ⁡ (t 1, t 2) | 2 ≤ E ⁡ [| X t 1 | 2] E ⁡ [| X t 2 | 2] {\ displaystyle \ left | \ operatorname {R} _ {XX} (t_ {1}, t_ {2}) \ right | ^ {2} \ leq \ operatorname {E} \ left [| X_ {t_ {1}} | ^ {2} \ right] \ operatorname {E} \ left [| X_ {t_ {2}} | ^ {2} \ right]}{\ displaystyle \ left | \ operatorname {R} _ {XX} (t_ {1}, t_ {2}) \ right | ^ {2} \ leq \ operatorname {E} \ left [| X_ {t_ {1}} | ^ {2} \ right] \ operatorname {E} \ left [| X_ {t_ {2}} | ^ {2} \ right]}

Автокорреляция белого шума

автокорреляция непрерывного сигнала белого шума будет иметь сильный пик (представленный дельта-функция Дирака ) при τ = 0 {\ displaystyle \ tau = 0}\ tau = 0 и будет равно 0 для всех остальных τ {\ displaystyle \ tau}\ tau .

Теорема Винера - Хинчина

Теорема Винера - Хинчина связывает автокорреляцию function RXX {\ displaystyle \ operatorname {R} _ {XX}}{\ displaystyle \ operatorname {R} _ {XX}} до спектральной плотности мощности SXX { \ displaystyle S_ {XX}}{\ displaystyle S_ {XX}} с помощью преобразования Фурье :

RXX ⁡ (τ) = ∫ - ∞ ∞ SXX (f) ei 2 π f τ df {\ displaystyle \ operatorname {R } _ {XX} (\ tau) = \ int _ {- \ infty} ^ {\ infty} S_ {XX} (f) e ^ {i2 \ pi f \ tau} \, {\ rm {d}} f }{\ displaystyle \ operatorname {R} _ {XX} (\ tau) = \ in t _ {- \ infty} ^ {\ infty} S_ {XX} (f) e ^ {i2 \ пи е \ тау} \, {\ rm {d}} f}
SXX (f) = ∫ - ∞ ∞ RXX ⁡ (τ) e - я 2 π f τ d τ. {\ Displaystyle S_ {XX} (е) = \ int _ {- \ infty} ^ {\ infty} \ operatorname {R} _ {XX} (\ tau) e ^ {- i2 \ pi f \ tau} \, {\ rm {d}} \ tau.}{\ displaystyle S_ {XX} (f) = \ int _ {- \ infty} ^ {\ infty} \ operatorname {R} _ {XX} (\ tau) e ^ {- i2 \ pi f \ tau} \, {\ rm {d}} \ tau.}

Для действительных функций симметричная автокорреляционная функция имеет вещественное симметричное преобразование, поэтому теорема Винера - Хинчина может быть переформулирована в терминах только вещественные косинусы:

RXX ⁡ (τ) знак равно ∫ - ∞ ∞ SXX (е) соз ⁡ (2 π е τ) df {\ displaystyle \ operatorname {R} _ {XX} (\ tau) = \ int _ {- \ infty} ^ {\ infty } S_ {XX} (f) \ cos (2 \ pi f \ tau) \, {\ rm {d}} f}{\ displaystyle \ operatorname {R} _ {XX} (\ tau) = \ int _ {- \ infty} ^ {\ infty} S_ {XX} ( f) \ cos (2 \ pi f \ tau) \, {\ rm {d}} f}
SXX (f) = ∫ - ∞ ∞ RXX ⁡ (τ) cos ⁡ (2 π f τ) d τ. {\ Displaystyle S_ {XX} (е) = \ int _ {- \ infty} ^ {\ infty} \ operatorname {R} _ {XX} (\ tau) \ cos (2 \ pi f \ tau) \, { \ rm {d}} \ tau.}{\ displaystyle S_ {XX } (f) = \ int _ {- \ infty} ^ {\ infty} \ OperatorName {R} _ {XX} (\ tau) \ cos (2 \ pi f \ tau) \, {\ rm {d}} \ тау.}
Автокорреляция случайных векторов

Матрица автокорреляции (также называемая вторым моментом) случайного вектора Икс = ( Икс 1,…, Икс n) T {\ displaystyle \ mathbf {X} = (X_ {1}, \ ldots, X_ {n}) ^ {\ rm {T}}}{\ displaystyle \ mathbf {X} = (X_ {1}, \ ldots, X_ {п}) ^ {\ rm {T}}} - матрица n × n {\ displaystyle n \ times n}n \ times n , содержащая в качестве элементов автокорреляции всех пар элементов случайного события X {\ displaystyle \ mathbf {X}}\ mathbf {X} . Матрица автокорреляции используется в различных алгоритмах обработки цифрового сигналов.

Для случайного вектора X = (X 1,…, X n) T {\ displaystyle \ mathbf {X} = (X_ {1}, \ ldots, X_ { n}) ^ {\ rm {T}}}{\ displaystyle \ mathbf {X} = (X_ {1}, \ ldots, X_ {п}) ^ {\ rm {T}}} , обеспечивающие случайные элементы, для которых существуют ожидаемое значение и дисперсия, матрица автокорреляции определяется как

RXX ≜ E ⁡ [XXT] {\ displaystyle \ operatorname {R} _ {\ mathbf {X} \ mathbf {X}} \ треугольник \ \ operatorname {E} \ left [\ mathbf {X} \ mathbf {X} ^ {\ rm {T}} \ right]}{\ displaystyle \ operatorname {R} _ {\ mathbf {X} \ mathbf {X}} \ треугольник \ \ operatorname {E} \ left [\ mathbf {X} \ mathbf {X} ^ {\ rm {T}} \ right]}

(уравнение 1)

где T {\ displaystyle {} ^ {\ rm {T} }}{} ^ {\ rm T} обозначает транспонирование и имеет размеры n × n {\ displaystyle n \ times n}n \ times n .

Написано покомпонентно:

RXX = [E ⁡ [X 1 X 1] E ⁡ [ X 1 X 2] ⋯ E ⁡ [X 1 X n] E ⁡ [X 2 X 1] E ⁡ [X 2 X 2] ⋯ E ⁡ [X 2 X n] ⋮ ⋮ ⋱ ⋮ E ⁡ [Икс N Икс 1 ] Е ⁡ [Икс N Икс 2] ⋯ Е ⁡ [Икс N Икс n]] {\ displaystyle \ operatorname {R} _ {\ mathbf {X} \ mathbf {X}} = {\ begin {bmatrix} \ operatorname { E} [X_ {1} X_ {1}] \ operatorname {E} [X_ {1} X_ {2}] \ cdots \ operatorname {E} [X_ {1} X_ {n}] \\\\\ имя оператора {E} [X_ {2} X_ {1}] \ operatorname {E} [X_ {2} X_ {2}] \ cdots \ operatorname {E} [X_ {2} X_ {n}] \\\\\ vdots \ vdots \ ddots \ vdots \\\ \\ имя оператора {E} [X_ {n} X_ {1}] \ operatorname {E} [X_ {n} X_ {2}] \ cdots \ имя оператора {E} [X_ {n} X_ { n}] \\\\\ end {bmatrix}}}{\ displaystyle \ operatorname {R} _ {\ mathbf {X} \ mathbf {X}} = {\ begin {bmatrix} \ operatorname {E} [X_ {1} X_ {1}] \ operatorname {E} [X_ {1} X_ {2}] \ cdots \ operatorname {E} [X_ {1} X_ {n}] \\\\\ имя оператора {E} [X_ {2} X_ {1}] \ имя опер атора {E} [X_ {2} X_ {2}] \ cdots \ имя оператора {E} [X_ {2} X_ {n}] \\\\\ vdots \ vdots \ ddots \ vdots \ \\\\ имя оператора {E} [X_ {n} X_ {1}] \ operatorname {E} [X_ {n} X_ {2}] \ cdots \ operatorname {E} [X_ {n} X_ {n}] \\\\\ end {bmatrix}}}

Если Z {\ displaystyle \ mathbf {Z}}\ mathbf {Z} является комплексный случайный вектор, матрица автокорреляции вместо этого определяется как

RZZ ≜ E ⁡ [ZZH]. {\ displaystyle \ operatorname {R} _ {\ mathbf {Z} \ mathbf {Z}} \ треугольник \ \ operatorname {E} [\ mathbf {Z} \ mathbf {Z} ^ {\ rm {H}}]. }{\ displaystyle \ operatorname {R} _ {\ mathbf {Z} \ mathbf {Z}} \ треугольник \ \ operatorname {E} [\ mathbf {Z} \ mathbf {Z} ^ {\ rm {H}}].}

H {\ displaystyle {} ^ Здесь {\ rm {H}}}{\ displaystyle {} ^ {\ rm {H}}} обозначает эрмитовское транспонирование.

Например, если X = (X 1, Икс 2, Икс 3) T {\ Displaystyle \ mathbf {X} = \ left (X_ {1}, X_ {2}, X_ {3} \ right) ^ {\ rm {T}}}{\ displaystyle \ mathbf {X} = \ left (X_ {1}, X_ {2}, X_ {3} \ right) ^ {\ rm {T}}} - это случайные условия, тогда RXX {\ displaystyle \ operatorname {R} _ {\ mathbf {X} \ mathbf {X}}}{\ displaystyle \ OperatorName {R} _ {\ mathbf {X} \ mathbf {X}}} - это 3 × 3 {\ displaystyle 3 \ times 3}3 \ times 3 матрица, (i, j) {\ displaystyle (i, j)}(i, j) -я запись E ⁡ [X i X j] {\ displaystyle \ operatorname {E} [X_ {i} X_ {j}]}{\ displaystyle \ operatorname {E} [X_ {i} X_ {j}]} .

Свойства матрицы автокорреляции

  • Матрица автокорреляции - это эрмитова матрица для комплексных случайных векторов и симметричная матрица для вещественных случайных векторов.
  • Матрица автокорреляции является положительной полуопределенной матрицей, то есть a TRXX ⁡ a ≥ 0 для всех a ∈ R n {\ displaystyle \ mathbf {а} ^ {\ mathrm {T}} \ operatorname {R } _ {\ mathbf {X} \ mathbf {X}} \ mathbf {a} \ geq 0 \ quad {\ text {для всех}} \ mathbf {a} \ in \ mathbb {R} ^ {n}}{\ displaystyle \ mathbf {a} ^ {\ mathrm {T}} \ operatorname {R} _ {\ mathbf {X} \ mathbf {X}} \ mathbf {a} \ geq 0 \ quad {\ text {для всех}} \ mathbf {a} \ in \ mathbb {R} ^ {n}} для действительного случайного вектора соответственно a HRZZ ⁡ a ≥ 0 для всех a ∈ C n {\ displaystyl e \ mathbf {a} ^ {\ mathrm {H}} \ operatorname {R} _ {\ mathbf {Z} \ mathbf {Z}} \ mathbf {a} \ geq 0 \ quad {\ text {для всех}} \ mathbf {a} \ in \ mathbb {C} ^ {n}}{\ displaystyle \ mathbf {a} ^ {\ mathrm {H}} \ operatorname {R} _ {\ mathbf {Z} \ mathbf {Z}} \ mathbf {a} \ geq 0 \ quad {\ text {для всех}} \ mathbf { a} \ in \ mathbb {C} ^ {n}} в случае сложного случайного вектора.
  • Все собственные значения матрицы автокорреляции действительны и неотрицательны.
  • Матрица автоковариации связана с матрицу автокорреляции следующим образом:
KXX = E ⁡ [(X - E ⁡ [X]) (X - E ⁡ [X]) T] = RXX - E ⁡ [X ] E ⁡ [X] T {\ displaystyle \ operatorname {K} _ {\ mathbf {X} \ mathbf {X}} = \ operatorname {E} [(\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]) (\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]) ^ {\ rm {T}}] = \ operatorname {R} _ {\ mathbf {X} \ mathbf { X}} - \ operatorname {E} [\ mathbf {X}] \ operatorname {E} [\ mathbf {X}] ^ {\ rm {T}}}{\ displaystyle \ operatorname {K} _ {\ mathbf {X} \ mathbf {X}} = \ Opera torname {E} [(\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]) (\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]) ^ {\ rm {T}}] = \ operatorname { R} _ {\ mathbf {X} \ mathbf {X}} - \ operatorname {E} [\ mathbf {X}] \ operatorname {E} [\ mathbf {X}] ^ {\ rm {T}}}
Ответить специально для комплексных случайных векторов:
KZZ знак равно E ⁡ [(Z - E ⁡ [Z]) (Z - E ⁡ [Z]) H] = RZZ - E ⁡ [Z] E ⁡ [Z] H {\ displaystyle \ operatorname {K} _ {\ mathbf {Z} \ mathbf {Z}} = \ operatorname {E} [(\ mathbf {Z} - \ operatorname {E} [\ mathbf {Z}]) (\ mathbf {Z} - \ operatorname {E} [ \ mathbf {Z}]) ^ {\ rm {H}}] = \ operatorname {R} _ {\ mathbf {Z} \ mathbf {Z}} - \ operatorname {E} [\ mathbf {Z}] \ operatorname {E} [\ mathbf {Z}] ^ {\ rm {H}}}{\ displaystyle \ operatorname {K} _ {\ mathbf {Z} \ mathbf {Z}} = \ имя оператора {E} [(\ mathbf {Z} - \ operatorname {E} [\ mathbf {Z}]) (\ mathbf {Z} - \ operatorname { E} [\ mathbf {Z}]) ^ {\ rm {H}}] = \ operatorname {R} _ {\ mathbf {Z} \ mathbf {Z}} - \ operatorname {E} [\ mathbf {Z} ] \ operatorname {E} [\ mathbf {Z}] ^ {\ rm {H}}}
Автокорреляция детерминир ованных сигналов

В обработка сигналов, приведенное выше определение используется без нормализации, то есть без вычитания среднего и деления на дисперсию. Функция автокорреляции на среднее значение и дисперсию, ее иногда называют коэффициентом автокорреляции или функцией автоковариации.

Автокорреляция непрерывного сигнала

Для сигнала f (t) {\ displaystyle f (t)}f (t) , непрерывная автокорреляция R ff (τ) {\ displaystyle R_ {ff} (\ tau)}R_ {ff} (\ tau) чаще всего определяется как непрерывный интеграл взаимной корреляции f (t) {\ displaystyle f (t)}f (t) с самим собой, с задержкой τ {\ displaystyle \ tau}\ tau .

R ff (τ) = ∫ - ∞ ∞ f (t + τ) f (t) ¯ dt знак равно ∫ - ∞ ∞ е (T) е (T - τ) ¯ dt {\ displaystyle R_ {ff} (\ tau) = \ int _ {- \ infty} ^ {\ infty} f (t + \ tau) {\ overline {f ( t)}} \, {\ rm {d}} t = \ int _ {- \ infty} ^ {\ infty} f (t) {\ overline {f (t- \ tau)}} \, {\ rm {d}} t}{\ displaystyle R_ {ff} (\ tau) = \ int _ {- \ infty} ^ {\ infty} f (t + \ tau) {\ overline { f (t)}} \, {\ rm {d}} t = \ int _ {- \ infty} ^ {\ infty} f (t) {\ overline {f (t- \ tau)}} \, { \ rm {d}} t}

(уравнение 6)

где f (t) ¯ {\ displaystyle {\ overline {f (t)}}}{\ displaystyle {\ overline {f (t)}}} представляет собой комплексное сопряжение элемент f (t) {\ displaystyle f (t)}f (t) . Обратите внимание, что параметр t {\ displaystyle t}t в интеграле является необходимым и необходимым только для вычислений интеграла. Это не имеет особого значения.

Автокорреляция сигнала дискретного времени

Дискретная автокорреляция R {\ displaystyle R}R с задержкой ℓ {\ displaystyle \ ell}\ ell для сигнала с дискретным временем y (n) {\ displaystyle y (n)}y (n) равно

R yy (ℓ) = ∑ n ∈ Z y (n) Y (N - ℓ) ¯ {\ Displaystyle R_ {yy} (\ ell) = \ sum _ {n \ in Z} y (n) \, {\ overline {y (n- \ ell)}}}{\ displaystyle R_ {yy} (\ ell) = \ sum _ {n \ in Z} y (n) \, {\ overline {y (n- \ ell)}}}

(уравнение 7)

Приведенные выше определения работают для сигналов, которые интегрируют в квадрате, суммируются в квадрате, то есть имеют конечную энергию. Сигналы, которые «длятся вечно», вместо этого исследуются как случайные процессы, и в этом случае требуются другие определения, основанные на ожидаемых значениях. Для стационарных случайных процессов в широком смысле автокорреляции определяет как

R ff (τ) = E ⁡ [f (t) f (t - τ) ¯] {\ displaystyle R_ {ff} (\ tau) = \ operatorname {E} \ left [f (t) {\ overline {f (t- \ tau)}} \ right]}{\ displaystyle R_ {ff} (\ тау) = \ Operato rname {E} \ left [е (t) {\ overline {f (т- \ тау)}} \ справа]}
R yy (ℓ) = E ⁡ [y (n) y (n - ℓ) ¯]. {\ displaystyle R_ {yy} (\ ell) = \ operatorname {E} \ left [y (n) \, {\ overline {y (n- \ ell)}} \ right].}{\ displaystyle R_ {yy} (\ ell) = \ operatorname {E} \ left [y (n) \, {\ overline {y (n- \ ell)}} \ right].}

Для процессов, которые не являются стационарными, они также будут работать t {\ displaystyle t}t или n {\ displaystyle n}n .

для процессов, которые также эргодический, математическое ожидание можно заменить предел среднего времени. Автокорреляция эргодического процесса иногда определяется или приравнивается к

R ff (τ) = lim T → ∞ 1 T ∫ 0 T f (t + τ) f (t) ¯ dt {\ displaystyle R_ {ff} (\ tau) = \ lim _ {T \ rightarrow \ infty} {\ frac {1} {T}} \ int _ {0} ^ {T} f (t + \ tau) {\ overline {f (t)}} \, { \ rm {d}} t}{\ displaystyle R_ {ff} (\ tau) = \ lim _ {T \ rightarrow \ infty} {\ frac {1} {T}} \ int _ {0} ^ {T} f (t + \ tau) { \ overline {f (t)}} \, {\ rm {d}} t}
R yy (ℓ) = lim N → ∞ 1 N ∑ n = 0 N - 1 y (n) y (n -) ¯. {\ Displaystyle R_ {yy} (\ ell) = \ lim _ {N \ rightarrow \ infty} {\ frac {1} {N}} \ sum _ {n = 0} ^ {N-1} y (n) \, {\ overline {y (n- \ ell)}}.}{\ displaystyle R_ {yy} (\ ell) = \ lim _ {N \ rightarrow \ infty} {\ frac {1} {N}} \ sum _ {n = 0} ^ {N-1} y (n) \, {\ overline {y (n- \ ell)}}.}

Эти определения имеют преимущество, что они дают разумные и четкие результаты с одним параметром для периодических функций, даже если эти определения не являются выходом для стационарных эргодических функций процессы.

В качестве альтернативных сигналов, которые могут обрабатываться с помощью краткосрочной автокорреляционной функции с использованием интегралов за конечное время. (См. кратковременноеЭльзевир. стр. 108–112 ISBN 9780128133477.

  • Вайсштейн, Эрик У. «Автокорреляция». MathWorld.
  • Последняя правка сделана 2021-06-12 19:11:21
    Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
    Обратная связь: support@alphapedia.ru
    Соглашение
    О проекте