Ковариация

редактировать
Знак ковариации двух случайных величин X и Y

В теории вероятностей и статистика, ковариация - это мера совместной изменчивости двух случайных величин. Если большие значения одной переменной в основном соответствуют большим значениям другой переменной, и то же самое верно для меньших значений (т. Е. Переменные имеют тенденцию показывать аналогичное поведение), ковариация положительная. В противоположном случае, когда большие значения одной переменной в основном соответствуют меньшим значениям другой (т.е. переменные имеют тенденцию показывать противоположное поведение), ковариация отрицательная. Знак ковариации, таким образом, показывает тенденцию в линейной зависимости между переменными. Величину ковариации непросто интерпретировать, поскольку она не нормирована и, следовательно, зависит от величин переменных. нормализованная версия ковариации, коэффициент корреляции , однако, показывает по своей величине силу линейной связи.

Необходимо различать (1) ковариацию двух случайных величин, которая является параметром population , который можно рассматривать как свойство совместное распределение вероятностей, и (2) ковариация выборки, которая помимо того, что служит дескриптором выборки, также служит в качестве оценочного значения параметра совокупности.

Содержание

  • 1 Определение
    • 1.1 Определение для сложных случайных величин
    • 1.2 Дискретные случайные величины
  • 2 Пример
  • 3 Свойства
    • 3.1 Ковариация с самим собой
    • 3.2 Ковариация линейных комбинаций
    • 3.3 Ковариационная идентичность Хёффдинга
    • 3.4 Некоррелированность и независимость
    • 3.5 Связь со внутренними продуктами
  • 4 Вычисление выборочной ковариации
  • 5 Обобщения
    • 5.1 Автоковариационная матрица реальных случайных векторов
    • 5.2 Кросс-ковариационная матрица реальных случайных векторов
  • 6 Численные вычисления
  • 7 Комментарии
  • 8 Приложения
    • 8.1 В генетике и молекулярной биологии
    • 8.2 В финансовой экономике
    • 8.3 В метеорологических и океанографических данных ассимиляция
    • 8.4 В микрометеорологии
    • 8.5 В извлечении признаков
    • 8.6 В машинном обучении
  • 9 См. также
  • 10 Ссылки

Определение

Для двух совместно распределенных вещественные -значные случайные величины X {\ displaystyle X}Xи Y {\ displaystyle Y}Y с конечными секундами, ковариация определяется как ожидаемое значение (или среднее значение) произведения их отклонений от их индивидуальных ожидаемых значений:

cov ⁡ (X, Y) = E ⁡ [(Икс - Е ⁡ [X]) (Y - E ⁡ [Y])] {\ displaystyle \ operatorname {cov} (X, Y) = \ operatorname {E} {{\ big [} (X- \ operatorname {E} [X]) (Y- \ operatorname {E} [Y]) {\ big]}}}{\ displaystyle \ operatorname {cov} ( X, Y) = \ operatorname {E} {{\ big [} (X- \ operatorname {E} [X]) (Y- \ operatorname {E} [Y]) {\ big]}}}

(Eq.1)

где E ⁡ [X] {\ displaystyle \ operatorname {E} [X]}\ operatorname {E} [X] - ожидаемое значение из X {\ displaystyle X}X, также известное как среднее значение Икс {\ Displaystyle X}X. Ковариацию также иногда обозначают как σ XY {\ displaystyle \ sigma _ {XY}}{\ displaystyle \ sigma _ {XY}} или σ (X, Y) {\ displaystyle \ sigma (X, Y)}\sigma (X,Y)по аналогии с дисперсией. Используя свойство линейности ожиданий, это можно упростить до ожидаемой стоимости их продукта за вычетом произведения их ожидаемых значений:

cov ⁡ (X, Y) = E ⁡ [(X - E ⁡ [X]) (Y - E ⁡ [Y])] = E ⁡ [XY - XE ⁡ [Y] - E ⁡ [X] Y + E ⁡ [X] E ⁡ [Y]] = E ⁡ [XY] - E ⁡ [ Икс] E ⁡ [Y] - E ⁡ [X] E ⁡ [Y] + E ⁡ [X] E ⁡ [Y] = E ⁡ [XY] - E ⁡ [X] E ⁡ [Y], {\ displaystyle {\ begin {align} \ operatorname {cov} (X, Y) = \ operatorname {E} \ left [\ left (X- \ operatorname {E} \ left [X \ right] \ right) \ left (Y - \ operatorname {E} \ left [Y \ right] \ right) \ right] \\ = \ operatorname {E} \ left [XY-X \ operatorname {E} \ left [Y \ right] - \ operatorname { E} \ left [X \ right] Y + \ OperatorName {E} \ left [X \ right] \ operatorname {E} \ left [Y \ right] \ right] \\ = \ operatorname {E} \ left [XY \ right] - \ operatorname {E} \ left [X \ right] \ operatorname {E} \ left [Y \ right] - \ operatorname {E} \ left [X \ right] \ operatorname {E} \ left [Y \ right] + \ operatorname {E} \ left [X \ right] \ operatorname {E} \ left [Y \ right] \\ = \ operat orname {E} \ left [XY \ right] - \ operatorname {E} \ left [X \ right] \ operatorname {E} \ left [Y \ right], \ end {align}}}{\ displaystyle {\ begin {выровнено } \ operatorname {cov} (X, Y) = \ operatorname {E} \ left [\ left (X- \ operatorname {E} \ left [X \ right] \ right) \ left (Y- \ operatorname {E } \ left [Y \ right] \ right) \ right] \\ = \ operatorname {E} \ left [XY-X \ operatorname {E} \ left [Y \ right] - \ operatorname {E} \ left [ X \ right] Y + \ OperatorName {E} \ left [X \ right] \ operatorname {E} \ left [Y \ right] \ right] \\ = \ operatorname {E} \ left [XY \ right] - \ имя оператора {E} \ left [X \ right] \ operatorname {E} \ left [Y \ right] - \ operatorname {E} \ left [X \ right] \ OperatorName {E} \ left [Y \ right] + \ имя оператора {E} \ left [X \ right] \ OperatorName {E} \ left [Y \ right] \\ = \ operatorname {E} \ left [XY \ right] - \ operatorn ame {E} \ left [X \ right] \ operatorname {E} \ left [Y \ right], \ end {align}}}

но это уравнение подвержен катастрофической отмене (см. раздел о числовых вычислениях ниже).

единицами измерения ковариации cov ⁡ (X, Y) {\ displaystyle \ operatorname {cov} (X, Y)}\operatorname{cov}(X, Y)являются те из X {\ displaystyle X}X, умноженные на Y {\ displaystyle Y}Y . Напротив, коэффициенты корреляции, которые зависят от ковариации, являются безразмерной мерой линейной зависимости. (Фактически, коэффициенты корреляции можно просто понимать как нормализованную версию ковариации.)

Определение для сложных случайных величин

Ковариация между двумя комплексными случайными величинами Z, W {\ displaystyle Z, W}{\ displaystyle Z, W} определяется как

cov ⁡ (Z, W) = E ⁡ [(Z - E ⁡ [Z]) (W - E ⁡ [W]) ¯] = E ⁡ [ZW ¯] - E ⁡ [Z] E ⁡ [W ¯] {\ displaystyle \ operatorname {cov} (Z, W) = \ operatorname {E} \ left [(Z- \ operatorname {E} [Z]) {\ overline {(W- \ operatorname {E} [W])}} \ right] = \ operatorname {E} \ left [Z {\ overline {W}} \ right] - \ operatorname {E} [Z ] \ operatorname {E} \ left [{\ overline {W}} \ right]}{\displaystyle \operatorname {cov} (Z,W)=\operatorname {E} \left[(Z-\operatorname {E} [Z]){\overline {(W-\operatorname {E} [W])}}\right]=\operatorname {E} \left[Z{\overline {W}}\right]-\operatorname {E} [Z]\operatorname {E} \left[{\overline {W}}\right]}

Обратите внимание на комплексное сопряжение второго фактора в определении.

Дискретные случайные величины

Если пара случайных величин (X, Y) {\ displaystyle (X, Y)}(X,Y)может принимать значения (xi, yi) {\ displaystyle (x_ {i}, y_ {i})}{\displaystyle (x_{i},y_{i})}для i = 1,…, n {\ displaystyle i = 1, \ ldots, n}i=1,\ldots,n, с равными вероятностями pi = 1 / n {\ displaystyle p_ {i} = 1 / n}p_ {i } = 1 / n , тогда ковариация может быть эквивалентно записана в терминах средних E ⁡ [X] {\ displaystyle \ operatorname {E} [X]}\ operatorname {E} [X] и E ⁡ [Y] {\ displaystyle \ operatorname {E} [Y]}{\displaystyle \operatorname {E} [Y]}как

cov ⁡ (X, Y) = 1 n ∑ i = 1 n (xi - E (X)) (yi - E (Y)). {\ displaystyle \ operatorname {cov} (X, Y) = {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} (x_ {i} -E (X)) (y_ { i} -E (Y)).}{\ displaystyle \ operatorname {cov} (X, Y) = {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} (x_ {i} -E (X)) (y_ {я} -E (Y)).}

Это также может быть эквивалентно выражено, без прямой ссылки на средства, как

cov ⁡ (X, Y) = 1 n 2 ∑ i = 1 n ∑ j = 1 n 1 2 (xi - xj) (yi - yj) знак равно 1 n 2 ∑ i ∑ j>i (xi - xj) (yi - yj). {\ displaystyle \ operatorname {cov} (X, Y) = {\ frac {1} {n ^ {2}}} \ sum _ {i = 1} ^ {n} \ sum _ {j = 1} ^ { n} {\ frac {1} {2}} (x_ {i} -x_ {j}) (y_ {i} -y_ {j}) = {\ frac {1} {n ^ {2}}} \ сумма _ {i} \ sum _ {j>i} (x_ {i} -x_ {j}) (y_ {i} -y_ {j}).}{\displaystyle \operatorname {cov} (X,Y)={\frac {1}{n^{2}}}\sum _{i=1}^{n}\sum _{j=1}^{n}{\frac {1}{2}}(x_{i}-x_{j})(y_{i}-y_{j})={\frac {1}{n^{2}}}\sum _{i}\sum _{j>i} (x_ {i} -x_ {j}) (y_ {i} -y_ {j}).}

В целом, если есть n {\ displaystyle n}n возможных реализаций (X, Y) {\ displaystyle (X, Y)}(X,Y), а именно (xi, yi) {\ displaystyle (x_ {i}, y_ {i})}{\displaystyle (x_{i},y_{i})}, но с возможно неравными вероятностями pi {\ displaystyle p_ {i}}p_ {i} для i = 1,…, n {\ displaystyle i = 1, \ ldots, n}i=1,\ldots,n, тогда ковариация

cov ⁡ (X, Y) знак равно ∑ я знак равно 1 npi (xi - E (X)) (yi - E (Y)). {\ displaystyle \ operatorname {cov} (X, Y) = \ sum _ {i = 1} ^ {n} p_ {i} (x_ {i} -E (X)) (y_ {i} -E (Y)).}{\ displaysty le \ operatorname {cov} (X, Y) = \ sum _ {i = 1} ^ {n} p_ {i} (x_ {i} -E (X)) (y_ {i} -E (Y)).}

Пример

Геометрическая интерпретация примера ковариации. Каждый детеныш oid - это ограничивающая рамка его точки (x, y, f (x, y)), а значения X и Y (пурпурная точка). Ковариация - это сумма объемов красных кубоидов минус синие кубоиды.

Предположим, что X {\ displaystyle X}Xи Y {\ displaystyle Y}Y имеют следующую функцию совместной вероятности, в которой шесть центральных ячеек дают дискретные совместные вероятности f (x, y) {\ displaystyle f (x, y)}f(x,y)шести гипотетических реализаций (x, y) ∈ S = {(5, 8), (6, 8), (7, 8), (5, 9), (6, 9), ( 7, 9)} {\ Displaystyle (х, у) \ в S = \ влево \ {(5,8), (6,8), (7,8), (5,9), (6,9), (7,9) \ right \}}{\displaystyle (x,y)\in S=\left\{(5,8),(6,8),(7,8),(5,9),(6,9),(7,9)\right\}}:

е (х, y) {\ displaystyle f (x, y)}f(x,y)xе Y (y) {\ displaystyle f_ {Y} (y)}f_Y(y)
567
y800,4 ​​0,10,5
90,300,20,5
f X (x) {\ displaystyle f_ {X} (x) }f_{X}(x)0,30,4 ​​0,31

X {\ displaystyle X}Xможет принимать три значения (5, 6 и 7), а Y {\ displaystyle Y}Y может принимать два (8 и 9). Их средние значения равны μ X = 5 (0,3) + 6 (0,4) + 7 (0,1 + 0,2) = 6 {\ displaystyle \ mu _ {X} = 5 (0,3) +6 (0,4) +7 (0,1 +0,2) = 6}{\ displaystyle \ mu _ {X} = 5 (0,3) +6 (0,4) +7 (0,1 + 0,2) = 6} и μ Y = 8 (0,4 + 0,1) + 9 (0,3 + 0,2) = 8,5 {\ displaystyle \ mu _ {Y} = 8 (0,4 + 0,1) +9 (0,3 + 0,2) = 8,5}{\displaystyle \mu _{Y}=8(0.4+0.1)+9(0.3+0.2)=8.5}. Тогда

cov ⁡ (X, Y) = σ XY = ∑ (x, y) ∈ S f (x, y) (x - μ X) (y - μ Y) = (0) (5-6) (8 - 8,5) + (0,4) (6 - 6) (8 - 8,5) + (0,1) (7 - 6) (8 - 8,5) + (0,3) (5 - 6) (9 - 8,5) + ( 0) (6 - 6) (9 - 8,5) + (0,2) (7 - 6) (9 - 8,5) = - 0,1. {\ displaystyle {\ begin {align} \ operatorname {cov} (X, Y) = {} \ sigma _ {XY} = \ sum _ {(x, y) \ in S} f (x, y) \ left (x- \ mu _ {X} \ right) \ left (y- \ mu _ {Y} \ right) \\ [4pt] = {} (0) (5-6) (8-8.5) + (0,4) (6-6) (8-8,5) + (0,1) (7-6) (8-8,5) + {} \\ [4pt] (0,3) (5-6) (9-8,5) + (0) (6-6) (9-8,5) + (0,2) (7-6) (9-8,5) \\ [4pt] = {} {- 0,1} \;. \ End {выровнено}}}{\displaystyle {\begin{aligned}\operatorname {co v} (X,Y)={}\sigma _{XY}=\sum _{(x,y)\in S}f(x,y)\left(x-\mu _{X}\right)\left(y-\mu _{Y}\right)\\[4pt]={}(0)(5-6)(8-8.5)+(0.4)(6-6)(8-8.5)+(0.1)(7-6)(8-8.5)+{}\\[4pt](0.3)(5-6)(9-8.5)+(0)(6-6)(9-8.5)+(0.2)(7-6)(9-8.5)\\[4pt]={}{-0.1}\;.\end{aligned}}}

Свойства

Ковариация с самим собой

Дисперсия - это особый случай ковариации, при котором две переменные идентичны (то есть, когда одна переменная всегда принимает то же значение, что и другое):

cov ⁡ (X, X) = var ⁡ (X) ≡ σ 2 (X) ≡ σ X 2. {\ displaystyle \ operatorname {cov} (X, X) = \ operatorname {var} (X) \ Equiv \ sigma ^ {2} (X) \ Equiv \ sigma _ {X} ^ {2}.}{\ displaystyle \ operatorname {cov} (X, X) = \ operatorname {var} (X) \ Equiv \ sigma ^ {2} (X) \ Equiv \ sigma _ {X} ^ { 2}.}

Ковариация линейных комбинаций

Если X {\ displaystyle X}X, Y {\ displaystyle Y}Y , W {\ displaystyle W}Wи V {\ displaystyle V}V - случайные величины с действительным знаком, а a, b, c, d {\ displaystyle a, b, c, d}a,b,c,d- константы с действительным знаком., то следующие факты являются следствием определения ковариации:

cov ⁡ (X, a) = 0 cov ⁡ (X, X) = var ⁡ (X) cov ⁡ (X, Y) = cov ⁡ ( Y, X) cov ⁡ (a X, b Y) = ab cov ⁡ (X, Y) cov ⁡ (X + a, Y + b) = cov ⁡ (X, Y) cov ⁡ (a X + b Y, c W + d V) знак равно ac cov ⁡ (X, W) + ad cov ⁡ (X, V) + bc cov ⁡ (Y, W) + bd cov ⁡ (Y, V) {\ displaystyle {\ begin {выровнено } \ operatorname {cov} (X, a) = 0 \\\ operatorname {cov} (X, X) = \ operatorname {var} (X) \\\ operatorname {cov} (X, Y) = \ operatorname {cov} (Y, X) \\\ operatorname {cov} (aX, bY) = ab \, \ operatorname {cov} (X, Y) \ \\ operatorname {cov} (X + a, Y + b) = \ operatorname {cov} (X, Y) \\\ operatorname {cov} (aX + bY, cW + dV) = ac \, \ operatorname {cov} (X, W) + ad \, \ operatorname {cov} (X, V) + bc \, \ operatorname {cov} (Y, W) + bd \, \ operatorname {cov} (Y, V) \ end {align}}}{ \ Displaystyle {\ begin {выровнено} \ о peratorname {cov} (X, a) = 0 \\\ operatorname {cov} (X, X) = \ operatorname {var} (X) \\\ operatorname {cov} (X, Y) = \ operatorname {cov} (Y, X) \\\ operatorname {cov} (aX, bY) = ab \, \ operatorname {cov} (X, Y) \\\ operatorname {cov} (X + a, Y + b) = \ operatorname {cov} (X, Y) \\\ operatorname {cov} (aX + bY, cW + dV) = ac \, \ operatorname {cov} (X, W) + ad \, \ operatorname {cov} (X, V) + bc \, \ operatorname {cov} (Y, W) + bd \, \ operatorname {cov} (Y, V) \ end {align}}}

Для последовательности X 1,…, X n {\ displaystyle X_ {1}, \ ldots, X_ {n}}X_ {1}, \ ldots, X_ {n} случайных величин в реальном -значное и константы a 1,…, an {\ displaystyle a_ {1}, \ ldots, a_ {n}}a_1,\ldots,a_n, мы имеем

σ 2 (∑ i = 1 nai X i) = ∑ i = 1 nai 2 σ 2 (X i) + 2 ∑ i, j: i < j a i a j cov ⁡ ( X i, X j) = ∑ i, j a i a j cov ⁡ ( X i, X j) {\displaystyle \sigma ^{2}\left(\sum _{i=1}^{n}a_{i}X_{i}\right)=\sum _{i=1}^{n}a_{i}^{2}\sigma ^{2}(X_{i})+2\sum _{i,j\,:\,i{\displaystyle \sigma ^{2}\left(\sum _{i=1}^{n}a_{i}X_{i}\right)=\sum _{i=1}^{n}a_{i}^{2}\sigma ^{2}(X_{i})+ 2\sum _{i,j\,:\,i<j}a_{i}a_{j}\operatorname {cov} (X_{i},X_{j})=\sum _{i,j}{a_{i}a_{j}\operatorname {cov} (X_{i},X_{j})}}

тождество ковариации Хёффдинга

Полезное тождество для вычисления ковариации между двумя случайными величинами X, Y {\ displaystyle X, Y}{\displaystyle X,Y}- тождество ковариации Хёффдинга:

cov ⁡ (X, Y) = ∫ R ∫ R (F (X, Y) (x, y) - FX (x) FY (y)) dxdy {\ displaystyle \ operatorname {cov} (X, Y) = \ int _ {\ mathbb {R}} \ int _ {\ mathbb {R}} \ left (F _ {( X, Y)} (x, y) -F_ {X} (x) F_ {Y} (y) \ right) \, dx \, dy}{\ displaystyle \ operatorname {cov} (X, Y) = \ int _ {\ mathbb {R}} \ int _ {\ mathbb {R}} \ left (F _ {(X, Y)} ( x, y) -F_ {X} (x) F_ {Y} (y) \ right) \, dx \, dy}

где F (X, Y) (x, у) {\ Displaystyle F _ {(X, Y)} (x, y)}{\displaystyle F_{(X,Y)}(x,y)}- совместная кумулятивная функция распределения случайного вектора (X, Y) {\ displaystyle (X, Y)}{\displaystyle (X,Y)}и FX. (x), FY (y) {\ displaystyle F_ {X} (x), F_ {Y} (y)}{\displaystyle F_{X}(x),F_{Y}(y)}- это маргиналы.

Некоррелированность и независимость

Случайные переменные, ковариация которых равна нулю, называются некоррелированными. Точно так же компоненты случайных векторов, ковариационная матрица которых равна нулю в каждой записи за пределами главной диагонали, также называются некоррелированными.

Если X {\ displaystyle X}Xи Y {\ displaystyle Y}Y являются независимыми случайными величинами, тогда их ковариация равна нулю. Это следует потому, что при независимости

E ⁡ [X Y] = E ⁡ [X] ⋅ E ⁡ [Y]. {\ displaystyle \ operatorname {E} [XY] = \ operatorname {E} [X] \ cdot \ operatorname {E} [Y].}{\displaystyle \operatorname {E} [XY]=\operatorname {E} [X]\cdot \operatorname {E} [Y].}

Обратное, однако, обычно неверно. Например, пусть X {\ displaystyle X}Xравномерно распределен в [- 1, 1] {\ displaystyle [-1,1]}[-1,1]и пусть Y = X 2 {\ displaystyle Y = X ^ {2}}{\ displaystyle Y = X ^ {2}} . Очевидно, что X {\ displaystyle X}Xи Y {\ displaystyle Y}Y не являются независимыми, но

cov ⁡ (X, Y) = cov ⁡ (X, X 2) = E ⁡ [X ⋅ X 2] - E ⁡ [X] ⋅ E ⁡ [X 2] = E ⁡ [X 3] - E ⁡ [X] E ⁡ [X 2] = 0 - 0 ⋅ E ⁡ [X 2] = 0. {\ displaystyle {\ begin {align} \ operatorname {cov} (X, Y) = \ operatorname {cov} \ left (X, X ^ {2} \ right) \\ = \ operatorname {E} \ left [X \ cdot X ^ {2} \ right] - \ operatorname {E} [X] \ cdot \ operatorname {E} \ left [X ^ {2} \ right ] \\ = \ operatorname {E} \ left [X ^ {3} \ right] - \ operatorname {E} [X] \ operatorname {E} \ left [X ^ {2} \ right] \\ = 0-0 \ cdot \ operatorname {E} [X ^ {2}] \\ = 0. \ end {align}}}{\ displaystyle {\ begin {выровнено} \ operatorname {cov} (X, Y) = \ operatorname {cov} \ left (X, X ^ {2} \ right) \\ = \ operatorname {E} \ left [X \ cdot X ^ {2} \ right] - \ operatorname {E} [X] \ cdot \ operatorname {E} \ left [X ^ {2} \ right] \\ = \ operatorname {E} \ left [X ^ {3} \ right] - \ operatorname {E} [X] \ operatorname {E} \ left [X ^ {2} \ right] \\ = 0-0 \ cdot \ operatorname {E} [X ^ {2}] \ \ = 0. \ конец {выровнено}}}

В этом случае связь между Y {\ displaystyle Y}Y и X {\ displaystyle X}Xявляется нелинейным, а корреляция и ковариация - это меры линейной зависимости между двумя случайными величинами. Этот пример показывает, что если две случайные величины некоррелированы, это, как правило, не означает, что они независимы. Однако, если две переменные совместно нормально распределены (но не если они просто индивидуально нормально распределены ), некоррелированность подразумевает независимость.

Связь с внутренними продуктами

Многие свойства ковариации можно элегантно выделить, наблюдая, что она удовлетворяет свойствам, аналогичным свойствам внутреннего продукта :

  1. билинейной : для констант a {\ displaystyle a}aи b {\ displaystyle b}bи случайных величин X, Y, Z {\ displaystyle X, Y Z}X,Y,Z, cov ⁡ (a X + b Y, Z) = a cov ⁡ (X, Z) + b cov ⁡ (Y, Z) {\ displaystyle \ operatorname {cov} (aX + bY, Z) = a \ operatorname {cov} (X, Z) + b \ operatorname {cov} (Y, Z)}{\ displaystyle \ operatorname {cov} (aX + bY, Z) = a \ operatorname {cov} (X, Z) + b \ operatorname {cov} (Y, Z)}
  2. симметричный: cov ⁡ (X, Y) = cov ⁡ (Y, X) {\ displaystyle \ operatorname {cov} (X, Y) = \ operatorname {cov} (Y, X)}{\ displaystyle \ operatorname {cov} (X, Y) = \ operatorname {cov} (Y, X)}
  3. положительный полуопределенный : σ 2 (X) = cov ⁡ (X, X) ≥ 0 {\ displaystyle \ sigma ^ {2} (X) = \ operatorname {cov} (X, X) \ geq 0}{\displaystyle \sigma ^{2}(X)=\operatorname {cov} (X,X)\geq 0}для всех случайных величин X {\ displaystyle X}Xи cov ⁡ (X, X) = 0 {\ displaystyle \ operatorname {cov} (X, X) = 0}{\displaystyle \operatorname {cov} (X,X)=0}означает, что X {\ displaystyle X }X- это константа nt почти наверняка.

На самом деле эти свойства подразумевают, что ковариация определяет внутренний продукт по векторному пространству, полученному путем взятия подпространства случайных величин с конечным вторым моментом и идентификации любых двух, которые отличаются на константу. (Это отождествление превращает положительную полуопределенность, приведенную выше, в положительную определенность.) Это фактор-векторное пространство изоморфно подпространству случайных величин с конечным вторым моментом и средним нулем; в этом подпространстве ковариация - это в точности внутреннее произведение L функций с действительными значениями в пространстве выборки.

В результате для случайных величин с конечной дисперсией неравенство

| cov ⁡ (X, Y) | ≤ σ 2 (Икс) σ 2 (Y) {\ Displaystyle | \ Operatorname {cov} (X, Y) | \ Leq {\ sqrt {\ sigma ^ {2} (X) \ sigma ^ {2} (Y) }}}{\displaystyle |\operatorname {cov} (X,Y)|\leq {\sqrt {\sigma ^{2}(X)\sigma ^{2}(Y)}}}

выполняется с помощью неравенства Коши – Шварца.

Доказательство: Если σ 2 (Y) = 0 {\ displaystyle \ sigma ^ {2} (Y) = 0}{\ displaystyle \ sigma ^ {2} (Y) = 0} , то тривиально. В противном случае пусть случайная величина

Z = X - cov ⁡ (X, Y) σ 2 (Y) Y. {\ displaystyle Z = X - {\ frac {\ operatorname {cov} (X, Y)} {\ sigma ^ {2} (Y)}} Y.}{\ displaystyle Z = X - {\ frac { \ operatorname {cov} (X, Y)} {\ sigma ^ {2} (Y)}} Y.}

Тогда мы имеем

0 ≤ σ 2 (Z) = cov ⁡ (X - cov ⁡ (X, Y) σ 2 (Y) Y, X - cov ⁡ (X, Y) σ 2 (Y) Y) = σ 2 (X) - (cov ⁡ ( X, Y)) 2 σ 2 (Y). {\ displaystyle {\ begin {align} 0 \ leq \ sigma ^ {2} (Z) = \ operatorname {cov} \ left (X - {\ frac {\ operatorname {cov} (X, Y)} {\ sigma ^ {2} (Y)}} Y, \; X - {\ frac {\ operatorname {cov} (X, Y)} {\ sigma ^ {2} (Y)}} Y \ right) \\ [ 12pt] = \ sigma ^ {2} (X) - {\ frac {(\ operatorname {cov} (X, Y)) ^ {2}} {\ sigma ^ {2} (Y)}}. \ End {выравнивается}}}{\displaystyle {\begin{aligned}0\leq \sigma ^{2}(Z)=\operatorname {cov} \left(X-{\frac {\operatorname {cov} (X,Y)} {\sigma ^{2}(Y)}}Y,\;X-{\frac {\operatorname {cov} (X,Y)}{\sigma ^{2}(Y)}}Y\right)\\[12pt]=\sigma ^{2}(X)-{\frac {(\operatorname {cov} (X,Y))^{2}}{\sigma ^{2}(Y)}}.\end{aligned}}}

Вычисление выборочной ковариации

Выборочные ковариации среди K {\ displaystyle K}Kпеременных на основе N {\ displaystyle N}Nнаблюдений за каждым из них, взятых из ненаблюдаемой популяции, даются с помощью K × K {\ displaystyle K \ times K}{\displaystyle K\times K}матрицы q ¯ = [qjk] {\ displaystyle \ textstyle {\ overline {\ mathbf {q}}} = \ left [q_ {jk} \ right]}{\ displaystyle \ textstyle {\ overline {\ mathbf {q}}} = \ left [q_ {jk} \ right]} с записями

qjk = 1 N - 1 ∑ i = 1 N (Икс ij - Икс ¯ j) (Икс ik - X ¯ k), {\ displaystyle q_ {jk} = {\ frac {1} {N-1}} \ sum _ {i = 1} ^ {N} \ left (X_ {ij} - {\ bar {X}} _ {j} \ right) \ left (X_ {ik} - {\ bar {X}} _ {k} \ right),}{\ displaystyle q_ {jk} = {\ frac {1} {N-1}} \ sum _ {i = 1} ^ {N} \ left (X_ {ij} - {\ bar {X}} _ {j} \ right) \ left (X_ {ik} - {\ bar {X}} _ {k} \ right),}

который это оценка ковариации между переменной j {\ displaystyle j }jи переменная k {\ displaystyle k}k .

Выборочное среднее и выборочная ковариационная матрица - это несмещенные оценки для среднего и ковариационная матрица случайного вектора X {\ displaystyle \ textstyle \ mathbf {X}}\textstyle \mathbf {X} , вектора, j-й элемент которого (j = 1,…, K) {\ displaystyle (j = 1, \, \ ldots, \, K)}{\displaystyle (j=1,\,\ldots,\,K)}- одна из случайных величин. Причина, по которой образец ковариационной матрицы имеет в знаменателе N - 1 {\ displaystyle \ textstyle N-1}\ textstyle N-1 , а не N {\ displaystyle \ textstyle N}\ textstyle N по сути, среднее значение генеральной совокупности E ⁡ (X) {\ displaystyle \ operatorname {E} (X)}\ operatorname {E} (X) неизвестно и заменяется выборочным средним X ¯ {\ displaystyle \ mathbf {\ bar {X}}}\ mathbf {\ bar {X} } . Если известно среднее значение генеральной совокупности E ⁡ (X) {\ displaystyle \ operatorname {E} (X)}\ operatorname {E} (X) , аналогичная несмещенная оценка дается как

qjk = 1 N ∑ i = 1 N (Икс ij - E ⁡ (X j)) (X ik - E ⁡ (X k)) {\ displaystyle q_ {jk} = {\ frac {1} {N}} \ sum _ {i = 1} ^ {N} \ left (X_ {ij} - \ operatorname {E} \ left (X_ {j} \ right) \ right) \ left (X_ {ik} - \ operatorname {E} \ left (X_ {k} \ right) \ right)}{\displaystyle q_{jk}={\frac {1}{N}}\sum _{i=1}^{N}\left(X_{ij}-\operatorname {E} \left(X_{j}\right)\right)\left(X_{ik}-\operatorname {E} \left(X_{k}\right)\right)}.

Обобщения

Матрица автоковариации вещественных случайных векторов

Для вектора X = [X 1 X 2… X m] T { \ displaystyle \ mathbf {X} = {\ begin {bmatrix} X_ {1} X_ {2} \ dots X_ {m} \ end {bmatrix}} ^ {\ mathrm {T}}}{\ displaystyle \ mathbf {X} = {\ begin {bmatrix} X_ {1} X_ {2} \ dots X_ {m} \ end {bmatrix}} ^ {\ mathrm {T}}} из m {\ displaystyle m}mсовместно распределенных случайных величин с конечными секундами, его матрица автоковариации (также известная как матрица дисперсии-ковариации или просто ковариационная матрица ) KXX {\ displaystyle \ operatorname {K} _ {\ mathbf {X} \ mathbf {X}}}{\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {X} }}(также обозначается Σ (Икс) {\ Displaystyle \ Sigma (\ mathbf {X })}\Sigma (\mathbf {X})) определяется как

KXX = cov ⁡ (X, X) = E ⁡ [(X - E ⁡ [X]) (X - E ⁡ [X]) T] = E ⁡ [XXT] - E ⁡ [X] E ⁡ [X] T. {\ displaystyle {\ begin {align} \ operatorname {K} _ {\ mathbf {XX}} = \ operatorname {cov} (\ mathbf {X}, \ mathbf {X}) = \ operatorname {E} \ left [(\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]) (\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]) ^ {\ mathrm {T}} \ right] \\ = \ operatorname {E} \ left [\ mathbf {XX} ^ {\ mathrm {T}} \ right] - \ operatorname {E} [\ mathbf {X}] \ operatorname {E} [\ mathbf {X}] ^ {\ mathrm {T}}. \ end {align}}}{\displaystyle {\begin{aligned}\operatorname {K} _{\mathbf {XX} }=\operatorname {cov} (\mathbf {X},\mathbf {X})=\operatorname {E} \left[(\mathbf {X} -\operatorname {E} [\mathbf {X} ])(\mathbf {X} -\operatorname {E} [\mathbf {X} ])^{\mathrm {T} }\right]\\=\operatorname {E} \left[\mathbf {XX} ^{\mathrm {T} }\right]-\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {X} ]^{\mathrm {T} }.\end{aligned}}}

Пусть X {\ displaystyle \ mathbf {X}}\ mathbf {X} будет случайным вектор с ковариационной матрицей Σ, и пусть A будет матрицей, которая может воздействовать на X {\ displaystyle \ mathbf {X}}\ mathbf {X} слева. Ковариационная матрица произведения матрица-вектор A X имеет вид:

Σ (A X) = E ⁡ [A X X T A T] - E ⁡ [A X] E ⁡ [X T A T] = A Σ A T. {\ displaystyle \ Sigma (\ mathbf {AX}) = \ operatorname {E} \ left [\ mathbf {AXX} ^ {\ mathrm {T}} \ mathbf {A} ^ {\ mathrm {T}} \ right] - \ operatorname {E} [\ mathbf {AX}] \ operatorname {E} \ left [\ mathbf {X} ^ {\ mathrm {T}} \ mathbf {A} ^ {\ mathrm {T}} \ right] = \ mathbf {A} \ Sigma \ mathbf {A} ^ {\ mathrm {T}}.}{\displaystyle \Sigma (\mathbf {AX})=\operatorname {E} \left[\mathbf {AXX} ^{\mathrm {T} }\mathbf {A} ^{\mathrm {T} }\right]-\operatorname {E} [\mathbf {AX} ]\operatorname {E} \left[\mathbf {X} ^{\mathrm {T} }\mathbf {A} ^{\mathrm {T} }\right]=\mathbf {A} \Sigma \mathbf {A} ^{\mathrm {T} }.}

Это прямой результат линейности математического ожидания и полезен при применении линейное преобразование, такое как преобразование отбеливания, в вектор.

Матрица кросс-ковариации вещественных случайных векторов

Для реальных случайных векторов X ∈ R m {\ displaystyle \ mathbf {X} \ in \ mathbb { R} ^ {m}}\ mathbf {X} \ in \ mathbb {R} ^ {m} и Y ∈ R n {\ displaystyle \ mathbf {Y} \ in \ mathbb {R} ^ {n}}\mathbf {Y} \in \mathbb {R} ^{n}, m × n {\ displaystyle m \ times n}m\times nматрица кросс-ковариаций равна

KXY = cov ⁡ (X, Y) = E ⁡ [(X - E ⁡ [X]) (Y - E ⁡ [Y]) T] знак равно E ⁡ [XYT] - E ⁡ [X] E ⁡ [Y] T {\ displaystyle {\ begin {align} \ operatorname {K} _ {\ mathbf {X } \ mathbf {Y}} = \ operatorname {cov} (\ mathbf {X}, \ mathbf {Y}) = \ operatorname {E} \ left [(\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]) (\ mathbf {Y} - \ operatorname {E} [\ mathbf {Y}]) ^ {\ mathrm {T}} \ right] \\ = \ operatorname {E} \ left [\ mathbf {X} \ mathbf {Y} ^ {\ mathrm {T}} \ right] - \ operatorname {E} [\ mathbf {X}] \ operatorname {E} [\ mathbf {Y}] ^ {\ mathrm { T}} \ end {align}}}{\ displaystyle {\ begin {align} \ operatorname {K} _ {\ mathbf {X} \mathbf {Y} }=\operatorname {cov} (\mathbf {X},\mathbf {Y})=\operatorname {E} \left[(\mathbf {X} -\operatorname {E } [ \mathbf {X} ])(\mathbf {Y} -\operatorname {E} [\mathbf {Y} ])^{\mathrm {T} }\right]\\=\operatorname {E} \left[\mathbf {X} \mathbf {Y} ^{\mathrm {T} }\right]-\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {Y} ]^{\mathrm {T} }\end{aligned}}}

(Eq.2)

где YT {\ displaystyle \ mathbf {Y} ^ {\ mathrm {T}}}{\displaystyle \mathbf {Y} ^{\mathrm {T} }}- транспонировать из t вектор (или матрица) Y {\ displaystyle \ mathbf {Y}}\mathbf {Y} .

The (i, j) {\ displaystyle (i, j)}(i,j)-й элемент эта матрица равна ковариации cov ⁡ (X i, Y j) {\ displaystyle \ operatorname {cov} (X_ {i}, Y_ {j})}{\displaystyle \operatorname {cov} (X_{i},Y_{j})}между i-м скалярный компонент X {\ displaystyle \ mathbf {X}}\ mathbf {X} и j-й скалярный компонент Y {\ displaystyle \ mathbf {Y}}\mathbf {Y} . В частности, cov ⁡ (Y, X) {\ displaystyle \ operatorname {cov} (\ mathbf {Y}, \ mathbf {X})}{\ displaystyle \ operatorname { cov} (\ mathbf {Y}, \ mathbf {X})} - это транспонирование of cov ⁡ (X, Y) {\ displaystyle \ operatorname {cov} (\ mathbf {X}, \ mathbf {Y})}{\ displaystyle \ operatorname {cov} (\ mathbf {X}, \ mathbf {Y})} .

Числовое вычисление

Когда E ⁡ [XY] ≈ E ⁡ [X] E ⁡ [Y] {\ displaystyle \ OperatorName {E} [XY] \ ок. \ OperatorName {E} [X] \ operatorname {E} [Y]}\ operatorname {E} [XY] \ приблизительно \ operatorname {E} [X] \ operatorname {E} [Y ] , уравнение cov ⁡ (X, Y) = E ⁡ [XY] - E ⁡ [X] E ⁡ [Y] {\ displaystyle \ operatorname {cov} (X, Y) = \ operatorname {E} \ left [XY \ right] - \ operatorname {E} \ left [X \ right] \ operatorname {E} \ left [Y \ right]}{\displaystyle \operatorname {cov} (X,Y)=\operatorname {E} \left[XY\right]-\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]}подвержен катастрофической отмене, когда вычисляется с помощью арифметики с плавающей запятой, поэтому этого следует избегать в компьютерных программах, когда данные не были центрированы ранее. В этом случае следует отдавать предпочтение численно стабильным алгоритмам. Комментарии

Ковариацию иногда называют мерой «линейной зависимости» между двумя параметрами. ndom переменные. Это не означает то же самое, что и в контексте линейной алгебры (см. линейная зависимость ). Когда ковариация нормализована, получается коэффициент корреляции Пирсона, который дает степень согласия для наилучшей возможной линейной функции, описывающей связь между переменными. В этом смысле ковариация - это линейная мера зависимости.

Приложения

В генетике и молекулярной биологии

Ковариация - важный показатель в биологии. Определенные последовательности ДНК более консервативны среди видов, чем другие, поэтому для изучения вторичных и третичных структур белков или структур РНК последовательности сравнивают в близкородственные виды. Если изменения последовательности обнаружены или не обнаружены вообще никаких изменений в некодирующей РНК (такой как микроРНК ), обнаруживается, что последовательности необходимы для общих структурных мотивов, таких как петля РНК. В генетике ковариация служит основой для вычисления матрицы генетических родств (GRM) (также известной как матрица родства), позволяя делать выводы о структуре популяции на основе выборки без известных близких родственников, а также делать выводы об оценке наследуемости сложных признаков.

В теории эволюции и естественного отбора уравнение Прайса описывает, как генетический признак частота меняется со временем. В уравнении используется ковариация между признаком и пригодностью, чтобы дать математическое описание эволюции и естественного отбора. Это дает возможность понять влияние передачи генов и естественного отбора на долю генов в каждом новом поколении популяции. Уравнение Прайса было выведено Джорджем Р. Прайсом, чтобы заново вывести W.D. Работа Гамильтона над родственной селекцией. Примеры уравнения Прайса были построены для различных эволюционных случаев.

В финансовой экономике

Ковариации играют ключевую роль в финансовой экономике, особенно в современной теории портфелей и в ценообразовании основных средств. модель. Ковариации между доходностью различных активов используются для определения, при определенных допущениях, относительных сумм различных активов, которые инвесторы должны (в нормативном анализе ) или которые прогнозируются (в положительном анализе ) выберите сохранение в контексте диверсификации.

при ассимиляции метеорологических и океанографических данных

Ковариационная матрица важна для оценки начальных условий, необходимых для запуска моделей прогноза погоды, процедуры, известной как усвоение данных. «Ковариационная матрица ошибок прогноза» обычно строится между возмущениями вокруг среднего состояния (климатологического или ансамблевого). «Ковариационная матрица ошибок наблюдения» построена для представления величины объединенных ошибок наблюдений (по диагонали) и коррелированных ошибок между измерениями (по диагонали). Это пример его широко распространенного применения для фильтрации Калмана и более общего оценки состояния для изменяющихся во времени систем.

В микрометеорологии

Метод ковариации завихрений - это ключевой метод измерения атмосферных воздействий, при котором определяется ковариация между мгновенным отклонением вертикальной скорости ветра от среднего значения и мгновенным отклонением концентрации газа. является основой для расчета вертикальных турбулентных потоков.

При извлечении признаков

Ковариационная матрица используется для определения спектральной изменчивости сигнала.

В машинном обучении

Ковариационная матрица используется в анализ главных компонентов для уменьшения размерности функций при предварительной обработке данных.

См. Также

Ссылки

Последняя правка сделана 2021-05-16 07:07:53
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте