Многомерная случайная величина

редактировать

В вероятности и статистике, многомерная случайная величина или случайный вектор представляет собой список математических переменных каждого из значений которого неизвестен, либо потому, что значение еще не произошло или потому, что есть несовершенное знание о его стоимости. Отдельные переменные в случайном векторе сгруппированы вместе, потому что все они являются частью единой математической системы - часто они представляют разные свойства отдельной статистической единицы. Например, хотя у данного человека есть определенный возраст, рост и вес, представление этих характеристик неуказанного человека из группы будет случайным вектором. Обычно каждый элемент случайного вектора является действительным числом.

Случайные векторы часто используются в качестве базовой реализации различных типов совокупных случайных величин, например, случайной матрицы, случайного дерева, случайной последовательности, случайного процесса и т. Д.

Более формально, многомерная случайная величина представляет собой вектор - столбца (или его транспонирование, который представляет собой вектор - строки ), компоненты которого являются скалярными -значными случайными величинами на то же вероятностном пространстве, как друг с другом, где это выборочное пространство, является сигма- алгебра (совокупность всех событий) и является мерой вероятности (функцией, возвращающей вероятность каждого события). Икс знак равно ( Икс 1 , , Икс п ) Т {\ Displaystyle \ mathbf {X} = (X_ {1}, \ точки, X_ {n}) ^ {\ mathsf {T}}} ( Ω , F , п ) {\ displaystyle (\ Omega, {\ mathcal {F}}, P)} Ω {\ displaystyle \ Omega} F {\ Displaystyle {\ mathcal {F}}} п {\ displaystyle P}

СОДЕРЖАНИЕ

  • 1 Распределение вероятностей
  • 2 Операции со случайными векторами
    • 2.1 Аффинные преобразования
    • 2.2 Обратимые отображения
  • 3 Ожидаемое значение
  • 4 Ковариация и кросс-ковариация
    • 4.1 Определения
    • 4.2 Свойства
    • 4.3 Некоррелированность
  • 5 Корреляция и взаимная корреляция
    • 5.1 Определения
    • 5.2 Свойства
  • 6 Ортогональность
  • 7 Независимость
  • 8 Характеристическая функция
  • 9 Другие свойства
    • 9.1 Ожидание квадратичной формы
    • 9.2 Ожидание произведения двух различных квадратичных форм
  • 10 приложений
    • 10.1 Теория портфолио
    • 10.2 Теория регрессии
    • 10.3 Векторные временные ряды
  • 11 Источники
  • 12 Дальнейшее чтение

Распределение вероятностей

Основная статья: многомерное распределение вероятностей

Каждый случайный вектор порождает вероятностную меру с алгеброй Бореля в качестве базовой сигма-алгебры. Эта мера также известна как совместное распределение вероятностей, совместное распределение или многомерное распределение случайного вектора. р п {\ Displaystyle \ mathbb {R} ^ {п}}

В распределения каждого из компонентов случайных величин называются маргинальные распределения. Условное распределение вероятностей по данности является распределение вероятностей, когда известно, что конкретное значение. Икс я {\ displaystyle X_ {i}} Икс я {\ displaystyle X_ {i}} Икс j {\ displaystyle X_ {j}} Икс я {\ displaystyle X_ {i}} Икс j {\ displaystyle X_ {j}}

Интегральная функция распределения случайного вектора определяется как F Икс : р п [ 0 , 1 ] {\ Displaystyle F _ {\ mathbf {X}}: \ mathbb {R} ^ {n} \ mapsto [0,1]} Икс знак равно ( Икс 1 , , Икс п ) Т {\ Displaystyle \ mathbf {X} = (X_ {1}, \ точки, X_ {n}) ^ {\ mathsf {T}}}

F Икс ( Икс ) знак равно п ( Икс 1 Икс 1 , , Икс п Икс п ) {\ displaystyle F _ {\ mathbf {X}} (\ mathbf {x}) = \ operatorname {P} (X_ {1} \ leq x_ {1}, \ ldots, X_ {n} \ leq x_ {n}) }

 

 

 

 

( Уравнение 1 )

где. Икс знак равно ( Икс 1 , , Икс п ) Т {\ displaystyle \ mathbf {x} = (x_ {1}, \ dots, x_ {n}) ^ {\ mathsf {T}}}

Операции над случайными векторами

Случайные векторы могут подвергаться тем же видам алгебраических операций, что и неслучайные векторы: сложение, вычитание, умножение на скаляр и взятие скалярных произведений.

Аффинные преобразования

Точно так же новый случайный вектор может быть определен путем применения аффинного преобразования к случайному вектору: Y {\ displaystyle \ mathbf {Y}} грамм : р п р п {\ Displaystyle г \ двоеточие \ mathbb {R} ^ {n} \ to \ mathbb {R} ^ {n}} Икс {\ displaystyle \ mathbf {X}}

Y знак равно А Икс + б {\ Displaystyle \ mathbf {Y} = {\ mathcal {A}} \ mathbf {X} + b}, где - матрица, а - вектор-столбец. А {\ displaystyle {\ mathcal {A}}} п × п {\ Displaystyle п \ раз п} б {\ displaystyle b} п × 1 {\ Displaystyle п \ раз 1}

Если - обратимая матрица и имеет функцию плотности вероятности, то плотность вероятности равна А {\ displaystyle {\ mathcal {A}}} Икс {\ displaystyle \ textstyle \ mathbf {X}} ж Икс {\ displaystyle f _ {\ mathbf {X}}} Y {\ displaystyle \ mathbf {Y}}

ж Y ( y ) знак равно ж Икс ( А - 1 ( y - б ) ) | Det А | {\ displaystyle f _ {\ mathbf {Y}} (y) = {\ frac {f _ {\ mathbf {X}} ({\ mathcal {A}} ^ {- 1} (yb))} {| \ det { \ mathcal {A}} |}}}.

Обратимые отображения

В более общем плане мы можем изучать обратимые отображения случайных векторов.

Пусть отображение один-к-одному из открытого подмножества из на подмножества из, пусть имеют непрерывные частные производные в и пусть якобиеву определитель из быть нуль ни в одной точке. Предположим, что реальный случайный вектор имеет функцию плотности вероятности и удовлетворяет. Тогда случайный вектор имеет плотность вероятности грамм {\ displaystyle g} D {\ displaystyle {\ mathcal {D}}} р п {\ Displaystyle \ mathbb {R} ^ {п}} р {\ displaystyle {\ mathcal {R}}} р п {\ Displaystyle \ mathbb {R} ^ {п}} грамм {\ displaystyle g} D {\ displaystyle {\ mathcal {D}}} грамм {\ displaystyle g} D {\ displaystyle {\ mathcal {D}}} Икс {\ displaystyle \ mathbf {X}} ж Икс ( Икс ) {\ displaystyle f _ {\ mathbf {X}} (\ mathbf {x})} п ( Икс D ) знак равно 1 {\ Displaystyle Р (\ mathbf {X} \ in {\ mathcal {D}}) = 1} Y знак равно грамм ( Икс ) {\ Displaystyle \ mathbf {Y} = г (\ mathbf {X})}

ж Y ( y ) знак равно ж Икс ( Икс ) | Det грамм ( Икс ) Икс | | Икс знак равно грамм - 1 ( y ) 1 ( y р Y ) {\ displaystyle \ left.f _ {\ mathbf {Y}} (\ mathbf {y}) = {\ frac {f _ {\ mathbf {X}} (\ mathbf {x})} {\ left | \ det {\ frac {\ partial g (\ mathbf {x})} {\ partial \ mathbf {x}}} \ right |}} \ right | _ {\ mathbf {x} = g ^ {- 1} (\ mathbf {y })} \ mathbf {1} (\ mathbf {y} \ в R _ {\ mathbf {Y}})}

где обозначает индикаторную функцию, а множество обозначает поддержку. 1 {\ displaystyle \ mathbf {1}} р Y знак равно { y знак равно грамм ( Икс ) : ж Икс ( Икс ) gt; 0 } р {\ Displaystyle R _ {\ mathbf {Y}} = \ {\ mathbf {y} = g (\ mathbf {x}): f _ {\ mathbf {X}} (\ mathbf {x})gt; 0 \} \ substeq {\ mathcal {R}}} Y {\ displaystyle \ mathbf {Y}}

Ожидаемое значение

Ожидаемое значение или среднее случайного вектора является фиксированным вектором, элементы которого являются ожидаемыми значениями соответствующих случайных величин. Икс {\ displaystyle \ mathbf {X}} E [ Икс ] {\ Displaystyle \ OperatorName {E} [\ mathbf {X}]}

E [ Икс ] знак равно ( E [ Икс 1 ] , . . . , E [ Икс п ] ) Т {\ displaystyle \ operatorname {E} [\ mathbf {X}] = (\ operatorname {E} [X_ {1}],..., \ operatorname {E} [X_ {n}]) ^ {\ mathrm { T}}}

 

 

 

 

( Уравнение 2 )

Ковариация и кросс-ковариация

Определения

Ковариационная матрица (также называемый второй центральный момент или ковариационная матрица) из случайного вектора является матрица которого ( I, J) - й элемент является ковариация между я - й и с J - го случайных величин. Ковариационная матрица - это ожидаемое значение, элемент за элементом, матрицы, вычисляемой как, где верхний индекс T относится к транспонированию указанного вектора: п × 1 {\ Displaystyle п \ раз 1} п × п {\ Displaystyle п \ раз п} п × п {\ Displaystyle п \ раз п} [ Икс - E [ Икс ] ] [ Икс - E [ Икс ] ] Т {\ displaystyle [\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]] [\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]] ^ {T}}

K Икс Икс знак равно Вар [ Икс ] знак равно E [ ( Икс - E [ Икс ] ) ( Икс - E [ Икс ] ) Т ] знак равно E [ Икс Икс Т ] - E [ Икс ] E [ Икс ] Т {\ displaystyle \ operatorname {K} _ {\ mathbf {X} \ mathbf {X}} = \ operatorname {Var} [\ mathbf {X}] = \ operatorname {E} [(\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]) (\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]) ^ {T}] = \ operatorname {E} [\ mathbf {X} \ mathbf {X} ^ {T}] - \ operatorname {E} [\ mathbf {X}] \ operatorname {E} [\ mathbf {X}] ^ {T}}

 

 

 

 

( Уравнение 3 )

В более широком смысле, матрица кросс-ковариации между двумя случайными векторами и ( имеющими элементы и имеющими элементы) является матрицей Икс {\ displaystyle \ mathbf {X}} Y {\ displaystyle \ mathbf {Y}} Икс {\ displaystyle \ mathbf {X}} п {\ displaystyle n} Y {\ displaystyle \ mathbf {Y}} п {\ displaystyle p} п × п {\ Displaystyle п \ раз р}

K Икс Y знак равно Cov [ Икс , Y ] знак равно E [ ( Икс - E [ Икс ] ) ( Y - E [ Y ] ) Т ] знак равно E [ Икс Y Т ] - E [ Икс ] E [ Y ] Т {\ displaystyle \ operatorname {K} _ {\ mathbf {X} \ mathbf {Y}} = \ operatorname {Cov} [\ mathbf {X}, \ mathbf {Y}] = \ operatorname {E} [(\ mathbf {X} - \ operatorname {E} [\ mathbf {X}]) (\ mathbf {Y} - \ operatorname {E} [\ mathbf {Y}]) ^ {T}] = \ operatorname {E} [\ mathbf {X} \ mathbf {Y} ^ {T}] - \ operatorname {E} [\ mathbf {X}] \ operatorname {E} [\ mathbf {Y}] ^ {T}}

 

 

 

 

( Уравнение 4 )

где снова матричное ожидание берется поэлементно в матрице. Здесь ( i, j ) элемент - это ковариация между i- м элементом и j- м элементом. Икс {\ displaystyle \ mathbf {X}} Y {\ displaystyle \ mathbf {Y}}

Характеристики

Ковариационная матрица - это симметричная матрица, т. Е.

K Икс Икс Т знак равно K Икс Икс {\ displaystyle \ operatorname {K} _ {\ mathbf {X} \ mathbf {X}} ^ {T} = \ operatorname {K} _ {\ mathbf {X} \ mathbf {X}}}.

Ковариационная матрица - это положительно полуопределенная матрица, т. Е.

а Т K Икс Икс а 0 для всех  а р п {\ displaystyle \ mathbf {a} ^ {T} \ operatorname {K} _ {\ mathbf {X} \ mathbf {X}} \ mathbf {a} \ geq 0 \ quad {\ text {для всех}} \ mathbf {а} \ in \ mathbb {R} ^ {n}}.

Матрица кросс-ковариации - это просто транспонирование матрицы, т. Е. Cov [ Y , Икс ] {\ displaystyle \ operatorname {Cov} [\ mathbf {Y}, \ mathbf {X}]} Cov [ Икс , Y ] {\ displaystyle \ operatorname {Cov} [\ mathbf {X}, \ mathbf {Y}]}

K Y Икс знак равно K Икс Y Т {\ displaystyle \ operatorname {K} _ {\ mathbf {Y} \ mathbf {X}} = \ operatorname {K} _ {\ mathbf {X} \ mathbf {Y}} ^ {T}}.

Некоррелированность

Два случайных вектора и называются некоррелированными, если Икс знак равно ( Икс 1 , . . . , Икс м ) Т {\ Displaystyle \ mathbf {X} = (X_ {1},..., X_ {m}) ^ {T}} Y знак равно ( Y 1 , . . . , Y п ) Т {\ Displaystyle \ mathbf {Y} = (Y_ {1},..., Y_ {n}) ^ {T}}

E [ Икс Y Т ] знак равно E [ Икс ] E [ Y ] Т {\ displaystyle \ operatorname {E} [\ mathbf {X} \ mathbf {Y} ^ {T}] = \ operatorname {E} [\ mathbf {X}] \ operatorname {E} [\ mathbf {Y}] ^ {T}}.

Они некоррелированы тогда и только тогда, когда их матрица кросс-ковариации равна нулю. K Икс Y {\ displaystyle \ operatorname {K} _ {\ mathbf {X} \ mathbf {Y}}}

Корреляция и взаимная корреляция

Определения

Корреляционная матрица (также называемый второй момент ) из случайного вектора представляет собой матрицу, ( I, J) - й элемент является соотношение между я - й и J - го случайных величин. Корреляционная матрица - это ожидаемое значение, элемент за элементом, матрицы, вычисляемой как, где верхний индекс T относится к транспонированию указанного вектора: п × 1 {\ Displaystyle п \ раз 1} п × п {\ Displaystyle п \ раз п} п × п {\ Displaystyle п \ раз п} Икс Икс Т {\ Displaystyle \ mathbf {X} \ mathbf {X} ^ {T}}

р Икс Икс знак равно E [ Икс Икс Т ] {\ displaystyle \ operatorname {R} _ {\ mathbf {X} \ mathbf {X}} = \ operatorname {E} [\ mathbf {X} \ mathbf {X} ^ {\ mathrm {T}}]}

 

 

 

 

( Уравнение 5 )

В более широком смысле, матрица взаимной корреляции между двумя случайными векторами и ( имеющими элементы и имеющими элементы) является матрицей Икс {\ displaystyle \ mathbf {X}} Y {\ displaystyle \ mathbf {Y}} Икс {\ displaystyle \ mathbf {X}} п {\ displaystyle n} Y {\ displaystyle \ mathbf {Y}} п {\ displaystyle p} п × п {\ Displaystyle п \ раз р}

р Икс Y знак равно E [ Икс Y Т ] {\ displaystyle \ operatorname {R} _ {\ mathbf {X} \ mathbf {Y}} = \ operatorname {E} [\ mathbf {X} \ mathbf {Y} ^ {T}]}

 

 

 

 

( Уравнение 6 )

Характеристики

Корреляционная матрица связана с ковариационной матрицей соотношением

р Икс Икс знак равно K Икс Икс + E [ Икс ] E [ Икс ] Т {\ displaystyle \ operatorname {R} _ {\ mathbf {X} \ mathbf {X}} = \ operatorname {K} _ {\ mathbf {X} \ mathbf {X}} + \ operatorname {E} [\ mathbf { X}] \ operatorname {E} [\ mathbf {X}] ^ {T}}.

Аналогично для матрицы взаимной корреляции и матрицы кросс-ковариации:

р Икс Y знак равно K Икс Y + E [ Икс ] E [ Y ] Т {\ displaystyle \ operatorname {R} _ {\ mathbf {X} \ mathbf {Y}} = \ operatorname {K} _ {\ mathbf {X} \ mathbf {Y}} + \ operatorname {E} [\ mathbf { X}] \ operatorname {E} [\ mathbf {Y}] ^ {T}}

Ортогональность

Два случайных вектора одинакового размера и называются ортогональными, если Икс знак равно ( Икс 1 , . . . , Икс п ) Т {\ Displaystyle \ mathbf {X} = (X_ {1},..., X_ {n}) ^ {T}} Y знак равно ( Y 1 , . . . , Y п ) Т {\ Displaystyle \ mathbf {Y} = (Y_ {1},..., Y_ {n}) ^ {T}}

E [ Икс Т Y ] знак равно 0 {\ Displaystyle \ OperatorName {E} [\ mathbf {X} ^ {T} \ mathbf {Y}] = 0}.

Независимость

Основная статья: Независимость (теория вероятностей)

Два случайных вектора и называются независимыми, если для всех и Икс {\ displaystyle \ mathbf {X}} Y {\ displaystyle \ mathbf {Y}} Икс {\ displaystyle \ mathbf {x}} y {\ displaystyle \ mathbf {y}}

F Икс , Y ( Икс , y ) знак равно F Икс ( Икс ) F Y ( y ) {\ displaystyle F _ {\ mathbf {X, Y}} (\ mathbf {x, y}) = F _ {\ mathbf {X}} (\ mathbf {x}) \ cdot F _ {\ mathbf {Y}} (\ mathbf {y})}

где и обозначают кумулятивные функции распределения и, а обозначают их совместную кумулятивную функцию распределения. Независимость от и часто обозначается как. Написаны покомпонентно и называются независимыми, если для всех F Икс ( Икс ) {\ Displaystyle F _ {\ mathbf {X}} (\ mathbf {x})} F Y ( y ) {\ Displaystyle F _ {\ mathbf {Y}} (\ mathbf {y})} Икс {\ displaystyle \ mathbf {X}} Y {\ displaystyle \ mathbf {Y}} F Икс , Y ( Икс , y ) {\ Displaystyle F _ {\ mathbf {X, Y}} (\ mathbf {x, y})} Икс {\ displaystyle \ mathbf {X}} Y {\ displaystyle \ mathbf {Y}} Икс Y {\ Displaystyle \ mathbf {X} \ перп \! \! \! \ перп \ mathbf {Y}} Икс {\ displaystyle \ mathbf {X}} Y {\ displaystyle \ mathbf {Y}} Икс 1 , , Икс м , y 1 , , y п {\ displaystyle x_ {1}, \ ldots, x_ {m}, y_ {1}, \ ldots, y_ {n}}

F Икс 1 , , Икс м , Y 1 , , Y п ( Икс 1 , , Икс м , y 1 , , y п ) знак равно F Икс 1 , , Икс м ( Икс 1 , , Икс м ) F Y 1 , , Y п ( y 1 , , y п ) {\ Displaystyle F_ {X_ {1}, \ ldots, X_ {m}, Y_ {1}, \ ldots, Y_ {n}} (x_ {1}, \ ldots, x_ {m}, y_ {1}, \ ldots, y_ {n}) = F_ {X_ {1}, \ ldots, X_ {m}} (x_ {1}, \ ldots, x_ {m}) \ cdot F_ {Y_ {1}, \ ldots, Y_ {n}} (y_ {1}, \ ldots, y_ {n})}.

Характеристическая функция

Характеристическая функция случайного вектора с компонентами является функцией, которая отображает каждый вектор в комплексное число. Это определяется Икс {\ displaystyle \ mathbf {X}} п {\ displaystyle n} р п C {\ displaystyle \ mathbb {R} ^ {n} \ to \ mathbb {C}} ω знак равно ( ω 1 , , ω п ) Т {\ Displaystyle \ mathbf {\ omega} = (\ omega _ {1}, \ ldots, \ omega _ {n}) ^ {T}}

φ Икс ( ω ) знак равно E [ е я ( ω Т Икс ) ] знак равно E [ е я ( ω 1 Икс 1 + + ω п Икс п ) ] {\ displaystyle \ varphi _ {\ mathbf {X}} (\ mathbf {\ omega}) = \ operatorname {E} \ left [e ^ {i (\ mathbf {\ omega} ^ {T} \ mathbf {X}))} \ right] = \ operatorname {E} \ left [e ^ {i (\ omega _ {1} X_ {1} + \ ldots + \ omega _ {n} X_ {n})} \ right]}.

Другие свойства

Ожидание квадратичной формы

Можно получить математическое ожидание квадратичной формы в случайном векторе следующим образом: Икс {\ displaystyle \ mathbf {X}}

E [ Икс Т А Икс ] знак равно E [ Икс ] Т А E [ Икс ] + tr ( А K Икс Икс ) , {\ displaystyle \ operatorname {E} [\ mathbf {X} ^ {T} A \ mathbf {X}] = \ operatorname {E} [\ mathbf {X}] ^ {T} A \ operatorname {E} [\ mathbf {X}] + \ operatorname {tr} (AK _ {\ mathbf {X} \ mathbf {X}}),}

где - ковариационная матрица и относится к следу матрицы, то есть к сумме элементов на ее главной диагонали (сверху слева направо вниз). Поскольку квадратичная форма является скаляром, то же самое и ее математическое ожидание. K Икс Икс {\ Displaystyle К _ {\ mathbf {X} \ mathbf {X}}} Икс {\ displaystyle \ mathbf {X}} tr {\ displaystyle \ operatorname {tr}}

Доказательство : Позвольте быть случайным вектором с и и пусть быть нестохастической матрицей. z {\ displaystyle \ mathbf {z}} м × 1 {\ displaystyle m \ times 1} E [ z ] знак равно μ {\ Displaystyle \ OperatorName {E} [\ mathbf {z}] = \ mu} Cov [ z ] знак равно V {\ Displaystyle \ OperatorName {Cov} [\ mathbf {z}] = V} А {\ displaystyle A} м × м {\ displaystyle m \ times m}

Затем, исходя из формулы ковариации, если мы обозначим и, мы увидим, что: z Т знак равно Икс {\ Displaystyle \ mathbf {z} ^ {T} = \ mathbf {X}} z Т А Т знак равно Y {\ Displaystyle \ mathbf {z} ^ {T} A ^ {T} = \ mathbf {Y}}

Cov [ Икс , Y ] знак равно E [ Икс Y Т ] - E [ Икс ] E [ Y ] Т {\ displaystyle \ operatorname {Cov} [\ mathbf {X}, \ mathbf {Y}] = \ operatorname {E} [\ mathbf {X} \ mathbf {Y} ^ {T}] - \ operatorname {E} [ \ mathbf {X}] \ operatorname {E} [\ mathbf {Y}] ^ {T}}

Следовательно

E [ Икс Y Т ] знак равно Cov [ Икс , Y ] + E [ Икс ] E [ Y ] Т E [ z Т А z ] знак равно Cov [ z Т , z Т А Т ] + E [ z Т ] E [ z Т А Т ] Т знак равно Cov [ z Т , z Т А Т ] + μ Т ( μ Т А Т ) Т знак равно Cov [ z Т , z Т А Т ] + μ Т А μ , {\ displaystyle {\ begin {align} \ operatorname {E} [XY ^ {T}] amp; = \ operatorname {Cov} [X, Y] + \ operatorname {E} [X] \ operatorname {E} [Y] ^ {T} \\\ operatorname {E} [z ^ {T} Az] amp; = \ operatorname {Cov} [z ^ {T}, z ^ {T} A ^ {T}] + \ operatorname {E} [z ^ {T}] \ operatorname {E} [z ^ {T} A ^ {T}] ^ {T} \\ amp; = \ operatorname {Cov} [z ^ {T}, z ^ {T} A ^ {T}] + \ mu ^ {T} (\ mu ^ {T} A ^ {T}) ^ {T} \\ amp; = \ operatorname {Cov} [z ^ {T}, z ^ {T} A ^ {T}] + \ mu ^ {T} A \ mu, \ end {align}}}

что оставляет нам показать, что

Cov [ z Т , z Т А Т ] знак равно tr ( А V ) . {\ displaystyle \ operatorname {Cov} [z ^ {T}, z ^ {T} A ^ {T}] = \ operatorname {tr} (AV).}

Это верно на основании того факта, что можно циклически переставлять матрицы при взятии трассировки без изменения конечного результата (например:). tr ( А B ) знак равно tr ( B А ) {\ Displaystyle \ OperatorName {tr} (AB) = \ OperatorName {tr} (BA)}

Мы видим что

Cov [ z Т , z Т А Т ] знак равно E [ ( z Т - E ( z Т ) ) ( z Т А Т - E ( z Т А Т ) ) Т ] знак равно E [ ( z Т - μ Т ) ( z Т А Т - μ Т А Т ) Т ] знак равно E [ ( z - μ ) Т ( А z - А μ ) ] . {\ displaystyle {\ begin {align} \ operatorname {Cov} [z ^ {T}, z ^ {T} A ^ {T}] amp; = \ operatorname {E} \ left [\ left (z ^ {T} -E (z ^ {T}) \ right) \ left (z ^ {T} A ^ {T} -E \ left (z ^ {T} A ^ {T} \ right) \ right) ^ {T} \ right] \\ amp; = \ operatorname {E} \ left [(z ^ {T} - \ mu ^ {T}) (z ^ {T} A ^ {T} - \ mu ^ {T} A ^ { T}) ^ {T} \ right] \\ amp; = \ operatorname {E} \ left [(z- \ mu) ^ {T} (Az-A \ mu) \ right]. \ End {выравнивается}}}

И с тех пор

( z - μ ) Т ( А z - А μ ) {\ displaystyle \ left ({z- \ mu} \ right) ^ {T} \ left ({Az-A \ mu} \ right)}

является скаляром, то

( z - μ ) Т ( А z - А μ ) знак равно tr ( ( z - μ ) Т ( А z - А μ ) ) знак равно tr ( ( z - μ ) Т А ( z - μ ) ) {\ displaystyle (z- \ mu) ^ {T} (Az-A \ mu) = \ operatorname {tr} \ left ({(z- \ mu) ^ {T} (Az-A \ mu)} \ right) = \ OperatorName {tr} \ left ((z- \ mu) ^ {T} A (z- \ mu) \ right)}

тривиально. Используя перестановку, получаем:

tr ( ( z - μ ) Т А ( z - μ ) ) знак равно tr ( А ( z - μ ) ( z - μ ) Т ) , {\ Displaystyle \ OperatorName {tr} \ left ({(z- \ mu) ^ {T} A (z- \ mu)} \ right) = \ operatorname {tr} \ left ({A (z- \ mu) (z- \ mu) ^ {T}} \ right),}

и вставив это в исходную формулу, мы получим:

Cov [ z Т , z Т А Т ] знак равно E [ ( z - μ ) Т ( А z - А μ ) ] знак равно E [ tr ( А ( z - μ ) ( z - μ ) Т ) ] знак равно tr ( А E ( ( z - μ ) ( z - μ ) Т ) ) знак равно tr ( А V ) . {\ displaystyle {\ begin {align} \ operatorname {Cov} \ left [{z ^ {T}, z ^ {T} A ^ {T}} \ right] amp; = E \ left [{\ left ({z - \ mu} \ right) ^ {T} (Az-A \ mu)} \ right] \\ amp; = E \ left [\ operatorname {tr} \ left (A (z- \ mu) (z- \ mu)) ^ {T} \ right) \ right] \\ amp; = \ operatorname {tr} \ left ({A \ cdot \ operatorname {E} \ left ((z- \ mu) (z- \ mu) ^ {T } \ right)} \ right) \\ amp; = \ operatorname {tr} (AV). \ end {align}}}

Ожидание произведения двух различных квадратичных форм

Можно получить математическое ожидание произведения двух различных квадратичных форм в гауссовском случайном векторе с нулевым средним следующим образом: Икс {\ displaystyle \ mathbf {X}}

E [ ( Икс Т А Икс ) ( Икс Т B Икс ) ] знак равно 2 tr ( А K Икс Икс B K Икс Икс ) + tr ( А K Икс Икс ) tr ( B K Икс Икс ) {\ Displaystyle \ OperatorName {E} \ left [(\ mathbf {X} ^ {T} A \ mathbf {X}) (\ mathbf {X} ^ {T} B \ mathbf {X}) \ right] = 2 \ operatorname {tr} (AK _ {\ mathbf {X} \ mathbf {X}} BK _ {\ mathbf {X} \ mathbf {X}}) + \ operatorname {tr} (AK _ {\ mathbf {X} \ mathbf { X}}) \ operatorname {tr} (BK _ {\ mathbf {X} \ mathbf {X}})}

где снова - ковариационная матрица. Опять же, поскольку обе квадратичные формы являются скалярами и, следовательно, их произведение является скаляром, математическое ожидание их произведения также является скаляром. K Икс Икс {\ Displaystyle К _ {\ mathbf {X} \ mathbf {X}}} Икс {\ displaystyle \ mathbf {X}}

Приложения

Теория портфолио

В теории портфелей в финансах цель часто состоит в том, чтобы выбрать портфель рискованных активов так, чтобы распределение случайной доходности портфеля имело желаемые свойства. Например, можно выбрать доходность портфеля, имеющую наименьшую дисперсию для данного ожидаемого значения. Здесь случайный вектор - это вектор случайной доходности отдельных активов, а доходность портфеля p (случайный скаляр) - это внутреннее произведение вектора случайной доходности на вектор w весов портфеля - долей портфеля, помещенных в соответствующие активы. Поскольку p = w T, ожидаемое значение доходности портфеля равно w T E (), и можно показать, что дисперсия доходности портфеля равна w T C w, где C - ковариационная матрица. р {\ displaystyle \ mathbf {r}} р {\ displaystyle \ mathbf {r}} р {\ displaystyle \ mathbf {r}} р {\ displaystyle \ mathbf {r}}

Теория регрессии

В теории линейной регрессии у нас есть данные о n наблюдениях для зависимой переменной y и n наблюдениях для каждой из k независимых переменных x j. Наблюдения за зависимой переменной складываются в вектор-столбец y ; наблюдения по каждой независимой переменной также складываются в векторы-столбцы, и эти последние векторы-столбцы объединяются в матрицу плана X (не обозначающую случайный вектор в этом контексте) наблюдений за независимыми переменными. Затем постулируется следующее уравнение регрессии как описание процесса, в результате которого были получены данные:

y знак равно Икс β + е , {\ Displaystyle у = Х \ бета + е,}

где β - постулируемый фиксированный, но неизвестный вектор k коэффициентов отклика, а e - неизвестный случайный вектор, отражающий случайные влияния на зависимую переменную. С помощью некоторой выбранной техники, такой как обычный метод наименьших квадратов, вектор выбирается в качестве оценки β, а оценка вектора e, обозначенная, вычисляется как β ^ {\ displaystyle {\ hat {\ beta}}} е ^ {\ displaystyle {\ hat {e}}}

е ^ знак равно y - Икс β ^ . {\ displaystyle {\ hat {e}} = yX {\ hat {\ beta}}.}

Затем статистик должен проанализировать свойства и, которые рассматриваются как случайные векторы, поскольку случайный выбор n наблюдений привел бы к другим значениям для них. β ^ {\ displaystyle {\ hat {\ beta}}} е ^ {\ displaystyle {\ hat {e}}}

Векторный временной ряд

Эволюцию случайного вектора k × 1 во времени можно смоделировать как векторную авторегрессию (VAR) следующим образом: Икс {\ displaystyle \ mathbf {X}}

Икс т знак равно c + А 1 Икс т - 1 + А 2 Икс т - 2 + + А п Икс т - п + е т , {\ displaystyle \ mathbf {X} _ {t} = c + A_ {1} \ mathbf {X} _ {t-1} + A_ {2} \ mathbf {X} _ {t-2} + \ cdots + A_ {p} \ mathbf {X} _ {tp} + \ mathbf {e} _ {t}, \,}

где я - периоды обратных вектора наблюдения называются я -й отставание, с является к  × 1 вектор констант ( перехваты ), я являюсь стационарен к  ×  K матрица и является к  × 1 случайный вектора условий ошибки. Икс т - я {\ displaystyle \ mathbf {X} _ {ti}} Икс {\ displaystyle \ mathbf {X}} е т {\ displaystyle \ mathbf {e} _ {t}}

использованная литература

дальнейшее чтение

  • Старк, Генри; Вудс, Джон В. (2012). «Случайные векторы». Вероятность, статистика и случайные процессы для инженеров (четвертое изд.). Пирсон. С. 295–339. ISBN   978-0-13-231123-6.
Последняя правка сделана 2023-03-21 04:31:54
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте