Теорема Кохрана

редактировать

В статистике, теорема Кохрено, разработанный Уильям Г. Кокрэн, является теорема используется для обоснования результатов, относящихся к вероятностным распределениям статистики, которые используются в дисперсионном анализе.

СОДЕРЖАНИЕ
  • 1 Заявление
    • 1.1 Доказательство
  • 2 Примеры
    • 2.1 Выборочное среднее и выборочная дисперсия
    • 2.2 Распространение
    • 2.3 Оценка дисперсии
  • 3 Альтернативная формулировка
  • 4 См. Также
  • 5 ссылки
Заявление

Пусть U 1,..., U N являются IID стандартными нормально распределенными случайными величинами, и являются неотрицательно матрицей с. Далее предположим, что, где г я есть ранг из. Если мы напишем B ( 1 ) , B ( 2 ) , , B ( k ) {\ Displaystyle В ^ {(1)}, В ^ {(2)}, \ ldots, В ^ {(к)}} я знак равно 1 k B ( я ) знак равно я N {\ Displaystyle \ сумма _ {я = 1} ^ {k} B ^ {(я)} = I_ {N}} р 1 + + р k знак равно N {\ displaystyle r_ {1} + \ cdots + r_ {k} = N} B ( я ) {\ Displaystyle B ^ {(я)}}

Q я знак равно j знак равно 1 N знак равно 1 N U j B j , ( я ) U {\ Displaystyle Q_ {я} = \ сумма _ {j = 1} ^ {N} \ sum _ {\ ell = 1} ^ {N} U_ {j} B_ {j, \ ell} ^ {(i)} U _ {\ ell}}

так что Q я являются квадратичные формы, то теорема Кохрена утверждает, что Q я являются независимыми, и каждый из Q я имеет распределение хи-квадрат с т я степенями свободы.

Менее формально, это количество линейных комбинаций, включенных в сумму квадратов, определяющих Q i, при условии, что эти линейные комбинации линейно независимы.

Доказательство

Сначала мы покажем, что матрицы B ( i) могут быть одновременно диагонализованы и что все их ненулевые собственные значения равны +1. Затем мы используем векторный базис, который их диагонализирует, чтобы упростить их характеристическую функцию и показать их независимость и распределение.

Каждая из матриц B ( i) имеет ранг r i и, следовательно, r i ненулевых собственных значений. Для каждого i сумма имеет не более ранг. Так как отсюда следует, что C (i) имеет ранг N  -  r i. C ( я ) j я B ( j ) {\ Displaystyle С ^ {(я)} \ эквив \ сумма _ {j \ neq i} B ^ {(j)}} j я р j знак равно N - р я {\ displaystyle \ sum _ {j \ neq i} r_ {j} = N-r_ {i}} B ( я ) + C ( я ) знак равно я N × N {\ Displaystyle В ^ {(я)} + С ^ {(я)} = I_ {N \ раз N}}

Следовательно, B ( i) и C ( i) могут быть диагонализованы одновременно. Это можно показать, сначала диагонализуя B ( i). В этой основе он имеет вид:

[ λ 1 0 0 0 0 λ 2 0 0 0 0 λ р я 0 0 0 0 0 ] . {\ displaystyle {\ begin {bmatrix} \ lambda _ {1} amp; 0 amp; 0 amp; \ cdots amp; \ cdots amp;amp; 0 \\ 0 amp; \ lambda _ {2} amp; 0 amp; \ cdots amp; \ cdots amp;amp; 0 \\ 0 amp; 0 amp; \ ddots amp;amp;amp;amp; \ vdots \\\ vdots amp; \ vdots amp;amp; \ lambda _ {r_ {i}} amp;amp; \\\ vdots amp; \ vdots amp;amp;amp; 0 amp; \\ 0 amp; \ vdots amp;amp;amp;amp; \ ddots \\ 0 amp; 0 amp; \ ldots amp;amp;amp;amp; 0 \ end {bmatrix}}.}

Таким образом, нижние строки равны нулю. Поскольку отсюда следует, что эти строки в C (i) в этом базисе содержат правый блок, который является единичной матрицей, с нулями в остальных этих строках. Но поскольку C (i) имеет ранг N  -  r i, в другом месте он должен быть равен нулю. Таким образом, диагональна и в этом базисе. Отсюда следует, что все ненулевые собственные значения как B (i), так и C (i) равны +1. Более того, приведенный выше анализ можно повторить в диагональном базисе для. В этом базисе есть тождество векторного пространства, поэтому оба B (2) и одновременно диагонализуемы в этом векторном пространстве (и, следовательно, также вместе с B (1)). Из итераций следует, что все B -s одновременно диагонализируемы. ( N - р я ) {\ displaystyle (N-r_ {i})} C ( я ) знак равно я - B ( я ) {\ Displaystyle C ^ {(я)} = IB ^ {(я)}} ( N - р я ) × ( N - р я ) {\ Displaystyle (Н-р_ {я}) \ раз (Н-р_ {я})} C ( 1 ) знак равно B ( 2 ) + j gt; 2 B ( j ) {\ Displaystyle C ^ {(1)} = B ^ {(2)} + \ sum _ {jgt; 2} B ^ {(j)}} C ( 1 ) {\ displaystyle C ^ {(1)}} ( N - р 1 ) × ( N - р 1 ) {\ Displaystyle (Н-р_ {1}) \ раз (Н-р_ {1})} j gt; 2 B ( j ) {\ Displaystyle \ сумма _ {jgt; 2} B ^ {(j)}}

Таким образом, существует ортогональная матрица таких, что для всех, диагоналей, где любой элемент с индексами, равен 1, в то время как любая запись с другими индексами равно 0. S {\ displaystyle S} я {\ displaystyle i} S Т B ( я ) S B ( я ) {\ Displaystyle S ^ {\ mathrm {T}} B ^ {(я)} S \ Equiv B ^ {(i) \ prime}} B Икс , у ( я ) {\ Displaystyle В_ {х, у} ^ {(я) \ прайм}} Икс знак равно у {\ displaystyle x = y} j знак равно 1 я - 1 р j lt; Икс знак равно у j знак равно 1 я р j {\ displaystyle \ sum _ {j = 1} ^ {i-1} r_ {j} lt;x = y \ leq \ sum _ {j = 1} ^ {i} r_ {j}}

Позвольте обозначить некоторую конкретную линейную комбинацию всех после преобразования через. Обратите внимание, что из-за сохранения длины ортогональной матрицы S якобиан линейного преобразования является матрицей, связанной с самим линейным преобразованием, и что определитель ортогональной матрицы имеет модуль 1. U я {\ Displaystyle U_ {я} ^ {\ prime}} U я {\ displaystyle U_ {i}} S {\ displaystyle S} я знак равно 1 N ( U я ) 2 знак равно я знак равно 1 N U я 2 {\ displaystyle \ sum _ {я = 1} ^ {N} (U_ {i} ^ {\ prime}) ^ {2} = \ sum _ {i = 1} ^ {N} U_ {i} ^ {2 }}

Характеристическая функция Q i:

φ я ( т ) знак равно ( 2 π ) - N / 2 d ты 1 d ты 2 d ты N е я т Q я е - ты 1 2 / 2 е - ты 2 2 / 2 е - ты N 2 / 2 знак равно ( 2 π ) - N / 2 ( j знак равно 1 N d ты j ) е я т Q я е - j знак равно 1 N ты j 2 / 2 знак равно ( 2 π ) - N / 2 ( j знак равно 1 N d ты j ) е я т м знак равно р 1 + + р я - 1 + 1 р 1 + + р я ( ты м ) 2 е - j знак равно 1 N ты j 2 / 2 знак равно ( 2 π ) - N / 2 ( е ты 2 ( я т - 1 2 ) d ты ) р я ( е - ты 2 2 d ты ) N - р я знак равно ( 1 - 2 я т ) - р я / 2 {\ Displaystyle {\ begin {align} \ varphi _ {i} (t) = {} amp; (2 \ pi) ^ {- N / 2} \ int du_ {1} \ int du_ {2} \ cdots \ int du_ {N} e ^ {itQ_ {i}} \ cdot e ^ {- u_ {1} ^ {2} / 2} \ cdot e ^ {- u_ {2} ^ {2} / 2} \ cdots e ^ {-u_ {N} ^ {2} / 2} \\ = {} amp; (2 \ pi) ^ {- N / 2} \ left (\ prod _ {j = 1} ^ {N} \ int du_ { j} \ right) e ^ {itQ_ {i}} \ cdot e ^ {- \ sum _ {j = 1} ^ {N} u_ {j} ^ {2} / 2} \\ = {} amp; (2 \ pi) ^ {- N / 2} \ left (\ prod _ {j = 1} ^ {N} \ int du_ {j} ^ {\ prime} \ right) e ^ {it \ cdot \ sum _ {m = r_ {1} + \ cdots + r_ {i-1} +1} ^ {r_ {1} + \ cdots + r_ {i}} (u_ {m} ^ {\ prime}) ^ {2}} \ cdot e ^ {- \ sum _ {j = 1} ^ {N} {u_ {j} ^ {\ prime}} ^ {2} / 2} \\ = {} amp; (2 \ pi) ^ {- N / 2} \ left (\ int e ^ {u ^ {2} (it - {\ frac {1} {2}})} du \ right) ^ {r_ {i}} \ left (\ int e ^ { - {\ frac {u ^ {2}} {2}}} du \ right) ^ {N-r_ {i}} \\ = {} amp; (1-2it) ^ {- r_ {i} / 2} \ конец {выровнено}}}

Это преобразование Фурье от распределения хи-квадрат с т я степенями свободы. Следовательно, это распределение Q i.

Более того, характеристическая функция совместного распределения всех Q i s равна:

φ ( т 1 , т 2 , , т k ) знак равно ( 2 π ) - N / 2 ( j знак равно 1 N d U j ) е я я знак равно 1 k т я Q я е - j знак равно 1 N U j 2 / 2 знак равно ( 2 π ) - N / 2 ( j знак равно 1 N d U j ) е я я знак равно 1 k т я k знак равно р 1 + + р я - 1 + 1 р 1 + + р я ( U k ) 2 е - j знак равно 1 N U j 2 / 2 знак равно ( 2 π ) - N / 2 я знак равно 1 k ( е ты 2 ( я т я - 1 2 ) d ты ) р я знак равно я знак равно 1 k ( 1 - 2 я т я ) - р я / 2 знак равно я знак равно 1 k φ я ( т я ) {\ displaystyle {\ begin {align} \ varphi (t_ {1}, t_ {2}, \ ldots, t_ {k}) amp; = (2 \ pi) ^ {- N / 2} \ left (\ prod _ {j = 1} ^ {N} \ int dU_ {j} \ right) e ^ {i \ sum _ {i = 1} ^ {k} t_ {i} \ cdot Q_ {i}} \ cdot e ^ { - \ sum _ {j = 1} ^ {N} U_ {j} ^ {2} / 2} \\ amp; = (2 \ pi) ^ {- N / 2} \ left (\ prod _ {j = 1 } ^ {N} \ int dU_ {j} ^ {\ prime} \ right) e ^ {i \ cdot \ sum _ {i = 1} ^ {k} t_ {i} \ sum _ {k = r_ {1 } + \ cdots + r_ {i-1} +1} ^ {r_ {1} + \ cdots + r_ {i}} (U_ {k} ^ {\ prime}) ^ {2}} \ cdot e ^ { - \ sum _ {j = 1} ^ {N} {U_ {j} ^ {\ prime}} ^ {2} / 2} \\ amp; = (2 \ pi) ^ {- N / 2} \ prod _ {i = 1} ^ {k} \ left (\ int e ^ {u ^ {2} (it_ {i} - {\ frac {1} {2}})} du \ right) ^ {r_ {i} } \\ amp; = \ prod _ {i = 1} ^ {k} (1-2it_ {i}) ^ {- r_ {i} / 2} = \ prod _ {i = 1} ^ {k} \ varphi _ {i} (t_ {i}) \ end {align}}}

Из этого следует, что все Q i независимы.

Примеры

Среднее значение выборки и дисперсия выборки

Если X 1,..., X n - независимые нормально распределенные случайные величины со средним μ и стандартным отклонением σ, то

U я знак равно Икс я - μ σ {\ displaystyle U_ {i} = {\ frac {X_ {i} - \ mu} {\ sigma}}}

является стандартным нормальным для каждого I. Обратите внимание, что общий Q равен сумме квадратов U s, как показано здесь:

я Q я знак равно я j k U j B j k ( я ) U k знак равно j k U j U k я B j k ( я ) знак равно j k U j U k δ j k знак равно j U j 2 {\ displaystyle \ sum _ {i} Q_ {i} = \ sum _ {ijk} U_ {j} B_ {jk} ^ {(i)} U_ {k} = \ sum _ {jk} U_ {j} U_ {k} \ sum _ {i} B_ {jk} ^ {(i)} = \ sum _ {jk} U_ {j} U_ {k} \ delta _ {jk} = \ sum _ {j} U_ {j } ^ {2}}

что вытекает из исходного предположения, что. Поэтому вместо этого мы вычислим это количество и позже разделим его на Q i. Можно написать B 1 + B 2 знак равно я {\ Displaystyle B_ {1} + B_ {2} \ ldots = I}

я знак равно 1 п U я 2 знак равно я знак равно 1 п ( Икс я - Икс ¯ σ ) 2 + п ( Икс ¯ - μ σ ) 2 {\ displaystyle \ sum _ {i = 1} ^ {n} U_ {i} ^ {2} = \ sum _ {i = 1} ^ {n} \ left ({\ frac {X_ {i} - {\ overline {X}}} {\ sigma}} \ right) ^ {2} + n \ left ({\ frac {{\ overline {X}} - \ mu} {\ sigma}} \ right) ^ {2} }

(здесь это выборочное среднее ). Чтобы увидеть эту идентичность, умножьте все на и обратите внимание, что Икс ¯ {\ displaystyle {\ overline {X}}} σ 2 {\ displaystyle \ sigma ^ {2}}

( Икс я - μ ) 2 знак равно ( Икс я - Икс ¯ + Икс ¯ - μ ) 2 {\ displaystyle \ sum (X_ {i} - \ mu) ^ {2} = \ sum (X_ {i} - {\ overline {X}} + {\ overline {X}} - \ mu) ^ {2} }

и развернуть, чтобы дать

( Икс я - μ ) 2 знак равно ( Икс я - Икс ¯ ) 2 + ( Икс ¯ - μ ) 2 + 2 ( Икс я - Икс ¯ ) ( Икс ¯ - μ ) . {\ displaystyle \ sum (X_ {i} - \ mu) ^ {2} = \ sum (X_ {i} - {\ overline {X}}) ^ {2} + \ sum ({\ overline {X}} - \ mu) ^ {2} +2 \ sum (X_ {i} - {\ overline {X}}) ({\ overline {X}} - \ mu).}

Третий член равен нулю, потому что он равен константе, умноженной на

( Икс ¯ - Икс я ) знак равно 0 , {\ displaystyle \ sum ({\ overline {X}} - X_ {i}) = 0,}

а второй член состоит всего из n одинаковых терминов, сложенных вместе. Таким образом

( Икс я - μ ) 2 знак равно ( Икс я - Икс ¯ ) 2 + п ( Икс ¯ - μ ) 2 , {\ displaystyle \ sum (X_ {i} - \ mu) ^ {2} = \ sum (X_ {i} - {\ overline {X}}) ^ {2} + n ({\ overline {X}} - \ mu) ^ {2},}

и, следовательно

( Икс я - μ σ ) 2 знак равно ( Икс я - Икс ¯ σ ) 2 + п ( Икс ¯ - μ σ ) 2 знак равно я ( U я - 1 п j U j ) 2 Q 1 + 1 п ( j U j ) 2 Q 2 знак равно Q 1 + Q 2 . {\ displaystyle \ sum \ left ({\ frac {X_ {i} - \ mu} {\ sigma}} \ right) ^ {2} = \ sum \ left ({\ frac {X_ {i} - {\ overline) {X}}} {\ sigma}} \ right) ^ {2} + n \ left ({\ frac {{\ overline {X}} - \ mu} {\ sigma}} \ right) ^ {2} = \ overbrace {\ sum _ {i} \ left (U_ {i} - {\ frac {1} {n}} \ sum _ {j} {U_ {j}} \ right) ^ {2}} ^ {Q_ {1}} + \ overbrace {{\ frac {1} {n}} \ left (\ sum _ {j} {U_ {j}} \ right) ^ {2}} ^ {Q_ {2}} = Q_ {1} + Q_ {2}.}

Теперь с с матрицей из них, который имеет ранг 1. В свою очередь , учитывая, что. Это выражение также можно получить, раскрыв матричные обозначения. Можно показать, что ранг равен, поскольку сложение всех его строк равно нулю. Таким образом, условия теоремы Кохрана выполнены. B ( 2 ) знак равно J п п {\ displaystyle B ^ {(2)} = {\ frac {J_ {n}} {n}}} J п {\ displaystyle J_ {n}} B ( 1 ) знак равно я п - J п п {\ displaystyle B ^ {(1)} = I_ {n} - {\ frac {J_ {n}} {n}}} я п знак равно B ( 1 ) + B ( 2 ) {\ Displaystyle I_ {п} = В ^ {(1)} + В ^ {(2)}} Q 1 {\ displaystyle Q_ {1}} B ( 1 ) {\ displaystyle B ^ {(1)}} п - 1 {\ displaystyle n-1}

Затем теорема Кохрана утверждает, что Q 1 и Q 2 независимы, с распределениями хи-квадрат с n - 1 и 1 степенью свободы соответственно. Это показывает, что выборочное среднее и выборочная дисперсия независимы. Это также можно показать с помощью теоремы Басу, и на самом деле это свойство характеризует нормальное распределение - поскольку никакое другое распределение не зависит от выборочного среднего и выборочной дисперсии.

Распределения

Результат для распределений символически записывается как

( Икс я - Икс ¯ ) 2 σ 2 χ п - 1 2 . {\ displaystyle \ sum \ left (X_ {i} - {\ overline {X}} \ right) ^ {2} \ sim \ sigma ^ {2} \ chi _ {n-1} ^ {2}.}
п ( Икс ¯ - μ ) 2 σ 2 χ 1 2 , {\ displaystyle n ({\ overline {X}} - \ mu) ^ {2} \ sim \ sigma ^ {2} \ chi _ {1} ^ {2},}

Обе эти случайные величины пропорциональны истинной, но неизвестной дисперсии σ 2. Таким образом, их соотношение не зависит от σ 2 и, поскольку они статистически независимы. Распределение их отношения дается формулой

п ( Икс ¯ - μ ) 2 1 п - 1 ( Икс я - Икс ¯ ) 2 χ 1 2 1 п - 1 χ п - 1 2 F 1 , п - 1 {\ displaystyle {\ frac {n \ left ({\ overline {X}} - \ mu \ right) ^ {2}} {{\ frac {1} {n-1}} \ sum \ left (X_ {i } - {\ overline {X}} \ right) ^ {2}}} \ sim {\ frac {\ chi _ {1} ^ {2}} {{\ frac {1} {n-1}} \ chi _ {n-1} ^ {2}}} \ sim F_ {1, n-1}}

где F 1, n  - 1 - F-распределение с 1 и n  - 1 степенями свободы (см. также t-распределение Стьюдента ). Последним шагом здесь является определение случайной величины, имеющей F-распределение.

Оценка дисперсии

Для оценки дисперсии σ 2 иногда используется одна оценка, которая представляет собой оценку максимального правдоподобия дисперсии нормального распределения.

σ ^ 2 знак равно 1 п ( Икс я - Икс ¯ ) 2 . {\ displaystyle {\ widehat {\ sigma}} ^ {2} = {\ frac {1} {n}} \ sum \ left (X_ {i} - {\ overline {X}} \ right) ^ {2}.}

Теорема Кохрана показывает, что

п σ ^ 2 σ 2 χ п - 1 2 {\ displaystyle {\ frac {n {\ widehat {\ sigma}} ^ {2}} {\ sigma ^ {2}}} \ sim \ chi _ {n-1} ^ {2}}

а свойства распределения хи-квадрат показывают, что

E ( п σ ^ 2 σ 2 ) знак равно E ( χ п - 1 2 ) п σ 2 E ( σ ^ 2 ) знак равно ( п - 1 ) E ( σ ^ 2 ) знак равно σ 2 ( п - 1 ) п {\ displaystyle {\ begin {align} E \ left ({\ frac {n {\ widehat {\ sigma}} ^ {2}} {\ sigma ^ {2}}} \ right) amp; = E \ left (\ chi _ {n-1} ^ {2} \ right) \\ {\ frac {n} {\ sigma ^ {2}}} E \ left ({\ widehat {\ sigma}} ^ {2} \ right) amp; = (n-1) \\ E \ left ({\ widehat {\ sigma}} ^ {2} \ right) amp; = {\ frac {\ sigma ^ {2} (n-1)} {n}} \ конец {выровнено}}}
Альтернативная формулировка

Следующая версия часто встречается при рассмотрении линейной регрессии. Предположит, что является стандартным многомерным нормальным случайным вектором (здесь обозначает в н матрице с размерностью п единичной матрицы ), и если являются всеми п матрицы с размерностью N симметричных матрицы с. Затем, при определении, любое из следующих условий влечет за собой два других: Y N п ( 0 , σ 2 я п ) {\ displaystyle Y \ sim N_ {n} (0, \ sigma ^ {2} I_ {n})} я п {\ displaystyle I_ {n}} А 1 , , А k {\ Displaystyle A_ {1}, \ ldots, A_ {k}} я знак равно 1 k А я знак равно я п {\ displaystyle \ sum _ {я = 1} ^ {k} A_ {i} = I_ {n}} р я знак равно Классифицировать ( А я ) {\ displaystyle r_ {i} = \ operatorname {Rank} (A_ {i})}

  • я знак равно 1 k р я знак равно п , {\ Displaystyle \ сумма _ {я = 1} ^ {к} r_ {я} = п,}
  • Y Т А я Y σ 2 χ р я 2 {\ displaystyle Y ^ {T} A_ {i} Y \ sim \ sigma ^ {2} \ chi _ {r_ {i}} ^ {2}} (таким образом, положительно полуопределенные ) А я {\ displaystyle A_ {i}}
  • Y Т А я Y {\ displaystyle Y ^ {T} A_ {i} Y}не зависит от для Y Т А j Y {\ displaystyle Y ^ {T} A_ {j} Y} я j . {\ displaystyle i \ neq j.}
Смотрите также
использованная литература
  1. ^ a b Cochran, WG (апрель 1934 г.). «Распределение квадратичных форм в нормальной системе с приложениями к анализу ковариации». Математические труды Кембриджского философского общества. 30 (2): 178–191. DOI : 10.1017 / S0305004100016595.
  2. ^ Бапат, RB (2000). Линейная алгебра и линейные модели (второе изд.). Springer. ISBN   978-0-387-98871-9.
  3. ^ Craig AT (1938) «О независимости некоторых оценок вариаций». Анналы математической статистики. 9. С. 48–55.
  4. Перейти ↑ Geary, RC (1936). «Распределение« коэффициента студента »для нестандартных выборок». Приложение к Журналу Королевского статистического общества. 3 (2): 178–184. DOI : 10.2307 / 2983669. JFM   63.1090.03. JSTOR   2983669.
  5. ^ «Теорема Кокрана (краткое руководство)» (PDF).
Последняя правка сделана 2023-04-21 01:04:06
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте