Критерий хи-квадрат Пирсона

редактировать
Для более широкого освещения этой темы см. Тест хи-квадрат.

Критерий хи-квадрат Пирсона () - это статистический тест, применяемый к наборам категориальных данных для оценки вероятности того, что любое наблюдаемое различие между наборами возникло случайно. Это наиболее широко используемый из многих тестов хи-квадрат (например, Йейтса, отношения правдоподобия, теста Портманто во временных рядах и т. Д.) - статистических процедур, результаты которых оцениваются по распределению хи-квадрат. Его свойства были впервые исследованы Карлом Пирсоном в 1900 году. В контекстах, где важно улучшить различие между тестовой статистикой χ 2 {\ displaystyle \ chi ^ {2}} и его распределение, используются названия, похожие на критерий χ-квадрата Пирсона или статистику.

Он проверяет нулевую гипотезу о том, что частотное распределение определенных событий, наблюдаемых в выборке, согласуется с конкретным теоретическим распределением. Рассматриваемые события должны быть взаимоисключающими и иметь общую вероятность 1. Обычно это происходит, когда каждое событие охватывает результат категориальной переменной. Простым примером является гипотеза о том, что обычная шестигранная игральная кость «справедлива» (т. Е. Все шесть исходов имеют одинаковую вероятность.)

СОДЕРЖАНИЕ

  • 1 Определение
  • 2 Тест на соответствие дистрибутива
    • 2.1 Дискретное равномерное распределение
    • 2.2 Другие дистрибутивы
    • 2.3 Расчет тестовой статистики
    • 2.4 Байесовский метод
  • 3 Проверка на статистическую независимость
  • 4 Предположения
  • 5 Вывод
    • 5.1 Две клетки
    • 5.2 Таблицы непредвиденных обстоятельств два на два
    • 5.3 Множество ячеек
  • 6 Примеры
    • 6.1 Справедливость игры в кости
    • 6.2 Качество подгонки
  • 7 Проблемы
  • 8 См. Также
  • 9 Примечания
  • 10 Ссылки

Определение

Критерий хи-квадрат Пирсона используется для оценки трех типов сравнения: степень соответствия, однородность и независимость.

  • Проверка согласия устанавливает, отличается ли наблюдаемое частотное распределение от теоретического.
  • Тест на однородность сравнивает распределение подсчетов для двух или более групп с использованием одной и той же категориальной переменной (например, выбор вида деятельности - колледж, армия, работа, путешествия - выпускников средней школы, сообщенных через год после выпуска, с сортировкой по году выпуска, чтобы узнать, изменилось ли количество выпускников, выбравших данный вид деятельности, от класса к классу или от десятилетия к десятилетию).
  • Тест на независимость оценивает, являются ли наблюдения, состоящие из мер по двум переменным, выраженным в таблице непредвиденных обстоятельств, независимыми друг от друга (например, опрос ответов людей разных национальностей, чтобы увидеть, связана ли их национальность с ответом).

Для всех трех тестов вычислительная процедура включает следующие шаги:

  1. Вычислите статистику критерия хи-квадрат, которая напоминает нормированную сумму квадратов отклонений между наблюдаемой и теоретической частотами (см. Ниже). χ 2 {\ displaystyle \ chi ^ {2}}
  2. Определение степени свободы, ЦФ, из этой статистики.
    1. Для теста согласия df = Cats - Parms, где Cats - это количество категорий наблюдений, распознаваемых моделью, а Parms - это количество параметров в модели, скорректированных таким образом, чтобы модель наилучшим образом соответствовала наблюдениям: количество категорий, уменьшенное на количество подобранных параметров в распределении.
    2. Для проверки однородности df = (Rows - 1) × (Cols - 1), где Rows соответствует количеству категорий (т. Е. Строк в связанной таблице непредвиденных обстоятельств), а Cols соответствует количеству независимых групп (т. Е. Столбцов в связанной таблице непредвиденных обстоятельств).
    3. Для испытания независимости, DF = (Ряды - 1) × (Cols - 1), где в этом случае Ряды соответствует количеству категорий в одной переменной, и Cols соответствует количеству категорий во второй переменной.
  3. Выберите желаемый уровень достоверности ( уровень значимости, p-значение или соответствующий альфа-уровень ) для результата теста.
  4. Сравните с критическим значением из распределения хи-квадрат со степенями свободы df и выбранным уровнем достоверности (односторонним, поскольку тест выполняется только в одном направлении, т.е. больше ли тестовое значение, чем критическое значение?), Которое в во многих случаях дает хорошее приближение распределения. χ 2 {\ displaystyle \ chi ^ {2}} χ 2 {\ displaystyle \ chi ^ {2}}
  5. Поддержите или отвергните нулевую гипотезу о том, что наблюдаемое частотное распределение совпадает с теоретическим распределением на основе того, превышает ли тестовая статистика критическое значение. Если тест статистика превышает критическое значение, нулевую гипотезу ( = нет нет разницы между распределениями) может быть отклонена, а альтернативная гипотеза ( = есть это разница между распределениями) может быть принято, как с выбранным уровнем уверенности. Если статистика теста упадет ниже порогового значения, тогда нельзя будет сделать однозначный вывод, и нулевая гипотеза будет подтверждена (мы не сможем отвергнуть нулевую гипотезу), хотя это не обязательно будет принято. χ 2 {\ displaystyle \ chi ^ {2}} χ 2 {\ displaystyle \ chi ^ {2}} ЧАС 0 {\ displaystyle H_ {0}} ЧАС 1 {\ displaystyle H_ {1}} χ 2 {\ displaystyle \ chi ^ {2}}

Тест на соответствие дистрибутива

Дискретное равномерное распределение

В этом случае наблюдения делятся между ячейками. Простое приложение - проверить гипотезу о том, что в генеральной совокупности значения будут встречаться в каждой ячейке с одинаковой частотой. Таким образом, «теоретическая частота» для любой ячейки (при нулевой гипотезе дискретного равномерного распределения ) рассчитывается как N {\ displaystyle N} п {\ displaystyle n}

E я знак равно N п , {\ displaystyle E_ {i} = {\ frac {N} {n}} \,,}

и уменьшение степеней свободы теоретически связано с тем, что наблюдаемые частоты должны суммироваться до. п знак равно 1 {\ displaystyle p = 1} О я {\ displaystyle O_ {i}} N {\ displaystyle N}

Одним из конкретных примеров его применения может быть его приложение для теста ранжирования журнала.

Другие дистрибутивы

При проверке того, являются ли наблюдения случайными величинами, распределение которых принадлежит данному семейству распределений, «теоретические частоты» вычисляются с использованием распределения из этого семейства, подобранного некоторым стандартным способом. Уменьшение степеней свободы рассчитывается как, где - количество параметров, используемых при подборе распределения. Например, при проверке трехпараметрического Обобщенного гамма-распределения, и при проверке нормального распределения (где параметрами являются среднее значение и стандартное отклонение), и при проверке распределения Пуассона (где параметр является ожидаемым значением),. Таким образом, будут степени свободы, где - количество категорий. п знак равно s + 1 {\ displaystyle p = s + 1} s {\ displaystyle s} п знак равно 4 {\ displaystyle p = 4} п знак равно 3 {\ displaystyle p = 3} п знак равно 2 {\ displaystyle p = 2} п - п {\ displaystyle np} п {\ displaystyle n}

Степени свободы не основаны на количестве наблюдений, как в случае t- или F-распределения Стьюдента. Например, при проверке правильной шестигранной кости будет пять степеней свободы, потому что есть шесть категорий или параметров (каждое число); количество бросков кубика не влияет на количество степеней свободы.

Расчет тестовой статистики

Распределение хи-квадрат, показывающее X 2 по оси x и значение P по оси y.
Критические значения верхнего хвоста распределения хи-квадрат
Градусы на свободу Вероятность меньше критического значения
0,90 0,95 0,975 0,99 0,999
1 2,706 3,841 5,024 6,635 10,828
2 4,605 5,991 7,378 9,210 13,816
3 6,251 7,815 9,348 11,345 16,266
4 7,779 9,488 11,143 13 277 18,467
5 9 236 11,070 12,833 15,086 20,515
6 10,645 12,592 14,449 16,812 22 458
7 12,017 14,067 16,013 18,475 24,322
8 13,362 15,507 17,535 20.090 26,125
9 14,684 16,919 19,023 21,666 27 877
10 15,987 18.307 20 483 23.209 29 588
11 17 275 19,675 21,920 24,725 31,264
12 18 549 21,026 23,337 26,217 32,910
13 19,812 22,362 24,736 27,688 34,528
14 21,064 23,685 26,119 29,141 36,123
15 22.307 24,996 27 488 30 578 37,697
16 23 542 26,296 28,845 32,000 39,252
17 24,769 27 587 30,191 33,409 40,790
18 25,989 28,869 31,526 34,805 42,312
19 27,204 30,144 32,852 36,191 43,820
20 28 412 31,410 34,170 37,566 45,315
21 год 29,615 32,671 35 479 38,932 46,797
22 30,813 33,924 36,781 40 289 48,268
23 32,007 35,172 38,076 41,638 49,728
24 33,196 36,415 39,364 42,980 51,179
25 34,382 37,652 40,646 44,314 52,620
26 35 563 38,885 41,923 45 642 54,052
27 36,741 40,113 43,195 46,963 55,476
28 год 37,916 41,337 44,461 48 278 56,892
29 39,087 42,557 45,722 49 588 58,301
30 40,256 43,773 46,979 50,892 59,703
31 год 41,422 44,985 48,232 52,191 61,098
32 42,585 46,194 49 480 53,486 62 487
33 43,745 47 400 50,725 54,776 63 870
34 44,903 48,602 51,966 56,061 65,247
35 год 46,059 49,802 53,203 57,342 66,619
36 47,212 50,998 54 437 58,619 67,985
37 48,363 52,192 55,668 59,893 69,347
38 49,513 53,384 56,896 61,162 70,703
39 50,660 54 572 58,120 62,428 72,055
40 51,805 55,758 59,342 63,691 73,402
41 год 52,949 56,942 60,561 64,950 74,745
42 54,090 58,124 61,777 66,206 76,084
43 год 55,230 59,304 62,990 67,459 77,419
44 год 56,369 60,481 64.201 68,710 78,750
45 57,505 61,656 65,410 69,957 80,077
46 58,641 62 830 66,617 71.201 81 400
47 59,774 64,001 67 821 72,443 82,720
48 60,907 65,171 69,023 73,683 84,037
49 62,038 66,339 70,222 74,919 85,351
50 63,167 67,505 71,420 76,154 86,661
51 64,295 68,669 72,616 77,386 87,968
52 65,422 69,832 73,810 78,616 89 272
53 66,548 70,993 75,002 79 843 90,573
54 67 673 72,153 76,192 81,069 91,872
55 68,796 73,311 77,380 82,292 93,168
56 69,919 74,468 78,567 83,513 94,461
57 год 71,040 75,624 79,752 84,733 95,751
58 72,160 76,778 80,936 85,950 97,039
59 73 279 77,931 82,117 87,166 98,324
60 74,397 79,082 83,298 88 379 99,607
61 75,514 80,232 84 476 89,591 100,888
62 76 630 81,381 85,654 90,802 102,166
63 77,745 82,529 86 830 92,010 103,442
64 78 860 83,675 88,004 93,217 104,716
65 79,973 84 821 89,177 94,422 105,988
66 81,085 85,965 90,349 95,626 107,258
67 82,197 87,108 91 519 96 828 108 526
68 83,308 88,250 92,689 98,028 109,791
69 84,418 89,391 93,856 99,228 111,055
70 85 527 90,531 95,023 100,425 112,317
71 86,635 91,670 96 189 101,621 113 577
72 87,743 92,808 97,353 102,816 114 835
73 88,850 93,945 98,516 104,010 116,092
74 89,956 95,081 99,678 105,202 117,346
75 91,061 96,217 100,839 106,393 118 599
76 92,166 97,351 101,999 107 583 119,850
77 93,270 98,484 103,158 108,771 121,100
78 94 374 99,617 104,316 109,958 122,348
79 95 476 100,749 105,473 111,144 123,594
80 96 578 101 879 106,629 112,329 124,839
81 год 97,680 103,010 107,783 113,512 126,083
82 98,780 104,139 108,937 114,695 127,324
83 99,880 105,267 110.090 115 876 128,565
84 100.980 106,395 111,242 117,057 129,804
85 102,079 107,522 112,393 118 236 131,041
86 103,177 108,648 113 544 119,414 132 277
87 104 275 109,773 114,693 120,591 133,512
88 105,372 110,898 115,841 121,767 134,746
89 106,469 112,022 116,989 122,942 135 978
90 107,565 113,145 118,136 124,116 137,208
91 108,661 114,268 119 282 125 289 138 438
92 109,756 115,390 120,427 126,462 139,666
93 110,850 116,511 121 571 127,633 140,893
94 111,944 117,632 122,715 128,803 142,119
95 113,038 118,752 123,858 129,973 143,344
96 114,131 119 871 125 000 131,141 144,567
97 115,223 120,990 126,141 132,309 145,789
98 116,315 122,108 127 282 133,476 147,010
99 117,407 123,225 128,422 134,642 148,230
100 118 498 124,342 129,561 135,807 149,449

Значение тестовой статистики равно

χ 2 знак равно я знак равно 1 п ( О я - E я ) 2 E я знак равно N я знак равно 1 п ( О я / N - п я ) 2 п я {\ displaystyle \ chi ^ {2} = \ sum _ {i = 1} ^ {n} {\ frac {(O_ {i} -E_ {i}) ^ {2}} {E_ {i}}} = N \ sum _ {i = 1} ^ {n} {\ frac {\ left (O_ {i} / N-p_ {i} \ right) ^ {2}} {p_ {i}}}}

куда

χ 2 {\ displaystyle \ chi ^ {2}}= Совокупная статистика теста Пирсона, которая асимптотически приближается к распределению. χ 2 {\ displaystyle \ chi ^ {2}}
О я {\ displaystyle O_ {i}}= количество наблюдений типа i.
N {\ displaystyle N} = общее количество наблюдений
E я знак равно N п я {\ displaystyle E_ {i} = Np_ {i}}= ожидаемое (теоретическое) количество типа i, утвержденное нулевой гипотезой о том, что доля типа i в генеральной совокупности равна п я {\ displaystyle p_ {i}}
п {\ displaystyle n} = количество ячеек в таблице.

Затем статистику хи-квадрат можно использовать для вычисления p-значения путем сравнения значения статистики с распределением хи-квадрат. Число степеней свободы равно числу клеток, минус снижение степеней свободы. п {\ displaystyle n} п {\ displaystyle p}

Результат о количестве степеней свободы действителен, когда исходные данные являются полиномиальными, и, следовательно, оцененные параметры эффективны для минимизации статистики хи-квадрат. Однако в более общем плане, когда оценка максимального правдоподобия не совпадает с оценкой минимального хи-квадрат, распределение будет находиться где-то между распределением хи-квадрат с и степенями свободы (см., Например, Chernoff and Lehmann, 1954). п - 1 - п {\ displaystyle n-1-p} п - 1 {\ displaystyle n-1}

Байесовский метод

Дополнительная информация: Категориальное распределение § Байесовский вывод с использованием сопряженных априорных

В байесовской статистике вместо этого можно было бы использовать распределение Дирихле как сопряженное априорное. Если взять единообразную априорную оценку, то оценка максимального правдоподобия для вероятности популяции будет наблюдаемой вероятностью, и можно вычислить вероятную область вокруг этой или другой оценки.

Проверка на статистическую независимость

В этом случае «наблюдение» состоит из значений двух исходов, а нулевая гипотеза состоит в том, что возникновение этих результатов статистически не зависит. Каждое наблюдение назначается одной ячейке двумерного массива ячеек (называемой таблицей непредвиденных обстоятельств ) в соответствии со значениями двух результатов. Если в таблице имеется r строк и c столбцов, «теоретическая частота» для ячейки с учетом гипотезы независимости равна

E я , j знак равно N п я п j , {\ Displaystyle E_ {я, j} = Np_ {я \ cdot} p _ {\ cdot j},}

где - общий размер выборки (сумма всех ячеек в таблице), а N {\ displaystyle N}

п я знак равно О я N знак равно j знак равно 1 c О я , j N , {\ displaystyle p_ {i \ cdot} = {\ frac {O_ {i \ cdot}} {N}} = \ sum _ {j = 1} ^ {c} {\ frac {O_ {i, j}} { N}},}

- доля наблюдений типа i, игнорирующих атрибут столбца (доля итоговых значений строк), и

п j знак равно О j N знак равно я знак равно 1 р О я , j N {\ displaystyle p _ {\ cdot j} = {\ frac {O _ {\ cdot j}} {N}} = \ sum _ {i = 1} ^ {r} {\ frac {O_ {i, j}} { N}}}

- доля наблюдений типа j, игнорирующих атрибут строки (доля от итоговых значений столбца). Термин « частоты » относится к абсолютным числам, а не к уже нормализованным значениям.

Значение тестовой статистики равно

χ 2 знак равно я знак равно 1 р j знак равно 1 c ( О я , j - E я , j ) 2 E я , j {\ displaystyle \ chi ^ {2} = \ sum _ {i = 1} ^ {r} \ sum _ {j = 1} ^ {c} {(O_ {i, j} -E_ {i, j}) ^ {2} \ над E_ {i, j}}}
        знак равно N я , j п я п j ( ( О я , j / N ) - п я п j п я п j ) 2 {\ displaystyle \ \ \ \ = N \ sum _ {i, j} p_ {i \ cdot} p _ {\ cdot j} \ left ({\ frac {(O_ {i, j} / N) -p_ {i \ cdot} p _ {\ cdot j}} {p_ {i \ cdot} p _ {\ cdot j}}} \ right) ^ {2}}

Обратите внимание, что это 0 тогда и только тогда, когда, т.е. только если ожидаемое и истинное количество наблюдений одинаково во всех ячейках. χ 2 {\ displaystyle \ chi ^ {2}} О я , j знак равно E я , j я , j {\ displaystyle O_ {i, j} = E_ {i, j} \ forall i, j}

Подгонка модели «независимости» уменьшает количество степеней свободы на p  =  r  +  c  - 1. Количество степеней свободы равно количеству ячеек rc за вычетом уменьшения степеней свободы p, что уменьшает к ( r  - 1) ( c  - 1).

Для теста независимости, также известного как тест однородности, вероятность хи-квадрат меньше или равна 0,05 (или статистика хи-квадрат находится на критической точке 0,05 или больше) обычно интерпретируется прикладными работниками как обоснование отклонения нулевой гипотезы о том, что переменная строки не зависит от переменной столбца. В альтернативной гипотезе соответствует переменным, имеющей связь или связь, где структура этих отношений не указана.

Предположения

Критерий хи-квадрат при использовании со стандартным приближением применимости распределения хи-квадрат имеет следующие допущения:

Простая случайная выборка
Данные выборки представляют собой случайную выборку из фиксированного распределения или совокупности, где каждая совокупность членов совокупности данного размера выборки имеет равную вероятность выбора. Варианты теста были разработаны для сложных выборок, например, где данные взвешиваются. Могут использоваться и другие формы, например, целенаправленная выборка.
Размер выборки (вся таблица)
Предполагается выборка достаточно большого размера. Если критерий хи-квадрат проводится на выборке меньшего размера, тогда критерий хи-квадрат даст неточный вывод. Исследователь, используя критерий хи-квадрат на небольших выборках, может в конечном итоге совершить ошибку типа II.
Ожидаемое количество клеток
Адекватное ожидаемое количество клеток. Некоторым требуется 5 или больше, а другим - 10 или больше. Общее правило - 5 или более во всех ячейках таблицы 2 на 2 и 5 или более в 80% ячеек в более крупных таблицах, но без ячеек с нулевым ожидаемым числом. Если это предположение не выполняется, применяется поправка Йейтса.
Независимость
Всегда предполагается, что наблюдения независимы друг от друга. Это означает, что критерий хи-квадрат нельзя использовать для проверки коррелированных данных (например, сопоставленных пар или панельных данных). В таких случаях более подходящим может быть тест Макнемара.

Тест, основанный на различных предположениях, - это точный тест Фишера ; если его предположение о фиксированных маржинальных распределениях выполняется, то получение уровня значимости значительно точнее, особенно при небольшом количестве наблюдений. В подавляющем большинстве приложений это предположение не выполняется, и точный тест Фишера будет чрезмерно консервативным и не будет иметь правильного покрытия.

Вывод

Вывод с использованием центральной предельной теоремы

Нулевое распределение статистики Пирсона с j строками и k столбцами аппроксимируется распределением хи-квадрат с ( k  - 1) ( j  - 1) степенями свободы.

Это приближение возникает как истинное распределение при нулевой гипотезе, если ожидаемое значение задается полиномиальным распределением. Центральная предельная теорема гласит, что для больших размеров выборки это распределение стремится к некоторому многомерному нормальному распределению.

Две клетки

В особом случае, когда в таблице всего две ячейки, ожидаемые значения подчиняются биномиальному распределению,

E     Корзина ( п , п ) , {\ Displaystyle E \ \ sim \ {\ t_dv {Bin}} (п, р), \,}

куда

p = вероятность, при нулевой гипотезе,
n = количество наблюдений в выборке.

В приведенном выше примере предполагаемая вероятность наблюдения самцом составляет 0,5 при 100 выборках. Таким образом, мы ожидаем увидеть 50 мужчин.

Если n достаточно велико, указанное выше биномиальное распределение может быть аппроксимировано гауссовым (нормальным) распределением, и, таким образом, статистика критерия Пирсона аппроксимирует распределение хи-квадрат,

Корзина ( п , п ) N ( п п , п п ( 1 - п ) ) . {\ displaystyle {\ text {Bin}} (n, p) \ приблизительно {\ text {N}} (np, np (1-p)). \,}

Пусть O 1 будет количеством наблюдений из выборки, которые находятся в первой ячейке. Статистику теста Пирсона можно выразить как

( О 1 - п п ) 2 п п + ( п - О 1 - п ( 1 - п ) ) 2 п ( 1 - п ) , {\ displaystyle {\ frac {(O_ {1} -np) ^ {2}} {np}} + {\ frac {(n-O_ {1} -n (1-p)) ^ {2}} { n (1-p)}},}

что, в свою очередь, может быть выражено как

( О 1 - п п п п ( 1 - п ) ) 2 . {\ displaystyle \ left ({\ frac {O_ {1} -np} {\ sqrt {np (1-p)}}} \ right) ^ {2}.}

При нормальном приближении к биному это квадрат одной стандартной нормальной переменной и, следовательно, распределяется как хи-квадрат с 1 степенью свободы. Обратите внимание, что знаменатель - это одно стандартное отклонение гауссовского приближения, поэтому можно записать

( О 1 - μ ) 2 σ 2 . {\ displaystyle {\ frac {(O_ {1} - \ mu) ^ {2}} {\ sigma ^ {2}}}.}

Таким образом, в соответствии со смыслом распределения хи-квадрат, мы измеряем, насколько вероятно наблюдаемое количество стандартных отклонений от среднего в гауссовском приближении (что является хорошим приближением для больших n).

Затем распределение хи-квадрат интегрируется справа от статистического значения, чтобы получить P-значение, которое равно вероятности получения статистики, равной или большей, чем наблюдаемая, при условии нулевой гипотезы.

Таблицы непредвиденных обстоятельств два на два

Когда тест применяется к таблице непредвиденных обстоятельств, содержащей две строки и два столбца, тест эквивалентен Z-тесту пропорций.

Многие клетки

В целом аргументы, аналогичные приведенным выше, приводят к желаемому результату, хотя детали более сложны. Можно применить ортогональную замену переменных, чтобы превратить ограничивающие слагаемые в тестовой статистике на один квадрат меньше стандартных нормальных случайных величин iid.

Давайте теперь докажем, что распределение действительно асимптотически приближается к распределению, когда число наблюдений приближается к бесконечности. χ 2 {\ displaystyle \ chi ^ {2}}

Пусть будет количество наблюдений, количество ячеек и вероятность того, что наблюдение попадет в i-ю ячейку, для. Обозначим конфигурацией, где для каждого i есть наблюдения в i-й ячейке. Обратите внимание, что п {\ displaystyle n} м {\ displaystyle m} п я {\ displaystyle p_ {i}} 1 я м {\ Displaystyle 1 \ Leq я \ Leq м} { k я } {\ Displaystyle \ {к_ {я} \}} k я {\ displaystyle k_ {i}}

я знак равно 1 м k я знак равно п а также я знак равно 1 м п я знак равно 1. {\ displaystyle \ sum _ {i = 1} ^ {m} k_ {i} = n \ qquad {\ text {and}} \ qquad \ sum _ {i = 1} ^ {m} p_ {i} = 1.}

Пусть будет совокупной тестовой статистикой Пирсона для такой конфигурации, и пусть будет распределением этой статистики. Мы покажем, что последняя вероятность приближается к распределению со степенями свободы, так как χ п 2 ( { k я } , { п я } ) {\ displaystyle \ chi _ {P} ^ {2} (\ {k_ {i} \}, \ {p_ {i} \})} χ п 2 ( { п я } ) {\ displaystyle \ chi _ {P} ^ {2} (\ {p_ {i} \})} χ 2 {\ displaystyle \ chi ^ {2}} м - 1 {\ displaystyle m-1} п . {\ displaystyle n \ to \ infty.}

Для любого произвольного значения T:

п ( χ п 2 ( { п я } ) gt; Т ) знак равно { k я } | χ п 2 ( { k я } , { п я } ) gt; Т п ! k 1 ! k м ! я знак равно 1 м п я k я {\ Displaystyle P (\ chi _ {P} ^ {2} (\ {p_ {i} \})gt; T) = \ sum _ {\ {k_ {i} \} | \ chi _ {P} ^ { 2} (\ {k_ {i} \}, \ {p_ {i} \})gt; T} {\ frac {n!} {K_ {1}! \ Cdots k_ {m}!}} \ Prod _ { я = 1} ^ {m} {p_ {i}} ^ {k_ {i}}}

Мы будем использовать процедуру, аналогичную приближению в теореме де Муавра – Лапласа. Взносы от малых имеют порядок подчинения, и, таким образом, для больших мы можем использовать формулу Стирлинга для обоих и получить следующее: k я {\ displaystyle k_ {i}} п {\ displaystyle n} п {\ displaystyle n} п ! {\ displaystyle n!} k я ! {\ displaystyle k_ {i}!}

п ( χ п 2 ( { п я } ) gt; Т ) { k я } | χ п 2 ( { k я } , { п я } ) gt; Т я знак равно 1 м ( п п я k я ) k я 2 π п я знак равно 1 м 2 π k я {\ Displaystyle P (\ chi _ {P} ^ {2} (\ {p_ {i} \})gt; T) \ sim \ sum _ {\ {k_ {i} \} | \ chi _ {P} ^ {2} (\ {k_ {i} \}, \ {p_ {i} \})gt; T} \ prod _ {i = 1} ^ {m} \ left ({\ frac {np_ {i}} { k_ {i}}} \ right) ^ {k_ {i}} {\ sqrt {\ frac {2 \ pi n} {\ prod _ {i = 1} ^ {m} 2 \ pi k_ {i}}} }}

Заменив на

Икс я знак равно k я - п п я п , я знак равно 1 , , м - 1 , {\ displaystyle x_ {i} = {\ frac {k_ {i} -np_ {i}} {\ sqrt {n}}}, \ qquad i = 1, \ cdots, m-1,}

мы можем аппроксимировать для больших сумму по интегралу по. Отмечая, что: п {\ displaystyle n} k я {\ displaystyle k_ {i}} Икс я {\ displaystyle x_ {i}}

k м знак равно п п м - п я знак равно 1 м - 1 Икс я , {\ displaystyle k_ {m} = np_ {m} - {\ sqrt {n}} \ sum _ {i = 1} ^ {m-1} x_ {i},}

мы приходим к

п ( χ п 2 ( { п я } ) gt; Т ) 2 π п я знак равно 1 м 2 π k я χ п 2 ( { п Икс я + п п я } , { п я } ) gt; Т { я знак равно 1 м - 1 п d Икс я } { я знак равно 1 м - 1 ( 1 + Икс я п п я ) - ( п п я + п Икс я ) ( 1 - я знак равно 1 м - 1 Икс я п п м ) - ( п п м - п я знак равно 1 м - 1 Икс я ) } знак равно 2 π п я знак равно 1 м ( 2 π п п я + 2 π п Икс я ) χ п 2 ( { п Икс я + п п я } , { п я } ) gt; Т { я знак равно 1 м - 1 п d Икс я } × × { я знак равно 1 м - 1 exp [ - ( п п я + п Икс я ) пер ( 1 + Икс я п п я ) ] exp [ - ( п п м - п я знак равно 1 м - 1 Икс я ) пер ( 1 - я знак равно 1 м - 1 Икс я п п м ) ] } {\ displaystyle {\ begin {align} P (\ chi _ {P} ^ {2} (\ {p_ {i} \})gt; T) amp; \ sim {\ sqrt {\ frac {2 \ pi n} { \ prod _ {i = 1} ^ {m} 2 \ pi k_ {i}}}} \ int _ {\ chi _ {P} ^ {2} (\ {{\ sqrt {n}} x_ {i} + np_ {i} \}, \ {p_ {i} \})gt; T} \ left \ {\ prod _ {i = 1} ^ {m-1} {{\ sqrt {n}} dx_ {i} } \ right \} \ left \ {\ prod _ {i = 1} ^ {m-1} \ left (1 + {\ frac {x_ {i}} {{\ sqrt {n}} p_ {i}}) } \ right) ^ {- (np_ {i} + {\ sqrt {n}} x_ {i})} \ left (1 - {\ frac {\ sum _ {i = 1} ^ {m-1} { x_ {i}}} {{\ sqrt {n}} p_ {m}}} \ right) ^ {- \ left (np_ {m} - {\ sqrt {n}} \ sum _ {i = 1} ^ {m-1} x_ {i} \ right)} \ right \} \\ amp; = {\ sqrt {\ frac {2 \ pi n} {\ prod _ {i = 1} ^ {m} \ left (2 \ pi np_ {i} +2 \ pi {\ sqrt {n}} x_ {i} \ right)}}} \ int _ {\ chi _ {P} ^ {2} (\ {{\ sqrt {n} } x_ {i} + np_ {i} \}, \ {p_ {i} \})gt; T} \ left \ {\ prod _ {i = 1} ^ {m-1} {{\ sqrt {n}) } dx_ {i}} \ right \} \ times \\ amp; \ qquad \ qquad \ times \ left \ {\ prod _ {i = 1} ^ {m-1} \ exp \ left [- \ left (np_ { i} + {\ sqrt {n}} x_ {i} \ right) \ ln \ left (1 + {\ frac {x_ {i}} {{\ sqrt {n}} p_ {i}}} \ right) \ right] \ exp \ left [- \ left (np_ {m} - {\ sqrt {n}} \ sum _ {i = 1} ^ {m-1} x_ {i} \ right) \ ln \ left ( 1 - {\ frac {\ sum _ {i = 1} ^ {m-1} {x_ {i}}} {{\ sqrt {n}} p_ {m}}} \ right) \ right] \ right \ } \ конец {выровнено}} }

Путь расширения логарифма и принимая главные член в, мы получаем п {\ displaystyle n}

п ( χ п 2 ( { п я } ) gt; Т ) 1 ( 2 π ) м - 1 я знак равно 1 м п я χ п 2 ( { п Икс я + п п я } , { п я } ) gt; Т { я знак равно 1 м - 1 d Икс я } я знак равно 1 м - 1 exp [ - 1 2 я знак равно 1 м - 1 Икс я 2 п я - 1 2 п м ( я знак равно 1 м - 1 Икс я ) 2 ] {\ Displaystyle P (\ chi _ {P} ^ {2} (\ {p_ {i} \})gt; T) \ sim {\ frac {1} {\ sqrt {(2 \ pi) ^ {m-1 } \ prod _ {i = 1} ^ {m} p_ {i}}}} \ int _ {\ chi _ {P} ^ {2} (\ {{\ sqrt {n}} x_ {i} + np_ {i} \}, \ {p_ {i} \})gt; T} \ left \ {\ prod _ {i = 1} ^ {m-1} dx_ {i} \ right \} \ prod _ {i = 1} ^ {m-1} \ exp \ left [- {\ frac {1} {2}} \ sum _ {i = 1} ^ {m-1} {\ frac {x_ {i} ^ {2} } {p_ {i}}} - {\ frac {1} {2p_ {m}}} \ left (\ sum _ {i = 1} ^ {m-1} {x_ {i}} \ right) ^ { 2} \ right]}

Ци Пирсона является в точности аргументом экспоненты (за исключением -1/2; обратите внимание, что последний член в аргументе экспоненты равен). χ п 2 ( { k я } , { п я } ) знак равно χ п 2 ( { п Икс я + п п я } , { п я } ) {\ displaystyle \ chi _ {P} ^ {2} (\ {k_ {i} \}, \ {p_ {i} \}) = \ chi _ {P} ^ {2} (\ {{\ sqrt { n}} x_ {i} + np_ {i} \}, \ {p_ {i} \})} ( k м - п п м ) 2 / ( п п м ) {\ Displaystyle (к_ {м} -нп_ {м}) ^ {2} / (нп_ {м})}

Этот аргумент можно записать как:

- 1 2 я , j знак равно 1 м - 1 Икс я А я j Икс j , я , j знак равно 1 , , м - 1 , А я j знак равно δ я j п я + 1 п м . {\ displaystyle - {\ frac {1} {2}} \ sum _ {i, j = 1} ^ {m-1} x_ {i} A_ {ij} x_ {j}, \ qquad i, j = 1, \ cdots, m-1, \ quad A_ {ij} = {\ tfrac {\ delta _ {ij}} {p_ {i}}} + {\ tfrac {1} {p_ {m}}}.}

А {\ displaystyle A}является регулярной симметричной матрицей и, следовательно, диагонализуемой. Следовательно, можно произвести линейную замену переменных, чтобы получить новые переменные, чтобы: ( м - 1 ) × ( м - 1 ) {\ Displaystyle (м-1) \ раз (м-1)} { Икс я } {\ displaystyle \ {x_ {i} \}} м - 1 {\ displaystyle m-1} { у я } {\ displaystyle \ {y_ {i} \}}

я , j знак равно 1 м - 1 Икс я А я j Икс j знак равно я знак равно 1 м - 1 у я 2 . {\ displaystyle \ sum _ {я, j = 1} ^ {m-1} x_ {i} A_ {ij} x_ {j} = \ sum _ {i = 1} ^ {m-1} y_ {i} ^ {2}.}

Эта линейная замена переменных просто умножает интеграл на постоянный якобиан, поэтому мы получаем:

п ( χ п 2 ( { п я } ) gt; Т ) C я знак равно 1 м - 1 у я 2 gt; Т { я знак равно 1 м - 1 d у я } я знак равно 1 м - 1 exp [ - 1 2 ( я знак равно 1 м - 1 у я 2 ) ] {\ Displaystyle P (\ chi _ {P} ^ {2} (\ {p_ {i} \})gt; T) \ sim C \ int _ {\ sum _ {i = 1} ^ {m-1} y_ {i} ^ {2}gt; T} \ left \ {\ prod _ {i = 1} ^ {m-1} dy_ {i} \ right \} \ prod _ {i = 1} ^ {m-1} \ exp \ left [- {\ frac {1} {2}} \ left (\ sum _ {i = 1} ^ {m-1} y_ {i} ^ {2} \ right) \ right]}

Где C - константа.

Это вероятность того, что квадрат суммы независимых нормально распределенных переменных с нулевым средним и единичной дисперсией будет больше, чем T, а именно, что со степенями свободы больше, чем T. м - 1 {\ displaystyle m-1} χ 2 {\ displaystyle \ chi ^ {2}} м - 1 {\ displaystyle m-1}

Таким образом, мы показали, что на пределе, когда распределение ци Пирсона приближается к распределению ци со степенями свободы. п , {\ displaystyle n \ to \ infty,} м - 1 {\ displaystyle m-1}

Примеры

Справедливость игры в кости

6-гранный кубик бросается 60 раз. Количество раз, когда он выпадает с 1, 2, 3, 4, 5 и 6 лицевой стороной вверх, составляет 5, 8, 9, 8, 10 и 20 соответственно. Является ли игра на кубике смещенной согласно критерию хи-квадрат Пирсона на уровне значимости 95% и / или 99%?

n = 6, поскольку существует 6 возможных исходов, от 1 до 6. Нулевая гипотеза состоит в том, что игральная кость несмещена, поэтому ожидается, что каждое число будет встречаться одинаковое количество раз, в данном случае60/п = 10. Результаты можно свести в таблицу следующим образом:

я {\ displaystyle i} О я {\ displaystyle O_ {i}} E я {\ displaystyle E_ {i}} О я - E я {\ displaystyle O_ {i} -E_ {i}} ( О я - E я ) 2 {\ Displaystyle (О_ {я} -Е_ {я}) ^ {2}} ( О я - E я ) 2 E я {\ displaystyle {\ frac {(O_ {i} -E_ {i}) ^ {2}} {E_ {i}}}}
1 5 10 −5 25 2,5
2 8 10 −2 4 0,4
3 9 10 −1 1 0,1
4 8 10 −2 4 0,4
5 10 10 0 0 0
6 20 10 10 100 10
Сумма 13,4

Число степеней свободы n - 1 = 5. Критические значения верхнего хвоста таблицы распределения хи-квадрат дают критическое значение 11,070 при уровне значимости 95%:

Градусы на свободу Вероятность меньше критического значения
0,90 0,95 0,975 0,99 0,999
5 9 236 11,070 12,833 15,086 20,515

Поскольку статистика хи-квадрат 13,4 превышает это критическое значение, мы отвергаем нулевую гипотезу и заключаем, что игра на кубике смещена на уровне значимости 95%.

При уровне значимости 99% критическое значение составляет 15,086. Поскольку статистика хи-квадрат не превышает его, мы не можем отвергнуть нулевую гипотезу и, таким образом, делаем вывод, что нет достаточных доказательств, чтобы показать, что кубик смещен на уровне значимости 99%.

Доброта подгонки

Основная статья: Степень соответствия

В этом контексте частоты как теоретических, так и эмпирических распределений являются ненормализованными подсчетами, и для теста хи-квадрат общие размеры выборки обоих этих распределений (суммы всех ячеек соответствующих таблиц сопряженности ) должны быть одинаковыми. N {\ displaystyle N}

Например, чтобы проверить гипотезу о том, что случайная выборка из 100 человек была взята из популяции, в которой мужчины и женщины равны по частоте, наблюдаемое количество мужчин и женщин будет сравниваться с теоретической частотой 50 мужчин и 50 женщин.. Если в выборке было 44 мужчины и 56 женщин, то

χ 2 знак равно ( 44 год - 50 ) 2 50 + ( 56 - 50 ) 2 50 знак равно 1,44. {\ displaystyle \ chi ^ {2} = {(44-50) ^ {2} \ over 50} + {(56-50) ^ {2} \ over 50} = 1,44.}

Если нулевая гипотеза верна (т. Е. Мужчины и женщины выбраны с равной вероятностью), статистика теста будет получена из распределения хи-квадрат с одной степенью свободы (потому что, если известна мужская частота, то женская частота равна определенный).

Консультация распределения х-квадрата для 1 степени свободы показывает, что вероятность наблюдения этой разницы (или больше разницы экстремальной, чем это), если мужчины и женщины в равной степени многочисленны в популяции составляет около 0,23. Эта вероятность выше, чем обычные критерии статистической значимости (0,01 или 0,05), поэтому обычно мы не отвергаем нулевую гипотезу о том, что количество мужчин в популяции равно количеству женщин (т. Е. Мы будем рассматривать нашу выборку в пределах диапазон того, что мы ожидаем от соотношения мужчин и женщин 50/50.)

Проблемы

Приближение к распределению хи-квадрат не работает, если ожидаемые частоты слишком низкие. Обычно это приемлемо при условии, что не более 20% событий имеют ожидаемые частоты ниже 5. Если имеется только 1 степень свободы, приближение ненадежно, если ожидаемые частоты ниже 10. В этом случае лучшее приближение может быть получен путем уменьшения абсолютного значения каждой разницы между наблюдаемой и ожидаемой частотами на 0,5 перед возведением в квадрат; это называется поправкой Йетса на непрерывность.

В случаях, когда ожидаемое значение E оказывается малым (что указывает на небольшую базовую вероятность популяции и / или небольшое количество наблюдений), нормальное приближение полиномиального распределения может не сработать, и в таких случаях оказывается, что Более целесообразно использовать G-тест, статистический тест, основанный на отношении правдоподобия. Когда общий размер выборки невелик, необходимо использовать соответствующий точный тест, обычно либо биномиальный тест, либо, для таблиц сопряженности, точный тест Фишера. Этот тест использует условное распределение статистики теста с учетом предельных итогов и, таким образом, предполагает, что границы были определены до исследования; альтернативы, такие как тест Boschloo в которые не делают это предположения являются равномерно более мощными.

Можно показать, что тест является приближением теста низкого порядка. Вышеупомянутые причины вышеупомянутых проблем становятся очевидными, когда исследуются члены более высокого порядка. χ 2 {\ displaystyle \ chi ^ {2}} Ψ {\ displaystyle \ Psi}

Смотрите также

Примечания

использованная литература

Последняя правка сделана 2023-04-05 07:23:36
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте