Тест Андерсона – Дарлинга

редактировать

Тест Андерсона – Дарлинга - это статистический тест того, выборка данных берется из заданного распределения вероятностей. В своей базовой форме тест предполагает, что в тестируемом распределении нет параметров, которые нужно оценить, и в этом случае тест и его набор критических значений не распространяются. Тем не менее, этот тест чаще всего используется в контекстах, где тестируется семейство распределений, и в этом случае необходимо оценить параметры этого семейства, и это необходимо учитывать при корректировке либо тестовой статистики, либо ее критических значений. Применительно к проверке того, адекватно ли нормальное распределение описывает набор данных, это один из самых мощных статистических инструментов для обнаружения большинства отклонений от нормальности. K-выборка Андерсона –Тесты Дарлинга доступны для проверки того, можно ли смоделировать несколько наборов наблюдений как происходящие из одной совокупности, где не требуется указывать функцию распределения .

В дополнение к его использованию в качестве теста соответствия для распределений, его можно использовать в оценке параметров как основу для формы процедуры оценки минимального расстояния.

Тест назван в честь Теодора Уилбура Андерсона (1918–2016) и Дональда А. Дарлинга (1915–2014), которые изобрели его в 1952 году.

Содержание
  • 1 Тест по одной выборке
    • 1.1 Базовая статистика теста
  • 2 Тесты для семейств распределений
    • 2.1 Тест на нормальность
    • 2.2 Тесты для других распределений
  • 3 Непараметрический k -sample tests
  • 4 См. также
  • 5 Ссылки
  • 6 Дополнительная литература
  • 7 Внешние ссылки
Тест с одним образцом

The Anderson – Darling и Cramér– Статистика фон Мизеса относится к классу квадратичной статистики EDF (тесты, основанные на эмпирической функции распределения ). Если гипотетическое распределение равно F {\ displaystyle F}F , а эмпирическая (выборочная) кумулятивная функция распределения равна F n {\ displaystyle F_ {n}}F_ {n} , тогда квадратичная статистика EDF измеряет расстояние между F {\ displaystyle F}F и F n {\ displaystyle F_ {n}}F_ {n} на

n ∫ - ∞ ∞ (F n (x) - F (x)) 2 вес (x) d F (x), {\ displaystyle n \ int _ {- \ infty} ^ {\ infty} (F_ {n} (x) -F (x)) ^ {2} \, w (x) \, dF (x),}n \ int _ {{- \ infty}} ^ {\ infty} (F_ {n} (x) -F (x)) ^ {2} \, w (x) \, dF (x),

где n {\ displaystyle n}n - количество элементов в образец, а w (x) {\ displaystyle w (x)}w ( x) - весовая функция. Когда весовая функция равна w (x) = 1 {\ displaystyle w (x) = 1}w (x) = 1 , статистикой является статистика Крамера – фон Мизеса. Тест Андерсона – Дарлинга (1954) основан на расстоянии

A 2 = n ∫ - ∞ ∞ (F n (x) - F (x)) 2 F (x) (1 - F (x)) d F (x), {\ displaystyle A ^ {2} = n \ int _ {- \ infty} ^ {\ infty} {\ frac {(F_ {n} (x) -F (x)) ^ {2} } {F (x) \; (1-F (x))}} \, dF (x),}{\ displaystyle A ^ {2} = n \ int _ {- \ infty} ^ {\ infty} {\ frac {(F_ {n} (x) -F (x)) ^ {2} } {F (x) \; (1-F (x))}} \, dF (x),}

, которое получается, когда весовая функция равна w (x) = [F (x) (1 - F (x))] - 1 {\ displaystyle w (x) = [F (x) \; (1-F (x))] ^ {- 1}}w (x) = [F (x) \; (1-F (x))] ^ {{- 1}} . Таким образом, по сравнению с расстоянием Крамера – фон Мизеса расстояние Андерсона – Дарлинга придает больший вес наблюдениям в хвостах распределения.

Базовая статистика теста

Тест Андерсона – Дарлинга определяет, происходит ли выборка из указанного распределения. Он использует тот факт, что, когда задано гипотетическое базовое распределение и предполагается, что данные действительно возникают из этого распределения, можно предположить, что кумулятивная функция распределения (CDF) данных соответствует однородной распределение. Затем данные могут быть проверены на однородность с помощью теста на расстояние (Shapiro 1980). Формула для тестовой статистики A {\ displaystyle A}A для оценки того, являются ли данные {Y 1 < ⋯ < Y n } {\displaystyle \{Y_{1}<\cdots \ {Y_ {1} <\ cdots <Y_ {n} \} (обратите внимание, что данные должны быть упорядочить) происходит от CDF F {\ displaystyle F}F is

A 2 = - n - S, {\ displaystyle A ^ {2} = -nS \,,}A ^ {2} = - nS \,,

где

S = ∑ i = 1 n 2 i - 1 n [ln ⁡ (F (Y i)) + ln ⁡ (1 - F (Y n + 1 - i))]. {\ displaystyle S = \ sum _ {i = 1} ^ {n} {\ frac {2i-1} {n}} \ left [\ ln (F (Y_ {i})) + \ ln \ left (1 -F (Y_ {n + 1-i}) \ right) \ right].}{\ displaystyle S = \ sum _ {i = 1} ^ {n} {\ frac {2i-1} {n} } \ left [\ ln (F (Y_ {i})) + \ ln \ left (1-F (Y_ {n + 1-i}) \ right) \ right].}

Затем статистику теста можно сравнить с критическими значениями теоретического распределения. Обратите внимание, что в этом случае никакие параметры не оцениваются по отношению к кумулятивной функции распределения F {\ displaystyle F}F .

Тесты для семейств распределений

По сути, в тесте можно использовать одну и ту же статистику теста. соответствия семейства распределений, но затем его необходимо сравнить с критическими значениями, соответствующими этому семейству теоретических распределений и зависящими также от метода, используемого для оценки параметров.

Тест на нормальность

Эмпирическое тестирование показало, что тест Андерсона – Дарлинга не так хорош, как тест Шапиро – Уилка, но лучше других тестов. Стивенс обнаружил, что A 2 {\ displaystyle A ^ {2}}A ^ {2} является одним из лучших статистических показателей эмпирической функции распределения для выявления большинства отклонений от нормальности.

Вычисление различается в зависимости от того, что известно о распределении:

  • Случай 0: среднее μ {\ displaystyle \ mu}\ mu и дисперсия σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} оба известны.
  • Случай 1: дисперсия σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} известно, но среднее значение μ {\ displaystyle \ mu}\ mu неизвестно.
  • Случай 2. Среднее значение μ {\ displaystyle \ mu}\ mu известно, но дисперсия σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} неизвестна.
  • Случай 3: оба средних значения μ {\ displaystyle \ mu}\ mu и дисперсия σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} неизвестны.

n наблюдений, X i {\ displaystyle X_ {i}}X_ {i} , для i = 1,… n {\ displaystyle i = 1, \ ldots n}i = 1, \ ldots n переменной X {\ displaystyle X}X должен быть отсортирован так, чтобы X 1 ≤ X 2 ≤... ≤ Икс n {\ displaystyle X_ {1} \ leq X_ {2} \ leq... \ leq X_ {n}}X_1 \ leq X_2 \ leq... \ leq X_n и в следующих обозначениях предполагается, что X i представляют упорядоченные наблюдения. Пусть

μ ^ = {μ, если известно среднее значение. X ¯, = 1 n ∑ i = 1 n X i в противном случае. {\ displaystyle {\ hat {\ mu}} = {\ begin {cases} \ mu, {\ text {, если известно среднее значение.}} \\ {\ bar {X}}, = {\ frac {1 } {n}} \ sum _ {i = 1} ^ {n} X_ {i} {\ text {в противном случае.}} \ end {cases}}}\ hat {\ mu} = \ begin {cases} \ mu, \ text {, если известно среднее значение.} \ \ \ bar {X}, = \ frac {1} {n} \ sum_ {i = 1} ^ n X_i \ text {в противном случае.} \ end {cases}
σ ^ 2 = {σ 2, если дисперсия известна. 1 n ∑ i = 1 n (X i - μ) 2, если дисперсия неизвестна, но известно среднее значение. 1 n - 1 ∑ i = 1 n (X i - X ¯) 2 в противном случае. {\ displaystyle {\ hat {\ sigma}} ^ {2} = {\ begin {cases} \ sigma ^ {2}, {\ text {, если дисперсия известна.}} \\ {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} (X_ {i} - \ mu) ^ {2}, {\ text {если дисперсия неизвестна, но известно среднее значение.}} \ \ {\ frac {1} {n-1}} \ sum _ {i = 1} ^ {n} (X_ {i} - {\ bar {X}}) ^ {2}, {\ text {иначе.}} \ end {cases}}}\ hat {\ sigma} ^ 2 = \ begin {cases} \ sigma ^ 2, \ text {, если дисперсия известна.} \\ \ frac {1} {n} \ sum_ {i = 1} ^ n (X_i - \ mu) ^ 2, \ text {если дисперсия неизвестна, но известно среднее значение.} \\ \ frac {1} {n - 1} \ sum_ {i = 1} ^ n ( X_i - \ bar {X}) ^ 2, \ text {иначе.} \ End {case}

Значения X i {\ displaystyle X_ {i}}X_ {i} стандартизированы для создания новых значений Y i {\ displaystyle Y_ { i}}Y_{i}, заданный как

Y i = X i - μ ^ σ ^. {\ displaystyle Y_ {i} = {\ frac {X_ {i} - {\ hat {\ mu}}} {\ hat {\ sigma}}}.}Y_ { i} = {\ frac {X_ {i} - {\ hat {\ mu}}} {{\ hat {\ sigma}}}}.

Со стандартным нормальным CDF Φ { \ displaystyle \ Phi}\ Phi , A 2 {\ displaystyle A ^ {2}}A ^ {2} вычисляется с использованием

A 2 = - n - 1 n ∑ i = 1 n (2 i - 1) (ln ⁡ Φ (Y i) + ln ⁡ (1 - Φ (Y n + 1 - i))). {\ displaystyle A ^ {2} = - n - {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} (2i-1) (\ ln \ Phi (Y_ {i}) + \ ln (1- \ Phi (Y_ {n + 1-i}))).}A ^ {2} = -n - {\ frac {1} {n}} \ sum _ {{i = 1}} ^ {n} (2i-1) (\ ln \ Phi (Y_ {i}) + \ ln (1- \ Фи (Y _ {{п + 1-я}}))).

Альтернативное выражение, в котором на каждом этапе суммирования обрабатывается только одно наблюдение:

A 2 = - n - 1 n ∑ i = 1 n [(2 i - 1) ln ⁡ Φ (Y i) + (2 (n - i) + 1) ln ⁡ (1 - Φ (Y i))]. {\ displaystyle A ^ {2} = - n - {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} \ left [(2i-1) \ ln \ Phi (Y_ {i }) + (2 (ni) +1) \ ln (1- \ Phi (Y_ {i})) \ right].}A ^ {2} = - n - {\ гидроразрыва {1} {n}} \ sum _ {{i = 1}} ^ {n} \ left [(2i-1) \ ln \ Phi (Y_ {i}) + (2 (ni) +1) \ ln (1- \ Phi (Y_ {i})) \ right].

Модифицированная статистика может быть рассчитана с использованием

A ∗ 2 = {A 2 (1 + 4 n - 25 n 2), если дисперсия и среднее значение неизвестны. В противном случае A 2. {\ displaystyle A ^ {* 2} = {\ begin {cases} A ^ {2} \ left (1 + {\ frac {4} {n}} - {\ frac {25} {n ^ {2}}) } \ right), {\ text {если и дисперсия, и среднее значение неизвестны.}} \\ A ^ {2}, {\ text {в противном случае.}} \ end {cases}}}A ^ {{* 2}} = {\ begin {case} A ^ {2} \ left (1 + {\ frac {4} {n}} - {\ frac {25} {n ^ {2}}} \ right), {\ text {если дисперсия и среднее значение неизвестны.}} \\ A ^ {2}, {\ text {в противном случае.}} \ end {cases}}

Если A 2 {\ displaystyle A ^ {2}}A ^ {2} или A ∗ 2 {\ displaystyle A ^ {* 2}}A ^ {{* 2}} превышает заданное критическое значение, тогда гипотеза о нормальности отвергается с некоторым уровнем значимости. Критические значения приведены в таблице ниже для значений A 2 {\ displaystyle A ^ {2}}A ^ {2} .

Примечание 1. Если σ ^ {\ displaystyle {\ hat {\ sigma}}}{\ hat {\ sigma}} = 0 или любое другое Φ (Y i) = {\ displaystyle \ Phi (Y_ {i}) =}\ Phi (Y_ {i}) = (0 или 1), затем A 2 { \ displaystyle A ^ {2}}A ^ {2} не может быть вычислен и не определен.

Примечание 2: Приведенная выше формула корректировки взята из Shorak Wellner (1986, стр. 239). При сравнении различных источников требуется осторожность, поскольку часто конкретная формула корректировки не указывается.

Примечание 3: Стивенс отмечает, что тест становится лучше, когда параметры вычисляются на основе данных, даже если они известны.

Примечание 4: Marsaglia и Marsaglia обеспечивают более точный результат для случая 0 при 85% и 99%.

Случайn15%10%5%2.5%1%
0≥ 5 {\ displaystyle \ geq 5}\ geq 5 1,6211,9332,4923,0703,878
10,9081,1051,3041,573
2≥ 5 {\ displaystyle \ geq 5}\ geq 5 1.7602.3232.9043.690
3100.5140,5780,6830,7790,926
200,5280,5910,7040,8150,969
500,5460,6160,7350,8611,021
1000,5590,6310,7540,8841,047
∞ {\ displaystyle \ infty}\ infty 0,5760,6560,7870,9181,092

В качестве альтернативы, для случая 3, описанного выше (среднее значение и дисперсия неизвестны), Д'Агостино (1986) в таблице 4.7 на стр. 123 и на страницах 372–373 дает скорректированную статистику:

A ∗ 2 = A 2 (1 + 0,75 n + 2,25 n 2). {\ displaystyle A ^ {* 2} = A ^ {2} \ left (1 + {\ frac {0.75} {n}} + {\ frac {2.25} {n ^ {2}}} \ right).}A ^ {{* 2}} = A ^ {2} \ left (1 + {\ frac {0.75} { n}} + {\ frac {2.25} {n ^ {2}}} \ right).

и нормальность отклоняется, если A ∗ 2 {\ displaystyle A ^ {* 2}}A ^ {{* 2}} превышает 0,631, 0,752, 0,873, 1,035 или 1,159 при 10%, 5%, 2,5%, Уровни значимости 1% и 0,5% соответственно; процедура действительна для размера выборки не менее n = 8. Формулы для вычисления p-значений для других значений A ∗ 2 {\ displaystyle A ^ {* 2}}A ^ {{* 2}} приведены в таблице 4.9 на стр. 127 в той же книге.

Тесты для других распределений

Выше предполагалось, что переменная X i {\ displaystyle X_ {i}}X_ {i} проверялась на нормальное распределение. Любое другое семейство распределений может быть протестировано, но тест для каждого семейства реализуется с использованием различных модификаций базовой статистики теста, и это относится к критическим значениям, специфичным для этого семейства распределений. Модификации статистики и таблиц критических значений даны Стивенсом (1986) для экспоненциального, экстремального, распределения Вейбулла, гамма-распределения, логистического распределения, распределения Коши и фон Мизеса. Тесты для (двухпараметрического) логнормального распределения могут быть реализованы путем преобразования данных с использованием логарифма и использования вышеуказанного теста на нормальность. Подробные сведения о необходимых модификациях статистики теста и критических значениях для нормального распределения и экспоненциального распределения были опубликованы Pearson Hartley (1972, таблица 54). Подробности этих распределений с добавлением распределения Гамбеля также даны Shorak Wellner (1986, стр. 239). Детали для логистического распределения даны Стивенсом (1979). Тест для (двухпараметрического) распределения Вейбулла может быть получен, если использовать тот факт, что логарифм переменной Вейбулла имеет распределение Гамбеля.

Непараметрические тесты k-выборки

Фриц Шольц и Майкл А. Стивенс (1987) обсуждают критерий, основанный на измерении согласия Андерсона-Дарлинга между распределениями, для определения того, могло ли некоторое количество случайных выборок с возможно разными размерами выборок возникнуть из одного и того же распределения., где это распределение не указано. Пакет R kSamples реализует этот ранговый тест для сравнения k выборок среди нескольких других таких ранговых тестов.

См. Также
Ссылки
Дополнительная литература
  • Кордер, GW, Foreman, DI (2009) Непараметрическая статистика для нестатистиков: пошаговый подход Wiley, ISBN 978-0-470-45461-9
  • Mehta, S. ( 2014) Темы статистики ISBN 978-1499273533
  • Пирсон ES, Хартли, HO (Редакторы) (1972) Таблицы биометрики для статистиков, Том II. ЧАШКА. ISBN 0-521-06937-8.
  • Шапиро, С.С. (1980) Как проверить нормальность и другие предположения о распределении. В: Основные ссылки ASQC в области контроля качества: статистические методы 3, стр. 1–78.
  • Шорак, Г.Р., Веллнер, Дж. А. (1986) Эмпирические процессы с приложениями к статистике, Wiley. ISBN 0-471-86725-X.
  • Стивенс, Массачусетс (1979) Тест соответствия для логистического распределения на основе эмпирической функции распределения, Biometrika, 66 (3), 591–5.
Внешние ссылки
Последняя правка сделана 2021-06-10 23:45:33
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте