F-тест

редактировать

F-тест - это любой статистический тест, в котором тестовая статистика имеет F- распределение при нулевой гипотезе. Чаще всего используется при сравнении статистических моделей, которые были подогнаны к набору данных, чтобы определить модель, которая наилучшим образом соответствует совокупности, из которой данные были отобраны. Точные «F-тесты» в основном возникают, когда модели подгоняются к данным с использованием наименьших квадратов. Название было придумано Джорджем В. Снедекором в честь сэра Рональда А. Фишера. Первоначально Фишер разработал статистику как коэффициент дисперсии в 1920-х годах.

Содержание
  • 1 Распространенные примеры
    • 1.1 F-тест равенства двух дисперсий
  • 2 Формула и расчет
    • 2.1 Множественное сравнение Задачи ANOVA
    • 2.2 Проблемы регрессии
  • 3 Ссылки
  • 4 Дополнительная литература
  • 5 Внешние ссылки
Общие примеры

Общие примеры использования F-тестов включают изучение следующие случаи:

Кроме того, некоторые статистические процедуры, такие как метод Шеффе для корректировки множественных сравнений в линейных моделях, также используют F-тесты.

F-тест равенства двух дисперсий

F-тест чувствителен к ненормальности. В дисперсионном анализе (ANOVA) альтернативные тесты включают тест Левена, тест Бартлетта и тест Брауна – Форсайта. Однако, когда любой из этих тестов проводится для проверки основного предположения о гомоскедастичности (т. Е. Однородности дисперсии), в качестве предварительного шага к проверке средних эффектов, экспериментально увеличивается Ошибка типа I частота.

Формула и расчет

Большинство F-тестов возникает при рассмотрении декомпозиции изменчивости в наборе данных с точки зрения суммы квадратов. Статистика критерия в F-тесте представляет собой отношение двух масштабированных сумм квадратов, отражающих различные источники изменчивости. Эти суммы квадратов построены так, что статистика имеет тенденцию быть больше, когда нулевая гипотеза неверна. Для того, чтобы статистика соответствовала F-распределению при нулевой гипотезе, суммы квадратов должны быть статистически независимыми, и каждая из них должна соответствовать масштабированному χ²-распределению. Последнее условие гарантируется, если значения данных независимы и нормально распределены с общей дисперсией.

Задачи ANOVA с множественным сравнением

F-тест в одностороннем анализе дисперсии используется для оценки того, отличаются ли ожидаемые значения количественной переменной в нескольких заранее определенных группах друг от друга. Например, предположим, что медицинское испытание сравнивает четыре лечения. F-тест ANOVA может быть использован для оценки того, является ли какое-либо лечение в среднем лучше или хуже других по сравнению с нулевой гипотезой о том, что все четыре лечения дают одинаковый средний ответ. Это пример «комплексного» теста, означающего, что один тест выполняется для обнаружения любого из нескольких возможных различий. В качестве альтернативы, мы могли бы провести попарные тесты для лечения (например, в примере медицинского испытания с четырьмя курсами лечения мы могли бы провести шесть тестов для пар курсов лечения). Преимущество F-теста ANOVA состоит в том, что нам не нужно заранее указывать, какие методы лечения следует сравнивать, и нам не нужно настраивать для выполнения множественных сравнений. Недостатком F-теста ANOVA является то, что, если мы отклоняем нулевую гипотезу, мы не знаем, какие методы лечения могут значительно отличаться от других, и если F-тест выполняется при На уровне α можно утверждать, что пара лечения с наибольшей разницей средних значений значительно отличается на уровне α.

Формула одностороннего ANOVA F-теста статистики :

F = объясненная дисперсия, необъяснимая дисперсия, {\ displaystyle F = {\ frac { \ text {объясненная дисперсия}} {\ text {необъяснимая дисперсия}}},}F = {\ frac {{\ text {объясненная дисперсия}}} {{\ text {необъяснимая дисперсия} }}},

или

F = межгрупповая изменчивость внутригрупповая изменчивость. {\ displaystyle F = {\ frac {\ text {межгрупповая изменчивость}} {\ text {внутригрупповая изменчивость}}}.}F = {\ frac {{\ text {межгрупповая изменчивость}}} {{\ text {внутригрупповая изменчивость}}}}.

«Объясненная дисперсия» или «межгрупповая изменчивость»

∑ я знак равно 1 К NI (Y ¯ я ⋅ - Y ¯) 2 / (K - 1) {\ displaystyle \ sum _ {i = 1} ^ {K} n_ {i} ({\ bar {Y}} _ {я \ cdot} - {\ bar {Y}}) ^ {2} / (K-1)}{\ displaystyle \ sum _ {i = 1} ^ {K} n_ {i} ({\ bar {Y}} _ {i \ cdot} - {\ bar {Y}}) ^ {2} / (K-1)}

где Y ¯ я ⋅ {\ displaystyle {\ bar {Y}} _ {i \ cdot}}{\ bar {Y}} _ {{i \ cdot}} обозначает выборочное среднее в i-й группе, ni {\ displaystyle n_ {i}}n_ {i} - количество наблюдений в i-й группе Y ¯ {\ displaystyle {\ bar {Y}}}{\ bar {Y}} обозначает общее среднее значение данных, а K {\ displaystyle K}K обозначает количество групп.

«Необъяснимая дисперсия» или «внутригрупповая изменчивость»:

∑ i = 1 K ∑ j = 1 ni (Y ij - Y ¯ i ⋅) 2 / (N - K), {\ displaystyle \ sum _ {i = 1} ^ {K} \ sum _ {j = 1} ^ {n_ {i}} \ left (Y_ {ij} - {\ bar {Y}} _ {i \ cdot } \ right) ^ {2} / (NK),}{\ displaystyle \ sum _ {i = 1} ^ {K} \ sum _ {j = 1} ^ {n_ {i}} \ left (Y_ {ij} - {\ bar {Y}} _ {я \ cdot} \ справа) ^ {2} / (NK),}

где Y ij {\ displaystyle Y_ {ij}}Y _ {{ij}} - наблюдение j в i из K {\ displaystyle K}K групп, а N {\ displaystyle N}N - общий размер выборки. Эта F-статистика соответствует F-распределению со степенями свободы d 1 = K - 1 {\ displaystyle d_ {1} = K-1}{\ displaystyle d_ {1} = K-1} и d 2 = N - K {\ displaystyle d_ {2} = NK}{\ displaystyle d_ {2} = NK} при нулевой гипотезе. Статистика будет большой, если вариабельность между группами велика по сравнению с вариабельностью внутри группы, что маловероятно, если означает, что всех групп имеют одинаковое значение.

Обратите внимание, что когда есть только две группы для F-теста однофакторного дисперсионного анализа, F = t 2 {\ displaystyle F = t ^ {2}}{\ displaystyle F = t ^ {2}} , где t является статистика Стьюдента t {\ displaystyle t}t .

Проблемы регрессии

Рассмотрим две модели, 1 и 2, где модель 1 «вложена» в модель 2. Модель 1 - это ограниченная модель, а модель 2 - неограниченная. То есть модель 1 имеет параметры p 1, а модель 2 имеет параметры p 2, где p 1< p2, и для любого выбора параметров в модели 1 такая же кривая регрессии может быть достигнуто путем некоторого выбора параметров модели 2.

Одним из распространенных контекстов в этом отношении является решение, значительно ли лучше соответствует модель данным, чем наивная модель, в которой единственным поясняющим термином является член перехвата, так что все прогнозируемые значения для зависимой переменной устанавливаются равными выборочному среднему для этой переменной. Наивная модель - это модель с ограничениями, поскольку коэффициенты всех потенциальных независимых переменных ограничены равными нулю.

Другой распространенный контекст - это решение, есть ли структурный разрыв в данных: здесь ограниченная модель использует все данные в одной регрессии, тогда как неограниченная модель использует отдельные регрессии для двух разных поднаборов данных. Такое использование F-теста известно как тест Чоу.

. Модель с большим количеством параметров всегда сможет соответствовать данным, по крайней мере, так же хорошо, как модель с меньшим количеством параметров. Таким образом, как правило, модель 2 дает лучшее соответствие (т.е. меньшую ошибку) данным, чем модель 1. Но часто требуется определить, дает ли модель 2 значительно лучшее соответствие данным. Один из подходов к этой проблеме - использовать F-тест.

Если есть n точек данных для оценки параметров обеих моделей, то можно рассчитать статистику F, заданную как

F = (RSS 1 - RSS 2 p 2 - p 1) (RSS 2 п - п 2), {\ displaystyle F = {\ frac {\ left ({\ frac {{\ text {RSS}} _ {1} - {\ text {RSS}} _ {2}} {p_ {2 } -p_ {1}}} \ right)} {\ left ({\ frac {{\ text {RSS}} _ {2}} {n-p_ {2}}} \ right)}},}F = {\ frac {\ left ({\ frac {{\ текст {RSS}} _ {1} - {\ text {RSS}} _ {2}} {p_ {2} -p_ {1}}} \ right)} {\ left ({\ frac {{\ text { RSS}} _ {2}} {n-p_ {2}}} \ right)}},

где RSS i - это остаточная сумма квадратов модели i. Если регрессионная модель была рассчитана с весами, замените RSS i на χ, взвешенную сумму квадратов остатков. При нулевой гипотезе о том, что модель 2 не обеспечивает значительно лучшего соответствия, чем модель 1, F будет иметь F-распределение с (p 2−p1, n − p 2) степенями свободы. Нулевая гипотеза отклоняется если F, вычисленное на основе данных, больше критического значения F-распределения для некоторой желаемой вероятности ложного отклонения (например, 0,05). F-тест - это тест Вальда.

Ссылки
Дополнительная литература
E внешние ссылки
Последняя правка сделана 2021-05-20 06:15:12
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте