Степени свободы (статистика)

редактировать
количество значений в окончательном вычислении статистики, которые могут изменяться

In статистика, количество степеней свободы - это количество значений в окончательном вычислении статистики, которые могут изменяться.

Число независимых способов, которыми динамическая система может двигаться, не нарушая наложенных на нее ограничений, называется числом степеней свободы. Другими словами, количество степеней свободы можно определить как минимальное количество независимых координат, которые могут полностью определять положение системы.

Оценки статистических параметров могут быть основаны на различном количестве информации или данных. Количество независимых частей информации, которые используются для оценки параметра, называется степенями свободы. В общем, степени свободы оценки параметра равны количеству независимых оценок, которые входят в оценку, минус количество параметров, используемых в качестве промежуточных шагов при оценке самого параметра (большинство времени выборочная дисперсия имеет N - 1 степень свободы, поскольку она вычисляется из N случайных оценок за вычетом единственного параметра, оцененного как промежуточный шаг, который является выборочным средним).

Математически, степени свободы - это количество измерений области случайного вектора или, по сути, количество «свободных» компонентов (сколько компонентов необходимо знать, прежде чем вектор будет полностью определен).

Этот термин чаще всего используется в контексте линейных моделей (линейная регрессия, дисперсионный анализ ), где определенные случайные векторы ограничено лежать в линейных подпространствах, а количество степеней свободы - это размерность подпространства. Степени свободы также обычно связаны с квадратами длин (или «суммой квадратов» координат) таких векторов, а также параметрами хи-квадрат и другими распределениями, которые возникают в связанных задачах статистического тестирования..

Хотя вводные учебники могут вводить степени свободы в качестве параметров распределения или посредством проверки гипотез, именно лежащая в основе геометрия определяет степени свободы и имеет решающее значение для правильного понимания концепции.

Содержание
  • 1 История
  • 2 Нотация
  • 3 Случайных векторов
  • 4 В моделях структурных уравнений
    • 4.1 Остатков
  • 5 В линейных моделях
  • 6 В дисперсионном анализе (ANOVA)
  • 7 В вероятностных распределениях
  • 8 В нестандартной регрессии
    • 8.1 Эффективные степени свободы регрессии
    • 8,2 Остаточные эффективные степени свободы
    • 8,3 Общие
    • 8.4 Другие формулировки
  • 9 См. Также
  • 10 Ссылки
  • 11 Дополнительная литература
  • 12 Внешние ссылки
История

Хотя основная концепция степеней свободы была признана еще в 1821 году в работах астронома и математика Карла Фридриха Гаусса, его современное определение и использование были впервые разработаны английским статистиком Уильямом Сили Госсет в его статье 1908 Biometrika «Вероятная ошибка среднего », изданная под псевдонимом« Студент ». Хотя Госсет на самом деле не использовал термин «степени свободы», он объяснил эту концепцию в ходе разработки того, что стало известно как t-распределение Стьюдента. Сам термин был популяризирован английским статистиком и биологом Рональдом Фишером, начиная с его работы 1922 года о квадратах хи.

Обозначение

В уравнениях, типичный символ для степеней свобода - ν (строчная греческая буква ню ). В тексте и таблицах сокращение «d.f.» обычно используется. Р. А. Фишер использовал n для обозначения степеней свободы, но современное использование обычно резервирует n для размера выборки.

Случайных векторов

Геометрически степени свободы можно интерпретировать как размерность определенных векторных подпространств. В качестве отправной точки предположим, что у нас есть выборка независимых нормально распределенных наблюдений,

X 1,…, X n. {\ displaystyle X_ {1}, \ dots, X_ {n}. \,}X_ {1}, \ dots, X_ {n}. \,

Это можно представить как n-мерный случайный вектор :

(X 1 ⋮ X n). {\ displaystyle {\ begin {pmatrix} X_ {1} \\\ vdots \\ X_ {n} \ end {pmatrix}}.}{\ begin {pmatrix} X_ {1} \\\ vdots \\ X_ {n } \ end {pmatrix}}.

Поскольку этот случайный вектор может находиться где угодно в n-мерном пространстве, он имеет n степени свободы.

Теперь пусть X ¯ {\ displaystyle {\ bar {X}}}{\ bar {X}} будет выборочным средним. Случайный вектор может быть разложен как сумма выборочного среднего плюс вектор остатков:

(X 1 ⋮ X n) = X ¯ (1 ⋮ 1) + (X 1 - X ¯ ⋮ X n - X ¯). {\ displaystyle {\ begin {pmatrix} X_ {1} \\\ vdots \\ X_ {n} \ end {pmatrix}} = {\ bar {X}} {\ begin {pmatrix} 1 \\\ vdots \\ 1 \ end {pmatrix}} + {\ begin {pmatrix} X_ {1} - {\ bar {X}} \\\ vdots \\ X_ {n} - {\ bar {X}} \ end {pmatrix}}.}{ \ begin {pmatrix} X_ {1} \\\ vdots \\ X_ {n} \ end {pmatrix}} = {\ bar {X}} {\ begin {pmatrix} 1 \\\ vdots \\ 1 \ end { pmatrix}} + {\ begin {pmatrix} X_ {1} - {\ bar {X}} \\\ vdots \\ X_ {n} - {\ bar {X}} \ end {pmatrix}}.

Первый вектор в правой части ограничен, чтобы быть кратным вектору единиц, а единственная свободная величина - X ¯ {\ displaystyle {\ bar {X}}}{\ bar {X}} . Следовательно, он имеет 1 степень свободы.

Второй вектор ограничен соотношением ∑ i = 1 n (X i - X ¯) = 0 {\ displaystyle \ sum _ {i = 1} ^ {n} (X_ {i } - {\ bar {X}}) = 0}\ sum _ {i = 1} ^ {n} (X_ {i} - {\ bar {X}}) = 0 . Первые n - 1 компонент этого вектора могут быть любыми. Однако, как только вы узнаете первые n - 1 компонент, ограничение сообщит вам значение n-го компонента. Следовательно, этот вектор имеет n - 1 степень свободы.

Математически первый вектор представляет собой ортогональную проекцию вектора данных по методу наименьших квадратов на подпространство , охватываемое вектором из 1-х. 1 степень свободы - это размерность этого подпространства. Второй вектор невязки представляет собой проекцию методом наименьших квадратов на (n - 1) -мерное ортогональное дополнение этого подпространства и имеет n - 1 степень свободы.

В приложениях статистического тестирования часто напрямую интересуют не составляющие векторы, а их квадраты длин. В приведенном выше примере остаточная сумма квадратов равна

∑ i = 1 n (X i - X ¯) 2 = ‖ X 1 - X ¯ ⋮ X n - X ¯ ‖ 2. {\ displaystyle \ sum _ {i = 1} ^ {n} (X_ {i} - {\ bar {X}}) ^ {2} = {\ begin {Vmatrix} X_ {1} - {\ bar {X }} \\\ vdots \\ X_ {n} - {\ bar {X}} \ end {Vmatrix}} ^ {2}.}\ sum _ {i = 1} ^ {n} (X_ {i} - {\ bar { X}}) ^ {2} = {\ begin {Vmatrix} X_ {1} - {\ bar {X }} \\\ vdots \\ X_ {n} - {\ bar {X}} \ end {Vmatrix}} ^ {2}.

Если точки данных X i {\ displaystyle X_ {i }}X_ {i} нормально распределены со средним 0 и дисперсией σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} , тогда остаточная сумма квадратов имеет масштабированный Распределение хи-квадрат (масштабировано с коэффициентом σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} ) с n - 1 степенями свободы. Степени свободы, здесь параметр распределения, все еще можно интерпретировать как размерность лежащего в основе векторного подпространства.

Аналогично, статистика по одинарному t-критерию,

n (X ¯ - μ 0) ∑ i = 1 n (X i - X ¯) 2 / (n - 1) {\ displaystyle {\ frac {{\ sqrt {n}} ({\ bar {X}} - \ mu _ {0})} {\ sqrt {\ sum \ limits _ {i = 1} ^ { n} (X_ {i} - {\ bar {X}}) ^ {2} / (n-1)}}}}{\ frac {{\ sqrt {n}} ({\ bar {X}} - \ mu _ {0})} {\ sqrt {\ sum \ limits _ {i = 1} ^ {n} (X_ {i} - {\ bar {X}}) ^ {2} / (n-1)}}}

следует распределению Стьюдента t с n - 1 степенью свобода, когда гипотетическое среднее μ 0 {\ displaystyle \ mu _ {0}}\ mu _ {0} верно. Опять же, степени свободы возникают из остаточного вектора в знаменателе.

В моделях структурных уравнений

Когда представлены результаты моделей структурных уравнений (SEM), они обычно включают один или несколько показателей общего соответствия модели, наиболее распространенным из которых является статистика χ.. Это составляет основу для других обычно публикуемых индексов. Хотя чаще всего интерпретируются эти другие статистические данные, степени свободы χ важны для понимания соответствия модели, а также природы самой модели.

Степени свободы в SEM вычисляются как разность между количеством уникальных частей информации, которые используются в качестве входных данных для анализа, иногда называемых известными, и количеством параметров, которые оцениваются однозначно, иногда называемых неизвестными.. Например, в однофакторном подтверждающем факторном анализе с 4 элементами имеется 10 известных (шесть уникальных ковариаций среди четырех элементов и четыре дисперсии элементов) и 8 неизвестных (4 факторные нагрузки и 4 дисперсии ошибок) для 2 степеней вероятности. свобода. Степени свободы важны для понимания соответствия модели, хотя бы по той или иной причине, при прочих равных, чем меньше степеней свободы, тем лучше будут индексы, такие как χ.

Было показано, что читатели статей, содержащих SEM, могут использовать степени свободы, чтобы определить, действительно ли авторы этих статей сообщают правильную статистику соответствия модели. В организационных науках, например, почти половина статей, опубликованных в ведущих журналах, сообщают о степенях свободы, которые несовместимы с моделями, описанными в этих статьях, оставляя читателя гадать, какие модели были на самом деле протестированы.

Обычный способ думать о степенях свободы - это количество независимых частей информации, доступных для оценки другой части информации. Более конкретно, количество степеней свободы - это количество независимых наблюдений в выборке данных, доступных для оценки параметра генеральной совокупности, из которой эта выборка взята. Например, если у нас есть два наблюдения, при вычислении среднего у нас есть два независимых наблюдения; однако при вычислении дисперсии у нас есть только одно независимое наблюдение, поскольку эти два наблюдения одинаково удалены от выборочного среднего.

При подборе статистических моделей к данным векторы остатков ограничиваются тем, чтобы они лежали в пространстве меньшей размерности, чем количество компонентов в векторе. Этот меньший размер - это количество степеней свободы ошибки, также называемое остаточными степенями свободы.

Пример

Пожалуй, самый простой пример. Предположим, что

X 1,…, X n {\ displaystyle X_ {1}, \ dots, X_ {n}}X_ {1}, \ dots, X_ {n}

- это случайные переменные, каждая с ожидаемым значением μ., и пусть

X ¯ n = X 1 + ⋯ + X nn {\ displaystyle {\ overline {X}} _ {n} = {X_ {1} + \ cdots + X_ {n} \ over n}}{\ overline {X}} _ {n} = {X_ {1} + \ cdots + X_ {n} \ over n}

быть «выборочным средним». Тогда величины

X i - X ¯ n {\ displaystyle X_ {i} - {\ overline {X}} _ {n} \,}X_ {i} - {\ overline {X}} _ { n} \,

являются остатками, которые могут считаться оценками ошибок Xi- μ. Сумма остатков (в отличие от суммы ошибок) обязательно равна 0. Если кто-то знает значения любых n - 1 остатков, он, таким образом, может найти последнее. Это означает, что они должны находиться в пространстве размерности n - 1. Говорят, что существует n - 1 степень свободы для ошибок.

Пример, который лишь немного менее прост, - это пример оценки методом наименьших квадратов значений a и b в модели

Y i = a + bxi + ei для i = 1,…, n {\ displaystyle Y_ {i} = a + bx_ {i} + e_ {i} {\ text {for}} i = 1, \ dots, n}Y_ {i} = a + bx_ {i} + e_ {i} {\ text {для }} i = 1, \ dots, n

где x i - задано, но e i и, следовательно, Y i являются случайными. Пусть a ^ {\ displaystyle {\ widehat {a}}}{\ widehat {a}} и b ^ {\ displaystyle {\ widehat {b}}}{\ widehat {b}} будет наименее- квадраты оценок a и b. Тогда остатки

e ^ i = yi - (a ^ + b ^ xi) {\ displaystyle {\ widehat {e}} _ {i} = y_ {i} - ({\ widehat {a}} + { \ widehat {b}} x_ {i}) \,}{\ displaystyle {\ widehat {e}} _ {i} = y_ {i} - ({\ widehat {a }} + {\ widehat {b}} x_ {i}) \,}

ограничены пространством, определяемым двумя уравнениями

e ^ 1 + ⋯ + e ^ n = 0, {\ displaystyle {\ widehat {e}} _ {1} + \ cdots + {\ widehat {e}} _ {n} = 0, \,}{\ displaystyle {\ widehat {e} } _ {1} + \ cdots + {\ widehat {e}} _ {n} = 0, \,}
x 1 e ^ 1 + ⋯ + xne ^ n = 0. {\ displaystyle x_ {1} {\ widehat {e}} _ {1} + \ cdots + x_ {n} {\ widehat {e}} _ {n} = 0. \,}{\ displaystyle x_ {1} {\ widehat {e}} _ {1} + \ cdots + x_ {n} {\ widehat {e}} _ {n} = 0. \,}

Один говорит, что есть n - 2 степени свободы ошибки.

В условных обозначениях заглавная буква Y используется для обозначения модели, а строчная буква y - для определения остатков; это потому, что первые являются гипотетическими случайными величинами, а вторые - фактическими данными.

Мы можем обобщить это на множественную регрессию, включающую p параметров и ковариат (например, p - 1 предикторов и одно среднее (= точка пересечения в регрессии)), и в этом случае стоимость в степенях свободы подгонки равна p, оставляя n - p степеней свободы для ошибок

В линейных моделях

Демонстрация распределений t и хи-квадрат для задач с одним образцом выше является простейшим примером, где степени- свобода возникает. Однако подобная геометрия и векторные разложения лежат в основе большей части теории линейных моделей, включая линейную регрессию и дисперсионный анализ. Здесь представлен явный пример, основанный на сравнении трех средних; геометрия линейных моделей более подробно обсуждается Кристенсеном (2002).

Предположим, что независимые наблюдения проводятся для трех популяций, X 1,…, X n {\ displaystyle X_ {1}, \ ldots, X_ {n}}X_ {1}, \ ldots, X_ {n} , Y 1,…, Y n {\ displaystyle Y_ {1}, \ ldots, Y_ {n}}Y_ {1}, \ ldots, Y_ {n} и Z 1,…, Z п {\ Displaystyle Z_ {1}, \ ldots, Z_ {n}}Z_ {1}, \ ldots, Z_ {n } . Ограничение тремя группами и равными размерами выборки упрощает обозначения, но идеи легко обобщаются.

Наблюдения можно разложить как

X i = M ¯ + (X ¯ - M ¯) + (X i - X ¯) Y i = M ¯ + (Y ¯ - M ¯) + (Y я - Y ¯) Z я знак равно M ¯ + (Z ¯ - M ¯) + (Z я - Z ¯) {\ displaystyle {\ begin {align} X_ {i} = {\ bar {M}} + ({\ bar {X}} - {\ bar {M}}) + (X_ {i} - {\ bar {X}}) \\ Y_ {i} = {\ bar {M}} + ( {\ bar {Y}} - {\ bar {M}}) + (Y_ {i} - {\ bar {Y}}) \\ Z_ {i} = {\ bar {M}} + ({\ bar {Z}} - {\ bar {M}}) + (Z_ {i} - {\ bar {Z}}) \ end {align}}}{\ begin {align} X_ {i} = {\ bar {M}} + ({\ bar {X}} - {\ bar {M}}) + (X_ {i} - {\ bar {X}}) \\ Y_ {i} = {\ bar {M }} + ({\ bar {Y}} - {\ bar {M}}) + (Y_ {i} - {\ bar {Y}}) \\ Z_ {i} = {\ bar {M}} + ({\ bar {Z}} - {\ bar {M}}) + (Z_ {i} - {\ bar {Z}}) \ end {align}}

где X ¯, Y ¯, Z ¯ {\ displaystyle {\ bar {X}}, {\ bar {Y}}, {\ bar {Z}}}{\ bar {X}}, {\ bar {Y}}, {\ bar {Z}} - средние значения отдельных образцов, а M ¯ = ( Икс ¯ + Y ¯ + Z ¯) / 3 {\ displaystyle {\ bar {M}} = ({\ bar {X}} + {\ bar {Y}} + {\ bar {Z}}) / 3}{\ bar {M}} = ({ \ bar {X}} + {\ bar {Y}} + {\ bar {Z}}) / 3 - среднее значение всех 3n наблюдений. В векторных обозначениях это разложение можно записать как

(X 1 ⋮ X n Y 1 ⋮ Y n Z 1 ⋮ Z n) = M ¯ (1 ⋮ 1 1 ⋮ 1 1 ⋮ 1) + (X ¯ - M ¯ ⋮ X ¯ - M ¯ Y ¯ - M ¯ ⋮ Y ¯ - M ¯ Z ¯ - M ¯ ⋮ Z ¯ - M ¯) + (X 1 - X ¯ ⋮ X n - X ¯ Y 1 - Y ¯ ⋮ Y n - Y ¯ Z 1 - Z ¯ ⋮ Z n - Z ¯). {\ displaystyle {\ begin {pmatrix} X_ {1} \\\ vdots \\ X_ {n} \\ Y_ {1} \\\ vdots \\ Y_ {n} \\ Z_ {1} \\\ vdots \ \ Z_ {n} \ end {pmatrix}} = {\ bar {M}} {\ begin {pmatrix} 1 \\\ vdots \\ 1 \\ 1 \\\ vdots \\ 1 \\ 1 \\\ vdots \\ 1 \ end {pmatrix}} + {\ begin {pmatrix} {\ bar {X}} - {\ bar {M}} \\\ vdots \\ {\ bar {X}} - {\ bar {M }} \\ {\ bar {Y}} - {\ bar {M}} \\\ vdots \\ {\ bar {Y}} - {\ bar {M}} \\ {\ bar {Z}} - {\ bar {M}} \\\ vdots \\ {\ bar {Z}} - {\ bar {M}} \ end {pmatrix}} + {\ begin {pmatrix} X_ {1} - {\ bar { X}} \\\ vdots \\ X_ {n} - {\ bar {X}} \\ Y_ {1} - {\ bar {Y}} \\\ vdots \\ Y_ {n} - {\ bar { Y}} \\ Z_ {1} - {\ bar {Z}} \\\ vdots \\ Z_ {n} - {\ bar {Z}} \ end {pmatrix}}.}{\ begin {pmatrix} X_ {1} \\\ vdots \\ X_ {n} \\ Y_ {1} \\\ vdots \\ Y_ {n} \\ Z_ {1} \\\ vdots \\ Z_ {n} \ end {pmatrix}} = {\ bar {M}} {\ begin {pmatrix} 1 \\\ vdots \\ 1 \\ 1 \\\ vdots \\ 1 \\ 1 \\\ vdots \\ 1 \ end {pmatrix}} + {\ begin {pmatrix} {\ bar {X}} - {\ bar {M}} \\\ vdots \\ {\ bar {X}} - {\ bar {M}} \\ {\ bar {Y}} - {\ bar {M}} \\\ vdots \\ {\ bar {Y}} - {\ bar {M}} \\ {\ bar {Z}} - {\ bar {M}} \\\ vdots \\ {\ bar {Z} } - {\ bar {M}} \ end {pmatrix}} + {\ begin {pmatrix} X_ {1} - {\ bar {X}} \\\ vdots \\ X_ {n} - {\ bar {X }} \\ Y_ {1} - {\ bar {Y}} \\\ vdots \\ Y_ {n} - {\ bar {Y}} \\ Z_ {1} - {\ bar {Z}} \\ \ vdots \\ Z_ {n} - {\ bar {Z}} \ end {pmatrix}}.

Вектор наблюдения, в левой части имеет 3n степеней свободы. В правой части первый вектор имеет одну степень свободы (или размерность) для общего среднего. Второй вектор зависит от трех случайных величин: X ¯ - M ¯ {\ displaystyle {\ bar {X}} - {\ bar {M}}}{\ bar {X}} - {\ bar {M} } , Y ¯ - M ¯ {\ displaystyle {\ bar {Y}} - {\ bar {M}}}{\ bar {Y}} - {\ bar {M}} и Z ¯ - M ¯ {\ displaystyle {\ overline {Z}} - {\ overline {M}}}{\ overline {Z }} - {\ overline {M}} . Однако они должны быть равны 0 и поэтому ограничены; поэтому вектор должен лежать в 2-мерном подпространстве и иметь 2 степени свободы. Остальные 3n - 3 степени свободы находятся в остаточном векторе (состоящем из n - 1 степеней свободы в каждой из популяций).

В дисперсионном анализе (ANOVA)

В задачах статистического тестирования обычно интересуют не сами составляющие векторы, а их квадраты длин или сумма квадратов. Степени свободы, связанные с суммой квадратов, представляют собой степени свободы соответствующих составляющих векторов.

Приведенный выше пример с тремя популяциями является примером одностороннего анализа отклонений. Модель, или обработка, сумма квадратов - это квадрат длины второго вектора,

SST = n (X ¯ - M ¯) 2 + n (Y ¯ - M ¯) 2 + n (Z ¯ - M ¯) 2 {\ displaystyle {\ text {SST}} = n ({\ bar {X}} - {\ bar {M}}) ^ {2} + n ({\ bar {Y}} - {\ bar {M}}) ^ {2} + n ({\ bar {Z}} - {\ bar {M}}) ^ {2}}{\ displaystyle {\ text {SST}} = n ({\ bar {X }} - {\ bar {M}}) ^ {2} + n ({\ bar {Y}} - {\ bar {M}}) ^ {2} + n ({\ bar {Z}} - { \ bar {M}}) ^ {2}}

с 2 степенями свободы. Остаточная сумма квадратов, или ошибка, равна

SSE = ∑ i = 1 n (X i - X ¯) 2 + ∑ i = 1 n (Y i - Y ¯) 2 + ∑ i = 1 n (Z я - Z ¯) 2 {\ displaystyle {\ text {SSE}} = \ sum _ {i = 1} ^ {n} (X_ {i} - {\ bar {X}}) ^ {2} + \ sum _ {i = 1} ^ {n} (Y_ {i} - {\ bar {Y}}) ^ {2} + \ sum _ {i = 1} ^ {n} (Z_ {i} - { \ bar {Z}}) ^ {2}}{\ text {SSE}} = \ sum _ {i = 1} ^ {n} ( X_ {i} - {\ bar {X}}) ^ {2} + \ sum _ {i = 1} ^ {n} (Y_ {i} - {\ bar {Y}}) ^ {2} + \ сумма _ {я = 1} ^ {n} (Z_ {i} - {\ bar {Z}}) ^ {2}

с 3 (n - 1) степенями свободы. Конечно, вводные книги по ANOVA обычно формулируют формулы без отображения векторов, но именно эта основная геометрия дает начало формулам SS и показывает, как однозначно определять степени свободы в любой данной ситуации.

При нулевой гипотезе об отсутствии разницы между средними значениями совокупности (и при условии, что стандартные предположения регулярности дисперсионного анализа удовлетворяются) суммы квадратов имеют масштабированные распределения хи-квадрат с соответствующими степенями свободы. Статистика F-критерия - это отношение после масштабирования по степеням свободы. Если нет разницы между совокупностями, значит, это соотношение соответствует F-распределению с 2 и 3n - 3 степенями свободы.

В некоторых сложных настройках, таких как несбалансированные планы с разделенным графиком, суммы квадратов больше не имеют масштабированного распределения хи-квадрат. Сравнение суммы квадратов со степенями свободы больше не имеет смысла, и в этих случаях программное обеспечение может сообщать об определенных дробных «степенях свободы». Такие числа не имеют подлинной интерпретации степеней свободы, а просто обеспечивают приблизительное распределение хи-квадрат для соответствующей суммы квадратов. Детали таких приближений выходят за рамки этой страницы.

В вероятностных распределениях

Несколько часто встречающихся статистических распределений (t Стьюдента, хи-квадрат, F ) имеют параметры, которые обычно называют степенями свобода. Эта терминология просто отражает то, что во многих приложениях, где встречаются эти распределения, параметр соответствует степеням свободы лежащего в основе случайного вектора, как в предыдущем примере ANOVA. Другой простой пример: if X i; я знак равно 1,…, n {\ displaystyle X_ {i}; i = 1, \ ldots, n}X_ {i}; i = 1, \ ldots, n являются независимыми нормальными (μ, σ 2) {\ displaystyle (\ mu, \ sigma ^ {2})}(\ mu, \ sigma ^ {2}) случайные величины, статистика

∑ i = 1 n (X i - X ¯) 2 σ 2 {\ displaystyle {\ frac {\ sum \ limits _ {i = 1} ^ {n} (X_ {i} - {\ bar {X}}) ^ {2}} {\ sigma ^ {2}}}}{\ frac {\ sum \ limits _ {i = 1} ^ {n} (X_ {i} - {\ bar {X}}) ^ {2}} {\ sigma ^ {2}}}

следует распределению хи-квадрат с n - 1 степенью свободы. Здесь степени свободы возникают из остаточной суммы квадратов в числителе и, в свою очередь, из n - 1 степеней свободы основного остаточного вектора {X i - X ¯} {\ displaystyle \ {X_ {i} - {\ bar {X}} \}}\ {X_ {i} - {\ bar {X}} \} .

В применении этих распределений к линейным моделям параметры степеней свободы могут принимать только целые значения. Базовые семейства распределений допускают дробные значения для параметров степеней свободы, которые могут возникнуть при более сложных применениях. Один набор примеров - это задачи, в которых используются приближения хи-квадрат на основе эффективных степеней свободы. В других приложениях, таких как моделирование данных с тяжелыми хвостами, t- или F-распределение может использоваться в качестве эмпирической модели. В этих случаях нет конкретной интерпретации степеней свободы для параметров распределения, даже если терминология может и дальше использоваться.

В нестандартной регрессии

Многие нестандартные методы регрессии, включая регуляризованные методы наименьших квадратов (например, гребенчатая регрессия ), линейные сглаживания, сглаживающие сплайны и полупараметрическая регрессия основаны не на обычных проекциях наименьших квадратов, а на регуляризованных ( обобщенный и / или штрафной) методом наименьших квадратов, поэтому степени свободы, определенные в терминах размерности, обычно не используются для этих процедур. Однако эти процедуры по-прежнему линейны в наблюдениях, и подобранные значения регрессии могут быть выражены в форме

y ^ = H y, {\ displaystyle {\ hat {y}} = Hy, \,}{\ hat {y}} = Hy, \,

где y ^ {\ displaystyle {\ hat {y}}}{\ hat {y}} - это вектор подобранных значений для каждого из исходных значений ковариаты из подобранной модели, y - исходный вектор ответов., а H - матрица шляпы или, в более общем смысле, более гладкая матрица.

Для статистического вывода суммы квадратов все еще могут быть сформированы: сумма квадратов модели равна ‖ H y ‖ 2 {\ displaystyle \ | Hy \ | ^ {2}}{\ displaystyle \ | Hy \ | ^ {2}} ; остаточная сумма квадратов равна ‖ y - H y ‖ 2 {\ displaystyle \ | y-Hy \ | ^ {2}}{\ displaystyle \ | y-Hy \ | ^ {2} } . Однако, поскольку H не соответствует обычному методу наименьших квадратов (то есть не является ортогональной проекцией), эти суммы квадратов больше не имеют (масштабированных, нецентральных) распределений хи-квадрат и размерно определенных степеней -свободы бесполезны.

Эффективные степени свободы подгонки можно определить различными способами для реализации критериев согласия, перекрестной проверки и других статистический вывод процедур. Здесь можно различать эффективные степени свободы регрессии и остаточные эффективные степени свободы.

Эффективные степени свободы регрессии

Для эффективных степеней свободы регрессии соответствующие определения могут включать в себя след матрицы шляпок, tr (H), след квадратичная форма матрицы шляпы tr (H'H), форма tr (2H - H H ') или приближение Саттертуэйта, tr (H'H) / tr (H'HH' ЧАС). В случае линейной регрессии матрица шляпы H - это X (X 'X) X', и все эти определения сводятся к обычным степеням свободы. Обратите внимание, что

тр ⁡ (H) = ∑ ihii = ∑ i ∂ y ^ i ∂ yi, {\ displaystyle \ operatorname {tr} (H) = \ sum _ {i} h_ {ii} = \ sum _ { i} {\ frac {\ partial {\ hat {y}} _ {i}} {\ partial y_ {i}}},}{\ displaystyle \ operatorname {tr} (H) = \ sum _ {i} h_ {ii} = \ sum _ {i} {\ frac {\ partial {\ hat {y}} _ {i}} {\ partial y_ {i}}},}

регрессионные (не остаточные) степени свободы в линейных моделях - это "сумма чувствительности подобранных значений по отношению к наблюдаемым значениям отклика ", то есть сумма баллов рычага.

Один из способов помочь концептуализировать это - рассмотреть простую матрицу сглаживания, такую ​​как размытие по Гауссу, используется для уменьшения шума данных. В отличие от простой линейной или полиномиальной аппроксимации, вычисление эффективных степеней свободы сглаживающей функции непросто. В этих случаях важно оценить степени свободы, допускаемые матрицей H {\ displaystyle H}H , чтобы затем можно было использовать остаточные степени свободы для оценки статистических тестов, таких как χ 2 {\ displaystyle \ chi ^ {2}}\ chi ^ {2} .

Остаточные эффективные степени свободы

Существуют соответствующие определения остаточных эффективных степеней свободы (redf), где H заменено на I - H. Например, если цель состоит в оценке дисперсии ошибки, redf будет определен как tr ((I - H) '(I - H)), а несмещенная оценка будет (с r ^ = y - ЧАС Y {\ Displaystyle {\ Hat {r}} = y-Hy}{\ hat {r}} = y-Hy ),

σ ^ 2 = ‖ r ^ ‖ 2 tr ⁡ ((I - H) ′ (I - H)), {\ displaystyle {\ hat {\ sigma}} ^ {2} = {\ frac {\ | {\ hat {r}} \ | ^ {2}} {\ operatorname {tr} \ left ((IH) '(IH) \ right)}},}{\displaystyle {\hat {\sigma }}^{2}={\frac {\|{\hat {r}}\|^{2}}{\operatorname {tr} \left((I-H)'(I-H)\right)}},}

или:

σ ^ 2 = ‖ r ^ ‖ 2 n - tr ⁡ (2 H - HH ′) = ‖ r ^ ‖ 2 n - 2 tr ⁡ (ЧАС) + тр ⁡ (ЧЧ ') {\ Displaystyle {\ hat {\ sigma}} ^ {2} = {\ frac {\ | {\ hat {r}} \ | ^ {2}} {n- \ operatorname {tr} (2H-HH ')}} = {\ frac {\ | {\ hat {r}} \ | ^ {2}} {n-2 \ operatorname {tr} (H) + \ operatorname {tr} (HH ')}}}{\displaystyle {\hat {\sigma }}^{2}={\frac {\|{\hat {r}}\|^{2}}{n-\operatorname {tr} (2H-HH')}}={\frac {\|{\hat {r}}\|^{2}}{n-2\operatorname {tr} (H)+\operatorname {tr} (HH')}}}
σ ^ 2 ≈ ‖ r ^ ‖ 2 н - 1,25 тр (H) + 0,5. {\ displaystyle {\ hat {\ sigma}} ^ {2} \ приблизительно {\ frac {\ | {\ hat {r}} \ | ^ {2}} {n-1.25 \ operatorname {tr} (H) + 0.5}}.}{\ displaystyle {\ hat {\ sigma}} ^ {2} \ приблизительно {\ frac {\ | {\ hat {r}} \ | ^ {2}} {n-1.25 \ operatorname {tr} (H) +0.5}}.}

Последнее приближение, приведенное выше, снижает вычислительные затраты с O (n) до O (n). В общем числитель будет минимизируемой целевой функцией; например, если матрица шляпы включает в себя матрицу ковариации наблюдения, Σ, то ‖ r ^ ‖ 2 {\ displaystyle \ | {\ hat {r}} \ | ^ {2}}\ | {\ hat {r}} \ | ^ {2} становится r ^ ′ Σ - 1 r ^ {\ displaystyle {\ hat {r}} '\ Sigma ^ {- 1} {\ hat {r}}}{\hat {r}}'\Sigma ^{-1}{\hat {r}}.

Общие

Обратите внимание, что в отличие от в исходном случае допускаются нецелочисленные степени свободы, хотя значение обычно должно быть ограничено от 0 до n.

Рассмотрим, например, k- ближайший сосед более гладкий, которая представляет собой среднее значение k ближайших измеренных значений к данной точке. Затем в каждой из n измеренных точек вес исходного значения линейной комбинации, которая составляет прогнозируемое значение, составляет всего 1 / k. Таким образом, след матрицы шляпы равен n / k. Таким образом, сглаживание стоит n / k эффективных степеней свободы.

В качестве другого примера рассмотрим существование почти повторяющихся наблюдений. Наивное применение классической формулы n - p привело бы к завышенной оценке степени свободы остатков, как если бы каждое наблюдение было независимым. Однако более реалистично матрица шляпы H = X (X 'Σ X) X' Σ будет включать в себя ковариационную матрицу наблюдения Σ, указывающую на ненулевую корреляцию между наблюдениями.

Более общая формулировка эффективной степени свободы приведет к более реалистичной оценке, например, дисперсии ошибки σ, которая, в свою очередь, масштабирует апостериорное стандартное отклонение неизвестных параметров; степень свободы также повлияет на коэффициент расширения, необходимый для получения эллипса ошибок для заданного уровня достоверности.

Другие формулировки

Подобные концепции являются эквивалентными степенями свободы в непараметрическая регрессия, степень свободы сигнала в атмосферных исследованиях и нецелочисленная степень свободы в геодезии.

Остаточная сумма квадратов ‖ y - H y ‖ 2 {\ displaystyle \ | y-Hy \ | ^ {2}}{\ displaystyle \ | y-Hy \ | ^ {2} } имеет обобщенное распределение хи-квадрат, и теория, связанная с этим распределением, предоставляет альтернативу путь к приведенным выше ответам.

См. также
  • icon Портал математики
Ссылки
Дополнительная литература
Внешние ссылки
Последняя правка сделана 2021-05-17 11:34:42
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте