Квадратные отклонения от среднего значения

редактировать

Квадратные отклонения от среднего значения (SDM) используются в различных вычислениях. В теории вероятностей и статистике определение дисперсии представляет собой либо ожидаемое значение SDM (при рассмотрении теоретического распределение ) или его среднее значение (для реальных экспериментальных данных). Вычисления для дисперсионного анализа включают разбиение суммы SDM.

Содержание
  • 1 Введение
  • 2 Выборочная дисперсия
  • 3 Разделение - дисперсионный анализ
    • 3.1 Суммы квадратов отклонений
    • 3.2 Пример
    • 3.3 Двусторонний дисперсионный анализ
  • 4 См. Также
  • 5 Ссылки
Введение

Понимание используемых вычислений значительно улучшается за счет изучения статистической величины

E ⁡ (X 2) {\ displaystyle \ operatorname {E } (X ^ {2})}{\ displaystyle \ operatorname {E} (X ^ {2})} , где E {\ displaystyle \ operatorname {E}}\ operatorname {E} - оператор ожидаемого значения.

Для случайная величина X {\ displaystyle X}X со средним значением μ {\ displaystyle \ mu}\ mu и дисперсией σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} ,

σ 2 = E ⁡ (X 2) - μ 2. {\ displaystyle \ sigma ^ {2} = \ operatorname {E} (X ^ {2}) - \ mu ^ {2}.}{\ displaystyle \ sigma ^ {2} = \ operatorname {E} (X ^ {2}) - \ mu ^ {2}.}

Следовательно,

E ⁡ (X 2) = σ 2 + μ 2. {\ displaystyle \ operatorname {E} (X ^ {2}) = \ sigma ^ {2} + \ mu ^ {2}.}\ operatorname {E} (X ^ {2}) = \ sigma ^ {2} + \ mu ^ {2 }.

Из вышеизложенного можно вывести следующее:

E ⁡ ( ∑ (Икс 2)) знак равно N σ 2 + N μ 2, {\ Displaystyle \ OperatorName {E} \ влево (\ сумма \ влево (X ^ {2} \ вправо) \ вправо) = п \ сигма ^ {2} + n \ mu ^ {2},}{\ displaystyle \ operatorname {E} \ left (\ sum \ left (X ^ {2} \ right) \ right) = n \ sigma ^ {2} + n \ mu ^ {2}, }
E ⁡ ((∑ X) 2) = n σ 2 + n 2 μ 2. {\ displaystyle \ operatorname {E} \ left (\ left (\ sum X \ right) ^ {2} \ right) = n \ sigma ^ {2} + n ^ {2} \ mu ^ {2}.}{\ displaystyle \ operatorname {E} \ left (\ left (\ sum X \ right) ^ {2} \ right) = n \ sigma ^ {2} + n ^ {2} \ mu ^ {2}.}
Выборочная дисперсия

Сумма квадратов отклонений, необходимая для вычисления выборочной дисперсии (до принятия решения о делении на n или на n - 1) проще всего рассчитать как

S = ∑ Икс 2 - (∑ Икс) 2 N {\ Displaystyle S = \ sum x ^ {2} - {\ frac {\ left (\ sum x \ right) ^ {2}} {n}}}S = \ sum x ^ {2} - {\ frac {\ left (\ sum x \ right) ^ {2}} {n}}

Из два производных ожидания сверх ожидаемого значения этой суммы:

E ⁡ (S) = n σ 2 + n μ 2 - n σ 2 + n 2 μ 2 n {\ displaystyle \ operatorname {E} (S) = n \ sigma ^ {2} + n \ mu ^ {2} - {\ frac {n \ sigma ^ {2} + n ^ {2} \ mu ^ {2}} {n}}}\ operatorname {E} (S) = n \ sigma ^ {2} + n \ mu ^ {2} - {\ frac {n \ sigma ^ {2} + n ^ {2} \ mu ^ {2 }} {n}}

, что подразумевает

E ⁡ (S) = (n - 1) σ 2. {\ displaystyle \ operatorname {E} (S) = (n-1) \ sigma ^ {2}.}\ ope ratorname {E} (S) = (n-1) \ sigma ^ {2}.

Это эффективно доказывает использование делителя n - 1 при вычислении несмещенного выборочная оценка σ.

Разделение - дисперсионный анализ

В ситуации, когда данные доступны для k различных групп лечения, имеющих размер n i, где i изменяется от 1 до k, тогда это предполагается, что ожидаемое среднее значение каждой группы равно

E ⁡ (μ i) = μ + T i {\ displaystyle \ operatorname {E} (\ mu _ {i}) = \ mu + T_ {i}}\ operatorname {E} (\ mu _ {i}) = \ mu + T_ {i}

и дисперсия каждой группы лечения не изменяется от дисперсии совокупности σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} .

В соответствии с нулевой гипотезой о том, что лечение не оказывает никакого эффекта, тогда каждый из T i {\ displaystyle T_ {i}}T_ {i} будет равно нулю.

Теперь можно вычислить три суммы квадратов:

Индивидуальный
I = ∑ x 2 {\ displaystyle I = \ sum x ^ {2}}I = \ sum x ^ {2}
E ⁡ (I) знак равно n σ 2 + n μ 2 {\ displaystyle \ operatorname {E} (I) = n \ sigma ^ {2} + n \ mu ^ {2}}\ operatorname {E} (I) = n \ sigma ^ {2} + n \ mu ^ {2}
Лечение
T = ∑ i = 1 k ((∑ Икс) 2 / ni) {\ Displaystyle Т = \ сумма _ {я = 1} ^ {к} \ влево (\ влево (\ сумма х \ вправо) ^ {2} / п_ {я} \ вправо) }T = \ sum _ {{i = 1}} ^ {k} \ left (\ left (\ sum x \ right) ^ {2} / n_ {i} \ right)
Е ⁡ (T) знак равно К σ 2 + ∑ я знак равно 1 кни (μ + T я) 2 {\ displaystyle \ operatorname {E} (T) = k \ sigma ^ {2} + \ sum _ { i = 1} ^ {k} n_ {i} (\ mu + T_ {i}) ^ {2}}\ operatorname {E} (T) = k \ sigma ^ {2} + \ sum _ { {i = 1}} ^ {k} n_ {i} (\ mu + T_ {i}) ^ {2}
E ⁡ (T) = k σ 2 + n μ 2 + 2 μ ∑ i = 1 k (ni T я) + ∑ я знак равно 1 kni (T i) 2 {\ displaystyle \ operatorname {E} (T) = k \ sigma ^ {2} + n \ mu ^ {2} +2 \ mu \ sum _ {i = 1} ^ {k} (n_ {i} T_ {i}) + \ sum _ {i = 1} ^ {k} n_ {i} (T_ {i}) ^ {2}}\ operatorname {E} (T) = k \ sigma ^ {2} + n \ mu ^ {2} +2 \ mu \ sum _ {{i = 1}} ^ {k} (n_ {i} T_ {i}) + \ sum _ {{i = 1} } ^ {k} n_ {i} (T_ {i}) ^ {2}

При нулевой гипотезе о том, что лечение не вызывает различий и все T i {\ displaystyle T_ {i}}T_ {i} равны нулю, математическое ожидание упрощается до

E ⁡ (T) = k σ 2 + п μ 2. {\ displaystyle \ operatorname {E} (T) = k \ sigma ^ {2} + n \ mu ^ {2}.}\ operatorname {E} (T) = k \ sigma ^ {2} + n \ mu ^ {2}.
Комбинация
C = (∑ x) 2 / n {\ displaystyle C = \ влево (\ сумма х \ вправо) ^ {2} / n}C = \ left (\ sum x \ right) ^ {2} / n
E ⁡ (C) = σ 2 + n μ 2 {\ displaystyle \ operatorname {E} (C) = \ sigma ^ {2} + n \ mu ^ {2}}\ operatorname {E} (C) = \ sigma ^ {2} + n \ mu ^ {2}

Суммы квадратов отклонений

При нулевой гипотезе разность любой пары I, T и C не содержит никакой зависимости от μ {\ displaystyle \ mu}\ mu , только σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} .

E ⁡ (I - C) = (n - 1) σ 2 {\ displaystyle \ operatorname {E} (IC) = (n-1) \ sigma ^ {2}}\ operatorname {E} (IC) = (n- 1) \ sigma ^ {2} общие квадраты отклонений, также известные как общая сумма квадратов
E ⁡ (T - C) = (k - 1) σ 2 {\ displaystyle \ operatorname {E} (TC) = (k-1) \ sigma ^ {2}}\ operatorn ame {E} (TC) = (k-1) \ sigma ^ {2} обработанные квадраты отклонений, также известные как объясненная сумма квадратов
E ⁡ (I - T) = (n - k) σ 2 {\ displaystyle \ operatorname {E} (IT) = (nk) \ sigma ^ {2}}\ operatorname {E} (IT) = (nk) \ sigma ^ {2} квадратичное остаточное отклонение, также известное как остаточная сумма квадратов

Константы (n - 1), (k - 1) и (n - k) обычно относятся к красный как число степеней свободы.

Пример

В очень простом примере 5 наблюдений возникают в результате двух обработок. Первая обработка дает три значения 1, 2 и 3, а вторая обработка дает два значения 4 и 6.

I = 1 2 1 + 2 2 1 + 3 2 1 + 4 2 1 + 6 2 1 = 66 {\ displaystyle I = {\ frac {1 ^ {2}} {1}} + {\ frac {2 ^ {2}} {1}} + {\ frac {3 ^ {2}} {1}} + {\ frac {4 ^ {2}} {1}} + {\ frac {6 ^ {2}} {1}} = 66}I = { \ frac {1 ^ {2}} {1}} + {\ frac {2 ^ {2}} {1}} + {\ frac {3 ^ {2}} {1}} + {\ frac {4 ^ {2}} {1}} + {\ frac {6 ^ {2}} {1}} = 66
T = (1 + 2 + 3) 2 3 + (4 + 6) 2 2 = 12 + 50 = 62 {\ displaystyle T = {\ frac {(1 + 2 + 3) ^ {2}} {3}} + {\ frac {(4 + 6) ^ {2} } {2}} = 12 + 50 = 62}T = {\ frac {(1 + 2 + 3) ^ {2}} {3}} + {\ frac {(4 + 6) ^ {2} } {2}} = 12 + 50 = 62
C = (1 + 2 + 3 + 4 + 6) 2 5 = 256/5 = 51,2 {\ displaystyle C = {\ frac {(1 + 2 + 3 + 4 + 6) ^ {2}} {5}} = 256/5 = 51,2}C = {\ frac {(1 + 2 + 3 + 4 + 6) ^ {2}} {5}} = 256/5 = 51,2

Выдача

Полные квадраты отклонений = 66 - 51,2 = 14,8 с 4 степенями свободы.
Квадратное отклонение лечения = 62 - 51,2 = 10,8 с 1 степенью свободы.
Квадратное остаточное отклонение = 66 - 62 = 4 с 3 степенями свободы.

Двусторонний дисперсионный анализ

Следующий гипотетический пример показывает урожайность 15 растений при двух различных изменениях окружающей среды и трех разных удобрений.

Дополнительный CO 2Повышенная влажность
Без удобрений7, 2, 17, 6
Нитрат11, 610, 7, 3
Фосфат5, 3, 411, 4

Вычисляются пять сумм квадратов:

ФакторРасчетСуммаσ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2}
Индивидуальный7 2 + 2 2 + 1 2 + 7 2 + 6 2 + 11 2 + 6 2 + 10 2 + 7 2 + 3 2 + 5 2 + 3 2 + 4 2 + 11 2 + 4 2 {\ displaystyle 7 ^ {2} + 2 ^ {2} + 1 ^ {2} + 7 ^ {2} + 6 ^ {2} + 11 ^ {2} + 6 ^ {2} + 10 ^ {2} + 7 ^ {2} + 3 ^ {2} + 5 ^ {2} + 3 ^ {2 } + 4 ^ {2} + 11 ^ {2} + 4 ^ {2}}7 ^ {2} + 2 ^ {2} + 1 ^ {2} + 7 ^ {2} + 6 ^ {2} + 11 ^ {2} + 6 ^ {2} + 10 ^ {2} + 7 ^ {2} + 3 ^ {2} + 5 ^ {2} + 3 ^ {2} + 4 ^ {2} +11 ^ {2} + 4 ^ {2} 64115
Удобрение × Окружающая среда(7 + 2 + 1) 2 3 + (7 + 6) 2 2 + (11 + 6) 2 2 + (10 + 7 + 3) 2 3 + (5 + 3 + 4) 2 3 + (11 + 4) 2 2 {\ displaystyle {\ frac { (7 + 2 + 1) ^ {2}} {3}} + {\ frac {(7 + 6) ^ {2}} {2}} + {\ frac {(11 + 6) ^ {2}} {2}} + {\ frac {(10 + 7 + 3) ^ {2}} {3}} + {\ frac {(5 + 3 + 4) ^ {2}} {3}} + {\ frac {(11 + 4) ^ {2}} {2}}}{\ frac {(7 + 2 + 1) ^ {2}} {3}} + {\ frac {(7 + 6) ^ {2}} {2}} + {\ frac {(11 + 6) ^ {2}} {2}} + {\ гидроразрыв {(10 + 7 + 3) ^ {2}} {3}} + {\ frac {(5 + 3 + 4) ^ {2}} {3}} + {\ frac {(11 + 4) ^ {2}} {2}} 556.16676
Удобрение(7 + 2 + 1 + 7 + 6) 2 5 + (11 + 6 + 10 + 7 + 3) 2 5 + (5 + 3 + 4 + 11 + 4) 2 5 {\ displaystyle {\ frac { (7 + 2 + 1 + 7 + 6) ^ {2}} {5}} + {\ frac {(11 + 6 + 10 + 7 + 3) ^ {2}} {5}} + {\ frac { (5 + 3 + 4 + 11 + 4) ^ {2}} {5}}}{\ frac {(7 + 2 + 1 + 7 + 6) ^ {2}} {5}} + {\ гидроразрыв {(11 + 6 + 10 + 7 + 3) ^ {2}} {5}} + {\ frac {(5 + 3 + 4 + 11 + 4) ^ {2}} {5}} 525,43
Среда(7 + 2 + 1 + 11 + 6 + 5 + 3 + 4) 2 8 + (7 + 6 + 10 + 7 + 3 + 11 + 4) 2 7 {\ displaystyle {\ frac {(7 + 2 + 1 + 11 + 6 + 5 + 3 + 4) ^ {2}} {8 }} + {\ frac {(7 + 6 + 10 + 7 + 3 + 11 + 4) ^ {2}} {7}}}{\ frac {(7 + 2 + 1 + 11 + 6 + 5 + 3 + 4) ^ {2}} {8}} + {\ frac {(7 + 6 + 10 + 7 + 3 + 11 + 4) ^ {2}} {7}} 519.26792
Составной(7 + 2 + 1 + 11 + 6 + 5 + 3 + 4 + 7 + 6 + 10 + 7 + 3 + 11 + 4) 2 15 {\ displaystyle {\ frac {(7 + 2 + 1 + 11 + 6 + 5 + 3 + 4 + 7 + 6 + 10 + 7 + 3 + 11 + 4) ^ {2}} {15}}}{\ frac {(7 + 2 + 1 + 11 + 6 + 5 + 3 + 4 + 7 + 6 + 10 + 7 + 3 + 11 + 4) ^ {2}} {15}} 504,61

Наконец, суммы квадратов отклонений, необходимые для дисперсионного анализа можно рассчитать.

ФакторСуммаσ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} ИтогоОкружающая средаУдобрениеУдобрение × Окружающая средаОстаточный
Индивидуальный6411511
Удобрение × Окружающая среда556,166761-1
Удобрение525,431-1
Среда519,267921-1
Составной504,61-1-1-11
Квадратные отклонения136,414,66820,816,09984,833
Степени свободы141229
См. Также
Ссылки
  1. ^Mood Graybill: Введение в теорию статистики (McGraw Hill)
Последняя правка сделана 2021-06-09 04:14:26
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте