Остаточная сумма квадратов

редактировать

В статистике, то остаточная сумма квадратов ( RSS), также известные как сумма квадратов остатков ( SSR) или сумму квадратов оценки ошибок ( SSE), является суммой из квадратов из остатков (отклонения предсказывали от реальных эмпирических значений данных). Это мера расхождения между данными и моделью оценки, такой как линейная регрессия. Небольшой RSS указывает на точное соответствие модели данным. Он используется как критерий оптимальности при выборе параметров и выбора модели.

В общем, общая сумма квадратов = объясненная сумма квадратов + остаточная сумма квадратов. Для доказательства этого в многомерном обычном случае наименьших квадратов (OLS) см. Разделение в общей модели OLS.

СОДЕРЖАНИЕ
  • 1 Одна объясняющая переменная
  • 2 Матричное выражение для остаточной суммы квадратов OLS
  • 3 Связь с корреляцией продукта и момента Пирсона
  • 4 См. Также
  • 5 ссылки
Одна объясняющая переменная

В модели с единственной независимой переменной RSS задается следующим образом:

RSS знак равно я знак равно 1 п ( у я - ж ( Икс я ) ) 2 {\ displaystyle \ operatorname {RSS} = \ sum _ {i = 1} ^ {n} (y_ {i} -f (x_ {i})) ^ {2}}

где y i - это i- е значение переменной, которую нужно спрогнозировать, x i - это i- е значение объясняющей переменной, и - это предсказанное значение y i (также называемое). В стандартной линейной простой модели регрессии, где и являются коэффициентами, у и х являются regressand и регрессор, соответственно, а ε является вектор ошибок. Сумма квадратов остатков - это сумма квадратов ; это ж ( Икс я ) {\ displaystyle f (x_ {i})} у я ^ {\ displaystyle {\ hat {y_ {i}}}} у я знак равно α + β Икс я + ε я {\ displaystyle y_ {i} = \ alpha + \ beta x_ {i} + \ varepsilon _ {i} \,} α {\ displaystyle \ alpha} β {\ displaystyle \ beta} ε ^ я {\ Displaystyle {\ widehat {\ varepsilon \,}} _ {я}}

RSS знак равно я знак равно 1 п ( ε ^ я ) 2 знак равно я знак равно 1 п ( у я - ( α ^ + β ^ Икс я ) ) 2 {\ displaystyle \ operatorname {RSS} = \ sum _ {i = 1} ^ {n} ({\ widehat {\ varepsilon \,}} _ {i}) ^ {2} = \ sum _ {i = 1} ^ {n} (y_ {i} - ({\ widehat {\ alpha \,}} + {\ widehat {\ beta \,}} x_ {i})) ^ {2}}

где - оценочное значение постоянного члена, а - оценочное значение коэффициента наклона. α ^ {\ displaystyle {\ widehat {\ alpha \,}}} α {\ displaystyle \ alpha} β ^ {\ displaystyle {\ widehat {\ beta \,}}} β {\ displaystyle \ beta}

Матричное выражение для остаточной суммы квадратов OLS

Общая регрессионная модель с n наблюдениями и k объяснителями, первый из которых представляет собой постоянный единичный вектор, коэффициент которого является пересечением регрессии, имеет вид

у знак равно Икс β + е {\ Displaystyle у = Х \ бета + е}

где y - вектор наблюдений зависимой переменной размера n × 1, каждый столбец матрицы X размера n × k - вектор наблюдений на одном из k объяснителей, - вектор истинных коэффициентов k × 1, а e - размер n × 1 вектор истинных основных ошибок. В обычный метод наименьших квадратов Оценщик IS β {\ displaystyle \ beta} β {\ displaystyle \ beta}

Икс β ^ знак равно у {\ Displaystyle Х {\ шляпа {\ бета}} = у \ iff}
Икс Т Икс β ^ знак равно Икс Т у {\ displaystyle X ^ {\ operatorname {T}} X {\ hat {\ beta}} = X ^ {\ operatorname {T}} y \ iff}
β ^ знак равно ( Икс Т Икс ) - 1 Икс Т у . {\ displaystyle {\ hat {\ beta}} = (X ^ {\ operatorname {T}} X) ^ {- 1} X ^ {\ operatorname {T}} y.}

Остаточный вектор = ; поэтому остаточная сумма квадратов равна: е ^ {\ displaystyle {\ hat {e}}} у - Икс β ^ знак равно у - Икс ( Икс Т Икс ) - 1 Икс Т у {\ displaystyle yX {\ hat {\ beta}} = yX (X ^ {\ operatorname {T}} X) ^ {- 1} X ^ {\ operatorname {T}} y}

RSS знак равно е ^ Т е ^ знак равно е ^ 2 {\ displaystyle \ operatorname {RSS} = {\ hat {e}} ^ {\ operatorname {T}} {\ hat {e}} = \ | {\ hat {e}} \ | ^ {2}},

(эквивалентно квадрату нормы остатков). В полном объеме:

RSS знак равно у Т у - у Т Икс ( Икс Т Икс ) - 1 Икс Т у знак равно у Т [ я - Икс ( Икс Т Икс ) - 1 Икс Т ] у знак равно у Т [ я - ЧАС ] у {\ displaystyle \ operatorname {RSS} = y ^ {\ operatorname {T}} yy ^ {\ operatorname {T}} X (X ^ {\ operatorname {T}} X) ^ {- 1} X ^ {\ operatorname {T}} y = y ^ {\ operatorname {T}} [IX (X ^ {\ operatorname {T}} X) ^ {- 1} X ^ {\ operatorname {T}}] y = y ^ {\ имя оператора {T}} [IH] y},

где H - матрица шляпы или матрица проекции в линейной регрессии.

Связь с корреляцией продукта и момента Пирсона

Линия регрессии методом наименьших квадратов определяется выражением

у знак равно а Икс + б {\ displaystyle y = ax + b},

где и, где и б знак равно у ¯ - а Икс ¯ {\ displaystyle b = {\ bar {y}} - а {\ bar {x}}} а знак равно S Икс у S Икс Икс {\ displaystyle a = {\ frac {S_ {xy}} {S_ {xx}}}} S Икс у знак равно я знак равно 1 п ( Икс ¯ - Икс я ) ( у ¯ - у я ) {\ displaystyle S_ {xy} = \ sum _ {i = 1} ^ {n} ({\ bar {x}} - x_ {i}) ({\ bar {y}} - y_ {i})} S Икс Икс знак равно я знак равно 1 п ( Икс ¯ - Икс я ) 2 . {\ displaystyle S_ {xx} = \ sum _ {i = 1} ^ {n} ({\ bar {x}} - x_ {i}) ^ {2}.}

Следовательно,

RSS знак равно я знак равно 1 п ( у я - ж ( Икс я ) ) 2 знак равно я знак равно 1 п ( у я - ( а Икс я + б ) ) 2 знак равно я знак равно 1 п ( у я - а Икс я - у ¯ + а Икс ¯ ) 2 знак равно я знак равно 1 п ( а ( Икс ¯ - Икс я ) - ( у ¯ - у я ) ) 2 знак равно а 2 S Икс Икс - 2 а S Икс у + S у у знак равно S у у - а S Икс у знак равно S у у ( 1 - S Икс у 2 S Икс Икс S у у ) {\ displaystyle {\ begin {align} \ operatorname {RSS} amp; = \ sum _ {i = 1} ^ {n} (y_ {i} -f (x_ {i})) ^ {2} = \ sum _ {i = 1} ^ {n} (y_ {i} - (ax_ {i} + b)) ^ {2} = \ sum _ {i = 1} ^ {n} (y_ {i} -ax_ {i } - {\ bar {y}} + a {\ bar {x}}) ^ {2} \\ [5pt] amp; = \ sum _ {i = 1} ^ {n} (a ({\ bar {x }} - x_ {i}) - ({\ bar {y}} - y_ {i})) ^ {2} = a ^ {2} S_ {xx} -2aS_ {xy} + S_ {yy} = S_ {yy} -aS_ {xy} = S_ {yy} \ left (1 - {\ frac {S_ {xy} ^ {2}} {S_ {xx} S_ {yy}}} \ right) \ end {выровнено} }}

где S у у знак равно я знак равно 1 п ( у ¯ - у я ) 2 . {\ displaystyle S_ {yy} = \ sum _ {i = 1} ^ {n} ({\ bar {y}} - y_ {i}) ^ {2}.}

Соотношение произведение-момент Пирсона определяется следующим образом: р знак равно S Икс у S Икс Икс S у у ; {\ displaystyle r = {\ frac {S_ {xy}} {\ sqrt {S_ {xx} S_ {yy}}}};} RSS знак равно S у у ( 1 - р 2 ) . {\ displaystyle \ operatorname {RSS} = S_ {yy} (1-r ^ {2}).}

Смотрите также
Рекомендации
  • Draper, NR; Смит, Х. (1998). Прикладной регрессионный анализ (3-е изд.). Джон Вили. ISBN   0-471-17082-8.
Последняя правка сделана 2023-04-13 11:56:35
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте