Общая линейная модель

редактировать

Общая линейная модель или Общая многомерная модель регрессии - это просто компактный способ одновременного написания нескольких моделей множественной линейной регрессии. В этом смысле это не отдельная статистическая линейная модель. Различные модели множественной линейной регрессии можно компактно записать как

Y = XB + U, {\ displaystyle \ mathbf {Y} = \ mathbf {X} \ mathbf {B} + \ mathbf {U},}\ mathbf {Y} = \ mathbf {X} \ mathbf {B} + \ mathbf {U},

где Y - матрица с серией многомерных измерений (каждый столбец представляет собой набор измерений одной из зависимых переменных ), X - это матрица наблюдений по независимым переменным, которая может быть матрицей плана (каждый столбец представляет собой набор наблюдений по одной из независимых переменных), B - матрица, содержащая параметры, которые обычно подлежат оценке, а U - матрица, содержащая ошибок (шум). Ошибки обычно считаются некоррелированными между измерениями и подчиняются многомерному нормальному распределению . Если ошибки не соответствуют многомерному нормальному распределению, обобщенные линейные модели могут использоваться для ослабления предположений относительно Y и U.

Общая линейная модель включает в себя ряд различных статистических моделей: ANOVA, ANCOVA, MANOVA, MANCOVA, обычная линейная регрессия, t-тест и F-тест. Общая линейная модель - это обобщение множественной линейной регрессии на случай более чем одной зависимой переменной. Если бы Y, Bи U были векторами-столбцами, матричное уравнение выше представило бы множественную линейную регрессию.

Проверка гипотез с помощью общей линейной модели может быть выполнена двумя способами: многомерным или несколькими независимыми одномерными тестами. В многомерных тестах столбцы Y тестируются вместе, тогда как в одномерных тестах столбцы Y тестируются независимо, то есть как несколько одномерных тестов с одной и той же матрицей дизайна.

Содержание
  • 1 Сравнение с множественной линейной регрессией
  • 2 Сравнение с обобщенной линейной моделью
  • 3 Приложения
  • 4 См. Также
  • 5 Примечания
  • 6 Ссылки
Сравнение с множественной линейной регрессия

Множественная линейная регрессия - это обобщение простой линейной регрессии на случай более чем одной независимой переменной и особый случай общих линейных моделей, ограниченный одна зависимая переменная. Базовая модель множественной линейной регрессии:

Y i = β 0 + β 1 X i 1 + β 2 X i 2 +… + β p X ip + ϵ i {\ displaystyle Y_ {i} = \ beta _ { 0} + \ beta _ {1} X_ {i1} + \ beta _ {2} X_ {i2} + \ ldots + \ beta _ {p} X_ {ip} + \ epsilon _ {i}}{\ displaystyle Y_ {i} = \ beta _ {0} + \ beta _ {1} X_ {i1} + \ beta _ {2} X_ {i2} + \ ldots + \ beta _ {p} X_ {ip} + \ epsilon _ {i}}

для каждое наблюдение i = 1,..., n.

В приведенной выше формуле мы рассматриваем n наблюдений одной зависимой переменной и p независимых переменных. Таким образом, Y i является i-м наблюдением зависимой переменной, X ij является i-м наблюдением j-й независимой переменной, j = 1, 2,..., p. Значения β j представляют параметры, подлежащие оценке, а ε i представляет собой i независимую одинаково распределенную нормальную ошибку.

В более общей многомерной линейной регрессии существует одно уравнение вышеуказанной формы для каждой из m>1 зависимых переменных, которые имеют один и тот же набор независимых переменных и, следовательно, оцениваются одновременно друг с другом:

Y ij знак равно β 0 J + β 1 J Икс я 1 + β 2 J Икс я 2 +… + β pj X ip + ϵ ij {\ displaystyle Y_ {ij} = \ beta _ {0j} + \ beta _ {1j } X_ {i1} + \ beta _ {2j} X_ {i2} + \ ldots + \ beta _ {pj} X_ {ip} + \ epsilon _ {ij}}{\ displaystyle Y_ {ij} = \ beta _ {0j} + \ beta _ {1j} X_ {i1} + \ beta _ {2j} X_ {i2} + \ ldots + \ beta _ {pj} X_ {ip} + \ epsilon _ {ij}}

для всех наблюдений, индексированных как i = 1,..., n и для всех зависимых переменных, индексированных как j = 1,..., m.

Обратите внимание, что, поскольку каждая зависимая переменная имеет свой собственный набор параметров регрессии, которые необходимо подобрать, с вычислительной точки зрения общая многомерная регрессия представляет собой просто последовательность стандартных множественных линейных регрессий с использованием одних и тех же независимых переменных.

Сравнение с обобщенной линейной моделью

Общая линейная модель (GLM) и обобщенная линейная модель (GLiM) - это два часто используемых семейства статистических методов, чтобы связать некоторое количество непрерывных и / или категориальных предикторов с единственной выходной переменной.

. Основное различие между двумя подходами состоит в том, что GLM строго предполагает, что остатки будет следовать условно нормальному распределению, в то время как GLiM ослабляет это предположение и допускает множество других распределений из экспоненциального семейства по остаткам. Следует отметить, что GLM является частным случаем GLiM, в котором распределение остатков следует условно нормальному распределению.

Распределение остатков во многом зависит от типа и распределения переменной результата; различные типы переменных результата приводят к разнообразию моделей в семействе GLiM. Обычно используемые модели в семействе GLiM включают бинарную логистическую регрессию для бинарных или дихотомических результатов, регрессию Пуассона для подсчета результатов и линейную регрессию для непрерывных, нормально распределенных результатов.. Это означает, что о GLiM можно говорить как об общем семействе статистических моделей или как о конкретных моделях для конкретных типов результатов.

Общая линейная модель Обобщенная линейная модель
Типичный метод оценкиНаименьшие квадраты, наилучшее линейное несмещенное предсказание Максимальное правдоподобие или Байесовский
ПримерыANOVA, ANCOVA, линейная регрессия линейная регрессия, логистическая регрессия, регрессия Пуассона, гамма регрессия, общая линейная модель
Расширения и связанные методыMANOVA, MANCOVA, линейная смешанная модель обобщенная линейная смешанная модель (GLMM), обобщенные уравнения оценки (GEE)
R пакет и функцияlm () в пакете статистики (базовый R)glm () в пакете статистики (базовый R)
Matlab functionmvregress ()glmfit ()
SAS процедурыPROC GLM, PROC REG PROC GENMOD, PROC LOGISTIC (для двоичных и упорядоченных или неупорядоченных категориальных результатов)
Stata командаregressglm
SPSS командарегрессия, glm genlin, logistic
Wolfram Language Mathematica functionLinearModelFitGeneralizedLinearModelFit
EViews командаlsglm
Приложения

Применение общей линейной модели появляется при анализе нескольких сканирований мозга в научных экспериментах, где Yсодержит данные из мозга сканеры, Xсодержит переменные экспериментального плана и препятствия. Обычно он тестируется одномерным способом (в этой настройке обычно называется массово-одномерный) и часто называется статистическим параметрическим отображением.

См. Также
Примечания
Ссылки
  • Кристенсен, Рональд (2002). Плоские ответы на сложные вопросы: теория линейных моделей (Третье изд.). Нью-Йорк: Спрингер. ISBN 0-387-95361-2.
  • Вичура, Майкл Дж. (2006). Бескординатный подход к линейным моделям. Кембриджская серия по статистической и вероятностной математике. Кембридж: Издательство Кембриджского университета. С. xiv + 199. ISBN 978-0-521-86842-6. MR 2283455. CS1 maint: ref = harv (link )
  • Rawlings, John O.; Pantula, Sastry G.; Дики, Дэвид А., ред. (1998). «Прикладной регрессионный анализ». Springer Texts in Statistics. doi : 10.1007 / b98890. ISBN 0-387-98454-2. Для цитирования журнала требуется |journal=()
Последняя правка сделана 2021-05-21 14:45:24
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте