Модель фиксированных эффектов

редактировать

В статистике модель фиксированных эффектов является статистической моделью, в котором параметры модели являются фиксированными или неслучайными величинами. Это контрастирует с моделями случайных эффектов и смешанными моделями, в которых все или некоторые параметры модели являются случайными величинами. Во многих приложениях, включая эконометрику и биостатистику, модель фиксированных эффектов относится к регрессионной модели, в которой средние значения группы фиксированы (не случайны) в отличие от модель со случайными эффектами, в которой средние по группе являются случайной выборкой из генеральной совокупности. Как правило, данные можно сгруппировать по нескольким наблюдаемым факторам. Групповые средние могут быть смоделированы как фиксированные или случайные эффекты для каждой группы. В модели фиксированных эффектов среднее значение каждой группы является фиксированной величиной для конкретной группы.

В панельных данных, где продольные наблюдения существуют для одного и того же объекта, фиксированные эффекты представляют собой специфические для субъекта средства. В анализе панельных данных термин оценщик фиксированных эффектов (также известный как в оценщике ) используется для обозначения оценщика для коэффициенты в регрессионной модели, включая эти фиксированные эффекты (один неизменный во времени интервал для каждого объекта).

Содержание

  • 1 Качественное описание
  • 2 Формальная модель и предположения
  • 3 Статистическая оценка
    • 3.1 Оценка фиксированных эффектов
    • 3.2 Оценка первого различия
      • 3.2.1 Равенство фиксированных эффектов и первого оценки разности при T = 2
    • 3.3 Метод Чемберлена
    • 3.4 Метод Хаусмана – Тейлора
    • 3.5 Обобщение с входной неопределенностью
  • 4 Проверка фиксированных эффектов (FE) и случайных эффектов (RE)
  • 5 См. также
  • 6 Примечания
  • 7 Ссылки
  • 8 Внешние ссылки

Качественное описание

Такие модели помогают контролировать смещение пропущенной переменной из-за ненаблюдаемой неоднородности, когда эта неоднородность постоянна во времени. Эту неоднородность можно удалить из данных путем проведения различий, например, путем вычитания среднего на уровне группы во времени или путем взятия первой разницы, которая удалит любые инвариантные во времени компоненты модели.

Есть два распространенных предположения об индивидуальном специфическом эффекте: предположение случайных эффектов и предположение фиксированных эффектов. Предположение случайных эффектов состоит в том, что индивидуальные эффекты не коррелируют с независимыми переменными. Предположение о фиксированном эффекте состоит в том, что индивидуальные эффекты коррелируют с независимыми переменными. Если выполняется предположение о случайных эффектах, оценщик случайных эффектов более эффективен, чем оценщик с фиксированными эффектами. Однако, если это предположение не выполняется, оценка случайных эффектов не согласована. Тест Дарбина – Ву – Хаусмана часто используется для различения моделей фиксированных и случайных эффектов.

Формальная модель и допущения

Рассмотрим модель линейных ненаблюдаемых эффектов для N {\ displaystyle N}N наблюдения и T {\ displaystyle T}T периоды времени:

yit = X it β + α i + uit {\ displaystyle y_ {it} = X_ {it} \ mathbf {\ beta} + \ alpha _ {i} + u_ {it}}y_ {it} = X_ {it} \ mathbf {\ beta} + \ alpha _ {i} + u_ {it} для t = 1,…, T {\ displaystyle t = 1, \ точки, T}t = 1, \ dots, T и i = 1,…, N {\ displaystyle i = 1, \ dots, N}{\ displaystyle i = 1, \ dots, N}

где:

  • yit {\ displaystyle y_ {it}}y _ {{it} } - зависимая переменная, наблюдаемая для индивидуума i {\ displaystyle i}i во время t {\ displaystyle t}t .
  • X it {\ displaystyle X_ {it}}X _ {{it}} - вектор-регрессор временного варианта 1 × k {\ displaystyle 1 \ times k}1 \ times k (количество независимых переменных).
  • β {\ displaystyle \ beta}\ beta - матрица параметров k × 1 {\ displaystyle k \ times 1}{\ displaystyle k \ times 1} .
  • α i {\ displaystyle \ alpha _ {i}}\ alpha _ {{i}} - это ненаблюдаемый не зависящий от времени индивидуальный эффект. Например, врожденные способности отдельных лиц или исторические и институциональные факторы для стран.
  • uit {\ displaystyle u_ {it}}u _ {{it}} - это термин ошибки. {\ displaystyle X_ {it}}X _ {{it}} , α i {\ displaystyle \ alpha _ {i}}\ alpha _ {{i}} нельзя наблюдать напрямую.

    В отличие от модели случайных эффектов, где ненаблюдаемое α i {\ displaystyle \ alpha _ {i}}\ alpha _ {{i}} не зависит от X it { \ displaystyle X_ {it}}X _ {{it}} для всех t = 1,..., T {\ displaystyle t = 1,..., T}t = 1,..., T , модель с фиксированными эффектами (FE) позволяет α i {\ displaystyle \ alpha _ {i}}\ alpha _ {{i}} для корреляции с матрицей регрессора X it {\ displaystyle X_ {it}}X _ {{it}} . Строгая экзогенность в отношении идиосинкразического члена ошибки uit {\ displaystyle u_ {it}}u _ {{it}} по-прежнему требуется.

    Статистическая оценка

    Оценка фиксированных эффектов

    Поскольку α i {\ displaystyle \ alpha _ {i}}\ alpha _ {{i}} не наблюдается, он нельзя напрямую управлять для. Модель FE исключает α i {\ displaystyle \ alpha _ {i}}\ alpha _ {{i}} путем уничижения переменных с помощью внутреннего преобразования:

    yit - y ¯ i = (X it - X ¯ i) β + (α я - α ¯ я) + (uit - u ¯ i) ⟹ y ¨ it = X ¨ it β + u ¨ it {\ displaystyle y_ {it} - {\ overline {y}} _ {i } = \ left (X_ {it} - {\ overline {X}} _ {i} \ right) \ beta + \ left (\ alpha _ {i} - {\ overline {\ alpha}} _ {i} \ right) + \ left (u_ {it} - {\ overline {u}} _ {i} \ right) \ подразумевает {\ ddot {y}} _ {it} = {\ ddot {X}} _ {it} \ beta + {\ ddot {u}} _ {it}}{\ displaystyle y_ {it} - {\ overline {y}} _ {i} = \ left (X_ {it} - {\ overline {X}} _ {i} \ right) \ beta + \ left (\ alpha _ {i} - {\ overline {\ alpha}} _ {i} \ right) + \ left (u_ {it} - {\ overline {u}} _ {i} \ right) \ подразумевает {\ ddot {y}} _ {it} = {\ ddot {X}} _ {it} \ beta + {\ ddot {u}} _ {it}}

    где y ¯ i = 1 T ∑ t = 1 T yit {\ displaystyle {\ overline {y}} _ {i} = { \ frac {1} {T}} \ sum \ limits _ {t = 1} ^ {T} y_ {it}}{\ displaystyle {\ overline {y}} _ {i} = {\ frac {1} {T}} \ sum \ limits _ {t = 1} ^ {T} y_ {it}} , X ¯ i = 1 T ∑ t = 1 TX it {\ displaystyle {\ overline { X}} _ {i} = {\ frac {1} {T}} \ sum \ limits _ {t = 1} ^ {T} X_ {it}}{\ displaystyle {\ overline {X}} _ {i} = {\ frac {1} {T}} \ sum \ limits _ {t = 1} ^ {T} X_ {it}} и u ¯ я знак равно 1 T ∑ T = 1 T uit {\ displaystyle {\ overline {u}} _ {i} = {\ frac {1} {T}} \ sum \ limits _ {t = 1} ^ {T} u_ {it}}{\ displaystyle {\ overline {u}} _ {i} = {\ frac {1} {T}} \ sum \ limits _ {t = 1} ^ {T} u_ {it}} .

    Поскольку α i {\ displaystyle \ alpha _ {i}}\ alpha _ {{i}} является постоянным, α i ¯ = α i {\ displaystyle {\ overline {\ alpha _ {i}}} = \ alpha _ {i}}\ overline {\ alpha _ {{i}}} = \ alpha _ {{i}} и, следовательно, эффект устранен. Оценка FE β ^ FE {\ displaystyle {\ hat {\ beta}} _ {FE}}{\ hat {\ beta}} _ {{FE}} затем получается с помощью регрессии OLS y ¨ {\ displaystyle {\ ddot {y}}}{\ ddot {y}} на X ¨ {\ displaystyle {\ ddot {X}}}{\ ddot {X}} .

    Существует по крайней мере три альтернативы внутреннему преобразованию с различными вариантами.

    Первый - добавить фиктивную переменную для каждого отдельного i>1 {\ displaystyle i>1}i>1 (без первого лица из-за мультиколлинеарности ). Это численно, но не вычислено., эквивалент модели фиксированного эффекта и работает только в том случае, если сумма количества серий и количества глобальных параметров меньше количества наблюдений.Подход с фиктивной переменной особенно требователен к использованию памяти компьютера и не рекомендуется для проблем, размер которых превышает доступный объем ОЗУ, и компиляция прикладной программы может решить эту проблему.

    Второй альтернативой является использование подхода с последовательными повторениями для локальных и глобальных оценок. Этот подход очень подходит для систем с низким объемом памяти, на которых выполняется гораздо более эффективен с точки зрения вычислений, чем подход с фиктивной переменной.

    Третий подход - это вложенная оценка, при которой локальная оценка для отдельных рядов программируется как часть определения модели. Этот подход является наиболее эффективным с точки зрения вычислений и памяти, но он требует хороших навыков программирования и доступа к программному коду модели; хотя его можно запрограммировать даже в SAS.

    Наконец, каждая из вышеперечисленных альтернатив может быть улучшена, если оценка для конкретной серии будет линейной (в рамках нелинейной модели), и в этом случае прямое линейное решение для отдельных ряды могут быть запрограммированы как часть определения нелинейной модели.

    Первая разностная оценка

    Альтернативой внутреннему преобразованию является первое разностное преобразование, которое дает другую оценку. Для t = 2,…, T {\ displaystyle t = 2, \ dots, T}t = 2, \ dots, T :

    yit - yi, t - 1 = (X it - X i, t - 1) β + (α i - α i) + (uit - ui, t - 1) ⟹ Δ yit = Δ X it β + Δ uit. {\ displaystyle y_ {it} -y_ {i, t-1} = \ left (X_ {it} -X_ {i, t-1} \ right) \ beta + \ left (\ alpha _ {i} - \ alpha _ {i} \ right) + \ left (u_ {it} -u_ {i, t-1} \ right) \ подразумевает \ Delta y_ {it} = \ Delta X_ {it} \ beta + \ Delta u_ { it}.}{\ displaystyle y_ {it} -y_ {i, t-1} = \ left (X_ {it} -X_ {i, t-1} \ right) \ beta + \ left (\ alpha _ {i} - \ alpha _ {i} \ right) + \ left (u_ {it} -u_ {i, t-1} \ right) \ подразумевает \ Delta y_ {it} = \ Delta X_ {it} \ beta + \ Delta u_ {it}.}

    Оценка FD β ^ FD {\ displaystyle {\ hat {\ beta}} _ {FD}}{\ displaystyle {\ hat {\ beta}} _ {FD}} затем получается с помощью регрессии OLS Δ yit {\ displaystyle \ Delta y_ {it}}\ Delta y _ {{ it}} на Δ X it {\ displaystyle \ Delta X_ {it}}{\ displaystyle \ Delta X_ {it}} .

    Когда T = 2 {\ displaystyle T = 2 }T = 2 , оценки первой разности и фиксированных эффектов численно эквивалентны. Для T>2 {\ displaystyle T>2}{\displaystyle T>2} , это не так. Если термины ошибки uit {\ displaystyle u_ {it}}u _ {{it}} являются гомоскедастичными без последовательная корреляция, оценщик фиксированных эффектов более эффективен, чем оценщик первой разности. Если uit {\ displaystyle u_ {it}}u _ {{it}} следует за случайное блуждание, однако первая оценка разности более эффективна.

    Равенство фиксированных эффектов и оценок первой разности при T = 2

    Для специального двухпериодного случая (T = 2 {\ displaystyle T = 2}T = 2 ), оценщик фиксированных эффектов (FE) и оценщик первой разности (FD) численно эквивалентны. Это потому, что оценщик FE эффективно «удваивает данные набор ", используемый в оценке FD. Чтобы убедиться в этом, установите, что оценка фиксированных эффектов: FET = 2 = [(xi 1 - x ¯ i) (xi 1 - x ¯ i) ′ + (xi 2 - x ¯ i) (xi 2 - x ¯ i) ′] - 1 [(xi 1 - x ¯ i) (yi 1 - y ¯ i) + (xi 2 - x ¯ i) (yi 2 - y ¯ i)] {\ displaystyle {FE} _ {T = 2} = \ left [(x_ {i1} - {\ bar { x}} _ {i}) (x_ {i1} - {\ bar {x}} _ {i}) '+ (x_ {i2} - {\ bar {x}} _ {i}) (x_ {i2 } - {\ bar {x}} _ {i}) '\ right] ^ {- 1} \ left [(x_ {i1} - {\ bar {x}} _ {i}) (y_ {i1} - {\ bar {y}} _ {i}) + (x_ {i2} - {\ bar {x}} _ {i}) (y_ {i2} - {\ bar {y}} _ {i}) \ right]}{FE}_{{T=2}}=\left[(x_{{i1}}-{\bar x}_{{i}})(x_{{i1}}-{\bar x}_{{i}})'+(x_{{i2}}-{\bar x}_{{i}})(x_{{i2}}-{\bar x}_{{i}})'\right]^{{-1}}\left[(x_{{i1}}-{\bar x}_{{i}})(y_{{i1}}-{\bar y}_{{i}})+(x_{{i2}}-{\bar x}_{{i}})(y_{{i2}}-{\bar y}_{{i}})\right]

    Поскольку каждый (xi 1 - x ¯ i) {\ displaystyle (x_ {i1} - {\ bar {x}} _ {i})}(x _ {{i1}} - { \ бар х} _ {{я}}) может быть записывается как (xi 1 - xi 1 + xi 2 2) = xi 1 - xi 2 2 {\ displaystyle (x_ {i1} - {\ dfrac {x_ {i1} + x_ {i2}} {2}) }) = {\ dfrac {x_ {i1} -x_ {i2}} {2}}}(x _ {{i1}} - {\ dfr ac {x _ {{i1}} + x _ {{i2}}} {2}}) = {\ dfrac {x _ {{i1}} - x _ {{i2}}} {2}} , мы перепишем строку как:

    FET = 2 = [∑ i = 1 N xi 1 - xi 2 2 xi 1 - xi 2 2 ′ + xi 2 - xi 1 2 xi 2 - xi 1 2 ′] - 1 [∑ i = 1 N xi 1 - xi 2 2 yi 1 - yi 2 2 + xi 2 - xi 1 2 yi 2 - yi 1 2] {\ displaystyle {FE} _ {T = 2} = \ left [\ sum _ {i = 1} ^ {N} {\ dfrac {x_ {i1} -x_ {i2}} {2}} {\ dfrac {x_ {i1} -x_ {i2}} {2}} '+ {\ dfrac {x_ {i2} -x_ {i1 }} {2}} {\ dfrac {x_ {i2} -x_ {i1}} {2}} '\ right] ^ {- 1} \ left [\ sum _ {i = 1} ^ {N} {\ dfrac {x_ {i1} -x_ {i2}} {2}} {\ dfrac {y_ {i1} -y_ {i2}} {2}} + {\ dfrac {x_ {i2} -x_ {i1}} { 2}} {\ dfrac {y_ {i2} -y_ {i1}} {2}} \ right]}{FE}_{{T=2}}=\left[\sum _{{i=1}}^{{N}}{\dfrac {x_{{i1}}-x_{{i2}}}{2}}{\dfrac {x_{{i1}}-x_{{i2}}}{2}}'+{\dfrac {x_{{i2}}-x_{{i1}}}{2}}{\dfrac {x_{{i2}}-x_{{i1}}}{2}}'\right]^{{-1}}\left[\sum _{{i=1}}^{{N}}{\dfrac {x_{{i1}}-x_{{i2}}}{2}}{\dfrac {y_{{i1}}-y_{{i2}}}{2}}+{\dfrac {x_{{i2}}-x_{{i1}}}{2}}{\dfrac {y_{{i2}}-y_{{i1}}}{2}}\right]

    = [∑ i = 1 N 2 xi 2 - xi 1 2 xi 2 - xi 1 2 ′] - 1 [∑ я = 1 N 2 xi 2 - xi 1 2 yi 2 - yi 1 2] {\ displaystyle = \ left [\ sum _ {i = 1} ^ {N} 2 {\ dfrac {x_ {i2} -x_ {i1}} {2}} {\ dfrac {x_ {i2} -x_ {i1}} {2}} '\ right] ^ {- 1} \ left [\ sum _ {i = 1} ^ { N} 2 {\ dfrac {x_ {i2} -x_ {i1}} {2}} {\ dfrac {y_ {i2} -y_ {i1}} {2}} \ right]}=\left[\sum _{{i=1}}^{{N}}2{\dfrac {x_{{i2}}-x_{{i1}}}{2}}{\dfrac {x_{{i2}}-x_{{i1}}}{2}}'\right]^{{-1}}\left[\sum _{{i=1}}^{{N}}2{\dfrac {x_{{i2}}-x_{{i1}}}{2}}{\dfrac {y_{{i2}}-y_{{i1}}}{2}}\right]
    = 2 [∑ я знак равно 1 N (xi 2 - xi 1) (xi 2 - xi 1) ′] - 1 [∑ я = 1 N 1 2 (xi 2 - xi 1) (yi 2 - yi 1)] {\ displaystyle = 2 \ left [\ sum _ {i = 1} ^ {N} (x_ {i2} -x_ {i1}) (x_ {i2} -x_ {i1}) '\ right] ^ {- 1} \ left [\ сумма _ {i = 1} ^ {N} {\ frac {1} {2}} (x_ {i2} -x_ {i1}) (y_ {i2} -y_ {i1}) \ right]}=2\left[\sum _{{i=1}}^{{N}}(x_{{i2}}-x_{{i1}})(x_{{i2}}-x_{{i1}})'\right]^{{-1}}\left[\sum _{{i=1}}^{{N}}{\frac {1}{2}}(x_{{i2}}-x_{{i1}})(y_{{i2}}-y_{{i1}})\right]
    = [∑ i = 1 N (xi 2 - xi 1) (xi 2 - xi 1) ′] - 1 ∑ i = 1 N (xi 2 - xi 1) (yi 2 - yi 1) = FDT = 2 {\ displaystyle = \ left [\ сумма _ {я = 1} ^ {N} (x_ {i2} -x_ {i1}) (x_ {i2} -x_ {i1}) '\ right] ^ {- 1} \ sum _ {i = 1} ^ {N} (x_ {i2} -x_ {i1}) (y_ {i2} -y_ { i1}) = {FD} _ {T = 2}}=\left[\sum _{{i=1}}^{{N}}(x_{{i2}}-x_{{i1}})(x_{{i2}}-x_{{i1}})'\right]^{{-1}}\sum _{{i=1}}^{{N}}(x_{{i2}}-x_{{i1}})(y_{{i2}}-y_{{i1}})={FD}_{{T=2}}

    Метод Чемберлена

    , обобщение внутренней оценки, заменяет α i {\ displaystyle \ alpha _ {i }}\ alpha _ {{i}} с его линейной проекцией на независимые переменные. Записываем линейную проекцию как:

    α i = λ 0 + X i 1 λ 1 + X i 2 λ 2 + ⋯ + X i T λ T + ei {\ displaystyle \ alpha _ {i} = \ lambda _ { 0} + X_ {i1} \ lambda _ {1} + X_ {i2} \ lambda _ {2} + \ dots + X_ {iT} \ lambda _ {T} + e_ {i}}{\ displaystyle \ alpha _ {i} = \ lambda _ {0} + X_ {i1} \ lambda _ {1} + X_ {i2} \ lambda _ {2} + \ dots + X_ {iT} \ lambda _ {T} + e_ {i }}

    это приводит к следующее уравнение:

    yit = λ 0 + X i 1 λ 1 + X i 2 λ 2 + ⋯ + X it (λ t + β) + ⋯ + X i T λ T + ei + uit {\ displaystyle y_ {it} = \ lambda _ {0} + X_ {i1} \ lambda _ {1} + X_ {i2} \ lambda _ {2} + \ dots + X_ {it} (\ lambda _ {t} + \ mathbf {\ beta}) + \ dots + X_ {iT} \ lambda _ {T} + e_ {i} + u_ {it}}{\ displaystyle y_ {it} = \ lambda _ {0} + X_ {i1} \ lambda _ {1} + X_ {i2} \ lambda _ {2 } + \ dots + X_ {it} (\ lambda _ {t} + \ mathbf {\ beta}) + \ dots + X_ {iT} \ lambda _ {T} + e_ {i} + u_ {it}}

    , которое можно оценить по оценке минимального расстояния.

    Хаусмана – Тейлора метод

    Необходимо иметь более одного регрессора, зависящего от времени (X {\ displaystyle X}X ) и не зависящего от времени регрессора (Z {\ displaystyle Z}Z ) и по крайней мере один X {\ displaystyle X}X и один Z {\ displaystyle Z}Z , которые не коррелируют с α i {\ displaystyle \ alpha _ {i}}\ alpha _ {{i}} .

    Разделение X {\ displaystyle X}X и Z {\ displaystyle Z}Z такие переменные, что X = [X 1 it TN × K 1 ⋮ X 2 it TN × K 2] Z = [Z 1 it TN × G 1 ⋮ Z 2 it TN × G 2] {\ displaystyle {\ begin {array} {c} X = [{\ underset {TN \ times K1} {X_ {1it}}} \ vdots {\ underset {TN \ times K2} {X_ {2it}}}] \\ Z = [{\ underset {TN \ times G1} {Z_ {1it}}} \ vdots {\ underset {TN \ times G2} {Z_ {2it}}}] \ end {array}}}{\ begin {array} [c] {c} X = [{\ underset {TN \ times K1} {X _ {{1it }}}} \ vdots {\ underset {TN \ times K2} {X _ {{2it}}}}] \\ Z = [{\ underset {TN \ times G1} {Z _ {{1it}}}} \ vdots {\ underset {TN \ times G2} {Z _ {{2it}}}}] \ end {array}} где X 1 {\ displaystyle X_ {1}}X _ {{1}} и Z 1 {\ displaystyle Z_ {1}}Z _ {{1}} не коррелируют с α я {\ Displaystyle \ alpha _ {я}}\ alpha _ {{i}} . Требуется K 1>G 2 {\ displaystyle K1>G2}K1>G2 .

    Оценка γ {\ displaystyle \ gamma}\ gamma с помощью OLS на di ^ = + φ it {\ displaystyle {\ widehat {di}} = Z_ {i} \ gamma + \ varphi _ {it}}\ widehat {di} = Z _ {{i}} \ gamma + \ varphi _ { {it}} с использованием X 1 {\ displaystyle X_ {1}}X_ {1} и Z 1 {\ displaystyle Z_ {1}}Z_ {1} в качестве инструментов дает согласованную оценку.

    Обобщение с входной неопределенностью

    При наличии входная неопределенность для данных y {\ displaystyle y}y , δ y {\ displaystyle \ delta y}\ delta y , затем χ 2 {\ displaystyle Следует минимизировать значение \ chi ^ {2}}\ chi ^ {2} , а не сумму квадратов остатков. Это может быть непосредственно достигнуто с помощью правил замены:

    yit δ yit = β X it δ yit + α я 1 δ yit + uit δ yit {\ displaystyle {\ frac {y_ {it}} {\ delta y_ {it}}} = \ mathbf {\ beta } {\ frac {X_ {it}} {\ delta y_ {it}}} + \ alpha _ {i} {\ frac {1} {\ delta y_ {it}}} + {\ frac {u_ {it}) } {\ delta y_ {it}}}}{\ displaystyle {\ frac {y_ {it}} {\ delta y_ {it}}} = \ mathbf {\ beta} {\ frac {X_ {it}} {\ delta y_ {it}}} + \ alpha _ {i} {\ frac {1} {\ delta y_ {it}}} + {\ frac {u_ {it}} {\ delta y_ {it}}}} ,

    затем значения и стандартные отклонения для β {\ displaystyle \ mathbf {\ beta}}{\ displaystyle \ mathbf {\ beta}} и α i {\ displaystyle \ alpha _ {i}}{\ displaystyle \ alpha _ {i}} можно определить с помощью классического обычного анализа наименьших квадратов и ковариационной матрицы.

    Тестирование фиксированных эффектов (FE) и случайных эффектов ( RE)

    Мы можем проверить, подходит ли модель фиксированных или случайных эффектов, используя тест Дарбина – Ву – Хаусмана.

    H 0 {\ displaystyle H_ {0}}H_ {0} : α i ⊥ Икс это, Z я {\ Displaystyle \ альфа _ {я} \ перп Х_ {это}, Z_ {я}}\ alpha _ {{i}} \ perp X _ {{оно}}, Z _ {{i}}
    Н а {\ Displaystyle Н_ {а}}H_{{a}}: α я ⊥̸ Х это, Z я {\ displaystyle \ alpha _ {i} \ not \ perp X_ {it}, Z_ {i}}\ alpha _ {{i}} \ not \ perp X _ {{it}}, Z _ {{i}}

    Если H 0 {\ displaystyle H_ {0}}H_ {0} верно, оба β ^ RE {\ displaystyle {\ widehat {\ beta}} _ {RE}}\ widehat {\ beta} _ {{RE}} и β ^ FE {\ displaystyle {\ widehat {\ beta}} _ {FE }}\ widehat {\ beta} _ {{FE}} согласованы, но только β ^ RE {\ displaystyle {\ widehat {\ bet a}} _ {RE}}\ widehat {\ beta} _ {{RE}} эффективно. Если H a {\ displaystyle H_ {a}}H_{{a}}верно, β ^ FE {\ displaystyle {\ widehat {\ beta}} _ {FE}}\ widehat {\ beta} _ {{FE}} согласован, а β ^ RE {\ displaystyle {\ widehat {\ beta}} _ {RE}}\ widehat {\ beta} _ {{RE}} - нет.

    Q ^ = {\ displaystyle {\ widehat {Q}} =}\ widehat {Q} = β ^ RE - β ^ FE {\ displaystyle {\ widehat {\ beta}} _ {RE} - {\ widehat {\ beta }} _ {FE}}\ widehat {\ beta} _ {{RE}} - \ widehat {\ beta} _ {{FE}}
    HT ^ = TQ ^ '[V ar (β ^ FE) - V ar (β ^ RE)] - 1 Q ^ ∼ χ K 2 {\ displaystyle {\ widehat {HT} } = T {\ widehat {Q}} ^ {\ prime} [Var ({\ widehat {\ beta}} _ {FE}) - Var ({\ widehat {\ beta}} _ {RE})] ^ { -1} {\ widehat {Q}} \ sim \ chi _ {K} ^ {2}}\ widehat {HT} = T \ widehat {Q} ^ {{ \ prime}} [Var (\ widehat {\ beta} _ {{FE}}) - Var (\ widehat {\ beta} _ {{RE}})] ^ {{- 1}} \ widehat {Q} \ sim \ chi _ {{K}} ^ {{2}} где K = dim ⁡ (Q) {\ displaystyle K = \ dim (Q) }K = \ dim (Q)

    Тест Хаусмана - это тест спецификации, поэтому большая статистика теста может указывать на то, что могут быть ошибки в переменных (EIV) или наша модель неверно указана. Если предположение FE верно, мы должны обнаружить, что β ^ LD ≈ β ^ FD ≈ β ^ FE {\ displaystyle {\ widehat {\ beta}} _ {LD} \ приблизительно {\ widehat {\ beta}} _ {FD} \ приблизительно {\ widehat {\ beta}} _ {FE}}{\ displaystyle {\ widehat {\ beta }} _ {LD} \ приблизительно {\ widehat {\ beta}} _ {FD} \ приблизительно {\ widehat {\ beta}} _ {FE}} .

    Простая эвристика: если | β ^ L D |>| β ^ F E |>| β ^ F D | {\ displaystyle \ left \ vert {\ widehat {\ beta}} _ {LD} \ right \ vert>\ left \ vert {\ widehat {\ beta}} _ {FE} \ right \ vert>\ left \ vert { \ widehat {\ beta}} _ {FD} \ right \ vert}\left\vert \widehat {\beta }_{{LD}}\right\vert>\ left \ vert \ widehat {\ beta} _ {{FE}} \ right \ vert>\ left \ vert \ widehat { \ beta} _ {{FD}} \ right \ vert может быть EIV.

    См. Также

    Примечания

    Ссылки

    • Кристенсен, Рональд (2002). Плоские ответы на сложные вопросы: теория линейных моделей (третье издание). Нью-Йорк: Springer. ISBN 0-387- 95361-2.
    • Гуджарати, Дамодар Н.; Портер, Доун С. (2009). «Модели регрессии панельных данных». Базовая эконометрика (Пятое международное издание). Бостон: МакГроу-Хилл, стр. 591-616 89>ISBN 978-007-127625-2.
    • Сяо, Ченг (2003). «Модели с фиксированными эффектами. ". Анализ панельных данных (2-е изд.). Нью-Йорк: Издательство Кембриджского университета. С. 95–103. ISBN 0-521-52271-4.
    • Вулдридж, Джеффри М. (2013). «Оценка фиксированных эффектов». Вводная эконометрика: современный подход (Пятое международное издание). Мейсон, Огайо: Юго-запад. С. 466–474. ISBN 978-1-111-53439-4.

    Внешние ссылки

Последняя правка сделана 2021-05-20 07:39:07
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте