Модель одновременных уравнений

редактировать

Модели одновременных уравнений - это тип статистической модели, в которой зависимые переменные являются функциями других зависимых переменных, а не просто независимыми переменными. Это означает, что некоторые из независимых переменных определяются совместно с зависимой переменной, которая в экономике обычно является следствием некоего лежащего в основе механизма равновесия. Например, в простой модели спроса и предложения цена и количество определяются совместно.

Одновременность создает проблемы для оценки интересующих статистических параметров, потому что предположение Гаусса – Маркова о строгой экзогенности регрессоров нарушается. И хотя было бы естественно оценивать все одновременные уравнения сразу, это часто приводит к дорогостоящей в вычислительном отношении задаче нелинейной оптимизации даже для простейшей системы линейных уравнений. Эта ситуация подтолкнула к разработке, возглавляемой Комиссией Коулза в 1940-х и 1950-х годах, различных методов, которые оценивают каждое уравнение в модели последовательно, в первую очередь максимальная вероятность ограниченной информации и двухэтапный метод наименьших квадратов.

Содержание
  • 1 Структурная и сокращенная форма
    • 1.1 Допущения
  • 2 Идентификация
    • 2.1 Использование ограничений перекрестного уравнения для достижения идентификации
  • 3 Оценка
    • 3.1 Два -стадийный метод наименьших квадратов (2SLS)
    • 3.2 Косвенный метод наименьших квадратов
    • 3.3 Максимальное правдоподобие с ограниченной информацией (LIML)
      • 3.3.1 Оценки класса K
    • 3.4 Трехэтапный метод наименьших квадратов (3SLS)
  • 4 Приложения в социальных науках
  • 5 См. Также
  • 6 Ссылки
  • 7 Дополнительная литература
  • 8 Внешние ссылки
Структурная и сокращенная форма

Предположим, существует m уравнений регрессии вида

yit = y - i, t ′ γ i + xit ′ β i + uit, i = 1,…, m, {\ displaystyle y_ {it} = y _ {- i, t} '\ gamma _ {i} + x_ {it} '\; \! \ beta _ {i} + u_ {it}, \ quad i = 1, \ ldots, m,}y_{{it}}=y_{{-i,t}}'\gamma _{i}+x_{{it}}'\;\!\beta _{i}+u_{{it}},\quad i=1,\ldots,m,

где i - номер уравнения, а t = 1,..., T - индекс наблюдения. В этих уравнениях x it - вектор экзогенных переменных k i × 1, y it - зависимая переменная, y −i, t - вектор n i × 1 всех других эндогенных переменных, которые входят в уравнение i в правой части, а u it - члены ошибки. Обозначение «−i» указывает, что вектор y −i, t может содержать любой из y, кроме y it (поскольку он уже присутствует в левой части). Коэффициенты регрессии β i и γ i имеют размерности k i × 1 и n i × 1 соответственно. Сложив по вертикали T наблюдений, соответствующих уравнению i, мы можем записать каждое уравнение в векторной форме как

yi = Y - i γ i + X i β i + ui, i = 1,…, m, {\ displaystyle y_ {i} = Y _ {- i} \ gamma _ {i} + X_ {i} \ beta _ {i} + u_ {i}, \ quad i = 1, \ ldots, m,}y_ {i} = Y _ {{- i}} \ gamma _ {i} + X_ {i} \ бета _ {i} + u_ {i}, \ quad i = 1, \ ldots, m,

где y i и u i - это векторы T × 1, X i - матрица экзогенных регрессоров T × k i, а Y −i - это матрица эндогенных регрессоров размером T × n i в правой части уравнения i. Наконец, мы можем переместить все эндогенные переменные в левую часть и записать m уравнений вместе в векторной форме как

Y Γ = X B + U. {\ displaystyle Y \ Gamma = X \ mathrm {B} + U. \,}Y \ Gamma = X \ mathrm {B} + U. \,

Это представление известно как структурная форма . В этом уравнении Y = [y 1y2... y m ] - это матрица зависимых переменных размером T × m. Каждая из матриц Y −i фактически является подматрицей с столбцами n i этого Y. Матрица Γ размером m × m, которая описывает связь между зависимыми переменными, имеет сложная структура. Он имеет единицы на диагонали, а все остальные элементы каждого столбца i являются либо компонентами вектора −γ i, либо нулями, в зависимости от того, какие столбцы Y были включены в матрицу Y - я. Матрица X T × k содержит все экзогенные регрессоры из всех уравнений, но без повторов (то есть матрица X должна иметь полный ранг). Таким образом, каждая X i представляет собой k i -колонную подматрицу X. Матрица Β имеет размер k × m, и каждый из ее столбцов состоит из компонентов векторов β i и нули, в зависимости от того, какой из регрессоров из X был включен или исключен из X i. Наконец, U = [u 1u2... u m ] представляет собой матрицу T × m членов ошибки.

Умножая структурное уравнение на Γ, систему можно записать в сокращенной форме как

Y = XB Γ - 1 + U Γ - 1 = Х Π + V. {\ displaystyle Y = X \ mathrm {B} \ Gamma ^ {- 1} + U \ Gamma ^ {- 1} = X \ Pi + V. \,}Y = X \ mathrm {B} \ Gamma ^ {{- 1}} + U \ Gamma ^ {{- 1}} = X \ Pi + V. \,

Это уже простая общая линейная модель, и ее можно оценить, например, с помощью обычных наименьших квадратов. К сожалению, задача разложения оценочной матрицы Π ^ {\ displaystyle \ scriptstyle {\ hat {\ Pi}}}\ scriptstyle {\ hat \ Pi} на отдельные множители Β и Γ довольно сложна, поэтому приведенная форма больше подходит для прогнозирования, но не для вывода.

Допущения

Во-первых, ранг матрицы X экзогенных регрессоров должен быть равен k, как в конечных выборках, так и в пределе T → ∞ (это более позднее требование означает, что в ограничить выражение 1 TX ′ X {\ displaystyle \ scriptstyle {\ frac {1} {T}} X '\! X}\scriptstyle {\frac 1T}X'\!Xдолжно сходиться к невырожденной матрице k × k). Матрица Γ также считается невырожденной.

Во-вторых, предполагается, что условия ошибки последовательно независимы и одинаково распределены. То есть, если строка t матрицы U обозначена u (t), то последовательность векторов {u (t) } должна быть iid, с нулевым средним и некоторым ковариационная матрица Σ (которая неизвестна). В частности, отсюда следует, что E [U] = 0 и E [U′U] = T Σ.

Наконец, для идентификации требуются предположения.

Идентификация

Условия идентификации требуют, чтобы количество неизвестных в этой системе уравнений не превышало количества уравнений. Более конкретно, условие порядка требует, чтобы для каждого уравнения k i + n i ≤ k, что можно сформулировать как «количество исключенных экзогенных переменных больше или равно количеству включенных эндогенных переменных ». Условие ранжирования идентифицируемости состоит в том, что ранг (Π i0) = n i, где Π i0 - это (k - k i) × n i, которая получается из Π путем вычеркивания тех столбцов, которые соответствуют исключенным эндогенным переменным, и тех строк, которые соответствуют включенным экзогенным переменным.

Использование ограничений перекрестного уравнения для достижения идентификации

В моделях с одновременными уравнениями наиболее распространенный метод достижения идентификации - это наложение ограничений на параметры внутри уравнения. Тем не менее, идентификация также возможна с использованием ограничений перекрестного уравнения.

Чтобы проиллюстрировать, как ограничения перекрестного уравнения могут использоваться для идентификации, рассмотрим следующий пример из Вулдриджа

. y1= γ 12y2+ δ 11z1+ δ 12z2+ δ 13z3+ u 1. y2= γ 21y1+ δ 21z1+ δ 22z2+ u 2

, где z не коррелируют с u, а y являются эндогенными переменными. Без дополнительных ограничений первое уравнение не идентифицируется, потому что нет исключенной экзогенной переменной. Второе уравнение просто идентифицируется, если δ 13 ≠ 0, что предполагается справедливым до конца обсуждения.

Теперь мы накладываем ограничение перекрестного уравнения для δ 12=δ22. Поскольку второе уравнение идентифицировано, мы можем рассматривать δ 12 как известное для целей идентификации. Тогда первое уравнение принимает вид:

. y1- δ 12z2= γ 12y2+ δ 11z1+ δ 13z3+ u 1

Затем мы можем использовать (z 1,z2,z3) как инструменты для оценки коэффициентов в приведенном выше уравнении, поскольку с правой стороны имеется одна эндогенная переменная (y 2) и одна исключенная экзогенная переменная (z 2). Следовательно, ограничения перекрестного уравнения вместо ограничений внутри уравнения могут обеспечить идентификацию.

.

Оценка

Двухэтапный метод наименьших квадратов (2SLS)

Самым простым и наиболее распространенным методом оценки для модели одновременных уравнений является так называемый двухэтапный метод наименьших квадратов, независимо разработанный Тейлом (1953) ошибка harvtxt: нет цели: CITEREFTheil1953 (help ) и Basmann (1957). Это метод «уравнение за уравнением», при котором эндогенные регрессоры в правой части каждого уравнения дополняются регрессорами X из всех других уравнений. Метод называется «двухэтапным», потому что он выполняет оценку в два этапа:

Шаг 1: регрессируйте Y −i по X и получите прогнозируемые значения Y ^ - i {\ displaystyle \ scriptstyle {\ hat {Y}} _ {\! - i}}\ scriptstyle {\ hat {Y}} _ {{\! - i}} ;
Шаг 2: Оцените γ i, β i с помощью обыкновенных наименьших квадратов регрессия y i на Y ^ - i {\ displaystyle \ scriptstyle {\ hat {Y}} _ {\! - i}}\ scriptstyle {\ hat {Y}} _ {{\! - i}} и X i.

Если уравнение i в модели записано как

yi = (Y - i X i) (γ i β i) + ui ≡ Z i δ i + ui, {\ displaystyle y_ {i} = {\ begin {pmatrix} Y _ {- i} X_ {i} \ end {pmatrix}} {\ begin {pmatrix} \ gamma _ {i} \\\ beta _ {i} \ end {pmatrix}} + u_ {i} \ эквивалент Z_ {i} \ delta _ {i} + u_ {i},}y_ {i} = {\ begin {pmatrix} Y _ {{- i}} X_ {i} \ end {pmatrix}} {\ begin {pmatrix} \ gamma _ {i} \\\ beta _ {i} \ end {pmatrix}} + u_ {i} \ Equiv Z_ {i} \ delta _ {i} + u_ {i},

, где Z i - это T × (n i + k i) матрицы как эндогенных, так и экзогенных регрессоров в уравнении i, а δ i является (n i + k i) -мерным вектором регрессии. коэффициентов, то оценка 2SLS для δ i будет задана как

δ ^ i = (Z ^ i ′ Z ^ i) - 1 Z ^ i ′ yi = (Z i ′ PZ i) - 1 Z i ′ P yi, {\ displaystyle {\ hat {\ delta}} _ {i} = {\ big (} {\ hat {Z}} '_ {i} {\ hat {Z} } _ {i} {\ big)} ^ {- 1} {\ hat {Z}} '_ {i} y_ {i} = {\ big (} Z' _ {i} PZ_ {i} {\ big)} ^ {- 1} Z '_ {i} Py_ {i},}{\hat \delta }_{i}={\big (}{\hat {Z}}'_{i}{\hat {Z}}_{i}{\big)}^{{-1}}{\hat {Z}}'_{i}y_{i}={\big (}Z'_{i}PZ_{i}{\big)}^{{-1}}Z'_{i}Py_{i},

где P = X (X ′ X) X ′ - матрица проекции на линейное пространство, натянутое экзогенными регрессорами X.

Косвенный метод наименьших квадратов

Косвенный метод наименьших квадратов - это подход в эконометрике, где коэффициенты в модели одновременных уравнений оцениваются из сокращенной формы модель с использованием обычных наименьших квадратов. Для этого структурная система уравнений сначала преобразуется в приведенную форму. После оценки коэффициентов модель возвращается в структурную форму.

Метод максимального правдоподобия с ограниченной информацией (LIML)

Метод максимального правдоподобия с ограниченной информацией был предложен в 1947 году и формализован Т. W. Anderson и в 1949 году. Он используется, когда кто-то заинтересован в оценке одного структурного уравнения за раз (отсюда и название ограниченной информации), например, для наблюдения i:

yi = Y - i γ i + Икс я β я + ui ≡ Z я δ я + ui {\ displaystyle y_ {i} = Y _ {- i} \ gamma _ {i} + X_ {i} \ beta _ {i} + u_ {i} \ Equiv Z_ {i} \ delta _ {i} + u_ {i}}y_ {i} = Y _ {{- i}} \ gamma _ {i} + X_ {i} \ бета _ {i} + u_ {i} \ Equiv Z_ {i} \ delta _ {i} + u_ {i}

Структурные уравнения для остальных эндогенных переменных Y −i не указаны, и они приведены в их сокращенной форме:

Y - i = X Π + U - i {\ displaystyle Y _ {- i} = X \ Pi + U _ {- i}}{\ displaystyle Y _ {- i} = X \ Pi + U _ {- i}}

Обозначение в этом контексте отличается от простого IV случай. Один из них:

  • Y - i {\ displaystyle Y _ {- i}}Y _ {{- i}} : эндогенная (ые) переменная (ы).
  • X - i {\ displaystyle X _ {- i}}X _ {{- i}} : экзогенная (ые) переменная (ы)
  • X {\ displaystyle X}X : инструмент (ы) (часто обозначается Z {\ displaystyle Z}Z )

явная формула для LIML:

δ ^ i = (Z i ′ (I - λ M) Z i) - 1 Z i ′ (I - λ M) yi, {\ displaystyle {\ hat {\ delta}} _ { i} = {\ Big (} Z '_ {i} (I- \ lambda M) Z_ {i} {\ Big)} ^ {\! - 1} Z' _ {i} (I- \ lambda M) y_ {i},}{\hat \delta }_{i}={\Big (}Z'_{i}(I-\lambda M)Z_{i}{\Big)}^{{\!-1}}Z'_{i}(I-\lambda M)y_{i},

где M = I - X (X ′ X) X ′, а λ - наименьший характеристический корень матрицы:

([yi Y - i] M i [yi Y - я]) ([йи Y - я] M [йи Y - я]) - 1 {\ displaystyle {\ Big (} {\ begin {bmatrix} y_ {i} \\ Y _ {- i} \ end {bmatrix} } M_ {i} {\ begin {bmatrix} y_ {i} Y _ {- i} \ end {bmatrix}} {\ Big)} {\ Big (} {\ begin {bmatrix} y_ {i} \\ Y_ { -i} \ end {bmatrix}} M {\ begin {bmatrix} y_ {i} Y _ {- i} \ end {bmatrix}} {\ Big)} ^ {\! - 1}}{\ Big (} {\ begin {bmatrix } y_ {i} \\ Y _ {{- i}} \ end {bmatrix}} M_ {i} {\ begin {bmatrix} y_ {i} Y _ {{- i}} \ end {bmatrix}} {\ Big)} {\ Big (} {\ begin {bmatrix} y_ {i} \\ Y _ {{- i}} \ end {bmatrix}} M {\ begin {bmatrix} y_ {i} Y _ {{- i}} \ end {bmatrix}} {\ Big)} ^ {{\! - 1}}

где, в аналогично, M i = I - X i(Xi′Xi)Xi′.

Другими словами, λ является наименьшим решением обобщенного eige nvalue проблема, см. Тейл (1971, стр. 503):

| [y i Y - i] ′ M i [y i Y - i] - λ [y i Y - i] ′ M [y i Y - i] | = 0 {\ displaystyle {\ Big |} {\ begin {bmatrix} y_ {i} Y _ {- i} \ end {bmatrix}} 'M_ {i} {\ begin {bmatrix} y_ {i} Y _ {- i } \ end {bmatrix}} - \ lambda {\ begin {bmatrix} y_ {i} Y _ {- i} \ end {bmatrix}} 'M {\ begin {bmatrix} y_ {i} Y _ {- i} \ end {bmatrix}} {\ Big |} = 0}{\Big |}{\begin{bmatrix}y_{i}Y_{{-i}}\end{bmatrix}}'M_{i}{\begin{bmatrix}y_{i}Y_{{-i}}\end{bmatrix}}-\lambda {\begin{bmatrix}y_{i}Y_{{-i}}\end{bmatrix}}'M{\begin{bmatrix}y_{i}Y_{{-i}}\end{bmatrix}}{\Big |}=0

Оценки K-класса

LIML - это частный случай оценок K-класса:

δ ^ = (Z ′ (I - κ M) Z) - 1 Z ′ (I - κ M) y, {\ displaystyle {\ hat {\ delta}} = {\ Big (} Z '(I- \ kappa M) Z {\ Big)} ^ { \! - 1} Z '(I- \ kappa M) y,}{\hat \delta }={\Big (}Z'(I-\kappa M)Z{\Big)}^{{\!-1}}Z'(I-\kappa M)y,

с:

  • δ = [β i γ i] {\ displaystyle \ delta = {\ begin {bmatrix} \ beta _ {i } \ gamma _ {i} \ end {bmatrix}}}\ delta = {\ begin {bmatrix} \ beta _ {i} \ gamma _ {i} \ end {bmatrix}}
  • Z = [X i Y - i] {\ displaystyle Z = {\ begin {bmatrix} X_ {i} Y _ {- i} \ end { bmatrix}}}Z = {\ begin {bmatrix} X_ {i} Y _ {{- i}} \ end {bmatrix}}

К этому классу относятся несколько оценок:

  • κ = 0: OLS
  • κ = 1: 2SLS. Обратите внимание, что в этом случае I - κ M = I - M = P {\ displaystyle I- \ kappa M = IM = P}I- \ kappa M = IM = P обычная матрица проекции 2SLS
  • κ = λ: LIML
  • κ = λ - α (nK): Фуллер (1977) оценка. Здесь K представляет количество инструментов, n - размер выборки, а α - положительная константа, которую необходимо указать. Значение α = 1 даст оценку, которая является приблизительно несмещенной.

Трехэтапный метод наименьших квадратов (3SLS)

Трехэтапный метод наименьших квадратов был введен Zellner Theil (1962).). Это можно рассматривать как частный случай множественного уравнения GMM, где набор инструментальных переменных является общим для всех уравнений. Если все регрессоры фактически предопределены, то 3SLS сокращается до , казалось бы, несвязанных регрессий (SUR). Таким образом, это также можно рассматривать как комбинацию двухэтапного метода наименьших квадратов (2SLS) с SUR.

Приложения в социальных науках

Во всех областях и дисциплинах одновременные модели уравнений применяются к различным наблюдаемым явлениям. Эти уравнения применяются, когда предполагается, что явления взаимно причинны. Классический пример - спрос и предложение в экономике. В других дисциплинах есть примеры, такие как оценки кандидатов и идентификация партий или общественное мнение и социальная политика в политологии ; дорожные инвестиции и спрос на путешествия по географии; а также сведения об уровне образования и отцовстве в социологии или демографии. Модель одновременных уравнений требует теории взаимной причинности, которая включает в себя особые особенности, если причинные эффекты должны оцениваться как одновременная обратная связь, в отличие от односторонних `` блоков '' уравнения, в которых исследователь интересуется причинным влиянием X на Y при сохранении причинного эффекта Y на X постоянной или когда исследователь знает точное количество времени, которое требуется для возникновения каждого причинного эффекта, то есть длительность причинных лагов. Вместо запаздывающих эффектов одновременная обратная связь означает оценку одновременного и непрерывного воздействия X и Y друг на друга. Для этого нужна теория, согласно которой причинные эффекты одновременны во времени или настолько сложны, что кажутся действующими одновременно; распространенный пример - настроение соседей по комнате. Для оценки моделей одновременной обратной связи также необходима теория равновесия - что X и Y находятся в относительно устойчивом состоянии или являются частью системы (общества, рынка, учебной аудитории), которая находится в относительно стабильном состоянии.

См. также
Ссылки
Дополнительная литература
  • Fomby, Thomas B.; Хилл, Р. Картер; Джонсон, Стэнли Р. (1984). «Модели одновременных уравнений». Продвинутые эконометрические методы. Нью-Йорк: Спрингер. С. 437–552. ISBN 0-387-90908-7.
  • Маддала, Г.С. ; Лахири, Каджал (2009). «Модели одновременных уравнений». Введение в эконометрику (Четвертое изд.). Нью-Йорк: Вили. С. 355–400. ISBN 978-0-470-01512-4.
  • Рууд, Пол А. (2000). «Одновременные уравнения». Введение в классическую эконометрическую теорию. Издательство Оксфордского университета. С. 697–746. ISBN 0-19-511164-8.
  • Сарган, Денис (1988). Лекции по углубленной эконометрической теории. Оксфорд: Бэзил Блэквелл. С. 68–89. ISBN 0-631-14956-2.
  • Вулдридж, Джеффри М. (2013). «Модели одновременных уравнений». Вводная эконометрика (Пятое изд.). Юго-Западный. С. 554–582. ISBN 978-1-111-53104-1.
Внешние ссылки
Последняя правка сделана 2021-06-08 02:12:34
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте