WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 || 3 | 4 |

«ИНСТИТУТ ЭКОНОМИКИ ПЕРЕХОДНОГО ПЕРИОДА В.П. Носко Эконометрика для начинающих Дополнительные главы Москва 2005 УДК 330.45:519.862.6 ББК 65в6 Н84 Носко В.П. Эконометрика для начинающих ...»

-- [ Страница 2 ] --

n n = (y i =1 n i = n i y )(zi z ) i (x x )(z i n i z), которое можно также записать в виде = ( x x + i = i )( zi z ) (x i = n i x )( zi z ) 1n ( i )(zi z ) n i=1. =+ n 1 (xi x )(zi z ) n i= Здесь p lim n 1n ( i )(zi z ) = Cov( i, zi ) = 0, n i=1 1n (xi x )(zi z ) = Cov(xi, zi ), n i= p lim n Глава так что для того, чтобы p lim = 0, необходимо выполнение еще одного условия: Cov( xi, zi ) 0. Если для переменной zi выполнены оба условия Cov( i, zi ) = 0, Cov( xi, zi ) 0, то такую переменную называют инструментальной переменной, или просто инструментом. Наличие такой переменной позволяет получить состоятельную оценку коэффициента при переменной xi в ситуации, когда xi коррелирована с i. Инструментальная переменная является экзогенной переменной, в том смысле, что она определяется вне связи с рассматриваемым уравнением y i = + xi + i, тогда как переменная xi в рассматриваемом контексте является эндогенной переменной – она связана (коррелирована) с ошибкой в этом уравнении, так что значения xi устанавливаются совместно с i. Следуя обычной практике, мы будем снабжать оценки коэффициентов, полученные с использованием инструментальных переменных, подстрочным (или надстрочным) индексом IV: IV, IV (или IV, IV ). Здесь IV – аббревиатура от Instrumental Variables (инструментальные переменные). Сам метод получения таких оценок называют методом инструментальных переменных. Возвратимся к системе, включающей кейнсианскую функцию потребления, т.е. к системе C t = + Yt + t, Yt = C t + I t. При сделанных ранее предположениях относительно этой модели n 2 0, так что Yt – эндогенная 1 переменная. В то же время Cov(I t, t ) = 0 (в силу предположения о мы имеем:

Cov(Yt, t ) = Инструментальные переменные. Системы… независимости этих случайных величин), так что I t – экзогенная переменная. Используя второе уравнение приведенной формы, 1 1 1 находим: Cov(Yt, I t ) = Cov 1 + 1 I t + 1 t, I t = 1 D (I t ) 0, так что переменную I t можно использовать в качестве инструмента для получения состоятельной оценки коэффициента. Это приводит к оценке IV = (C C )(I t t =1 n n t I) I) (Y Y )(I t t =.

t Мы можем получить это же выражение для IV-оценки коэффициента следующим формальным образом. Возьмем ковариации обеих частей структурного уравнения Ct = + Yt + t с I t. Это приводит к соотношению: Cov(Ct, I t ) = Cov(, I t ) + Cov(Yt, I t ) + Cov( t, I t ). При сделанных предположениях оно сводится к равенству Cov(Ct, I t ) = Cov(Yt, I t ), откуда находим:

= Cov(Ct, I t ). Cov(Yt, I t ) Чтобы получить оценку для по n имеющимся наблюдениям, заменяем теоретические ковариации в правой части их выборочными аналогами:

Глава IV = 1 n 1 n (C t =1 n t = n t C It I ) = )( (C t =1 n t = n t C It I ).

)( (Yt Y )(I t I ) (Yt Y )(I t I ) Пример Рассмотрим статистические данные о следующих макроэкономических показателях экономики США [Gujarati (1995), p.651]: Cons = расходы на личное потребление, Y = валовый внутренний продукт, I = валовые внутренние частные инвестиции. Все показатели даны в млрд долл. 1987 г.

Год 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 CONS 1813.5 1873.7 1978.4 2066.7 2053.8 2097.5 2207.3 2296.6 2391.8 2448.4 2447.1 2476.9 2503.7 2619.4 2746.1 2865.8 2969.1 3052.2 3162. Y 2873.9 2955.9 3107.1 3268.6 3248.1 3221.7 3380.8 3533.3 3703.5 3796.8 3776.3 3843.1 3760.3 3906.6 4148.5 4279.8 4404.5 4539.9 4718. I 429.7 475.7 532.2 591.7 543.0 437.6 520.6 600.4 664.6 669.7 594.4 631.1 540.5 599.5 757.5 745.9 735.1 749.3 773. Инструментальные переменные. Системы… 1989 1990 3223.3 3260.4 3240. 4838.0 4877.5 4821. 784.0 739.1 661. Оценивание методом наименьших квадратов уравнения Const = + Yt + t приводит к следующим результатам:

Dependent Variable: CONS Method: Least Squares Sample: 1970 1991 Included observations: 22 Variable C Y Coefficient -301.1158 0.734314 Std. Error 38.52693 0.009844 t-Statistic -7.815722 74.59484 Prob. 0.0000 0. Оценивая уравнения приведенной формы, получаем: Cons t = 216.8 + 3.704 I t + t, Yt = 667.4 + 5.104 I t + t, так что в принятых ранее обозначениях ~ ~ ~ ~ = 216.8, = 3.704, = 667.4, = 216.8. Использование оценок коэффициентов первого уравнения приводит к следующим оценкам для и : ~ ~ ~ ~ = 1 + = 0.787, = 1 + = 46.1. Если использовать оценки коэффициентов второго уравнения, то получаем: ~ ~ ~ ~ = 1 = 0.995, = = 3.1. Различие оказывается весьма существенным. Вычисляя оценку коэффициента с привлечением в качестве инструмента переменной I t, находим:

( ) ( ) ( ) Глава IV = (C t =1 n t = n t C It I ) = 0.725604.

)( (Yt Y )(It I ) Заметим, что ту же самую оценку для можно получить, используя двухшаговую процедуру, идея которой состоит в построении искусственной инструментальной переменной Yt, которой можно подменить эндогенную объясняющую переменную Yt в структурном уравнении. На первом шаге методом наименьших квадратов оценивается модель линейной зависимости эндогенной объясняющей переменной Yt от инструментальной переменной I t (она соответствует второму уравнению приведенной системы). Используя полученные оценки и, строим новую переменную Yt = + I t, которая интерпретируется как результат “очистки” переменной Yt от корреляционной связи с t. Фактически, при этом производится “расщепление” переменной Yt на две составляющие:

Yt = Yt + Yt Yt, ( ) одна из которых затем отбрасывается. На втором шаге методом наименьших квадратов оценивается модель Cons t = + Yt + t, в которой прежняя объясняющая переменная Yt заменяется ее очищенным вариантом.

Инструментальные переменные. Системы… Такой метод оценивания параметров структурного уравнения Const = + Yt + t называется двухшаговым методом наименьших квадратов, сокращенно 2SLS (two-stage least squares). Оценки 2 SLS и 2 SLS, получаемые этим методом, удовлетворяют соотношениям (Cons (Cons t =1 t =1 n n t 2 SLS 2 SLS Yi ) = 0, 2 SLS 2 SLS Yt ) I t = 0, t т.е. являются IV-оценками. Использование метода инструментальных переменных в форме 2SLS в нашем примере дает на втором шаге:

Dependent Variable: CONS Method: Least Squares Sample: 1970 1991 Included observations: 22 Variable C Y_CLEANED Coefficient -267.4634 0.725604 Std. Error 352.8290 0.090399 t-Statistic -0.758054 8.026691 Prob. 0.4573 0. Замечание В связи с использованием метода инструментальных переменных при наличии коррелированности некоторых объясняющих переменных с ошибками, возникают определенные проблемы: • этот метод может обеспечить только состоятельность получаемых оценок и, при определенных условиях, асимптотическую нормальность этих оценок, но не обеспечивает несмещенность оценок при небольшом количестве наблюдений;

Глава для применения метода требуется достаточное количество инструментальных переменных, с помощью которых можно было бы “очистить” эндогенные объясняющие переменные;

найти такие переменные удается далеко не всегда. Первое обстоятельство означает, что ориентироваться на оценки, полученные методом инструментальных переменных, можно только при достаточно большом количестве имеющихся наблюдений, так что приведенный нами пример можно рассматривать только как иллюстрацию. Если наблюдений мало, то IV-оценки могут иметь даже большее смещение, чем OLS-оценки. Второе обстоятельство значительно затрудняет практическое использование метода инструментальных переменных. Из-за этого, например, на практике обычно игнорируется тот факт, что используемые статистические данные содержат ошибки измерений. Кроме того, исследования показывают, что если выбранные инструментальные переменные являются “слабыми инструментами” (weak instruments), т.е. слабо коррелированы с эндогенными объясняющими переменными, то качество IV-оценок с такими инструментами может быть хуже, чем у OLS-оценок (см., например, [Staiger, Stock (1997)]).

• Инструментальные переменные. Системы… 2.4. Проблема идентифицируемости структурной формы системы одновременных уравнений При рассмотрении примера с кейнсианской функцией потребления мы обнаружили, что оценив коэффициенты приведенной системы, не можем однозначно восстановить с помощью полученных оценок коэффициенты структурного уравнения. Подобное положение встречается на практике довольно часто. Однако возможны и другие ситуации. Рассмотрим простейшую модель рынка некоторого товара: Q d = a 0 + a1 P, s Q = b0 + b1 P, s d Q = Q, в которой Q s – предложение товара, Q d спрос на товар, P цена единицы товара;

a1 < 0, b1 > 0. Если правила определения объемов предложения и спроса известны, т.е. известны коэффициенты a0, a1, b0 и b1, то при отсутствии флуктуаций равновесное решение для цены P и спроса Q находится без труда. Мы имеем здесь систему двух линейных уравнений с двумя неизвестными P и Q :

Q a1P = a0, Q b1 P = b0, решениями которой являются значения a b ab a b Q= 0 1 1 0, P= 0 0. b1 a1 b1 a1 При a0 > b0 оба эти значения положительны.

Глава Предположим теперь, что спрос подвержен случайным флуктуациям, изменяющим значение a0 до значения a0 + ut в t -м наблюдении, а предложение подвержено флуктуациям, изменяющим в t -м наблюдении значение b0 до значения b0 + vt. Тогда каждому t соответствуют свои равновесные значения цены Pt и спроса Qt, являющиеся решениями системы Qt = a0 + a1Pt + ut, Qt = b0 + b1Pt + vt. Поскольку значения Pt и Qt определяются внутри системы, о переменных Pt и Qt говорят как об эндогенных переменных. Их значения в t -м наблюдении определяются коэффициентами a0, a1, b0, b1 и внешними случайными воздействиями (шоками) ut, vt. Положение выглядит теперь следующим образом: • агенты наблюдают значения ut и vt ;

• агенты взаимодействуют на рынке, устанавливая Pt и Qt в соответствии с указанными правилами;

• статистик-эконометрист наблюдает только значения Pt и Qt. Обращаясь к оцениванию модели Qt = + Pt + t, статистик даже не знает, что он оценивает: прямую спроса или прямую предложения. Так, при оценивании методом наименьших квадратов линейной модели зависимости потребления свинины на душу населения США от оптовых цен на свинину по годовым данным за период с 1948 по 1961 годы получаются следующие результаты ([Носко (2004), стр. 110]):

Переменная 1 Цена Коэф-т 77.484 -24.775 Ст. ошибка 13.921 29. t-статист. 5.566 -0. P-знач. 0.0001 0. Хотя формально отрицательное значение оценки коэффициента при цене говорит о том, что мы имеем дело с уравнением спроса, эта оценка оказывается статистически незначимой при любом разумном Инструментальные переменные. Системы… выборе уровня значимости, так что в доверительный интервал для данного коэффициента попадают как отрицательные, так и положительные значения. Получая выражение для Pt из второго уравнения системы и подставляя это выражение вместо Pt в первое уравнение, находим: a b a b b u a1vt Qt = 0 1 1 0 + 1 t = 1 + wt1. b1 a1 b1 a1 Выражение для Qt из первого уравнения системы подставим во второе уравнение, в результате получаем: a b0 u t vt Pt = 0 + = 2 + wt 2. b1 a1 b1 a1 Пара уравнений Qt = 1 + wt1 Pt = 2 + wt 2 представляет приведенную форму системы. Вообще-то говоря, здесь существует корреляция между ошибками в разных уравнениях приведенной формы при одном и том же t, даже если ошибки в структурной системе некоррелированы: в последнем случае b u a1vt ut vt 1 Cov(wt1, wt 2 ) = Cov 1 t b a, b a = b a (b1 D(ut ) + a1 D(vt )). 1 1 1 1 Однако поскольку в правых частях обоих уравнений приведенной формы находятся одни и те же объясняющие переменные (точнее, одна объясняющая переменная – константа), эффективные оценки коэффициентов приведенной формы получаются раздельным оцениванием обоих уравнений методом наименьших квадратов. Получив таким образом оценки t1, t1, мы тем самым получаем a0b1 a1b0 a b оценки для дробей и 0 0. Но этих двух оценок b1 a1 b1 a1 недостаточно для восстановления по ним значений четырех Глава коэффициентов a0, a1, b0, b1 структурных уравнений, так что здесь мы имеем дело с недоидентифицированостью структурной формы системы. Включим в правую часть уравнения спроса доход (например, совокупный располагаемый доход) Yt, так что система принимает вид: Qt = a0 + a1 Pt + a2Yt + ut, Qt = b0 + b1 Pt + vt. Действуя аналогично предыдущему случаю, находим, что приведенная форма принимает здесь вид: a b ab ab bu a v Qt = 0 1 1 0 + 2 1 Yt + 1 t 1 t = 11 + 21Yt + wt1, b1 a1 b1 a1 b1 a u v a0 b0 a2 + Yt + t t = 12 + 22Yt + wt 2. b1 a1 b1 a1 b1 a1 В приведенной форме 4 коэффициента, тогда как в структурной форме 5 коэффициентов. Поэтому и здесь нет возможности восстановления всех коэффициентов структурной формы по коэффициентам приведенной формы. Однако кое-что сделать все же можно. Прежде всего заметим, что Pt = 21 = b, 11 b1 12 = b0, 22 1 так что коэффициенты уравнения предложения восстанавливаются по коэффициентам приведенной системы. В то же время для восстановления коэффициентов уравнения спроса остается только два уравнения, так что восстановить однозначно их значения не представляется возможным. Таким образом, здесь уравнение предложения идентифицируемо, а уравнение спроса неидентифицируемо: система частично идентифицируема.

Инструментальные переменные. Системы… Пополним теперь и уравнение предложения. Если рассматриваемый товар – продукт сельскохозяйственного производства, то в качестве объясняющей переменной в правую часть этого уравнения естественно включить какой-либо подходящий индекс климатических условий, скажем среднее количество осадков в соответствующий период Rt. Тогда мы получаем систему: Qt = a0 + a1 Pt + a2Yt + ut, Qt = b0 + b1 Pt + b2 Rt + vt с 6 коэффициентами. Найдем приведенную форму этой системы Qt = 11 + 21Yt + 31Rt + wt1, Pt = 12 + 22Yt + 32 Rt + wt 2, применяя матричный подход, обычно используемый для анализа и оценивания систем одновременных уравнений. Для этого заметим, что структурную форму системы можно записать в виде: Qt a1 Pt = a0 + a2Yt + ut, Qt b1Pt = b0 + b2 Rt + vt, или a0 b0 1 = (1, Yt, Rt ) a2 0 + (ut, vt ), b1 0 b 2 а приведенную форму – в виде: 11 12 (Qt, Pt ) = (1, Yt, Rt ) 21 22 + (wt1, wt 2 ). 31 32 Приведенную форму системы получаем из структурной формы, умножая обе части предпоследнего уравнения справа на матрицу, обратную к матрице, стоящей в левой части: 1 (Qt, Pt ) a Глава a0 (Qt, Pt ) = (1, Yt, Rt ) a2 0 b0 1 1 1 = 0 + (ut, vt ) a1 b1 b a0 = (1, Yt, Rt ) a2 b0 1 0 a b2 1 1 + (ut, vt ) a b1 1 = b 1 1 = (1, Yt, Rt ) + (ut, vt ) a b, 1 1 где – матрица коэффициентов приведенной формы, 11 12 a0 b0 1 1 1. = 21 22 = a 2 0 a1 b1 31 32 0 b2 Но 1 1 1 1 b1 a1, a b = a b 1 1 1 1 1 1 так что bu a v ab a b ab ab Qt = 0 1 1 0 + 2 1 Yt 1 2 Rt + 1 t 1 t, b1 a1 b1 a1 b1 a1 b1 a1 u v b a0 b0 a2 + Yt 2 Rt + t t. b1 a1 b1 a1 b1 a1 b1 a1 Поскольку матрица коэффициентов приведенной формы получается как 11 12 a0 b0 1 1 1, = 21 22 = a2 0 0 b a1 b1 32 2 31 то Pt = Инструментальные переменные. Системы… 11 12 a0 b0 1 1 = a2 0, 21 22 a1 b1 0 b 2 31 32 и это дает 6 уравнений для восстановления 6 коэффициентов структурной формы по коэффициентам приведенной формы: 11 12 a1 = a0, 11 12b1 = b0, 21 22 a1 = a 2, 21 22b1 = 0, 31 32 a1 = 0, 31 32b1 = b2. Из этих уравнений находим: a1 = 31 / 32, b1 = 21 / 22, a2 = 22 ( 31 / 32 21 / 22 ), b2 = 32 ( 31 / 32 21 / 22 ), a0 = 11 12 31 / 32, b0 = 11 12 21 / 22. Таким образом, здесь идентифицируемы и уравнение предложения и предложение спроса.

Рассмотрим теперь систему, в которой доход не включен в уравнение спроса, а уравнение предложения дополнено еще одной объясняющей переменной St – пусть это будет, скажем, индекс стоимости горюче-смазочных материалов, используемых при производстве соответствующего продукта сельского хозяйства. Тогда система принимает вид: Qt a1 Pt = a0 + ut, Qt b1Pt = b0 + b2 Rt + b3 St + vt, или a0 b0 1 = (1, Rt, S t ) 0 b2 + (ut, vt ). b1 0 b 3 Матрица коэффициентов приведенной формы Qt = 11 + 21Rt + 31St + wt1, Pt = 12 + 22 Rt + 32 St + wt 2 получается как 1 (Qt, Pt ) a Глава 11 12 a0 b0 1 1 1, = 21 22 = 0 b2 0 b a1 b1 32 3 31 так что 11 12 a0 b0 1 1 = 0 b2, 21 22 a b 1 0 b 32 1 31 3 и здесь мы опять получаем 6 уравнений для восстановления 6 коэффициентов структурной формы: 11 12 a1 = a0, 11 12b1 = b0, 21 22 a1 = 0, 21 22b1 = b2, 31 32 a1 = 0, 31 32b1 = b3. Однако ситуация с идентифицируемостью резко отличается от предыдущего случая. Для коэффициентов первого структурного уравнения находим: a0 = 11 12 a1, a1 = 21 22, a1 = 31 32, так что для восстановления коэффициента a1 имеем два соотношения. Поскольку 11 12 a0 b0 1 1 1 = = 21 22 = 0 b2 0 b a1 b1 32 3 a0 b0 a0b1 + b0 a0 a1 + b0 b1 a1 1 1 = b2 b2, = 0 b2 a1 b1 1 a1 b1 1 b3 b3 0 b3 то 21 22 = 31 32, так что коэффициент a1 восстанавливается однозначно, если мы знаем точно коэффициенты приведенной формы. Если же мы производим свободное оценивание уравнений приведенной формы по имеющимся статистическим данным, не Инструментальные переменные. Системы… принимая во внимание ограничений на их коэффициенты, накладываемые структурной формой, в данном случае ограничения 21 22 31 32 = 0, то на основании оценок 21, 22, 31, 32 мы получим, как правило, различные значения отношений 21 22 и 31 32, так что получаются два варианта оценок для коэффициента a1 и, соответственно, два варианта для коэффициента a0. Таким образом, уравнение спроса оказывается сверхидентифицируемым – для восстановления его коэффициентов имеется количество соотношений, большее минимально необходимого. Для коэффициентов второго структурного уравнения (уравнения предложения) также имеем три соотношения: 11 12b1 = b0, 21 22b1 = b2, 31 32b1 = b3. Однако во втором структурном уравнении четыре неизвестных коэффициента b0, b1, b2, b3, и этих трех соотношений недостаточно для их восстановления – этим соотношениям удовлетворяет бесконечно много наборов значений b0, b1, b2, b3. Таким образом, для рассмотренной модели: • уравнение спроса сверхидентифицировано;

• уравнение предложения недоидентифицировано. Последний пример показывает, что имеет смысл говорить не только об идентифицируемости или неидентифицируемости системы в целом, а и об идентифицируемости или неидентифицируемости отдельных уравнений системы.

2.5. Проверка выполнения условий идентифицируемости структурных уравнений При рассмотрении условий идентифицируемости отдельных структурных уравнений, входящих в систему одновременных Глава уравнений1, прежде всего предполагается, что переменные, задействованные в системе, подразделяются на три типа: • эндогенные переменные;

• экзогенные переменные;

• предопределенные переменные. Значения эндогенных переменных определяются внутри рассматриваемой системы;

эндогеннная переменная, входящая в i -е уравнение системы, коррелирована с ошибкой в этом уравнении. Значения экзогенных переменных определяются вне рассматриваемой системы;

экзогенные переменные не коррелированы с ошибками во всех уравнениях системы для всех моментов времени. Понятие предопределенной переменной относится к системам, в которых наблюдения производятся в последовательные моменты времени. Значения предопределенных переменных, как и значения эндогенных переменных, определяются внутри системы. Однако значение в момент t предопределенной переменной, входящей в i -е уравнение, не должно быть коррелированным со значениями ошибки в этом уравнении, соответствующими моментам t, t + 1,K Например, в системе Qt = a1Pt + a2Qt 1 + ut, Pt = b1Qt 1 + vt переменные Qt и Pt – эндогенные, а переменная Qt 1 – предопределенная. Предполагается, что • система состоит из g уравнений, в каждое из которых входит хотя бы одна эндогенная переменная;

• в систему входит g эндогенных переменных;

• в систему входит K экзогенных и предопределенных переменных;

В смысле возможности восстановления коэффициентов структурных уравнений на основании коэффициентов уравнений приведенной формы.

Инструментальные переменные. Системы… каждое из g уравнений нормировано, так что коэффициент при одной из эндогенных переменных, входящих в уравнение, равен 1. (В последнем примере g = 2, K = 1, уравнения нормированы.) При выводе условий идентифицируемости можно не различать предопределенные и экзогенные переменные, и мы для краткости будем называть их в контексте проблемы идентифицируемости предопределенными переменными. Если собрать все эндогенные переменные в левых частях структурных уравнений, то систему одновременных уравнений можно записать в виде:

• 11 yt1 + K + g1 ytg = 11 xt1 + K + K 1 xtK + ut1, L y + K + y = x + K + x + u, tg 1g t1 Kg tK tg gg 1 g t где t = 1, K, n, yt1,K, ytg – эндогенные переменные, xt1, K, xtK – предопределенные переменные, ut1,K, utg – случайные ошибки. Заметим, что в этой записи ji – коэффициент при j -й эндогенной ji – коэффициент при j -й предопределенной переменной в i -м уравнении. (Разумеется, часть коэффициентов в конкретных системах равна нулю.) Заметив, что последнюю запись можно также представить как переменной в i -м уравнении, а yt1 11 + K + ytg g1 = xt111 + K + xtK K 1 + ut1, L y +K+ y = x +K+ x + u, tg gg t1 1 g tK Kg tg t1 1 g Глава обозначим: 11 K 1g 11 K 1 g = M O M, = M O M, g1 K K1 K gg Kg yt = ( yt1,K, ytg ), xt = ( xt1, K, xtK ), ut = (ut1, K, utg ). (Последние три вектора здесь удобнее представлять как векторыстроки.) Тогда система записывается в компактном виде: yt = xt + ut, t = 1, K, n. Предполагая невырожденность матрицы, так что для этой матрицы существует обратная, умножим обе части последнего уравнения на 1 ;

при этом получаем приведенную форму системы: yt = xt 1 + ut 1 = xt + wt. Здесь 11 K 1g 1 = = M O M, wt = ut 1 = (wt1, K, wtg ), K 1 K Kg так что wti – случайная ошибка в i -м уравнении приведенной формы в момент t. Выше мы уже фактически использовали это представление для получения приведенных форм систем Qt = a0 + a1 Pt + a2Yt + ut, Qt = b0 + b1 Pt + b2 Rt + vt и Qt a1 Pt = a0 + ut, Qt b1 Pt = b0 + b2 Rt + b3 S t + vt. Следует заметить, что даже если векторы ut = (ut1, K, utg ), i = 1,K, n, взаимно независимы и имеют одинаковое g -мерное нормальное распределение с нулевым средним и ковариационной матрицей = 2 I g, где I g – единичная матрица, векторы Инструментальные переменные. Системы… wt = (wt1, K, wtg ) могут иметь коррелированные между собой и неодинаково распределенные компоненты. Однако это не препятствует получению эффективных и несмещенных оценок элементов матрицы обычным методом наименьших квадратов: достаточно применить этот метод отдельно к каждому уравнению приведенной системы.

Поскольку 11 K 1g = = M O M, K 1 K Kg то =, и мы использовали это соотношение для восстановления коэффициентов структурных уравнений двух последних систем. Вопрос об идентифицируемости структурной формы – это вопрос о возможности однозначного восстановления всех коэффициентов структурной формы, т.е. восстановления матриц и, на основании матрицы = 1. Заметим, что в совокупности матрицы и состоят из g 2 + Kg элементов, тогда как в матрице всего Kg элементов. Это означает, что однозначное восстановление коэффициентов структурной формы по коэффициентам приведенной формы невозможно без использования дополнительной информации в виде невключения в отдельные уравнения тех или иных переменных, нормировки коэффициентов, линейных ограничений на параметры структуры2.

Как мы увидим ниже в этом разделе (см. Замечание 5) коэффициенты структурной формы могут не восстанавливаться однозначно по одним только коэффициентам приведенной формы и в то же время однозначно восстанавливаться при привлечении дополнительной информации в виде ограничений на элементы ковариационной матрицы ошибок в правых частях уравнений структурной формы и использовании элементов ковариационной матрицы ошибок в правых частях уравнений приведенной формы.

Глава Если нас интересует i -е структурное уравнение, то идентифицируемость этого уравнения означает возможность однозначного восстановления на основании коэффициентов приведенной формы • i – i -го столбца матрицы, который содержит коэффициенты при эндогенных переменных, входящих в i -е структурное уравнение;

• i – i -го столбца матрицы, который содержит коэффициенты при предопределенных переменных, входящих в i -е структурное уравнение. При этом по-существу достаточно иметь возможность восстановления i и i с точностью до умножения их на один и тот же числовой множитель: единственность достигается в этом случае указанием правила нормировки, в соответствии с которым коэффициент при определенной эндогенной переменной в i -м структурном уравнении полагается равным 1. Для дальнейшего удобно использовать матрицу размера (g + K ) g, составленную из матриц и таким образом, что матрица располагается над матрицей :

=.

Коэффициенты при g эндогенных и K предопределенных переменных в i -м структурном уравнении составляют i -й столбец i матрицы. Существенным является то обстоятельство, что коэффициенты i -го структурного уравнения не могут быть восстановлены на основании коэффициентов приведенной формы, если в это уравнение входят все ( g ) эндогенные и все ( K ) предопределенные переменные системы.

Инструментальные переменные. Системы… Поэтому мы будем предполагать далее, что на элементы вектора i помимо нормировочного накладываются еще и некоторые дополнительные однородные линейные ограничения в виде уравнений i i = 0, где i – матрица размера Ri ( g + K ), Ri – количество этих линейных ограничений. Неспецифицированные коэффициенты i -го уравнения определяются по матрице = 1 после применения правила нормировки однозначным образом тогда и только тогда, когда выполнено следующее ранговое условие идентифицируемости: rank ( i ) = g 1. (Матрица i имеет Ri строк и g столбцов.) Пусть i – матрица, получаемая из матрицы вычеркиванием ее i -го столбца i, так что = [ i : A i ]. Тогда rank ( i ) = rank ( i [ i : i ]) = rank ( i i : i i ), и поскольку i i = 0, то rank ( i ) = rank (0 : i i ) = rank ( i i ). Но матрица i i имеет размер Ri (g 1), и чтобы ее ранг был равен g 1, во всяком случае необходимо, чтобы выполнялось следующее порядковое условие идентифицируемости i -го структурного уравнения: Ri g 1. Предположим, что все линейные ограничения, накладываемые на элементы столбца i (помимо условия нормировки) являются исключающими ограничениями (т.е. все они состоят в приравнивании определенных элементов столбца i нулю) и соответствуют исключению из i -го уравнения g i эндогенных и K i предопределенных переменных. Тогда общее количество Глава исключенных переменных равно g i + K i, и необходимое условие идентифицируемости i -го структурного уравнения принимает вид: g i + K i g 1, или K i g g i 1. Иначе говоря, количество предопределенных переменных в системе, не включенных в i -е структурное уравнение, должно быть не меньше количества эндогенных переменных, включенных в i -е уравнение, уменьшенного на единицу. Если в левой части i -го структурного уравнения находится единственная эндогенная переменная, то g g i 1 есть просто количество эндогенных переменных, включенных в правую часть этого уравнения.

( ) ( ) Теперь мы имеем возможность охарактеризовать три ситуации, возникающие при оценивании i -го структурного уравнения: 1. rank ( i ) < g 1 i -е уравнение неидентифицируемо (недоопределено);

i -е уравнение 2. rank ( i ) = g 1 и Ri = g 1 идентифицируемо точно;

i -е уравнение 3. rank ( i ) = g 1 и Ri > g 1 сверхидентифицируемо (переопределено). В ситуации 1 просто не выполнено необходимое условие идентифицируемости. В ситуациях 2 и 3 коэффициенты i -го структурного уравнения однозначно восстанавливаются на основании коэффициентов приведенной системы. Однако эти две ситауции различаются существенным образом, если рассматривать задачу восстановления коэффициентов i -го структурного уравнения на основании оценок коэффициентов приведенной формы, полученных методом наименьших квадратов, примененным к каждому отдельному уравнению приведенной системы и не учитывающем ограничения на коэффициенты приведенной формы, Инструментальные переменные. Системы… накладываемые на них соотношением = 1. Если – оценка матрицы, полученная таким свободным оцениванием, то в ситуации 2 коэффициенты i -го структурного уравнения восстанавливаются по матрице однозначным образом, тогда как в ситуации 3 существует несколько вариантов такого восстановления, приводящих к различным результатам. Заметим, что разным уравнениям системы могут соответствовать разные ситуации из трех перечисленных.

Пробежимся теперь по уже рассмотренным в этом разделе примерам систем одновременных уравнений. Первой мы рассмотрели систему Qt = a0 + a1 Pt + ut, Q t = b0 + b1 Pt + vt.

Здесь список эндогенных переменных: (Qt, Pt ), а список предопределенных переменных ограничивается переменной, тождественно равной 1, так что полный список переменных в системе: (Qt, Pt, 1). При этом g = 2, K = 1, матрицы, и имеют вид: 1 1 = a b, = (a0,b0 ), 1 1 1 = = a1 b1. B a b0 0 На столбцы матрицы А не накладывается никаких ограничений кроме нормировочных, так что g1 = g 2 = 0, K1 = K 2 = 0, и ни для одного из двух уравнений не выполнено порядковое условие g i + K i g 1. Следовательно система не идентифицируема.

Глава Следующий пример: Qt = a0 + a1 Pt + a 2Yt + ut, Q t = b0 + b1 Pt + vt, т.е.

Qt a1 Pt = a0 + a 2Yt + u t, Q t b1 Pt = b0 + vt.

Здесь список эндогенных переменных тот же: (Qt, Pt ). В список предопределенных переменных входят две переменные: ( 1, Yt ). Полный список переменных в системе: (Qt, Pt, 1, Yt ). При этом g = 2, K = 2, матрицы, и А имеют вид:

1 = a 1, b a = 0 a b0, 1 11 12 1 21 22 a1 b1 A = ( 1 2 ) =. = = 31 32 B a 0 b0 a 0 41 42 2 На элементы первого столбца матрицы А накладывается только условие нормировки 11 = 1. Поэтому первое уравнение системы неидентифицируемо. На элементы второго столбца помимо нормировочного накладывается одно исключающее ограничение 42 = 0, так что для этого столбца g2 = 0, K2 = 1, и g 2 + K 2 = g 1 = 1, т.е. порядковое условие идентифицируемости выполняется. Заметим далее, что ограничение 42 = 0 можно записать в виде 2 2 = 0, где 2 = (0 0 0 1). Тогда Инструментальные переменные. Системы… T 2 2 = (0 0 0 1)(1,a1, a0, a 2 ) = (a 2 ), rank ( 2 ) = rank ( 2 2 ) = rank (a 2 ) = 1, так что rank ( 2 ) = g 1 и выполнено ранговое условие идентифицируемости. Наконец, поскольку g 2 + K 2 = g 1, то второе уравнение идентифицируемо точно. Следующая система: Qt = a0 + a1 Pt + a2Yt + u t, Q t = b0 + b1 Pt + b2 Rt + vt, т.е.

Qt a1 Pt = a0 + a 2Yt + u t, Q t b1 Pt = b0 + b2 Rt + vt.

Список эндогенных переменных: (Qt, Pt ). Список предопределенных переменных: ( 1, Yt, Rt ). Полный список переменных в системе: (Qt, Pt, 1, Yt, Rt ). При этом g = 2, K = 3, матрицы, и имеют вид: a0 b0 1 1 = a b, = a2 0, 1 1 0 b 1 1 a1 b1 = = a0 b0. B 0 a2 b2 0 Соответственно, здесь для каждого из столбцов матрицы помимо нормирующего ограничения имеется по одному исключающему Глава g1 = g 2 = 0, ограничению на экзогенные переменные, так что 11 = (0 0 0 0 1)(1, b1, b0, 0, b2 ) = (b2 ), rank (1 ) = rank (11 ) = rank (b2 ) = 1, так что rank (1 ) = g 1 и для первого уравнения выполнено ранговое условие идентфицируемости. Наконец, поскольку g1 + K1 = g 1, то первое уравнение идентифицируемо точно. Ограничение 32 = 0 во втором столбце можно записать в виде 2 2 = 0, где 2 = (0 0 0 1 0 ). Тогда T T K1 = K 2 = 1, g i + K i = g 1, и порядковое условие выполнено. Ограничение 41 = 0 в первом столбце можно записать в виде 11 = 0, где 1 = (0 0 0 0 1). Тогда 2 2 = (0 0 0 1 0 )(1, a1, a0, a2, 0 ) = (a2 ), rank ( 2 ) = rank ( 2 2 ) = rank (a2 ) = 1, так что rank ( 2 ) = g 1 и для второго уравнения также выполнено ранговое условие идентифицируемости. Наконец, поскольку g 2 + K 2 = g 1, то второе уравнение идентифицируемо точно. Таким образом в данной системе одновременных уравнений оба уравнения идентифицируемы, причем идентифицируемы точно.

Наконец, в системе Qt = a0 + a1Pt + ut, Qt = b0 + b1Pt + b2 Rt + b3 St + vt, т.е.

Qt a1Pt = a0 + ut, Qt b1Pt = b0 + b2 Rt + b3 S t + vt, эндогенные переменные те же, а список предопределенных переменных: ( 1, Rt, St ). Полный список переменных в системе:

Инструментальные переменные. Системы… (Qt, Pt,1, Rt, St ). При этом вид:

1 = a g = 2, K = 3, матрицы, и имеют b0 b2, b a0 1, = 0 b1 1 1 a1 b1 = = a0 b0. b2 0 b3 0 На элементы второго столбца накладывается только условие нормировки. Поэтому второе уравнение системы неидентифицируемо. На элементы первого столбца помимо условия нормировки накладываются два исключающих ограничения: 41 = 0, 51 = 0. При этом g1 = 0, K1 = 2, g1 + K1 = 2 > g 1, так что первое уравнение идентифицируемо. Исключающие ограничения можно записать в форме 11 = 0, где 0 0 0 1 0 1 = 0 0 0 0 1. Тогда 0 0 0 1 1 = 0 0 0 0 0 0 0 1 11 = 0 0 0 1 1 a1 b1 0 0 b2, a0 b0 = 0 b3 1 b2 0 b3 0 0 b (1, b1, b0, b2, b3 )T = 2, b 1 Глава b2 rank (1 ) = rank(11 ) = rank = 1, b 3 так что rank (1 ) = g 1 и для первого уравнения выполнено ранговое условие идентифицируемости. Поскольку g1 + K1 > g 1, то первое уравнение сверхидентифицируемо.

Приведем теперь пример системы, в которой присутствуют линейные ограничения неисключающего типа (упрощенный вариант модели мультипликатора-акселератора): Ct = a0 + a1Yt + a2Ct 1 + ut1, I t = b0 + b1 (Yt Yt 1 ) + ut 2, Yt = Ct + I t, где Ct – потребление, I t – инвестиции, Yt – доход. Подставляя выражение для Yt из последнего тождества во второе уравнение, запишем систему в виде: Ct a1Yt = a0 + a2Ct 1 + ut1, Ct + (1 b1 )Yt = b0 b1Yt 1 + ut 2.

Список эндогенных переменных: (Ct, Yt ). Список предопределенных переменных: ( 1, Ct 1, Yt 1 ). Полный список: ( Ct, Yt,1, Ct 1, Yt 1 ). Матрица : 1 1 a1 1 b1 = a0 b0. 0 a2 b1 0 В первом столбце одно исключающее ограничение 51 = 0, т.е. 11 = 0, где 1 = (0 0 0 0 1). При этом Инструментальные переменные. Системы… rank (1 ) = rank (11 ) = rank ( b1 ) = 1 = g 1, так что первое уравнение идентифицируемо. Поскольку g1 + K1 = 1 = g 1, это уравнение идентифицируемо точно. Во втором столбце одно исключающее ограничение 42 = 0 и одно неисключающее ограничение 12 + 22 = 52. Эту пару ограничений можно записать в виде 2 2 = 0, где 0 0 0 1 0 2 = 1 1 0 0 1. Тогда 1 1 a1 1 b1 0 a2 0 0 0 1 0 a0 2 = b0 = 1 a 0, 1 1 1 0 0 1 a 0 2 b1 0 rank ( 2 ) = 1, так что rank ( 2 ) = g 1 и для второго уравнения также выполнено ранговое условие идентифицируемости. Поскольку же R2 = 2 > g 1, то второе уравнение сверхидентифицируемо.

Замечание 1 Константа играет в проблеме идентифицируемости такую же роль, что и остальные предопределенные переменные. Это илюстрирует следующий пример. Мы уже выяснили ранее, что в системе Qt = a0 + a1Pt + ut, Qt = b0 + b1Pt + vt Глава оба уравнения неидентифицируемы. Исключим константу из правой части второго уравнения:

Qt = a0 + a1Pt + ut, Qt = b1Pt + vt.

Для измененной системы имеем те же списки эндогенных и предопределенных переменных;

полный список переменных в системе: (Qt, Pt, 1). При этом g = 2, K = 1, матрица не изменяется, а матрицы и принимают вид: 1 1 = a b, = (a0, 0 ), 1 1 = = a1 B a 0 1 b1. На первый столбец матрицы не накладывается никаких ограничений кроме нормировочных, так что g1 = 0, K1 = 0, и для первого уравнения не выполнено порядковое условие g i + K i g 1. Следовательно первое уравнение не идентифицируемо. Однако на второй столбец на этот раз накладывается исключающее ограничение 32 = 0, т.е. 2 2 = 0, где 2 = (0 0 1). При этом rank ( 2 ) = rank (a0 0 ) = rank ( 2 1 ) = (a0 ) = 1 = g 1, так что второе уравнение идентифицируемо. Поскольку g 2 + K 2 = 1 = g 1, это уравнение идентифицируемо точно.

Инструментальные переменные. Системы… Замечание 2 Критерий идентифицируемости дает один и тот же результат в отношении i -го стохастического структурного уравнения (содержащего случайные ошибки в правой части) независимо от того, рассматривается полная система вместе с тождествами или система, в которой тождества учтены и исключены. Это илюстрирует следующий пример. При исследовании вопроса об идентифицируемости модели Q d = a0 + a1 P + ut, s Q = b0 + b1 P + vt, s d Q = Q и различных ее расширений мы, исключая (и учитывая) тождество, сводили эти модели к системам без тождеств, так что в правых частях всех уравнений преобразованных систем присутствовали случайные ошибки. Поступая, например, таким образом с системой трех уравнений Qtd = a0 + a1Pt + a2Yt + ut, s Qt = b0 + b1Pt + vt, d s Qt = Qt, мы проверяли условия идентифицируемости системы двух уравнений, полученных на основании этой системы: Qt = a0 + a1 Pt + a2Yt + ut, Qt = b0 + b1 Pt + vt, и обнаружили, что первое уравнение системы неидентифицируемо, а второе идентифицируемо точно. Попоробуем проверить условия идентифицируемости непосредственно в рамках исходной системы трех уравнений, так что g = 3. Для этой системы список эндогенных переменных полнее, чем у преобразованной системы:

(Q d t, Qts, Pt, тогда как ) Глава список предопределенных переменных (1, Yt ) не изменяется.

Полный список содержит теперь 5 переменных: Qtd, Qts, Pt,1, Yt. Перенесем все эндогенные переменные в левые части уравнений: Qtd a1 Pt = a0 + a2Yt + ut, s Qt b1Pt = b0 + vt, d s Qt Qt = 0, Матрица имеет вид: 0 1 1 1 1 0 = a1 b1 0. b0 0 a0 0 0 a2 На элементы первого столбца накладывается исключающее ограничение 21 = 0, т.е. 11 = 0, где 1 = (0 1 0 0 0 ). При этом rank (1 ) = rank (0 1 1) = 1 < g 1 = 2, так что первое уравнение неидентифицируемо. На элементы второго столбца накладывается K 2 = 2 исключающих ограничения: 12 = 0 и 52 = 0, т.е. 2 2 = 0, где 1 0 0 0 0 2 = 0 0 0 0 1. При этом 1 0 1 rank ( 2 ) = rank a 0 0 = 2 = g 1, 2 так что второе уравнение идентифицируемо, причем идентифицируемо точно, поскольку g 2 + K 2 = 2 = g 1. Результаты в ( ) Инструментальные переменные. Системы… отношении каждого из двух стохастических уравнений оказались одинаковыми для систем из трех и из двух уравнений. До сих пор мы рассматривали только возможность восстановления коэффициентов структурных уравнений по коэффициентам приведенной формы. Однако идентифицируемость i -го стохастического структурного уравнения строго говоря означает не только идентифицируемость коэффициентов этого уравнения, но и идентифицируемость дисперсии случайной составляющей в этом уравнении. Идентифицируемость системы структурных уравнений в целом (на основании приведенной формы системы) означает не только идентифицируемость всех коэффициентов системы, но и идентифицируемость ковариационной матрицы случайных ошибок, входящих в правые части уравнений системы. При этом при восстановлении коэффициентов и ковариационной матрицы ошибок в структурной форме используются не только коэффициенты приведенной формы, но и ковариационная матрица ошибок в приведенной форме. Обратимся опять к общей форме системы:

yt = xt + ut, t = 1, K, n, где 11 K 1g 11 K 1g = M O M, = M O M, g1 K K1 K gg Kg yt = ( yt1,K, ytg ), xt = ( xt1, K, xtK ), ut = (ut1, K, utg ) и предполагается невырожденность матрицы. Приведенная форма системы:

yt = xt 1 + ut 1 = xt + wt, Глава где = 11 K 1g = M O M, wt = ut 1 = (wt1, K, wtg ). K 1 K Kg Пусть E (ut ) = 0, Cov utT ut = (Cov(uti, utj )) = = ( ij ), T t s ti sj ) Cov(u u ) = (Cov (u, u )) = матрицы ( для t s, так что ошибки не коррелированы по времени, но для одного и того же момента времени ошибки в разных уравнениях могут быть коррелированными между собой. Тогда E (wt ) = 0 и для ковариационной = (ij ) = Cov wtT wt = (Cov (wti, wtj )) ( ) вектора wt ошибок в приведенном уравнении имеем:

= Cov(wt ) = Cov ut 1 = 1 1, T ( )( ) ( ) так что = T.

Следовательно, если структурная система идентифицируема структурной системы однозначно (коэффициенты восстанавливаются по коэффициентам приведенной формы), то тогда, восстановив по коэффициентам приведенной формы матрицу, можно, используя эти восстановленные коэффициенты и матрицу, восстановить ковариационную матрицу. Если структурная форма не восстанавливается целиком, а возможно лишь восстановление некоторых ее уравнений, то тогда для полной идентификации i -го стохастического структурного уравнения надо восстановить все его коэффициенты и дисперсию случайной составляющей этого уравнения. Пусть нас интересует, Инструментальные переменные. Системы… например, первое уравнение системы. Представим тогда матрицу в виде 12 K 1g 11 K 1g 11 = M O M = [ 1 : 1 ], где 1 = M 1 = M O M. g2 K g1 K gg gg g1 Дисперсия случайной составляющей в первом структурном T уравнении равна 11 = 1 1, так что для ее восстановления по приведенной форме достаточно предварительно восстановить только коэффициенты первого уравнения. Аналогично, если нас интересует i -е стохастическое структурное уравнение, то дисперсия случайной составляющей в этом структурном уравнении равна ii = iT i, где i – i -й столбец матрицы, и для восстановления ii достаточно предварительно восстановить коэффициенты i -го уравнения. В качестве примера рассмотрим опять структурную систему Qt = a0 + a1 Pt + a2Yt + ut, Qt = b0 + b1 Pt + vt. Мы установили ранее, что в этой системе коэффициенты первого уравнения неидентифицируемы, а коэффициенты второго идентифицируемы точно. Для этой системы 1 1 1 = a b, 2 = b, 1 1 1 так что (поскольку ковариационные матрицы симметричны) 12 1 = 11 2b112 + b1222. D(vt ) = 22 = (1 b1 ) 11 21 22 b1 Оценив наряду с коэффициентами приведенной формы элементы ковариационной матрицы ошибок приведенной формы, можно получить оценку для коэффициента b1, а через нее – и оценку для D(vt ).

Глава Замечание 3 Если посмотреть на все примеры, в которых на уравнения накладывались только исключающие ограничения, то нетрудно заметить, что проверку рангового условия идентифицируемости i го стохастического структурного уравнения по-существу можно проводить следующим образом. Составляется таблица, в заголовке которой перечисляются эндогенные и предопределенные переменные, задействованные в системе, а в i -й строке находятся коэффициенты при этих переменных в левой и правой частях i -го уравнения (как они есть, без переносов в левую часть). Например, для системы Qt = a 0 + a1 Pt + a 2Yt + u t, Q t = b0 + b1 Pt + b2 Rt + v t такая таблица принимает вид:

i 1 Qt Pt a1 b 1 a Yt a Rt b b Для исследования i -го уравнения достаточно рассмотреть матрицу, образованную теми столбцами таблицы, элементы которых, стоящие в i -й строке, равны нулю, и всеми строками таблицы кроме i -й. В рассматриваемом примере при исследовании 1-го уравнения такая матрица состоит из единственного элемента b2, а при исследовании 2-го уравнения – из единственного элемента a2. В обоих случаях ранг выделенной матрицы равен 1, и поскольку g 1 = 1, оба уравнения идентифицируемы.

Инструментальные переменные. Системы… Для системы Qt = a0 + a1 Pt + ut, Qt = b0 + b1 Pt + b2 Rt + b3 St + vt указанная в Замечании 3 таблица имеет вид Qt Pt Rt St 1 i a1 a0 1 1 0 0 b0 b0 b2 b3 1 2 Для второго уравнения нет ни исключающих, ни других линейных ограничений – только нормирующее ограничение, так что второе уравнение нединтифицируемо. На коэффициенты первого уравнения помимо нормирующего накладываются только исключающие ограничения. Выделяемая матрица сводится к одной строке с двумя элементами: (b2 b3 ). Ранг этой матрицы равен 1, так что g 1 = 1 и первое уравнение идентифицируемо. Замечание 4 В реальных ситуациях если порядковое условие выполнено, то, как правило, выполняется и ранговое условие. Приводимые в литературе контрпримеры носят явно искусственный характер. В качестве такого контрпримера выступает, например, система трех стохастических структурных уравнений a11 yt1 + a12 yt 2 + a13 yt 3 = a14 xt1 + a15 xt 2 + ut1, a21 yt1 + a22 yt 2 + a23 yt 3 = a24 xt1 + a25 xt 2 + ut 2, a y + a y + a y = a x + a x + u, 33 t 3 34 t1 35 t 2 t3 31 t1 32 t 2 в которой на коэффициенты первого уравнения накладываются линейные ограничения a14 = 0, a12 = a13. Эти ограничения записываются в стандартной форме как 1a1 = 0, где 0 0 0 1 0 1 = 0 1 1 0 0, так что Глава a24 a34 0 a24 a34 a14. 1 A = a a = 0 a a a32 a33 22 23 12 13 a22 a23 a32 a33 Ранговое условие не выполняется, если строки этой матрицы пропорциональны. Последнее может осуществляться • если на уравнения системы накладываются одинаковые ограничения;

• если переменная xt1 не входит в систему;

• если коэффициенты при yt 2 и yt 3 равны во всех уравнениях.

Замечание 5 До сих пор мы не предполагали никаких ограничений на ковариационную матрицу вектора ошибок в структурной форме. Между тем введение ограничений на структуру этой матрицы в некоторых ситуациях может помочь идентификации уравнений, которые без таких ограничений неидентифицируемы. В качестве примера рассмотрим систему Qt = a1Pt + a2Qt 1 + ut1, Pt = b1Qt 1 + ut 2. Здесь Pt и Qt – эндогенные переменные, а единственной предопределенной переменной является Qt 1. При этом 1 1 = a 0, = (a2 b1 ), = ( 11 12 ), 1 так что соотношение = принимает вид: 1 1 ( 11 12 ) a 0 = (a2 b1 ), откуда ( 11 a1 12 11 ) = (a2 b1 ), т.е. a2 = 11 a1 12, b1 = 11. Таким образом, единственный коэффициент второго уравнения восстанавливается по матрице однозначно, а для восстановления двух коэффициентов первого уравнения имеется только одно уравнение, и первое уравнение оказывается неидентифицируемым.

Инструментальные переменные. Системы… Вспомним, однако соотношение между ковариационными матрицами ошибок в приведенной и структурной формах: = T. В нашем примере оно принимает вид: 11 12 1 a1 11 12 1 1 = = 21 22 1 0 21 22 a1 2a112 + a1222 11 a121. = 11 11 a112 11 Если предположить дополнительно, что 12 = 21 = 0, т.е. ошибки в разных уравнениях не коррелированы между собой, то из последнего соотношения получаем: 11 a121 = 0, так что коэффициент a1 первого структурного уравнения восстанавливается по матрице : a1 = 11 21. После этого восстанавливается и коэффициент a2 первого структурного уравнения: a2 = 11 a1 12. Тем самым оказывается идентифицируемым все первое уравнение структурной формы.

Замечание 6 Рассмотренная в Замечании 5 система Qt = a1Pt + a2Qt 1 + ut1, Pt = b1Qt 1 + ut 2 при выполнении условия 12 = 21 = 0 принадлежит классу рекурсивных систем. Благодаря последовательному определению переменных в таких системах при переходе от уравнения к уравнению в правых частях каждого из уравнений системы не оказывается переменных, значения которых коррелированы со значением ошибки в этом уравнении при одном и том же t. Во Глава втором уравнении рассматриваемой системы Cov(Qt 1, ut 2 ) = 0, т. к. значение Qt 1 определяется ранее момента t. В правой части первого уравнения Cov(Qt 1, ut1 ) = 0 по той же причине и Cov(Pt, ut1 ) = Cov(b1Qt 1 + ut 2 ) = b1Cov(Qt 1, ut1 ) + Cov(ut 2, ut1 ) = 0, так что при выполнении условия 12 = 21 = 0 переменная Pt не является эндогенной. Если же 12 0, то Pt становится эндогенной переменной, а система перестает быть рекурсивной.

2.6. Оценивание систем одновременных уравнений В этом разделе мы рассматриваем некоторые методы оценивания систем одновременных уравнений. Выбор того или иного метода оценивания связан с идентифицируемостью (неидентифицируемостью) системы в целом, идентифицируемостью отдельных уравнений системы, а также с имеющимися предположениями о вероятностной структуре случайных ошибок в правых частях структурных уравнений. 2.6.1. Косвенный метод наименьших квадратов Если i -е стохастическое уравнение структурной формы идентифицируемо точно, то параметры этого уравнения (коэффициенты уравнения и дисперсия случайной ошибки) восстанавливаются по параметрам приведенной системы однозначно. Поэтому для оценивания параметров такого уравнения достаточно оценить методом наименьших квадратов коэффициенты каждого из уравнений приведенной формы методом наименьших квадратов (отдельно для каждого уравнения) и получить оценку ковариационной матрицы ошибок в приведенной форме, после чего воспользоваться соотношениями = и = T, подставляя в них вместо оцененную матрицу коэффициентов приведенной формы и оцененную ковариационную матрицу ошибок в приведенной форме. Такая процедура называется Инструментальные переменные. Системы… косвенным методом наименьших квадратов (ILS – indirect least squares). Полученные в результате оценки коэффициентов i -го стохастического уравнения структурной формы наследуют свойство состоятельности оценок приведенной формы. Однако они не наследуют таких свойств оценок приведенной формы как несмещенность и эффективность из-за того, что получаются в результате некоторых нелинейных преобразований. Соответственно, при небольшом количестве наблюдений даже у этих естественных оценок может возникать заметное смещение. В связи с этим при рассмотрении различных методов оценивания коэффициентов структурных уравнений в первую очередь заботятся об обеспечении именно состоятельности получаемых оценок. 2.6.2. Двухшаговый метод наименьших квадратов Мы фактически уже воспользовались этим методом в разделе 2.3 при рассмотрении системы Ct = + Yt + t, Yt = Ct + I t. Там мы подменили переменную Yt в первом структурном уравнении искусственной инструментальной переменной Y = + I, где и t t – оценки наименьших квадратов, получаемые при оценивании модели Yt = + I t + t. После такой подмены уравнение C = + Y + состоятельно оценивается обычным методом t t t наименьших квадратов, поскольку “объясняющая переменная” Yt в этом уравнении не коррелирована с t. Пусть мы имеем систему g одновременных уравнений yt = xt + ut, t = 1, K, n, где Глава 11 K 1g 11 K 1g = M O M, = M O M, g1 K K1 K gg Kg yt = ( yt1,K, ytg ) – вектор значений эндогенных переменных в t -м наблюдении, xt = ( xt1, K, xtK ) – вектор значений предопределенных переменных в t -м наблюдении, ut = (ut1, K, utg ) – вектор значений случайных ошибок в t -м наблюдении, и при этом предполагается невырожденность матрицы. Пусть наибольший интерес представляет первое уравнение системы. (Это не уменьшает общности, поскольку уравнения всегда можно надлежащим образом перенумеровать.) Считая, что первое уравнение нормировано на коэффициент при переменной yt1, уединим эту переменную в левой части, преобразуя уравнение к виду: yt1 = 11 yt1 + K + g,1 ytg + 11 xt1 + K + K1,1 xtK1 + ut1, 1 или yt1 = Yt11 + X t11 + ut1, где Yt1 = yt1, K, ytg ( ) – вектор значений g эндогенных переменных, включенных в правую часть первого уравнения, X t1 = xt1,K, xtK – вектор значений K1 предопределенных ( ) переменных, включенных в правую часть первого уравнения, 1 и 1 – векторы коэффициентов при эндогенных и предопределенных переменных, включенных в первое уравнение. Состоятельному оцениванию коэффициентов уравнения мешает эндогенность переменных yt1,K, ytg. Это затруднение преодолевается за два шага (отсюда название метода: двухшаговый метод наименьших квадратов, 2SLS – two-step least squares, two-stage least squares).

Инструментальные переменные. Системы… 1. Производится оценивание уравнений регрессии каждой из этих переменных на все предопределенные переменные, включенные в систему. В качестве очищенных вариантов переменных yt1,K, ytg берутся предсказанные значения y t1, K, y tg этих переменных.

(В этом контексте предопределенные переменные понимаются как инструменты для очистки эндогенных переменных.) yt1,K, ytg эндогенных переменных в первом 2. Значения уравнении заменяются значениями y t1, K, y tg. Полученное уравнение оценивается методом наименьших квадратов. Как и в случае оценивания обычным методом наименьших квадратов (OLS) единственного уравнения в линейной множественной регрессии, процедуру 2SLS можно представить в матричном виде. Для этого будем предполагать, что в левой части i -го стохастического структурного уравнения находится единственная эндогенная переменная yti, и обозначим:

yi = ( y1i,K, yni ) – вектор-столбец значений i -й эндогенной переменной в n наблюдениях, y11 K y1 g i Yi = M O M – матрица значений в n наблюдениях g i yn1 K yng i эндогенных переменных, включенных в правую часть i -го уравнения, T Глава x11 K x1 K i Xi = M O M – матрица значений в n наблюдениях K i xn1 K xn K i предопределенных переменных, включенных в правую часть i -го структурного уравнения, T ui = (u1i,K, uni ) – вектор-столбец значений ошибки в i -м структурном уравнении в n наблюдениях, x11 K x1K X = M O M – матрица значений в n наблюдениях всех x n1 K xnK K предопределенных переменных, включенных в систему, 11 K 1g = M O M – матрица коэффициентов приведенной K 1 K Kg формы системы, w11 K w1g W = M O M – матрица значений в n наблюдениях wn1 K wng ошибок в g уравнениях приведенной формы. (Заметим, во избежание путаницы, что yi = ( y1i,K, yni ) и ui = (u1i,K, uni ) – векторы-столбцы, содержащие значения объясняемой переменной и случайных ошибок в i -м структурном уравнении в моменты времени t = 1, K, n. Их не следует путать с ранее использовавшимися векторами-строками yt = ( yt1,K, ytg ) и T T ut = (ut1, K, utg ), содержащими значения объясняемой переменной и случайных ошибок в g уравнениях, относящиеся к одному и тому же моменту времени t.) Инструментальные переменные. Системы… Тогда первый шаг процедуры 2SLS оценивания i -го структурного уравнения состоит в оценивании методом наименьших квадратов отдельных уравнений системы Yi = X i + Wi, где i – подматрица матрицы коэффициентов приведенной формы, образованная теми ее столбцами, которые соответствуют эндогенным переменным, включенным в правую часть i -го структурного уравнения, а Wi – подматрица матрицы W, образованная столбцами матрицы W, соответствующими тем же эндогенным переменным. Оценив отдельные уравнения методом наименьших квадратов, мы получаем оценку i матрицы i и на ее основе – оценку матрицы Y в виде Y = X. Матрица Y i i i i содержит значения эндогенных переменных, включенных в правую часть i -го структурного уравнения, “очищенных” от корреляции с ошибкой в этом уравнении. Обозначая i и i – векторы коэффициентов при эндогенных и предопределенных переменных, включенных в i -е структурное уравнение, запишем это уравнение в виде: yi = Yi i + X i i + ui = Z i i + ui, где i = i, Z i = [Yi X i ]. i Мы также можем записать это уравнение в следующей форме: y i = Yi i + X i i + u i = Yi i + X i i + Yi Yi i + u i, или yi = Z i i + i, где Z i = Yi X i.

(( ) ) [ ] Глава Второй шаг процедуры 2SLS состоит в вычислении оценки наименьших квадратов вектора i в последнем уравнении. Эта оценка вычисляется по обычной формуле: 1 2 SLS = Z T Z T Z T y.

i При этом, естественно, требуется, чтобы матрица Z iT Z iT была невырожденной. Заметим, что rank Z iT Z iT = rank Z iT rank X. Но матрица Z T Z T имеет порядок, равный g + K, а rank X = K, так что ( i i ) i i ( ) i i i i необходимо, чтобы K g i + K i, т.е. K K i g i = g g i 1, а это есть не что иное, как известное нам порядковое условие идентифицируемости. Для состоятельности i2 SLS требуется еще, чтобы предельная матрица 1 p lim Z iT Z iT = Qi n n имела конечные элементы и была невырожденной, а для этого матрица i должна иметь полный столбцовый ранг. Последнее же выполняется в случае идентифицируемости i -го уравнения (cм. [Schmidt (1976), p. 150-151]). Хотя на втором шаге используется OLS, непосредственное использование для построения t -статистик и доверительных интервалов вычисленных (по формулам OLS) значений стандартных ошибок коэффициентов невозможно. Эти значения должны быть скорректированы. Например, если дело касается первого уравнения, то на втором шаге оценивается уравнение ~ y t1 = 11 y t1 + K + g,1 y tg + 11 x t1 + K + K1,1 x tK1 + u t1, 1 ( ) где y t1, K, y tg – очищенные на первом шаге значения эндогенных переменных. При вычислении стандартных ошибок коэффициентов по обычным формулам OLS используется оценка дисперсии случайной ошибки в правой части уравнения в виде:

Инструментальные переменные. Системы… n g1 K1 вместо этого следует использовать другую оценку: S2 = ~ S2 = (y n t = t 11 y t1 K g,1 y tg 11 x t1 K K1,1 x tK ) ;

(y n t = t 11 y t1 K g,1 y tg 11 x t1 K K1,1 x tK ) n g1 K, в которой вместо “очищенных” значений y t1, K, y tg используются “сырые” значения y t1, K, y tg.

В обеих формулах оценки параметров получены методом 2SLS;

для сокращения записи в обозначениях этих оценок опущен верхний 2 индекс, указывающий на 2SLS (например, 11 вместо 11SLS ). В специализированных программах статистического анализа систем одновременных уравнений такая коррекция предусмотрена. Замечание 1 На втором шаге 2SLS не следует особенно полагаться на указываемые в распечатках значения t -статистик, поскольку если данных мало, то асимптотическая теория неприменима и эти статистики не имеют ни нормального, ни t -распределения. Напротив, статистики, получаемые на первом шаге, имеют t распределения при нормальном распределении ошибок. Однако они не предназначены для выяснения значимости отдельных коэффициентов. Замечание 2 Вернемся к рассмотренной ранее системе Qt = a0 + a1Pt + ut, Qt = b0 + b1Pt + b2 Rt + b3 St + vt, Глава в которой, как мы установили, первое уравнение сверхидентифицируемо. Следуя методу инструментальных переменных, мы могли бы произвести “очистку” эндогенной переменной Pt в правой части первого уравнения, используя в качестве инструмента только одну из переменных Rt и St. В 2SLS в качестве инструментов для очистки Pt используются сразу обе эти переменные. Очистка с использованием только одной из этих переменных также приводит к состоятельной оценке, но эта оценка менее эффективна (ее асимптотическая дисперсия больше, чем у оценки, полученной с применением пары инструментальных переменных). В этом смысле 2SLS оценка является наилучшей инструментальной оценкой среди этих трех альтернатив. З а м е ч а н и е 3 (Проверка адекватности) Получив в результате применения двухшагового метода наименьших квадратов к i -му структурному уравнению оценку i2 SLS, мы получаем далее оцененное значение y i2 SLS = Z i i2 SLS вектора yi и вектор остатков u i2 SLS = y i y i2 SLS. (Заметим, что эти остатки отличаются от остатков, непосредственно получаемых на втором шаге 2SLS и равных y i Z i i2 SLS.) Опираясь на эти остатки, можно обычным образом проверять адекватность этого уравнения, используя критерии: • нормальности (Харке–Бера, по оцененным асимметрии и куртозису последовательности остатков);

• линейности (добавляя степени и перекрестные произведения предопределенных переменных и проверяя гипотезу зануления коэффициентов при “лишних” составляющих);

• гомоскедастичности (Уайта, Пагана–Холла);

• независимости – против автокоррелированности остатков (Бройша–Годфри).

Инструментальные переменные. Системы… При обнаружении нарушений стандартных предположений необходимо соответствующим образом изменить спецификацию модели или, не изменяя спецификации, скорректировать статистические выводы. З а м е ч а н и е 3a Критерий Пагана–Холла предназначен специально для выявления гетероскедастичности в отдельном уравнении системы. В отличие от других критериев гомоскедастичности, он не предполагает отсутствия гетероскедастичности в других уравнениях системы. Этот критерий реализован, например, в пакете Stata. 2.6.3. GLS-оценивание систем одновременных уравнений. Трехшаговый метод наименьших квадратов Если нас интересует оценивание коэффициентов всех g структурных уравнений, и каждое из уравнений идентифицируемо (идентифицируемо точно или сверхидентифицируемо), то тогда мы можем сразу получить OLS-оценку матрицы коэффициентов приведенной формы системы и на ее основе сформировать подматрицы 1, K, g, соответствующие эндогенным переменным, включенным в отдельные уравнения структурной формы yi = Yi i + X i i + ui = Z i i + ui, i = 1, K, g. После этого можно вычислить Y = X и получить 2SLS-оценку i i i2 SLS для i, применяя OLS к уравнению y i = Z i i + i. Совокупность оценок 2 SLS, i = 1, K, g, в форме вектора i 2 SLS 12 SLS = M 2 SLS g Глава фактически получается как OLS-оценка уравнения регрессии Z K y1 1 Z 2 K 1 1 M = M + M, M O M M y g K Z g g g в сокращенной форме y = Z +, где Z1 K y1 1 1 Z2 K y = M, Z =, = M, = M. M O M M yg g g K Zg Соответственно, вектор 2 SLS находится по обычной формуле: T 2 SLS = Z T Z Z T y. Эта оценка неэффективна вследствие коррелированности ошибок t1, K, tg (имеющей место даже при некоррелированности ошибок ut1,K, utg в структурных уравнениях) и различия матриц Z 1, K, Z g.

( ) Эффективную оценку можно было бы получить, используя здесь вместо OLS обобщенный метод наименьших квадратов, (GLS), но для этого надо знать ковариационную матрицу вектора. Поскольку же эта матрица неизвестна, мы можем довольствоваться только ее оценкой, и такая оценка должна быть состоятельной, если мы хотим получить в итоге асимптотически эффективную оценку вектора. Заметим, что ковариационная матрица вектора при наших предположениях имеет весьма специфический вид:

Инструментальные переменные. Системы… 11 M 11I g n1 21I g Cov( ) = Cov M = M 1g I M g1 g ng 12 I g 22 I g M g 2 I g K 1g I g K 2 g I g, O M K gg I g или где Cov( ) = I g, ij = Cov ( ti, tj ), I g – единичная матрица порядка g, = (ij ) – ковариационная матрица вектора ( t1, K, tg ), I g – формализованное обозначение матрицы, являющейся кронекеровским произведением матриц и I g. Таким образом, для реализации доступного GLS необходимо состоятельно оценить ковариации ij. Это можно сделать, используя для ij естественную оценку 1 2 SLS T 2 SLS ui uj. n Заменяя в выражении для Cov( ) истинные значения ij ij = ( ) их оценками ij, получаем состоятельную оценку ковариационной матрицы Cov( ) в виде I g. В результате приходим к доступной обобщенной оценке наименьших квадратов (FGLS – feasible generalized least squares) 1 3SLS = Z T 1 I g Z Z T 1 I g, (( )) ( )y Глава известной под названием трехшаговой оценки наименьших квадратов, или 3SLS-оценки (three-stage least squares). 2.6.4. Оценивание систем одновременных уравнений с использованием метода максимального правдоподобия Запишем совокупность g одновременных уравнений для n наблюдений в виде: Y = X +U, где y11 K y1g Y = M O M – матрица значений в n наблюдениях всех g yn1 L yng эндогенных переменных, включенных в систему, x11 K x1K X = M O M – матрица значений в n наблюдениях всех x n1 K xnK K предопределенных переменных, включенных в систему, u11 K u1g U = M O M – матрица значений в n наблюдениях u n1 L ung случайных ошибок в g структурных уравнениях системы, 11 K 1g 11 K 1g = M O M, = M O M – матрицы g1 K gg K 1 K Kg коэффициентов. Сделаем следующие предположения относительно векторов ut = (ut1, K, utg ) ошибок в g уравнениях в t -м наблюдении:

Инструментальные переменные. Системы… • векторы u1,K, un имеют одинаковое g -мерное нормальное распределение N g (0, ) с нулевым вектором математических ожиданий и положительно определенной ковариационной матрицей ;

• векторы u1,K, un независимы между собой. При таких предположениях совместная плотность распределения случайных векторов u1,K, un имеет вид:

n pU (u1, K, un ) = t = ( ) g 1 exp ut 1u T. t 2 det Поскольку ut = yt xt, то переходя от переменных u1,K, un к переменным y1, K, yn, получаем выражение для совместной плотности значений векторов y1, K, yn в виде:

g pY ( y1, K, yn ) = J 2 det 1 T exp ( yt xt ) 1 ( yt xt ), 2 где J – якобиан перехода от переменных u1,K, un к переменным ( ) n y1, K, yn, J = det. Для взаимной однозначности такого перехода n требуется, чтобы det 0. Рассматривая правую часть последнего выражения как функцию от неизвестных параметров, составляющих матрицы,,, при известных значениях Y, X, получаем функцию правдоподобия g n L(,, Y, X ) = det 2 det 1n T exp ( yt xt ) 1 ( yt xt ), 2 t =1 ( ) n Глава логарифм которой равен n ng ln L(,, Y, X ) = n ln det ln (det ) ln(2 ) 2 2 1n T ( yt xt ) 1 ( yt xt ). 2 t =1 Продифференцировав последнее выражение по элементам матрицы 1 и приравнивая найденные производные нулю, приходим к соотношению: T = n 1 (Y X ) (Y X ). Подставляя полученное выражение для в правую часть выражения для ln L(,, Y, X ) и отбрасывая слагаемые, не зависящие от неизвестных параметров, получаем концентрированную логарифмическую функцию правдоподобия n T ln L (, ) = n ln det ln n 1 (Y X ) (Y X ). 2 Оценки матриц и находятся максимизацией ln L с учетом всех ограничений, накладываемых на коэффициенты структурных уравнений. В частности, если используются только исключающие и нормировочные ограничения, то максимизация проводится только по неспецифицированным элементам этих матриц. В процессе такой T максимизации матрица (Y X ) (Y X ) должна иметь полный ранг для всех допустимых значений и. Необходимым условием для этого является условие n g + K. Такое условие может быть ограничительным для систем с большим количеством переменных. Матрицы и, получаемые в результате максимизации ln L, T и матрица = n 1 Y X Y X вместе образуют оценку максимального правдоподобия, учитывающую полную информацию о структуре модели одновременных уравнений. Поэтому такую ( )( ) Инструментальные переменные. Системы… оценку называют оценкой максимального правдоподобия с полной информацией (FIML – full information maximum likelihood). Пусть • выполнены сделанные выше предположения, • ранговое условие идентифицируемости выполняется для всех структурных уравнений системы, • матрица X имеет полный ранг, 1 • предельная матрица p lim X T X = Q имеет конечные n n элементы и положительно определена. Тогда FIML-оценка состоятельна и асимптотически нормальна. При этом требование нормальности распределения векторов u1,K, un не обязательно. (См., например, [Amemiya (1985), глава 7].) Замечание 4 Если при выводе FIML отправляться не от структурной, а от приведенной формы системы, учитывающей ограничения, накладываемые на коэффициенты структурной формы, то тогда дело сводится к максимизации концентрированной функции правдоподобия T n ln L (, ) = ln n 1 Y X 1 Y X 1, 2 т.е., с учетом соотношения = 1, к минимизации целевой функции ~ T Q(, ) = Q ( ) = (Y X ) (Y X ) по элементам матрицы с учетом ограничений, накладываемых на коэффициенты этой матрицы выбранной спецификацией матриц и. Если не учитывать эти ограничения при минимизации целевой ~ функции Q( ), то при сверхидентифицируемости отдельных уравнений системы возникает неоднозначность восстановления и по полученной оценке. Если же все уравнения системы ( )( ) Глава идентифицируемы точно, то значения и восстанавливаются однозначно и при этом восстановленные значения и совпадают с оценками, полученными при минимизации Q(, ) по и. Замечание 5 При практической реализации метода FIML приходится использовать итерационные процедуры. Для обеспечения состоятельности и асимптотической нормальности FIML-оценки в качестве начальных значений параметров необходимо использовать их состоятельные оценки. Их можно получить двухшаговым методом наименьших квадратов. Если система неидентифицируема, то итерационный процесс может не сходиться. Замечание 6 Перед применением FIML обычно производят исключение из системы тождеств и недоидентифицируемых уравнений. Замечание 7 В рекурсивной системе с диагональной ковариационной матрицей оценка FIML получается применением OLS отдельно к каждому уравнению. Пусть первое стохастическое структурное уравнение y1 = Y11 + X 11 + u1 идентифицируемо, а другие уравнения либо неидентифицируемы либо имеются сомнения в правильности их спецификации. Пусть при этом известен список всех предопределенных переменных, включаемых в систему, и значения этих предопределенных переменных в n наблюдениях, так что известна матрица X этих значений и можно говорить о приведенной форме системы: Y = X + W. Удалим из приведенной формы часть, относящуюся к y1;

оставшаяся часть принимает вид:

Инструментальные переменные. Системы… Y1 = X1 + W1. Вместо полной системы структурных уравнений или полной приведенной системы рассмотрим теперь смешанную систему: y1 = Y11 + X 11 + u1, Y1 = X1 + W1. Эту систему можно записать в виде u1 1 1 [ y1 Y1 ] 1 I g 1 = X 1 X 1 0 1 + W [ ] и применить к ней метод FIML. Такая процедура приводит к оценке параметров 1, 1,, называемой оценкой максимального правдоподобия с ограниченной информацией (LIML – limited information maximum likelihood). При практической реализации этой процедуры итерационными методами в качестве начальных значений следует использовать состоятельные оценки параметров 1,1, 1. Состоятельную оценку матрицы 1 можно получить непосредственным применением метода наименьших квадратов к уравнениям системы Y1 = X1 + W1. Состоятельные оценки параметров 1 и 1 можно получить, применяя двухшаговый метод наименьших квадратов. 2.6.5. Связь между различными одновременных уравнений оценками систем Пусть интерес представляет оценивание отдельного уравнения (single equation) структурной формы системы. Тогда: • если оно идентифицируемо без запаса (точно), то достаточно применить косвенный метод наименьших квадратов ILS;

• если оно сверхидентифицируемо, то можно применить 2SLS, LIML, 3SLS, FIML.

Глава Для применимости 3SLS и FIML необходимо знать структуру всех уравнений системы и убедиться в идентифицируемости всех этих уравнений. Для применимости 2SLS и LIML достаточно знать только структуру рассматриваемого уравнения и список (и значения) всех предопределенных переменных, включенных в систему. В 2SLS и LIML ошибка спецификации одного структурного уравнения системы локализуется в пределах этого уравнения;

в 3SLS и FIML такая ошибка влияет на оценку всех уравнений. Предположим теперь, что выполнены указанные ранее условия состоятельности оценок. Тогда: • если i -е структурное уравнение идентифицируемо точно, то оценки 2SLS, LIML и ILS совпадают;

если же оно сверхидентифицируемо, то тогда оценки 2SLS и LIML имеют одинаковое асимптотическое распределение, но оценка LIML предпочтительнее при малом количестве наблюдений;

• если i -е структурное уравнение идентифицируемо, то 2SLS дает состоятельные оценки параметров и 2 SLS d N (0, C ) ;

n i 2 i • если все структурные уравнения идентифицируемы, то 3SLS дает состоятельные оценки параметров и 3 SLS d N (0, C ), причем матрица C C n i 3 2 3 i неотрицательно определена (положительно полуопределена), так что 3SLS приводит к более эффективным оценкам;

• если = I g и все структурные уравнения идентифицируемы ( ( ) ) • точно, то i3 SLS = i2 SLS ;

оценки FIML и 3SLS имеют одинаковое асимптотическое распределение;

при конечных n предпочтительнее FIML.

Инструментальные переменные. Системы… Замечание 8 Если в i -м структурном уравнении системы Y = X + U ошибки автокоррелированы, то для учета этой автокоррелированности можно использовать комбинацию 2SLS и GLS, не прибегая к 3SLS. Пусть, например, ошибки в i -м уравнении следуют процессу авторегрессии первого порядка, uti = u t 1,i + t, < 1. Тогда естественно применить к i -му уравнению авторегрессионное преобразование (Кохрейна–Оркатта). Состоятельную оценку для можно получить, оценивая обычным методом наименьших квадратов (OLS) уравнение IV u ti = u tIV1,i + t, IV где u ti – остатки, полученные в результате применения к i -му уравнению метода инструментальных переменных. При этом для повышения эффективности оценивания к используемым в качестве инструментов в 2SLS переменным xt = ( xt1,K, xtK ) можно добавить yt 1 = ( yt 1,1,K, yt 1, g ) и xt 1 = (xt 1,1,K, xt 1, K ).

2.6.6. Проверка правильности спецификации системы одновременных уравнений Мы уже говорили выше (Замечание 3 в разд. 2.6.2) о возможности проверки адекватности i -го структурного уравнения, опираясь на остатки u i2 SLS = y i Z i i2 SLS, полученные в результате применения двухшагового метода наименьших квадратов к этому уравнению, в отношении таких стандартных предположений как линейность уравнения, нормальность, гомоскедастичность и некоррелированность ошибок. Между тем не менее важным является вопрос о правильности подразделения включенных в систему переменных на эндогенные и экзогенные переменные, произведенного на основании Глава соответствующих экономических и логических представлений о связях между переменными. Еще одна проблема спецификации структурных уравнений состоит в том, что сверхидентифицируемость i -го уравнения системы yi = Yi i + X i i + ui = Z i i + ui может быть просто следствием того, что на коэффициенты этого уравнения наложены ограничения, которых в действительности нет. Например, из i -го уравнения могут быть ошибочно исключены некоторые предопределенные переменные, включенные в другие уравнения системы. Хотелось бы иметь какой-то статистический инструментарий, позволяющий ответить на такие вопросы. Ряд статистических критериев, служащих этой цели, использует следующую идею Хаусмана [Hausman (1978)]. Пусть для ( p 1) -вектора параметров имеются две различные ~ ~ оценки и, причем оценка состоятельна и при гипотезе H и при альтернативной гипотезе H A, а оценка состоятельна и асимптотически эффективна при гипотезе H 0, но не является состоятельной при гипотезе H A. Рассмотрим разность этих двух ~ оценок q =. Поскольку при гипотезе H 0 обе оценки состоятельны, т.е. сходятся по вероятности к истинному значению, то их разность q сходится по вероятности к нулю. Следовательно, если гипотеза H 0 верна, то мы не ожидаем больших отклонений значения q от нуля, и наличие таковых может трактоваться как указание на невыполнение гипотезы H 0. Критерий Хаусмана для проверки правильности спецификации системы одновременных уравнений ([Hausman (1978)]) использует в качестве трехшаговую оценку наименьших ~ квадратов, а в качестве – двухшаговую оценку наименьших квадратов. Если все структурные уравнения специфицированы Инструментальные переменные. Системы… правильно, то 3SLS состоятельна и эффективна;

если же хотя бы одно из уравнений специфицировано неправильно, то 3SLS перестает быть состоятельной оценкой. Однако, как было отмечено в [Spencer, Berk (1981)], для применения этого критерия необходима спецификация всех структурных уравнений системы, тогда как на практике чаще представляет интерес правильность спецификации какого-то отдельного структурного уравнения. В таком случае речь идет о проверке правильности спецификации i -го структурного уравнения при ограниченной информации об остальной части системы (как при построении LIML оценки). Статистика критерия Хаусмана определяется как H = n q T [asCov(q )]1 q, где asCov(q ) – состоятельная оценка асимптотической ~ ковариационной матрицы asCov (q ) разности q =, и при выполнении достаточно общих условий гипотезе H 0 имеет асимптотическое распределение хи-квадрат. Некоторые трудности при использовании этой статистики вызывает то обстоятельство, что ~ компоненты вектора q = в общем случае линейно зависимы, вследствие чего матрица asCov (q ) может быть вырожденной и не иметь обратной в обычном смысле. В связи с этим, в формуле для статистики H следует использовать не обычную обратную матрицу, а так называемую обобщенную обратную матрицу. Указанные трудности можно обойти, используя различные асимптотически эквивалентные версии критерия Хаусмана, основанные на оценивании тех или иных уравнений регрессии. В таких вариантах этого критерия дело сводится к проверке значимости оцененных коэффициентов соответствующих уравнений. Версия критерия Хаусмана, приведенная в [Davidson, MacKinnon (1993)] и называемая там критерием Дарбина–Ву–Хаусмана (Durbin–Wu–Hausman test), состоит в следующем.

Глава Пусть yi = Yi i + X i i + ui = Z i i + ui, X – матрица значений инструментальных переменных, Yi – матрица значений тех объясняющих переменных в i -м уравнении, которые не входят в состав инструментальных переменных и не являются линейными комбинациями последних. Гипотеза H 0 : в i -м уравнении отсутствует проблема эндогенности, т.е. все объясняющие переменные в составе Yi не коррелированы с ui. Иначе говоря, это гипотеза экзогенности (предопределенности) переменных, входящих в состав Yi. Если эта гипотеза выполнена, то оценивание i -го уравнения можно производить обычным методом наименьших квадратов (OLS). В противном случае надо применять метод инструментальных переменных. Сначала производится OLS оценивание уравнений регрессии объясняющих переменных, входящих в состав Yi, на инструментальные переменные: Yi = X i + Wi и вычисляются прогнозные значения Y этих переменных. Затем эти i прогнозные значения добавляются в качестве дополнительных объясняющих переменных в правую часть i -го уравнения, что приводит к расширенному уравнению y i = Z i i + Yi + i, производится OLS оценивание расширенного уравнения и проверяется гипотеза H 0 : = 0. Для проверки этой гипотезы используется обычный F -критерий, хотя, вообще говоря, он является в этой ситуации только приближенным критерием. Вместо Yi в расширенном уравнении можно использовать остатки W = Y Y, т.е. оценивать уравнение i i i y i = Z i i + Wi + i Инструментальные переменные. Системы… и проверять гипотезу H 0 : = 0 в рамках этого уравнения. В любом случае отклонение гипотезы H 0 трактуется как наличие проблемы эндогенности, вызывающей несостоятельность OLS оценок параметров i -го структурного уравнения. Еще один вариант критерия Хаусмана для проверки той же гипотезы состоит в следующем. Наряду с остатками Wi = Yi Yi, определенными выше, рассмотрим остатки u i, получаемые при оценивании i -го уравнения обычным методом наименьших квадратов (OLS). Пусть R 2 – коэффициент детерминации, получаемый при OLS оценивании уравнения u i = Z i i + Wi + i. Тогда при выполнении гипотезы экзогенности статистика nR 2 имеет асимптотическое (при n ) распределение 2 ( g i ), где g i – количество переменных в составе Yi. Эта гипотеза отвергается при nR 2 > 12 (g i ), где – выбранный уровень значимости критерия.

Можно указать и некоторые другие варианты реализации критерия Хаусмана для проверки гипотезы об отсутствии проблемы эндогенности в i -м уравнении. Но как бы там ни было, прежде чем производить проверку тех или иных переменных, включенных в структурное уравнение, на эндогенность, рекомендуется предварительно провести проверку пригодности самих выбранных инструментов. Такую проверку можно провести в том случае, когда количество имеющихся инструментов превышает их необходимое количество, и сделать это можно, используя, например, J-статистику, предложенную в работе [Godfrey, Hutton (1994)]. Пусть для очистки эндогенных переменных, входящих в правую часть i -го уравнения системы yi = Yi i + X i i + ui = Z i i + ui используется уравнение Глава Yi = X i + Wi, где X – матрица значений инструментальных переменных. Применив к i -му уравнению двухшаговый метод наименьших квадратов, получим 2SLS-остатки в виде u i2 SLS = y i Z i i2 SLS.

После этого оценим линейную модель регрессии u i2 SLS на переменные, входящие в состав X. Пусть R – полученное при этом значение коэффициента детерминации. Указанная J -статистика равна J = nR 2 и имеет асимптотическое (при n ) распределение хи-квадрат с числом степеней свободы, равным разности между количеством переменных в составе X и количеством объясняющих переменных в первом уравнении. Гипотеза пригодности выбранного множества инструментов отвергается при значениях J -статистики, превышающих критическое значение, рассчитанное по указанному хи-квадрат распределению (т.е. при значениях J -статистики, для которых P значение оказывается меньше заданного уровня значимости). Если это происходит, то тогда нет смысла заниматься IV оцениванием коэффициентов рассматриваемого уравнения с выбранным множеством инструментов, поскольку в этом случае или сами эти инструменты непригодны или уравнение неправильно специфицировано. Если указанная гипотеза не отвергается J -критерием, то тогда переходят ко второму шагу, на котором используется критерий Хаусмана (в том или ином его варианте) для проверки переменных в i -м уравнении системы на эндогенность/экзогенность. В работе [Godfrey, Hutton (1994)] показано, что статистики, используемые в такой двухступенчатой процедуре, асимптотически независимы, так что вероятность ошибочного решения в этой процедуре приближенно равна 1 (1 J )(1 H ) = J + H J H, где J – уровень значимости J -критерия, а H – уровень значимости критерия Хаусмана, используемого на втором шаге.

Инструментальные переменные. Системы… Замечание 8 Отклонение нулевой гипотезы при применении критериев экзогенности означает только, что проблема эндогенности существует. Однако степень влияния обнаруженной эндогенности на смещение обычных оценок наименьших квадратов остается при этом неизвестной. Вместе с тем, мощность критериев типа Хаусмана становится довольно низкой, если инструменты слабо коррелированы с эндогенными переменными. И это означает, что нулевая гипотеза экзогенности может быть не отвергнута, а смещение OLS оценок в то же время велико. Поэтому во многих практических исследованиях авторы сообщают и результаты IVоценивания и результаты OLS-оценивания. 2.6.7. Примеры оценивания систем одновременных уравнений. Пример 1 Рассмотрим модель спроса-предложения в виде: P = 1Q + 11 + 12 DPI + u1, Q = 2 P + 21 + 22Weather + 23 Invest + u2, где P – розничная цена свежих фруктов, выраженная в постоянных ценах с использованием индекса розничных цен, Q – потребление свежих фруктов на душу населения, DPI – располагаемый доход на душу населения, дефлированный на индекс потребительских цен (CPI), Weather – климатическая характеристика, отражающая размер потенциальных потерь урожая из-за неблагоприятных погодных условий, Invest – дефлированный на CPI объем на душу населения чистых инвестиций производителей свежих фруктов, отражающий издержки производства.

Глава Первое уравнение является уравнением спроса, а второе – уравнением предложения. Всего имеется 30 наблюдений;

все переменные выражены в индексной форме с одним и тем же базовым периодом.

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 Price (P) 108.9 100.6 109.7 111.6 109.8 104.4 89.6 117.2 109.3 114.9 112.0 112.9 121.0 112.8 102.9 86.0 95.7 104.9 114.0 121.9 127.2 128.3 125.0 117.1 122.7 111.6 114.1 110.4 109.2 108.9 Quantity (Q) 127.4 105.1 76.7 93.8 88.3 78.4 89.6 75.3 109.1 121.3 106.3 129.1 118.6 94.3 81.0 104.9 94.6 102.9 110.6 111.7 117.6 125.1 87.4 84.6 107.8 120.7 102.8 99.2 107.1 127.4 DPI 97.6 98.2 99.8 100.5 96.6 88.9 84.6 96.4 104.4 110.7 99.1 105.6 116.8 105.3 85.6 84.8 89.8 93.2 105.9 110.8 115.3 120.6 105.7 103.5 110.6 109.3 99.5 105.9 102.7 97.6 Weather 99.1 98.9 110.8 108.2 108.7 100.6 70.9 110.5 92.5 89.3 90.3 95.2 98.6 105.7 107.8 80.4 90.7 88.9 96.9 101.9 104.9 103.6 106.2 100.8 110.5 86.7 93.8 99.9 104 99.1 Invest 142.9 123.8 111.9 121.4 92.9 97.6 64.3 78.6 109.5 128.6 95.8 130.9 125.7 109.8 88.4 96.9 90.8 101.7 110.8 117.9 134.8 140.2 78.3 94.7 135.9 126.8 90.5 134.8 123.8 142. Переходя к обозначениям, использованным ранее при рассмотрении систем одновременных уравнений, запишем систему в виде:

Инструментальные переменные. Системы… yt1 = 11 yt 2 + 11 xt1 + 21 xt 2 + ut1, yt 2 = 12 yt1 + 12 xt1 + 22 xt 3 + 32 xt 4 + ut 2, где yt1 = Pt, yt 2 = Qt, xt1 1, xt 2 = (DPI )t, xt 3 = (Weather )t, xt 4 = (Invest )t. Список эндогенных переменных: ( yt1, yt 2 ). Список экзогенных переменных: (1, xt 2, xt 3, xt 4 ). Полный список переменных, включенных в систему: ( yt1, yt 2,1, xt 2, xt 3, xt 4 ). Соответственно, g = 2, K =4, 12 1 1 11 12 11 12 12 1 21 0., B= =, = = 11 B 0 22 0 1 21 11 0 0 22 32 0 32 На элементы первого столбца матрицы A помимо нормировочного накладывается два исключающих ограничения 51 = 0, 61 = 0, так что для этого столбца g1 = 0, K1 = 2, и g 1 + K 1 > g 1, т.е. порядковое условие идентифицируемости выполняется. На элементы второго столбца помимо нормировочного накладывается одно исключающее ограничение 42 = 0, так что для этого столбца g2 = 0, K2 = 1, и g 2 + K 2 = g 1, т.е. порядковое условие идентифицируемости выполняется. Для проверки выполнения ранговых условий идентифицируемости воспользуемся Замечанием 3 из разд. 2.5. В соответствии с этим замечанием построим таблицу коэффициентов:

i 1 yt yt xt xt xt 11 Глава При рассмотрении первого уравнения выделяемая матрица сводится к одной строке с двумя элементами: ( 22 32 ). Ранг этой матрицы равен 1, что совпадает со значением g 1 = 1, так что первое уравнение идентифицируемо. При рассмотрении второго уравнения выделяемая матрица сводится к одному элементу: ( 21 ). Ранг этой матрицы равен также равен 1, так что и второе уравнение идентифицируемо. Разница только в том, что для первого уравнения g1 + K 1 > g 1, а для второго g 2 + K 2 = g 1, т.е. первое уравнение сверхидентифицируемо, а второе идентифицируемо точно. Соответственно, для оценивания второго уравнения можно использовать косвенный метод наименьших квадратов, а для оценивания первого уравнения этот метод не годится. Чтобы применить косвенный метод наименьших квадратов, сначала раздельно оценим методом наименьших квадратов уравнения приведенной формы yt1 = 11 + 21 xt 2 + 31 xt 3 + 41 xt 4 + wt1, yt 2 = 12 + 22 xt 2 + 32 xt 3 + 42 xt 4 + wt 2.

Это дает следующие результаты (в пакете EVIEWS):

Dependent Variable: Y1 Variable C X2 X3 X4 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient -12.40954 1.030854 0.361564 -0.152442 0.902361 0.891094 3.259777 276.2797 -75.87140 2.016289 Std. Error 8.192675 0.090988 0.066508 0.040203 t-Statistic -1.514712 11.32951 5.436388 -3.791820 Prob. 0.1419 0.0000 0.0000 0.0008 111.1445 9.877858 5.324760 5.511587 80.09524 0. Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Инструментальные переменные. Системы… Dependent Variable: Y2 Variable C X2 X3 X4 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient 81.78495 0.581396 -0.924096 0.475229 0.824120 0.803826 6.989927 1270.336 -98.75575 2. Std. Error 17.56752 0.195106 0.142613 0. t-Statistic 4.655463 2.979896 -6.479734 5. Prob. 0.0001 0.0062 0.0000 0.0000 101.8111 15.78165 6.850383 7.037209 40.60943 0. Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Используем теперь соотношение =, которое в нашем примере принимает вид 11 12 11 12 12 21 0 21 22 1 = 32 11 1 0 22 31 0 42 32 41 и приводит к уравнениям: 11 1211 = 11, 12 1112 = 12, 21 2211 = 21, 22 2112 = 0, 31 3211 = 0, 32 3112 = 22, 41 4211 = 0, 42 4112 = 32. Поскольку точно идентифицируемо только второе структурное уравнение системы, интерес для применения косвенного метода наименьших квадратов представляют только коэффициенты этого уравнения 12, 12, 22 и 32. Это означает, что из восьми приведенных уравнений достаточно рассмотреть только четыре уравнения, стоящие в правом столбце. Решая эти уравнения, находим: 12 = 22 21, Глава Подставляя в правые части оцененные значения коэффициентов ki, находим оценки для коэффициентов второго структурного уравнения. Например, 12 = 22 21 = 0.581396 1.030854 = 0.5639945. В отношении трех остальных коэффициентов получаем: 12 = 88.78386, 22 = -1.128017, 32 = 0.561206. Замечание В таблицах результатов применения косвенного метода наименьших квадратов обычно не приводятся значения стандартных ошибок коэффициентов, поскольку из-за нелинейности соотношений между коэффициентами структурной и приведенной форм вычисление стандартных ошибок оценок коэффициентов при конечных n затруднительно. В то же время при применении двухшагового метода наименьших квадратов для вычисления этих ошибок имеются соответствующие формулы. Поэтому мы могли бы вычислить искомые стандартные ошибки оценок коэффициентов первого уравнения рассматриваемой системы, используя 2SLS и имея в виду, что в случае точно идентифицируемого уравнения результаты оценивания его коэффициентов методами ILS и 2SLS совпадают. Проблема, однако, в том, что (см., например, [Sawa (1969)]) в этой ситуации у 2SLS оценки не существует конечных выборочных моментов. Соответственно, по сравнению с нормальным распределением, оценки более часто далеко отклоняются от истинных значений параметров, и это затрудняет интерпретацию полученных результатов. Имея в виду сделанное замечание, применим все же двухшаговый метод наименьших квадратов для оценивания обоих 12 = 11 12 ( 22 21 ), 22 = 31 32 ( 22 21 ), 32 = 41 42 ( 22 21 ).

Инструментальные переменные. Системы… структурных уравнений. Результаты применения этого метода таковы:

System: FRU Estimation Method: Two-Stage Least Squares Coefficient Std. Error C(1) C(2) C(3) C(4) C(5) C(6) C(7) -0.361831 18.16639 1.279190 0.563994 88.78386 -1.128017 0.561206 0.081657 9.760145 0.126018 0.175307 15.06578 0.158217 0.065442 479. t-Statistic -4.431122 1.861283 10.15089 3.217171 5.893080 -7.129565 8. Prob. 0.0000 0.0683 0.0000 0.0022 0.0000 0.0000 0. Determinant residual covariance Equation: Y1=C(1)*Y2+C(2)+C(3)*X2 Observations: 30 R-squared 0.781184 Mean dependent var Adjusted R-squared 0.764975 S.D. dependent var S.E. of regression 4.788722 Sum squared resid Durbin-Watson stat 2.036078 Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*X4 Observations: 30 R-squared 0.849107 Mean dependent var Adjusted R-squared 0.831696 S.D. dependent var S.E. of regression 6.474401 Sum squared resid Durbin-Watson stat 2. 111.1445 9.877858 619. 101.8111 15.78165 1089. Оценки всех коэффициентов кроме постоянной составляющей в первом уравнении имеют высокую статистическую значимость. Отрицательное значение оценки коэффициента при переменной yt 2 в первом уравнении согласуется с тем, что первое уравнение является уравнением спроса. Положительное значение оценки при переменной yt1 во втором уравнении согласуется с тем, что второе уравнение является уравнением предложения. Также соответствуют априорным Глава предположениям знаки оцененных коэффициентов при переменных xt 2, xt 3 и xt 4 (увеличение спроса при возрастании дохода, уменьшение предложения при усилении неблагоприятных погодных факторов и увеличение предложения при возрастании инвестиций). Вместе с тем, если обратиться к оцениванию корреляционной матрицы ошибок в структурных уравнениях, то оцененная на основании векторов остатков u i2 SLS = y i Z i i2 SLS ковариационная матрица имеет вид: 20.638675 16.439387 16.439387 36.328821. Ей соответствует оцененная корреляционная матрица 1 0.600370, 0.600370 1 указывающая на наличие заметной корреляции между ошибками в разных уравнениях. Это означает, что потенциально имеется возможность повысить эффективность оценивания, учитывая такую коррелированность и применяя трехшаговый метод наименьших квадратов или метод максимального правдоподобия с полной информацией. При применении 3SLS получаем:

System: FRU Estimation Method: Iterative Three-Stage Least Squares Convergence achieved after: 2 weight matricies, 3 total coef iterations Coefficient C(1) C(2) C(3) C(4) C(5) C(6) C(7) -0.361831 18.16639 1.279190 0.592909 89.91484 -1.159822 0.550297 Std. Error 0.077466 9.259287 0.119551 0.150576 13.79846 0.130071 0.056107 486.0481 t-Statistic -4.670812 1.961964 10.69998 3.937596 6.516294 -8.916811 9.808057 Prob. 0.0000 0.0550 0.0000 0.0002 0.0000 0.0000 0. Determinant residual covariance Инструментальные переменные. Системы… Equation: Y1=C(1)*Y2+C(2)+C(3)*X2 Observations: 30 R-squared 0.781184 Mean dependent var Adjusted R-squared 0.764975 S.D. dependent var S.E. of regression 4.788722 Sum squared resid Durbin-Watson stat 2.036078 Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*X4 Observations: 30 R-squared 0.849356 Mean dependent var Adjusted R-squared 0.831974 S.D. dependent var S.E. of regression 6.469047 Sum squared resid Durbin-Watson stat 2. 111.1445 9.877858 619. 101.8111 15.78165 1088. Сравним оцененные коэффициенты и оцененные стандартные ошибки оценок коэффициентов, полученные двумя методами:

Coefficients 2SLS 3SLS -0.361831 -0.361831 18.16639 18.16639 1.279190 1.279190 0.563994 0.592909 88.78386 89.91484 -1.128017 -1.159822 0.561206 0.550297 Std. Errors 2SLS 3SLS 0.081657 0.077466 9.760145 9.259287 0.126018 0.119551 0.175307 0.150576 15.06578 13.79846 0.158217 0.130071 0.065442 0. C(1) C(2) C(3) C(4) C(5) C(6) C(7) Оцененные значения коэффициентов практически не изменились. При этом произошло некоторое уменьшение всех оцененных стандартных ошибок коэффициентов.

Глава Результаты применения метода FIML:

Coefficient C(1) C(2) C(3) C(4) C(5) C(6) C(7) -0.363540 18.18156 1.280771 0.593625 89.82550 -1.159165 0.549823 Std. Error 0.097355 13.65099 0.167147 0.221715 19.84547 0.151139 0.065905 -172.0962 486.9397 t-Statistic -3.734157 1.331886 7.662534 2.677418 4.526248 -7.669539 8.342675 Prob. 0.0005 0.1886 0.0000 0.0099 0.0000 0.0000 0. Log Likelihood Determinant residual covariance Equation: Y1=C(1)*Y2+C(2)+C(3)*X2 Observations: 30 R-squared 0.780336 Mean dependent var Adjusted R-squared 0.764065 S.D. dependent var S.E. of regression 4.797990 Sum squared resid Durbin-Watson stat 2.030828 Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*X4 Observations: 30 R-squared 0.849367 Mean dependent var Adjusted R-squared 0.831986 S.D. dependent var S.E. of regression 6.468814 Sum squared resid Durbin-Watson stat 2. 111.1445 9.877858 621. 101.8111 15.78165 1087. Оцененные значения коэффициентов незначительно отличаются от полученных ранее. В связи с рассматриваемым примером обратим внимание на следующее обстоятельство. Попробуем оценить уравнения структурной формы обычным методом наименьших квадратов, игнорируя наличие в правых частях этих уравнений эндогенных переменных. Это приводит к следующим результатам:

Инструментальные переменные. Системы… System: SYS_FULL_OLS Estimation Method: Least Squares Coefficient C(1) C(2) C(3) C(4) C(5) C(6) C(7) -0.213716 18.15974 1.130662 0.614038 86.61460 -1.154140 0. Std. Error 0.063693 8.908678 0.108276 0.159561 14.71164 0.153404 0.064458 517. t-Statistic -3.355431 2.038432 10.44241 3.848293 5.887487 -7.523517 8. Prob. 0.0015 0.0465 0.0000 0.0003 0.0000 0.0000 0. Determinant residual covariance Equation: Y1=C(1)*Y2+C(2)+C(3)*X2 Observations: 30 R-squared 0.817697 Mean dependent var Adjusted R-squared 0.804193 S.D. dependent var S.E. of regression 4.370958 Sum squared resid Durbin-Watson stat 2.442191 Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*X4 Observations: 30 R-squared 0.849675 Mean dependent var Adjusted R-squared 0.832330 S.D. dependent var S.E. of regression 6.462188 Sum squared resid Durbin-Watson stat 2. 111.1445 9.877858 515. 101.8111 15.78165 1085. Сравним оценки коэффициентов, полученные при применении системного метода оценивания FIML и несистемного OLS:

Coefficient FIML -0.363540 18.18156 1.280771 0.593625 89.82550 -1.159165 0.549823 OLS -0.213716 18.15974 1.130662 0.614038 86.61460 -1.154140 0. Глава За исключением коэффициента при переменной yt 2 в первом уравнении, оценки всех остальных коэффициентов структурных уравнений, полученные двумя методами, довольно близки друг к другу. И это характерно для ситуаций, в которых при оценивании уравнений приведенной формы получаются высокие значения коэффициентов детерминации. В нашем примере это значения 0.902361 для первого уравнения и 0.824120 для второго уравнения приведенной формы. Рассмотрим теперь, что получится, если во второе уравнение не включена одна из переменных xt 3, xt 4. (Система остается при этом идентифицируемой.) При этом будем ориентироваться на результаты применения 3SLS. Сначала исключим переменную xt 4 – издержки производства. Это приводит к следующему результату:

System: SYS_EXACT_2_3 Estimation Method: Iterative Three-Stage Least Squares Convergence achieved after: 1 weight matrix, 2 total coef iterations Coefficient C(1) C(2) C(3) C(4) C(5) C(6) -0.393021 18.16779 1.310468 1.603271 68.85896 -1.469719 Std. Error 0.106679 9.612186 0.142630 0.324620 29.34434 0.308619 3322.482 t-Statistic -3.684137 1.890079 9.187882 4.938909 2.346584 -4.762247 Prob. 0.0005 0.0641 0.0000 0.0000 0.0226 0. Determinant residual covariance Equation: Y1=C(1)*Y2+C(2)+C(3)*X2 Observations: 30 R-squared 0.764186 Mean dependent var Adjusted R-squared 0.746719 S.D. dependent var S.E. of regression 4.971235 Sum squared resid Durbin-Watson stat 1. 111.1445 9.877858 667. Инструментальные переменные. Системы… Equation: Y2=C(4)*Y1+C(5)+C(6)*X3 Observations: 30 R-squared 0.360021 Mean dependent var Adjusted R-squared 0.312615 S.D. dependent var S.E. of regression 13.08436 Sum squared resid Durbin-Watson stat 1. 101.8111 15.78165 4622. Сравним коэффициенты, полученные при исключении xt 4 из второго уравнения, с коэффициентами, полученными 3SLS без исключения этой переменной из второго уравнения:

X4 excluded C(1) C(2) C(3) C(4) C(5) C(6) -0.393021 18.16779 1.310468 1.603271 68.85896 -1.469719 X4 included -0.361831 18.16639 1.279190 0.592909 89.91484 -1. Произошло более чем двукратное возрастание коэффициента при переменной yt1 во втором уравнении. Обозревая таблицу результатов, можно заметить довольно низкое значение статистики Дарбина–Уотсона для второго уравнения, что может указывать на пропуск существенной объясняющей переменной в этом уравнении. Отметим также на довольно большое значение оцененной стандартной ошибки случайной составляющей во втором уравнении – 13.08436 против 4.971235, что, конечно, вполне возможно, но также может указывать на пропуск объясняющей переменной во втором уравнении. Если вместо переменной xt 4 исключить из второго уравнения переменную xt 3 – погодный фактор, то это приводит к следующему результату:

Глава System: SYS_EXACT_2_4 Estimation Method: Three-Stage Least Squares Coefficient Std. Error C(1) C(2) C(3) C(4) C(5) C(7) -0.318323 18.16444 1.235561 0.274776 16.26065 0.499415 0.116740 8.863637 0.145848 0.265732 26.12243 0.113699 2157. t-Statistic -2.726758 2.049321 8.471570 1.034037 0.622478 4. Prob. 0.0086 0.0453 0.0000 0.3057 0.5362 0. Determinant residual covariance Equation: Y1=C(1)*Y2+C(2)+C(3)*X2 Observations: 30 R-squared 0.799484 Mean dependent var Adjusted R-squared 0.784631 S.D. dependent var S.E. of regression 4.584099 Sum squared resid Durbin-Watson stat 2.166955 Equation: Y2=C(4)*Y1+C(5)+C(7)*X4 Observations: 30 R-squared 0.490954 Mean dependent var Adjusted R-squared 0.453247 S.D. dependent var S.E. of regression 11.66938 Sum squared resid Durbin-Watson stat 1. 111.1445 9.877858 567. 101.8111 15.78165 3676. Сравним коэффициенты, полученные при исключении xt 3 из второго уравнения с коэффициентами, полученными 3SLS без исключения этой переменной из второго уравнения:

X3 excluded C(1) C(2) C(3) C(4) C(5) C(6) C(7) -0.318323 18.16444 1.235561 0.274776 16.26065 0.499415 X3 included -0.361831 18.16639 1.279190 0.592909 89.91484 -1.159822 0. Инструментальные переменные. Системы… На этот раз произошло более чем двукратное уменьшение коэффициента при переменной yt1 во втором уравнении. Опять наблюдается довольно большое значение оцененной стандартной ошибки случайной составляющей во втором уравнении – 11.66938 против 4.584099 в первом уравнении, что может указывать на пропуск объясняющей переменной во втором уравнении. Заметим, что при включении в правую часть второго уравнения обеих переменных xt 3, xt 4 такого большого различия оцененных стандартных ошибок случайных составляющих не наблюдается: в первом уравнении оцененное значение равно 4.788722, а во втором 6.469047;

при этом вполне удовлетворительными выглядят и значения статистик Дарбина–Уотсона: 2.036078 в первом и 2.139746 во втором уравнениях. Пример 2 Чтобы составить некоторое представление о возможности более или менее точного восстановления параметров структурной формы, сгенерируем 30 новых “наблюдений”, используя процесс порождения данных в виде: yt1 = 0.5 yt 2 + 80 + 0.7 xt 2 + ut1, yt 2 = 0.75 yt1 + 10 1.5 xt 3 + 1.5 xt 4 + ut 2, где переменные имеют ту же интерпретацию и значения переменных xt 2, xt 3 и xt 4 те же, что и в предыдущем примере, а случайные составляющие ut1 и ut 2 не коррелированы во времени, имеют нулевые ожидания, одинаковые дисперсии D(ut1 ) = D(ut 2 ) = 36 и Corr (ut1, ut 2 ) = 0.7. Полученные “данные” приведены в таблице:

Y1 88.1 87.1 101.1 98.6 109.4 Y2 152.4 114.6 74.1 99.2 74.0 X2 97.6 98.2 99.8 100.5 96.6 X3 99.1 98.9 110.8 108.2 108.7 X4 142.9 123.8 111.9 121.4 92. 198 105.2 100.6 121.7 96.0 90.3 105.7 91.3 95.5 101.0 110.2 87.1 97.4 99.8 99.9 102.8 99.8 95.8 123.4 110.4 98.7 88.2 110.0 88.3 93.6 103.5 72.4 69.2 51.3 109.7 135.5 100.2 144.5 126.1 90.6 66.7 104.0 85.3 102.6 110.8 114.8 131.2 141.2 62.6 73.2 121.1 134.5 91.8 115.1 114.5 76.9 88.9 84.6 96.4 104.4 110.7 99.1 105.6 116.8 105.3 85.6 84.8 89.8 93.2 105.9 110.8 115.3 120.6 105.7 103.5 110.6 109.3 99.5 105.9 102.7 96.8 100.6 70.9 110.5 92.5 89.3 90.3 95.2 98.6 105.7 107.8 80.4 90.7 88.9 96.9 101.9 104.9 103.6 106.2 100.8 110.5 86.7 93.8 99.9 104 108.4 97.6 64.3 78.6 109.5 128.6 95.8 130.9 125.7 109.8 88.4 96.9 90.8 101.7 110.8 117.9 134.8 140.2 78.3 94.7 135.9 126.8 90.5 134.8 123.8 104. Глава Оценим по сгенерированным данным уравнения структурной формы обычным методом наименьших квадратов, игнорируя наличие в правых частях этих уравнений эндогенных переменных. Это приводит к следующим результатам:

System: SYS_FULL_OLS Estimation Method: Least Squares Coefficient C(1) C(2) C(3) C(4) C(5) -0.363218 88.69833 0.476608 1.019773 -11.07961 Std. Error 0.041816 10.49401 0.122697 0.297976 28.30156 t-Statistic -8.686139 8.452281 3.884420 3.422330 -0.391484 Prob. 0.0000 0.0000 0.0003 0.0012 0. Инструментальные переменные. Системы… C(6) C(7) -1.752307 1. 0.214654 0.127403 576. -8.163409 13. 0.0000 0. Determinant residual covariance Equation: Y1=C(1)*Y2+C(2)+C(3)*X2 Observations: 30 R-squared 0.743523 Mean dependent var Adjusted R-squared 0.724524 S.D. dependent var S.E. of regression 4.899311 Sum squared resid Durbin-Watson stat 2.154319 Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*X4 Observations: 30 R-squared 0.950061 Mean dependent var Adjusted R-squared 0.944299 S.D. dependent var S.E. of regression 6.428860 Sum squared resid Durbin-Watson stat 2. 100.0167 9.334551 648. 102.0033 27.23976 1074. Применим двухшаговый метод Результаты применения этого метода:

наименьших квадратов.

System: SYS_FULL_OLS Estimation Method: Two-Stage Least Squares Coefficient Std. Error C(1) C(2) C(3) C(4) C(5) C(6) C(7) -0.424633 83.95884 0.585040 0.901844 -1.113488 -1.684157 1.628247 0.045795 10.96205 0.130033 0.420366 37.81363 0.274838 0.169687 522. t-Statistic -9.272577 7.659048 4.499177 2.145379 -0.029447 -6.127827 9. Prob. 0.0000 0.0000 0.0000 0.0365 0.9766 0.0000 0. Determinant residual covariance Equation: Y1=C(1)*Y2+C(2)+C(3)*X2 Observations: 30 R-squared 0.723032 Mean dependent var Adjusted R-squared 0.702516 S.D. dependent var S.E. of regression 5.091263 Sum squared resid Durbin-Watson stat 1. 100.0167 9.334551 699. Глава Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*X4 Observations: 30 R-squared 0.949761 Mean dependent var Adjusted R-squared 0.943964 S.D. dependent var S.E. of regression 6.448196 Sum squared resid Durbin-Watson stat 2. 102.0033 27.23976 1081. При применении 3SLS получаем:

Coefficient C(1) C(2) C(3) C(4) C(5) C(6) C(7) -0.424633 83.95884 0.585040 0.889189 -0.653169 -1.671481 1.624186 Std. Error 0.043445 10.39951 0.123360 0.369342 34.88671 0.220626 0.152419 518.5160 t-Statistic -9.774155 8.073345 4.742549 2.407495 -0.018723 -7.576096 10.65606 Prob. 0.0000 0.0000 0.0000 0.0196 0.9851 0.0000 0. Determinant residual covariance Equation: Y1=C(1)*Y2+C(2)+C(3)*X2 Observations: 30 R-squared 0.723032 Mean dependent var Adjusted R-squared 0.702516 S.D. dependent var S.E. of regression 5.091263 Sum squared resid Durbin-Watson stat 1.952744 Equation: Y2=C(4)*Y1+C(5)+C(6)*X3+C(7)*X4 Observations: 30 R-squared 0.949688 Mean dependent var Adjusted R-squared 0.943883 S.D. dependent var S.E. of regression 6.452837 Sum squared resid Durbin-Watson stat 2. 100.0167 9.334551 699. 102.0033 27.23976 1082. Инструментальные переменные. Системы… Сравним оцененные этими методами коэффициенты:

Coefficient OLS C(1) C(2) C(3) C(4) C(5) C(6) C(7) 2SLS 3SLS -0.424633 83.95884 0.585040 0.889189 -0.653169 -1.671481 1.624186 True -0.5 80.0 0.7 0.75 10.0 -1.5 1. Первое уравнение -0.363218 -0.424633 88.69833 83.95884 0.476608 0.585040 Второе уравнение 1.019773 0.901844 -11.07961 -1.113488 -1.752307 -1.684157 1.672787 1. Приведем для иллюстрации результаты применения двухступенчатой процедуры Godfrey–Hutton к рассмотренной системе уравнений: yt1 = 11 yt 2 + 11 xt1 + 21 xt 2 + ut1, yt 2 = 12 yt1 + 12 xt1 + 22 xt 3 + 32 xt 4 + u t 2, используя данные, приведенные в Примере 2. В качестве инструментальных переменных используются x1 = 1, x2, x3, x4. Мы уже произвели выше оценивание обоих уравнений двухшаговым методом наименьших квадратов. Полученные при 1 этом 2SLS-остатки обозначим, соответственно, u t2 SLS, u t22SLS.

1 Оценим уравнение регрессии u t2 SLS на x1 = 1, x2, x3, x4. Полученное значение коэффициента детерминации равно 0.000319, так что J = nR 2 = 0.00957. Число степеней свободы равно 4 3 = 1. Поскольку P-значение равно 0.922, гипотеза пригодности использованных инструментов не отвергается. (Если оценить уравнение регрессии u t22SLS на x1 = 1, x2, x3, x4, то в этом случае J = 0, число степеней свободы равно 4 4 = 0, и J -критерий неприменим.) Глава Поскольку гипотеза пригодности инструментов не отвергнута, перейдем ко второму этапу и используем на этом этапе критерий Дарбина-Ву-Хаусмана. Сначала оцениваем уравнение yt 2 = 12 + 22 xt 2 + 32 xt 3 + 42 xt 4 + wt 2 и получаем ряд остатков wt 2 = y t 2 y t 2. Затем оцениваем расширенное первое уравнение y t1 = 11 y t 2 + 11 xt1 + 21 x t 2 + wt 2 + t1 и проверяем гипотезу H 0 : = 0. Поскольку здесь – скалярная величина, то для проверки этой гипотезы можно использовать t критерий. Результаты оценивания расширенной модели:

Dependent Variable: Y1 Method: Least Squares Variable Y2 C X2 W2 R-squared Durbin-Watson stat Coefficient -0.424633 83.95884 0.585040 0.616608 0.928759 2. Std. Error 0.023668 5.665468 0.067204 0. t-Statistic -17.94140 14.81940 8.705405 8. Prob. 0.0000 0.0000 0.0000 0.0000 100.0167 0. Mean dependent var Prob(F-statistic) Оцененный коэффициент = 0.617 имеет очень высокую статистическую значимость, что говорит о наличии проблемы эндогенности в первом уравнении. Применяя тот же критерий ко второму уравнению, получаем для расширенного уравнения y t 2 = 12 y t1 + 12 x t1 + 22 x t 3 + 32 x t 4 + wt1 + t Инструментальные переменные. Системы… следующие результаты:

Dependent Variable: Y2 Method: Least Squares Variable Y1 C X3 X4 W1 R-squared Durbin-Watson stat Coefficient 0.901844 -1.113488 -1.684157 1.628247 0.238481 0.950369 2.187028 Std. Error 0.426087 38.32829 0.278578 0.171996 0.605917 t-Statistic 2.116571 -0.029051 -6.045545 9.466768 0.393586 Prob. 0.0444 0.9771 0.0000 0.0000 0.6972 102.0033 0. Mean dependent var Prob(F-statistic) В этом случае оцененный коэффициент при дополнительной переменной статистически незначим, так что эндогенность во втором уравнении не выявляется. Между тем, OLS оценки всех параметров имеют большее смещение по сравнению с другими методами оценивания и в первом и во втором уравнении, а во втором уравнении оценка постоянной имеет большое смещение при всех методах оценивания. Заметим, что используемые на втором шаге процедур 2SLS и yy 3SLS очищенные значения ~t 1, ~t 2 эндогенных переменных yt 1, yt 2 являются линейными комбинациями экзогенных переменных xt 2, xt 3 и xt 4, в число которых входят переменные, находящиеся в правых частях соответствующих структурных уравнений. В правой части первого уравнения оказываются переменные ~t 1 и xt 2, а в y ~, x и x. Однако правой части второго уравнения – переменные y t2 t3 t при этом опасной мультиколлинеарности переменных в правых частях каждого из уравнений не возникло, и это происходит благодаря тому, что: • в состав ~t 1 входят не только xt 2, но также и переменные xt 3 y и xt 4, не слишком сильно коррелированные с Corr (x3, x2 ) = 0.308, Corr ( x4, x2 ) = 0.680, xt 2 :

Глава • в состав ~t 2 входят не только xt 3 и xt 4, y но также и переменная xt 2, не слишком сильно коррелированная с xt 3 и xt 4. Попробуем смоделировать ситуацию, в которой происходит критическая потеря точности оценивания. Для этого реализуем процесс порождения данных, соответствующий системе yt1 = 0.5 yt 2 + 50 + 1.1xt 2 + ut1, yt 2 = 0.5 yt1 45 + 1.1xt 4 + ut 2, с теми же значениями переменных xt 2, xt 4 и ошибок ut1, ut 2, что и в только что рассмотренном примере. Эта система идентифицируема точно, и ее оценивание методом 3SLS дает следующий результат:

System: SYS_EXACT_2_4 Estimation Method: Three-Stage Least Squares Coefficient Std. Error C(1) C(2) C(3) C(4) C(5) C(7) -0.412458 53.69121 0.955053 0.545426 -56.93625 1.167493 0.062834 10.66377 0.151915 0.213593 25.48195 0.064218 506. t-Statistic -6.564206 5.034918 6.286768 2.553572 -2.234375 18. Prob. 0.0000 0.0000 0.0000 0.0135 0.0296 0. Determinant residual covariance Equation: Y1=C(1)*Y2+C(2)+C(3)*X2 Observations: 30 R-squared 0.489024 Mean dependent var Adjusted R-squared 0.451174 S.D. dependent var S.E. of regression 5.120537 Sum squared resid Durbin-Watson stat 1. 98.82331 6.911911 707. Инструментальные переменные. Системы… Equation: Y2=C(4)*Y1+C(5)+C(7)*X4 Observations: 30 R-squared 0.929722 Mean dependent var Adjusted R-squared 0.924517 S.D. dependent var S.E. of regression 6.436470 Sum squared resid Durbin-Watson stat 2. 125.5639 23.42729 1118. Все оцененные коэффициенты имеют высокую статистическую значимость. Заменим во втором уравнении переменную xt 4 новой переменной xt 5, порождаемой соотношением xt 5 = xt 2 + 2t, t ~ i.i.d. N (0,1), t = 1, K,30, так что система принимает вид:

y t1 = 0.5 y t 2 + 50 + 1.1x t 2 + u t 1, y t 2 = 0.5 y t1 45 + 1.1x t 5 + u t 2.

С точки зрения критериев идентифицируемости формально ничего не изменилось: первое уравнения сверхидентифицируемо, а второе идентифицируемо точно. Посмотрим, однако, на результаты оценивания.

System: SYS_2_5 Estimation Method: Three-Stage Least Squares Coefficient Std. Error C(1) C(2) C(3) C(4) C(5) C(8) -2.109257 9.837905 3.365924 0.940376 -82.48076 1.023874 3.560708 90.42874 4.983926 0.427263 30.85206 0.193137 3003. t-Statistic -0.592370 0.108792 0.675356 2.200928 -2.673428 5. Prob.

0.5561 0.9138 0.5020 0.0320 0.0099 0. Determinant residual covariance Глава Equation: Y1=C(1)*Y2+C(2)+C(3)*X2 Observations: 30 R-squared -7.828599 Mean dependent var Adjusted R-squared -8.482569 S.D. dependent var S.E. of regression 16.21186 Sum squared resid Durbin-Watson stat 1.700910 Equation: Y2=C(4)*Y1+C(5)+C(8)*X5 Observations: 30 R-squared 0.825653 Mean dependent var Adjusted R-squared 0.812738 S.D. dependent var S.E. of regression 6.323932 Sum squared resid Durbin-Watson stat 2. 102.6282 5.264654 7096. 117.9538 14.61378 1079. Здесь оценки стандартных ошибок оцененных коэффициентов значительно выросли, особенно в первом уравнении, так что оказались статистически незначимыми все три оцененных коэффициента этого уравнения;

значительно изменились и оценки коэффициентов, особенно в первом уравнении:

Coefficient Equation 1 C(1) C(2) C(3) C(4) C(5) C(7) C(8) -0.412458 53.69121 0.955053 0.545426 -56.93625 1.167493 Equation 2 -2.109257 9.837905 3.365924 0.940376 -82.48076 1.023874 Std. Error Equation 1 0.062834 10.66377 0.151915 0.213593 25.48195 0.064218 Equation 2 3.560708 90.42874 4.983926 0.427263 30.85206 0. Столь драматические изменения произошли по той причине, что переменная xt 5 имеет очень высокую корреляцию с xt 2 в выборке: Corr xt 5, xt 2 = 0.969. И хотя формально эти переменные различны и ( ) оба уравнения идентифицируемы, со статистической точки зрения эти переменные “слишком близки”, что порождает проблему Инструментальные переменные. Системы… опасной мультиколлинеарности и приводит к практической неидентифицируемости коэффициентов структурных уравнений, поскольку теперь: • в состав ~t 1 помимо xt 2 и константы входит только y • переменная xt 5, сильно коррелированная с xt 2, в состав ~t 2 помимо xt 5 и константы входит только y переменная xt 2, сильно коррелированная с xt 5.

2.6.8. Прогнозирование одновременных уравнений по оцененной системе Если нас интересует только предсказание значений yt +1,1,K, yt +1, g эндогенных переменных в новом наблюдении по заданным (планируемым) значениям экзогенных переменных xt +1,1, K, xt +1, K, то это можно осуществить непосредственно с использованием оцененной матрицы приведенной формы: (y t +1,1, K, y t +1, g = xt +1,1, K, x t +1, K.

)( ) Возьмем смоделированные в примере 2 предыдущего раздела данные и на основании оцененной приведенной формы построим точечные прогнозы значений ( y30+t,1, y30+t, 2 ), t = 1, K,30, для новой последовательности значений экзогенных переменных (x30+t,2, x30+t,3, x30+t,4 ), t = 1,K,30, воспроизводящей основные характеристики последовательности (xt, 2, xt,3, xt, 4 ), t = 1, K,30. Оценивание уравнений редуцированной формы дает следующие результаты:

Dependent Variable: Y Глава Method: Least Squares Variable C X2 X3 X4 Dependent Variable: Y2 Method: Least Squares Variable C X2 X3 X4 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient 61.35073 0.428163 0.511247 -0. Std. Error 7.478051 0.083052 0.060707 0. t-Statistic 8.204107 5.155376 8.421559 -13. Prob. 0.0000 0.0000 0.0000 0. Coefficient 54.21529 0.386136 -1.223092 1.175413 0.936459 0.929127 7.251752 1367.286 -99.85894 2. Std. Error 18.22556 0.202414 0.147955 0. t-Statistic 2.974685 1.907652 -8.266637 13. Prob. 0.0063 0.0675 0.0000 0.0000 102.0033 27.23976 6.923929 7.110755 127.7280 0. Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Соответственно, прогнозы для yt,1, yt, 2, t = 31, K,60, вычисляются по формулам: y t,1 = 61.351 + 0.428 xt 2 + 0.511x t 3 0.502 x t 4, y t, 2 = 54.215 + 0.386 xt 2 1.223xt 3 + 1.175 xt 4. Параллельно вычислим для t = 31,K,60 ”теоретические” значения yt,1 _ true, yt, 2 _ true, порожденные системой без случайных ошибок:

yt1 = 0.5 yt 2 + 80 + 0.7 xt 2, yt 2 = 0.75 yt1 + 10 1.5 xt 3 + 1.5 xt 4. Приведем полученные таким образом прогнозные и “теоретические” значения (округленные):

Инструментальные переменные. Системы… Y1_PREDICT 116.3 92.1 95.6 77.9 87.4 98.3 102.0 97.0 122.0 108.9 98.6 92.6 88.2 91.8 107.1 115.2 98.8 100.1 92.8 99.4 86.5 110.2 106.2 83.8 93.0 89.7 88.3 116.3 92.1. 95. Y1_TRUE 119.2 98.4 94.6 117.9 91.1 94.6 75.9 85.8 98.6 103.0 96.6 124.2 109.4 99.1 92.1 87.4 91.2 108.3 116.5 98.0 100.1 91.8 99.1 85.4 111.4 106.0 82.6 92.3 89.9 87. Y2_PEDICT 49.4 101.2 106.7 70.3 107.2 91.5 145.6 114.1 121.6 116.0 105.2 64.4 73.2 117.3 119.4 132.9 124.1 93.1 68.0 79.7 100.6 107.2 94.1 133.1 89.0 61.9 140.6 117.7 155.3 141. Y2_TRUE 53.3 101.2 106.4 73.0 106.6 91.9 141.9 113.1 120.8 114.3 105.2 67.7 75.6 115.7 117.9 130.3 122.9 92.7 70.9 80.5 100.9 106.8 94.5 130.4 90.5 64.5 137.4 116.9 151.4 138. Как видим, прогнозные значения оказались весьма близкими к “истинным”. Если использовать при сравнении этих значений среднюю абсолютную процентную ошибку прогноза (MAPE – Mean Absolute Percent Error), вычисляемую по формуле Глава MAPE(i) = y _ predict y _ true 1 30, 100 t,i y _ truet,i 30 t =1 t,i то получаются такие результаты: MAPE(1) = 0.881%, MAPE(2) = 1.797%. Подойдем теперь к вопросу прогнозирования с другой стороны: попробуем получить прогнозные значения на основании оцененных структурных уравнений. При этом будем ориентироваться на оценки, полученные ранее методом 3SLS:

Coefficient C(1) C(2) C(3) C(4) C(5) C(6) C(7) -0.424633 83.95884 0.585040 0.889189 -0.653169 -1.671481 1. Иначе говоря, будем опираться на оцененные структурные уравнения yt1 = 0.425 yt 2 + 83.959 + 0.585 xt 2, yt 2 = 0.889 yt1 0.653 1.671xt 3 + 1.624 xt 4. Это дает следующие прогнозные значения (Y1F, Y2F):

Y1F 117.9539 98.62752 95.21508 116.2262 92.14986 95.65463 77.93844 87.49209 98.28987 101.7954 97.07454 Y1_PREDICT 116.3 92.1 95.6 77.9 87.4 98.3 102.0 97.0 122.0 108.9 98.6 Y2F 49.43060 101.2295 106.7986 70.28356 107.2833 91.58455 145.6529 114.3175 121.6912 115.6271 105.3218 Y2_PREDICT 49.4 101.2 106.7 70.3 107.2 91.5 145.6 114.1 121.6 116.0 105. Инструментальные переменные. Системы… 121.9508 108.9582 98.49096 92.60201 88.14985 91.87218 106.9471 115.1834 98.80164 100.0887 92.81281 99.37046 86.43539 110.1443 106.2692 83.80259 93.01326 89.61098 88. 92.6 88.2 91.8 107.1 115.2 98.8 100.1 92.8 99.4 86.5 110.2 106.2 83.8 93.0 89.7 88.3 116.3 92.1. 95. 64.30229 73.29769 117.0801 119.3591 132.8158 124.2472 92.66480 68.00794 79.70102 100.6958 107.3434 94.12591 133.1007 89.02851 62.01926 140.5781 117.8567 155.1329 141. 64.4 73.2 117.3 119.4 132.9 124.1 93.1 68.0 79.7 100.6 107.2 94.1 133.1 89.0 61.9 140.6 117.7 155.3 141. Во втором и четвертом столбцах таблицы приведены для сравнения прогнозные значения, полученные ранее на основании оцененной приведенной формы. Для прогнозов, полученных по структурным уравнениям, получаем: MAPE(1) = 0.906%, MAPE(2) = 1.773%, в сравнении со значениями MAPE(1) = 0.881%, MAPE(2) = 1.797%, полученными для прогнозов на основании оцененных редуцированных уравнений. В целом, прогнозы обоих типов близки по указанной характеристике качества. Следующие графики иллюстрируют качество прогнозов в сравнении с “теоретическими” значениями:

130 120 110 100 90 80 70 5 10 15 20 25 Глава Y1_PREDICT Y1_TRUE 160 140 120 100 80 60 40 5 10 15 20 25 Y2_PREDICT Y2_TRUE Глава 3. Панельные данные 3.1. Модель кажущихся несвязанными регрессий, модель ковариационного анализа Пусть мы имеем данные {y it, xit ;

i = 1, K, N, t = 1, K, T } о значениях переменных y и x для N субъектов (индивидов, фирм, стран, регионов и т. п.) в T последовательных моментов (периодов) времени (в этом случае говорят, что мы имеем дело с панельными данными) и хотим оценить модель линейной связи между переменными y и x, считая y объясняемой, а x – объясняющей переменной. В общем случае x является вектором конечной размерности p, и наиболее общей формой линейной модели наблюдений для такой ситуации являлась бы спецификация T yit = xit it + uit, i = 1,K, N, t = 1,K, T, где it измеряет частное влияние xit в момент (период) t для субъекта i. Однако такая модель слишком обща, чтобы быть полезной, и приходится накладывать какую-ту структуру на коэффициенты it. Простейшей в этом отношении является модель пула (pool) с it :

T yit = xit + uit, в которой предполагается, что 2 uit ~ i.i.d. N 0, u, i = 1,K, N, t = 1,K, T, и что E (xit u js ) = 0 для любых i, j = 1,K, N, t, s = 1,K, T, ( ) так что x является экзогенной переменной. В этом случае мы имеем дело с обычной линейной регрессией с NT наблюдениями, удовлетворяющей предположениям классической нормальной Глава линейной модели. Для получения эффективных оценок вектора коэффициентов достаточно использовать обычный метод наименьших квадратов (OLS). Полученная при этом оценка является наилучшей линейной несмещенной оценкой (BLUE – best linear unbiased estimate) вектора. При соответствующих предположениях о поведении значений объясняющих переменных, когда N или/и T, эта оценка является также и состоятельной оценкой этого вектора. Пример Рассмотрим один популярный объект статистических исследований – данные о размере инвестиций (invest), рыночной цене (mvalue) и акционерном капитале (kstock) 10 крупных компаний США за период с 1935 по 1954 г.г. При анализе этих и других данных мы по большей части используем пакет статистического анализа STATA8 и приводим протоколы оценивания, иногда с некоторыми сокращениями. Оценивая по указанным статистическим данным модель пула, получаем следующие результаты. Cross-sectional time-series FGLS regression Coefficients: generalized least squares Panels: homoskedastic Correlation: no autocorrelation Estimated covariances = 1 Number of obs = 200 Estimated autocorrelations = 0 Number of groups = 10 Estimated coefficients = 3 Time periods = 20 Wald chi2(2)= 866.14, Prob > chi2 =0.0000 Log likelihood = -1191.802 invest Coef. Std. Err. z P>z mvalue.1155622.0057918 19.95 0.00 kstock.2306785.025284 9.12 0.00 cons -42.71437 9.440069 -4.52 0.00 Приведенный протокол оценивания показывает, что мы оцениваем модель пула, в которой отсутствуют гетероскедастичность и Панельные данные автокоррелированность ошибок. Для проверки гипотезы о незначимости регрессии в целом (т.е. гипотезы о нулевых значениях коэффициентов при объясняющих переменных mvalue и kstock) здесь используется критерий Вальда, основанный на статистике Wald = qF, где F – обычная F -статистика для проверки этой гипотезы, а q - количество линейных ограничений на параметры модели (в данном примере q = 2 ). Статистика критерия Вальда имеет асимптотическое распределение хи-квадрат с q степенями свободы. Вычисленный на основе этого асимптотического распределения наблюденный уровень значимости (P-значение), соответствующий наблюдаемому значению 866.14, равен Prob > chi2 =0.0000, так что гипотеза о нулевых значениях коэффициентов при объясняющих переменных mvalue и kstock отвергается. Во втором столбце таблицы приведены оценки коэффицентов, в третьем – оценки для стандартных ошибок этих оценок. В четвертом столбце приведены значения t-статистик для раздельной проверки гипотез о равенстве нулю отдельных коэффициентов, а в пятом столбце – соответствующие им P-значения, вычисляемые на основании нормального приближения распределения Стьюдента (отсюда обозначение Z вместо обычного t в заголовке четвертого столбца). Полученные P-значения говорят о высокой статистической значимости оценок коэффициентов. В такой упрощенной модели, собственно, и не возникает никаких особенностей статистического анализа, связанных с панельным представлением данных. Положение, однако, изменится, T если предположить, что в той же модели yit = xit + uit ошибки uit, оставаясь статистически независимыми между собой, имеют разные 2 дисперсии для разных субъектов: D(uit ) = ui. В этом случае OLSоценки коэффициентов остаются несмещенными, но возникает смещение при оценивании дисперсий этих оценок, что отражается на оцененных значениях стандартных ошибок оценок, используемых при построении доверительных интервалов для Глава коэффициентов и при проверке гипотез о значениях коэффициентов (например, при проверке их статистической значимости). Хотя и здесь особенность панельного характера данных отражается лишь в структуре весов: при применении взвешенного метода наименьших квадратов (WLS – weighted least squares) веса, приписываемые различным наблюдениям, не изменяются в пределах наблюдений одного субъекта. П р и м е р (продолжение) Cross-sectional time-series FGLS regression Coefficients: generalized least squares Panels: heteroskedastic Correlation: no autocorrelation Wald chi2(2) = 669.69, Prob > chi2 = 0.0000 Log likelihood = -1037.152 invest mvalue kstock cons Coef. Std. Err..1116328.0049823.1537718.0125707 -21.44348 3.901219 z 22.41 12.23 -5.50 P>z 0.00 0.00 0. Здесь протокол оценивания указывает на применение взвешенного метода наименьших квадратов (Panels: heteroscedastic). По сравнению с предыдущим результатом, существенно снизилось значение оцененного коэффициента при переменной kstock и произошло двукратное уменьшение оцененной стандартной ошибки для этого коэффициента. Соответственно изменился и вычисленный 95% интервал для данного коэффициента: теперь это интервал (0.129, 0.178), тогда как ранее это был интервал (0.181, 0.280) Заметим, что как и в обычной модели регрессии, вместо применения взвешенного метода наименьших квадратов можно использовать оценки коэффициентов, полученные обычным методом наименьших квадратов (OLS), но при этом следует Панельные данные произвести коррекцию стандартных ошибок этих оценок. Использование такого подхода в пакете Stata8 дает в рассматриваемом примере следующие результаты. П р и м е р (продолжение). xtpcse invest mvalue kstock, hetonly casewise Linear regression, heteroskedastic panels corrected standard errors Estimated covariances = 10, R-squared = 0.8124 Wald chi2(2) = 567.87, Prob > chi2 = 0.000 Het-corrected invest Coef. Std. Err. z P>z mvalue.1155622.0070863 16.31 0.00 kstock.2306785.029747 7.75 0.00 cons -42.71437 7.131515 -5.99 0.00 Следующим шагом в усложнении модели может быть дополнительное предположение о наличии корреляционной связи между ошибками в уравнениях для разных субъектов в один и тот же момент времени (cross-sectional correlation): для t s 0 Cov(uit, u js ) =, ij ( 0 ) для t = s так что матрица ковариаций = ( ij ) не является диагональной. В этом случае приходится использовать обобщенный метод наименьших квадратов (GLS – generalized least squares), учитывающий это обстоятельство. Мы коснемся деталей несколько позже, при рассмотрении моделей “кажущихся несвязанными регрессий”, а сейчас только посмотрим, что дает применение этого метода к анализируемым данным. П р и м е р (продолжение) Cross-sectional time-series FGLS regression Coefficients: generalized least squares Panels: heteroskedastic with cross-sectional correlation Глава Correlation: no autocorrelation Estimated covariances = 55 Number of obs = 200 Estimated autocorrelations = 0 Number of groups =10 Estimated coefficients = 3 Time periods = 20 Wald chi2(2) =3738.07, Prob > chi2 = 0.0000 Log likelihood = -879.4274 invest Coef. Std. Err. z P>z mvalue.1127515.0022364 50.42 0.00 kstock.2231176.0057363 38.90 0.00 cons -39.84382 1.717563 -23.20 0.00 Заметим, что в этом случае помимо собственно трех коэффициентов модели приходится оценивать еще и 10 дисперсий случайных ошибок в уравнениях для 10 предприятий, а также 45 ковариаций ij, i j. Если не накладывать никаких дополнительных ограничений на структуру матрицы ковариаций = ( ij ), то оценивание каждой ковариации (или дисперсии) производится на основании всего 20 наблюдений и потому может быть весьма неточным. И здесь можно оставить OLS-оценки для коэффициентов, скорректировав оценки стандартных ошибок (correlated panels corrected standard errors). При этом получаем:.xtpcse invest mvalue kstock, casewise Linear regression, correlated panels corrected standard errors (PCSEs) Estimated covariances = 55, R-squared = 0.8124 Wald chi2(2) = 637.41, Prob > chi2 = 0.0000 Panel-corrected invest Coef. Std. Err. z P>z mvalue.1155622.0072124 16.02 0.00 kstock.2306785.0278862 8.27 0.00 cons -42.71437 6.780965 -6.30 0. Панельные данные Следующим шагом в усложнении модели является снятие предположения о взаимной независимости ошибок в пределах одного субъекта, например, путем предположения о том, что последовательность ошибок при наблюдении i -го субъекта следует процессу авторегрессии первого порядка AR(1) с нулевым средним. T Поясним это на примере модели yit = xit + uit, в которой uit = i ui,t 1 + it, где i < 1, а случайные величины i1, i 2,K, iT являются гауссовскими инновациями, так что они взаимно независимы и имеют одинаковое распределение N 0, 2i и, кроме того, it не зависит от значений ui,t k, k 1. Коэффициент i можно оценить различными способами. Можно, например, оценить (методом T без учета наименьших квадратов) модель yit = xit + uit автокоррелированности ошибок, получить последовательность остатков u i1, u i 2, K, u iT, вычислить значение статистики Дарбина– Уотсона ( ) di = (u t = T it T u i,t 1 ) 2 it u t = и, используя приближенное соотношение i 1 di 2, получить оценку i, DW 1 d i 2. Можно поступить иначе: получив последовательность остатков u i1, u i 2, K, u iT, использовать оценку наименьших квадратов, получаемую при оценивании уравнения регрессии u it = i u i,t 1 + it. Искомая оценка вычисляется по формуле:

Глава i = u t =2 T T it u i,t t =.

2 u it [В пакете Stata8 эта оценка обозначена как tscorr.] После получения оценок для i, i = 1,K, N, в уравнениях для каждого субъекта производится известное преобразование Прайса– Уинстена переменных, призванное получить модель с независимыми ошибками. Объединяя преобразованные уравнения, получаем возможность произвести в ней OLS-оценивание коэффициентов. Если предполагается, что уравнения имеют общий AR-параметр, т.е. 1 = 2 = L = N =, то это общее значение оценивается величиной = ( 1 + 2 + L + N ) N, так что преобразование Прайса–Уинстена использует одну эту оценку.

П р и м е р (продолжение) Будем предполагать, что дисперсии ошибок для разных субъектов могут быть различными. Если при этом предполагается отсутствие перекрестной коррелированности ошибок между уравнениями и если ошибки в уравнениях для разных субъектов следуют одинаковым AR(1)-моделям (с общим ), то оценивание такой модели дает следующие результаты.. xtpcse invest mvalue kstock, correlation(ar1) hetonly rhotype(dw) (note: estimates of rho outside [-1,1] bounded to be in the range [-1,1]) Prais-Winsten regression, heteroskedastic panels corrected standard errors Autocorrelation: common AR(1) Estimated covariances = 10 R-square = 0.5468 Estimated autocorrelations = 1 Estimated coefficients = Панельные данные Wald chi2(2) = 91.72, Prob > chi2 = 0.0000 Het-corrected invest Coef. Std. Err. mvalue.0972395.0126259 kstock.306441.0561245 cons -42.07116 21.02442 rho.8678619 Здесь использовалась оценка, вычисляемая статистики Дарбина–Уотсона.

Pages:     | 1 || 3 | 4 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.