WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 31 | 32 || 34 | 35 |   ...   | 82 |

N ((xi - rxi-1) - (zi - rzi-1)a - (1 - r)b)2 min, N i=где zi — n-вектор-строка значений независимых факторов в i-м наблюдении (i-строка матрицы Z).

Поскольку производные функционала по искомым величинам нелинейны относительно них, применяется итеративная процедура, на каждом шаге которой сначала оцениваются a и b при фиксированном значении r предыдущего шага (на первом шаге обычно r =0), а затем — r при полученных значениях a и b.

Процесс, как правило, сходится.

Как и в случае гетероскедастичности, можно не использовать модифицированные методы оценивания (тем более, что точный вид автокорреляции может быть неизвестен), а использовать обычный МНК и скорректировать оценку ковариационной матрицы параметров. Наиболее часто используемая оценка Ньюи—Уэста (устойчивая к гетероскедастичности и автокорреляции) имеет следующий вид:

(Z Z)-1 Q (Z Z)-1, где N L N Q = e2 + keiei-k(zizi-k + zi-kzi), i i=1 k=1 i=k+а k — понижающие коэффициенты, которые Ньюи и Уэст предложили рассчиk тывать по формуле k = 1 -. При k > L понижающие коэффициенты L +становятся равными нулю, т.е. более дальние корреляции не учитываются Обоснование этой оценки достаточно сложно2. Заметим только, что если заменить попарные произведения остатков соответствующими ковариациями и убрать понижающие коэффициенты, то получится формула ковариационной матрицы оценок МНК.

Приведенная оценка зависит от выбора параметра отсечения L. Внастоящее время не существует простых теоретически обоснованных методов для такого выбора.

/ T На практике можно ориентироваться на грубое правило L = 4.

Оно связано с оценкой спектральной плотности для многомерного временного ряда.

270 Глава 8. Нарушение гипотез основной линейной модели 8.4. Ошибки измерения факторов Пусть теперь нарушается гипотеза g2, и независимые факторы наблюдаются с ошибками. Предполагается, что изучаемая переменная зависит от истинных значений факторов (далее в этом пункте используется сокращенная форма уравнения регрессии), 0, а именно:

x = 0 +, но истинные значения неизвестны, а вместо этого имеются наблюдения над некоторыми связанными с 0 переменными :

= 0 + z, где z — вектор-строка длиной n ошибок наблюдений.

В разрезе наблюдений:

X = Z0 +, Z = Z0 + z, где Z0 и z — соответствующие N n-матрицы значений этих величин по наблюдениям (т.е., в зависимости от контекста, z обозначает вектор или матрицу ошибок).

Предполагается, что ошибки факторов по математическому ожиданию равны нулю, истинные значения регрессоров и ошибки независимы друг от друга (по крайней мере не коррелированы друг с другом) и известны матрицы ковариации:

E(z) =0, E(0, ) =0, E(0, z) =0, (8.5) E(0, 0) =M0, E(, z) =, E(, ) =.

z z Важно отметить, что эти матрицы и вектора ковариации одинаковы во всех наблюдениях, а ошибки в разных наблюдениях не зависят друг от друга, т.е. речь, фактически, идет о «матричной» гомоскедастичности и отсутствии автокорреляции ошибок.

Через наблюдаемые переменные x и уравнение регрессии записывается в следующей форме:

x = + - z. (8.6) В такой записи видно, что «новые» остатки не могут быть независимыми от факторов-регрессоров, т.е. гипотезы основной модели регрессии нарушены. В рамках 8.4. Ошибки измерения факторов сделанных предположений можно доказать, что приближенно E(a) (M0 +)-1(M0 + ) = +(M0 +)-1( - ), (8.7) т.е. МНК-оценки теряют в такой ситуации свойства состоятельности и несмещенности3, если = (в частности, когда ошибки регрессии и ошибки факторов не коррелированны, т.е. когда =0, а и отличны от нуля).

Для обоснования (8.7) перейдем к теоретическому аналогу системы нормальных уравнений, для чего обе части соотношения (8.6) умножаются на транспонированную матрицу факторов:

E ( x) =E ( ) + E ( ) - E ( z).

Здесь, как несложно показать, пользуясь сделанными предположениями, E ( ) =M0 +, E ( ) =, E ( z) =, Поэтому E ( x) =E ( ) + - или -E ( )-1 E ( x) = + M0 + ( - ).

Левая часть приближенно равна E(a).

1 Действительно, a = M-1m, гд е M = Z Z и m = Z x. Выборочные ковари N N ационные матрицы M и m по закону больших чисел с ростом числа наблюдений сходятся по вероятности к своим теоретическим аналогам:

p p M -E ( ) и m -E ( x).

По свойствам сходимости по вероятности предел функции равен функции от предела, если функция непрерывна. Поэтому p a = M-1m - E ( )-1 E ( x) =(M0 +)-1(M0 + ).

Существуют разные подходы к оценке параметров регрессии в случае наличия ошибок измерения независимых факторов. Здесь приводятся два из них.

Они смещены даже асимптотически, т.е. при стремлении количества наблюдений к бесконечностисмещениенестремитсякнулю.

272 Глава 8. Нарушение гипотез основной линейной модели а) Простая регрессия. Если имеется оценка W ковариационной матрицы и w — ковариационного вектора, то можно использовать следующий оператор оценивания:

a =(M - W )-1(m - w), который обеспечивает состоятельность оценок и делает их менее смещенными.

Это формула следует из E ( x) =E ( ) + - заменой теоретических моментов на их оценки.

Обычно предполагается, что W — диагональная матрица, а w =0.

б) Ортогональная регрессия. Поскольку z теперь такие же случайные переменные, наблюдаемые с ошибками, как и x, имеет смысл вернуться к обозначениям 6-го раздела, где через x обозначался n-мерный вектор-строка всех переменных.

Пусть — вектор их ошибок наблюдения, а x0 — вектор их истинных значений, то есть x = x0 +, X = X0 +.

Предположения (8.5) записываются следующим образом:

E(0, ) =0, E(0, x0) =M0, E(, ) =2.

x x Теперь через M0 обозначается матрица, которую в обозначениях, используемых в этом пункте выше, можно записать следующим образом:

2 m x, m0 Mа через 2 матрица.

Поскольку речь идет о линейной регрессии, предполагается, что между истинными значениями переменных существует линейная зависимость:

x0 =0.

8.5. Метод инструментальных переменных Это означает, что M0 =0.

Рассуждая так же, как при доказательстве соотношения (8.7), легко установить, что E(M) =M0 + 2, (M — фактическая матрица ковариации X) т.е.

(E(M) - 2) =0.

Таким образом, если считать, что известна, а 2 — минимизируемый параметр (в соответствии с логикой МНК), то решение задачи (M - 2)a =0, 2 min! даст несмещенную оценку вектора. А это, как было показано в пункте 6.4, есть задача регрессии в метрике -1 (см. (6.37)). Преобразованием в пространстве переменных она сводится к «обычной» ортогональной регрессии.

Т.е. если для устранения последствий нарушения гипотезы g4 используется преобразование в пространстве наблюдений, то при нарушении гипотезы g2 надо «работать» с преобразованием в пространстве переменных.

Несмотря на то, что методы ортогональной регрессии и регрессии в метрике -1 в наибольшей степени соответствуют реалиям экономики (ошибки есть во всех переменных, стоящих как в левой, так и в правой частях уравнения регрессии), они мало используются в прикладных исследованиях. Основная причина этого заключается в том, что в большинстве случаев невозможно получить надежные оценки матрицы. Кроме того, ортогональная регрессия гораздо сложнее простой с вычислительной точки зрения, и с теоретической точки зрения она существенно менее изящна и прозрачна.

В следующем параграфе излагается еще один метод, который позволяет решить проблему ошибок в переменных (и в целом может использоваться при любых нарушениях гипотезы g2).

8.5. Метод инструментальных переменных Предполагаем, что в регрессии x = z + переменные-факторы z являются случайными, и нарушена гипотеза g2 в обобщенной формулировке: ошибка зависит от факторов z, так что корреляция между z иошибкой не равна нулю. Такую 274 Глава 8. Нарушение гипотез основной линейной модели регрессию можно оценить, имея набор вспомогательных переменных y, называемых инструментальными переменными. Часто инструментальные переменные называют просто инструментами.

Для того, чтобы переменные y можно было использовать в качестве инструментальных, нужно, чтобы они удовлетворяли следующим требованиям:

1) Инструменты y некоррелированы с ошибкой. (В противном случае метод даст несостоятельные оценки, как и МНК.) Если это условие не выполнено, то такие переменные называют негодными инструментами4.

2) Инструменты y достаточно сильно коррелированы с факторами z. Если данное условие не выполнено, то это так называемые «слабые» инструменты.

Если инструменты слабые, то оценки по методу будут неточными и при малом количестве наблюдений сильно смещенными.

Обычно z и y содержат общие переменные, т.е. часть факторов используется в качестве инструментов. Например, типична ситуация, когда z содержит константу;

тогда в y тоже следует включить константу.

Пусть имеются N наблюдений, и X, Z и Y — соответствующие данные в матричном виде. Оценки по методу инструментальных переменных (сокращенно IV от англ. instrumental variables) вычисляются по следующей формуле:

-1 -1 - aIV = Z Y Y Y Y Z Z Y Y Y Y X. (8.8) В случае, если количество инструментальных переменных в точности равно количеству факторов, ( rank Y = n +1) получаем собственно классический ме тод инструментальных переменных. При этом матрица Y Z квадратная и оценки вычисляются как -1 -1 - aIV = Y Z Y Y Z Y Z Y Y Y Y X.

Средняя часть формулы сокращается, поэтому - aIV = Y Z Y X. (8.9) Рассмотрим вывод классического метода инструментальных переменных, т.е. случай точной идентификации (ср. с (6.15) в главе 6):

Умножим уравнение регрессии x = z + слева на инструменты y (с транспонированием). Получим следующее уравнение:

y x = y z + y.

В модели ошибок в переменных ошибка регрессии имеет вид - z, гд е —ошибка в исходном уравнении, а z — ошибка измерения факторов z. Чтобы переменные y можно было использовать в качестве инструментов, достаточно, чтобы y были некоррелированы с и z.

8.5. Метод инструментальных переменных Если взять от обеих частей математическое ожидание, то получится E(y x) =E(y z), где мы учли, что инструменты некоррелированы с ошибкой, E(y ) =0.

Заменяя теоретические моменты на выборочные, получим следующие нормальные уравнения, задающие оценки a:

Myx = Myza, 1 где Myx = Y X и Myz = Y Z. Очевидно, что эти оценки совпадут с (8.9).

N N Фактически, мы применяем здесь метод моментов.

Метод инструментальных переменных можно рассматривать как так называемый двухшаговый метод наименьших квадратов. (О нем речь еще пойдет ниже в пункте 10.3.) 1-й шаг. Строим регрессию каждого фактора Zj на Y. Получим в этой реc грессии расчетный значения Zj. По формуле расчетных значений в регрессии c Zj = Y (Y Y )-1 Y Z. Заметим, что если Zj входит в число инструментов, то по c этой формуле получим Zj = Zj, т.е. эта переменная останется без изменений.

Поэтому данную процедуру достаточно применять только к тем факторам, которые не являются инструментами (т.е. могут быть коррелированы с ошибкой). В целом для всей матрицы факторов можем записать Zc = Y (Y Y )-1 Y Z.

2-й шаг. В исходной регрессии используются Zc вместо Z. Смысл состоит в том, чтобы использовать факторы «очищенные от ошибок».

Получаем следующие оценки:

-a2M = Zc Zc Zc x = -1 -1 -1 - = Z Y Y Y Y Y Y Y Y Z Z Y Y Y Y x = -1 -1 - = Z Y Y Y Y Z Z Y Y Y Y x = aIV.

Видим, что оценки совпадают.

Если записать оценки в виде aIV =(Zc Z)-1 Zc x, то видно, что обобщенный методинструментальных переменных можно рассматривать как простой методинструментальных переменных с матрицей инструментов Zc.

Такая запись позволяет обосновать обобщенный метод инструментальных переменных. Если исходных инструментов Y больше, чем факторов Z, и мы хотим построить на их основе меньшее количество инструментов, то имеет смысл сопоставить каждому фактору Zj в качестве инструмента такую линейную комбинацию исходных инструментов, которая была бы наиболее сильно коррелирована с Zj.

c Этому требованию как раз и удовлетворяют расчетные значения Zj.

276 Глава 8. Нарушение гипотез основной линейной модели Другое обоснование обобщенного метода инструментальных переменных состоит, как и выше для классического метода, в использовании уравнений E(y x) = = E(y z). Заменой теоретических моментов выборочными получим уравнения Myx = Myza, число которых больше числа неизвестных. Идея состоит в том, чтобы невязки Myx - Myza были как можно меньшими. Это достигается минимизацией следующей квадратичной формы от невязок:

-(Myx - Myza) Myy (Myx - Myza), где Myy = Y Y. Минимум достигается при N --1 -a = MzyMyy Myz MzyMyy Myx.

Видим, что эта формула совпадает с (8.8). Эти рассуждения представляют собой применение так называемого обобщенного метода моментов, в котором количество условий на моменты может превышать количество неизвестных параметров.

Чтобы можно было использовать метод инструментальных переменных на практике, нужна оценка ковариационной матрицы, с помощью которой можно было бы вычислить стандартные ошибки коэффициентов и t-статистики. Такая оценка имеет вид -MaIV = s2 Zc Zc.

Здесь s2 — оценка дисперсии ошибок 2, например s2 = e e/N или s2 = = e e/(N - 1). Остатки рассчитываются по обычной формуле e = x - ZaIV.

(Здесь следует помнить, что остатки, получаемые на втором шаге тут не годятся, поскольку они равны x - ZcaIV. Если использовать их для расчета оценки дисперсии, то получим заниженную оценку дисперсии и ковариационной матрицы.

Отсюда следует, что из регрессии второго шага можно использовать только оценки коэффициентов. Стандартные ошибки и t-статистики требуется пересчитывать.) Обсудим теперь более подробно проблему идентификации5.

Чтобы можно было вычислить оценки (8.8), нужно, чтобы выполнялись следующие условия:

1) Матрица инструментов должна иметь полный ранг по столбцам, иначе (Y Y )-1 не существует.

2) Z Y (Y Y )-1 Y Z должна быть невырожденной.

В частности, матрица Z Y (Y Y )-1 Y Z необратима, когда rank Y < rank Z.

Предположим, что матрица факторов Z имеет полный ранг, т.е. rank Z = n+1.

См. также обсуждение идентификации в контексте систем уравнений ниже в пункте 10.2.

8.5. Метод инструментальных переменных Т.е. если rank Y < n +1, то уравнение неидентифицируемо, т.е. невозможно вычислить оценки (8.8). Таким образом, количество инструментов (включая константу) должно быть не меньше n +1 (количество регрессоров, включая константу). Если rank Y > n +1, то говорят, что уравнение сверхидентицировано.

Если количество инструментов равно n +1, то это точная идентификация.

Если возможен случай сверхидентификации, то это обобщенный метод инструментальных переменных. При точной идентификации ( rank Y = n +1) получаем собственно классический метод инструментальных переменных.

Таким образом, необходимое условие идентификации имеет следующий вид:

Pages:     | 1 |   ...   | 31 | 32 || 34 | 35 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.