WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 15 | 16 || 18 | 19 |   ...   | 30 |

Dependent Variable: YMethod: Least Squares Variable Coefficient Std. Error t-Statistic Prob.

Y2 -0.424633 0.023668 -17.94140 0.C 83.95884 5.665468 14.81940 0.X2 0.585040 0.067204 8.705405 0.W2 0.616608 0.074993 8.222165 0.R-squared 0.928759 Mean dependent var 100.Durbin-Watson stat 2.089751 Prob(F-statistic) 0. Оцененный коэффициент = 0.617 имеет очень высокую статистическую значимость, что говорит о наличии проблемы эндогенности в первом уравнении.

Применяя тот же критерий ко второму уравнению, получаем для расширенного уравнения yt 2 = 12 yt1 + 12 xt1 + xt3 + 32 xt 4 + t1 + t Инструментальные переменные. Системы… следующие результаты:

Dependent Variable: YMethod: Least Squares Variable Coefficient Std. Error t-Statistic Prob.

Y1 0.901844 0.426087 2.116571 0.C -1.113488 38.32829 -0.029051 0.X3 -1.684157 0.278578 -6.045545 0.X4 1.628247 0.171996 9.466768 0.W1 0.238481 0.605917 0.393586 0.R-squared 0.950369 Mean dependent var 102.Durbin-Watson stat 2.187028 Prob(F-statistic) 0.В этом случае оцененный коэффициент при дополнительной переменной статистически незначим, так что эндогенность во втором уравнении не выявляется. Между тем, OLS оценки всех параметров имеют большее смещение по сравнению с другими методами оценивания и в первом и во втором уравнении, а во втором уравнении оценка постоянной имеет большое смещение при всех методах оценивания.

Заметим, что используемые на втором шаге процедур 2SLS и ~ ~ 3SLS очищенные значения yt1, yt 2 эндогенных переменных yt1, yt являются линейными комбинациями экзогенных переменных xt 2, xt3 и xt 4, в число которых входят переменные, находящиеся в правых частях соответствующих структурных уравнений. В правой ~ части первого уравнения оказываются переменные yt1 и xt 2, а в ~ правой части второго уравнения – переменные yt 2, xt3 и xt 4. Однако при этом опасной мультиколлинеарности переменных в правых частях каждого из уравнений не возникло, и это происходит благодаря тому, что:

~ • в состав yt1 входят не только xt 2, но также и переменные xtи xt 4, не слишком сильно коррелированные с xt 2 :

Corr(x3, x2)= 0.308, Corr(x4, x2)= 0.680, 204 Глава ~ • в состав yt 2 входят не только xt3 и xt 4, но также и переменная xt 2, не слишком сильно коррелированная с xt3 и xt 4.

Попробуем смоделировать ситуацию, в которой происходит критическая потеря точности оценивания. Для этого реализуем процесс порождения данных, соответствующий системе yt1 = -0.5yt 2 + 50 +1.1xt 2 + ut1, y = 0.5yt1 - 45 +1.1xt + ut, t 2 4 с теми же значениями переменных xt 2, xt 4 и ошибок ut1, ut 2, что и в только что рассмотренном примере. Эта система идентифицируема точно, и ее оценивание методом 3SLS дает следующий результат:

System: SYS_EXACT_2_Estimation Method: Three-Stage Least Squares Coefficient Std. Error t-Statistic Prob.

C(1) -0.412458 0.062834 -6.564206 0.C(2) 53.69121 10.66377 5.034918 0.C(3) 0.955053 0.151915 6.286768 0.C(4) 0.545426 0.213593 2.553572 0.C(5) -56.93625 25.48195 -2.234375 0.C(7) 1.167493 0.064218 18.18025 0.Determinant residual covariance 506.Equation: Y1=C(1)*Y2+C(2)+C(3)*XObservations: R-squared 0.489024 Mean dependent var 98.Adjusted R-squared 0.451174 S.D. dependent var 6.S.E. of regression 5.120537 Sum squared resid 707.Durbin-Watson stat 1.Инструментальные переменные. Системы… Equation: Y2=C(4)*Y1+C(5)+C(7)*XObservations: R-squared 0.929722 Mean dependent var 125.Adjusted R-squared 0.924517 S.D. dependent var 23.S.E. of regression 6.436470 Sum squared resid 1118.Durbin-Watson stat 2.Все оцененные коэффициенты имеют высокую статистическую значимость.

Заменим во втором уравнении переменную xt 4 новой переменной xt5, порождаемой соотношением xt5 = xt 2 + 2t, t ~ i.i.d. N(0,1), t =1,K,30, так что система принимает вид:

-0.5yt 2 + 50 + 1.1xt 2 + ut 1, ty = y = 0.5yt1 - 45 + 1.1xt + ut.

t 2 5 С точки зрения критериев идентифицируемости формально ничего не изменилось: первое уравнения сверхидентифицируемо, а второе идентифицируемо точно. Посмотрим, однако, на результаты оценивания.

System: SYS_2_Estimation Method: Three-Stage Least Squares Coefficient Std. Error t-Statistic Prob.

C(1) -2.109257 3.560708 -0.592370 0.C(2) 9.837905 90.42874 0.108792 0.C(3) 3.365924 4.983926 0.675356 0.C(4) 0.940376 0.427263 2.200928 0.C(5) -82.48076 30.85206 -2.673428 0.C(8) 1.023874 0.193137 5.301291 0.Determinant residual covariance 3003.206 Глава Equation: Y1=C(1)*Y2+C(2)+C(3)*XObservations: R-squared -7.828599 Mean dependent var 102.Adjusted R-squared -8.482569 S.D. dependent var 5.S.E. of regression 16.21186 Sum squared resid 7096.Durbin-Watson stat 1.Equation: Y2=C(4)*Y1+C(5)+C(8)*XObservations: R-squared 0.825653 Mean dependent var 117.Adjusted R-squared 0.812738 S.D. dependent var 14.S.E. of regression 6.323932 Sum squared resid 1079.Durbin-Watson stat 2.Здесь оценки стандартных ошибок оцененных коэффициентов значительно выросли, особенно в первом уравнении, так что оказались статистически незначимыми все три оцененных коэффициента этого уравнения; значительно изменились и оценки коэффициентов, особенно в первом уравнении:

Coefficient Std. Error Equation 1 Equation 2 Equation 1 Equation C(1) -0.412458 -2.109257 0.062834 3.C(2) 53.69121 9.837905 10.66377 90.C(3) 0.955053 3.365924 0.151915 4.C(4) 0.545426 0.940376 0.213593 0.C(5) -56.93625 -82.48076 25.48195 30.C(7) 1.167493 0.C(8) 1.023874 0.Столь драматические изменения произошли по той причине, что переменная xt5 имеет очень высокую корреляцию с xt 2 в выборке:

Corr(xt 5, xt 2)= 0.969. И хотя формально эти переменные различны и оба уравнения идентифицируемы, со статистической точки зрения эти переменные “слишком близки”, что порождает проблему Инструментальные переменные. Системы… опасной мультиколлинеарности и приводит к практической неидентифицируемости коэффициентов структурных уравнений, поскольку теперь:

~ • в состав yt1 помимо xt 2 и константы входит только переменная xt5, сильно коррелированная с xt 2, ~ • в состав yt 2 помимо xt5 и константы входит только переменная xt 2, сильно коррелированная с xt5.

2.6.8. Прогнозирование по оцененной системе одновременных уравнений Если нас интересует только предсказание значений yt +1,1,K, yt +1,g эндогенных переменных в новом наблюдении по заданным (планируемым) значениям экзогенных переменных xt +1,1,K, xt +1, K, то это можно осуществить непосредственно с использованием оцененной матрицы приведенной формы:

(t +1,1,K, t +1,g )= (xt +1,1,K, xt +1, K ).

Возьмем смоделированные в примере 2 предыдущего раздела данные и на основании оцененной приведенной формы построим точечные прогнозы значений (y30+t,1, y30+t,2), t =1,K,30, для новой последовательности значений экзогенных переменных (x30+t,2, x30+t,3, x30+t,4 ), t =1,K,30, воспроизводящей основные характеристики последовательности(xt,2, xt,3, xt,4 ), t =1,K,30.

Оценивание уравнений редуцированной формы дает следующие результаты:

Dependent Variable: Y208 Глава Method: Least Squares Variable Coefficient Std. Error t-Statistic Prob.

C 61.35073 7.478051 8.204107 0.X2 0.428163 0.083052 5.155376 0.X3 0.511247 0.060707 8.421559 0.X4 -0.502120 0.036696 -13.68320 0.Dependent Variable: YMethod: Least Squares Variable Coefficient Std. Error t-Statistic Prob.

C 54.21529 18.22556 2.974685 0.X2 0.386136 0.202414 1.907652 0.X3 -1.223092 0.147955 -8.266637 0.X4 1.175413 0.089436 13.14250 0.R-squared 0.936459 Mean dependent var 102.Adjusted R-squared 0.929127 S.D. dependent var 27.S.E. of regression 7.251752 Akaike info criterion 6.Sum squared resid 1367.286 Schwarz criterion 7.Log likelihood -99.85894 F-statistic 127.Durbin-Watson stat 2.066287 Prob(F-statistic) 0.Соответственно, прогнозы для yt,1, yt,2, t = 31,K,60, вычисляются по формулам:

t,1 = 61.351 + 0.428xt 2 + 0.511xt3 - 0.502xt4, t,2 = 54.215 + 0.386xt 2 -1.223xt3 + 1.175xt4.

Параллельно вычислим для t = 31,K,60 ”теоретические” значения yt,1 _ true, yt,2 _ true, порожденные системой без случайных ошибок:

yt1 = -0.5yt 2 + 80 + 0.7xt 2, y = 0.75yt1 +10 -1.5xt3 +1.5xt.

t 2 Приведем полученные таким образом прогнозные и “теоретические” значения (округленные):

Инструментальные переменные. Системы… Y1_PREDICT Y1_TRUE Y2_PEDICT Y2_TRUE 116.3 119.2 49.4 53. 92.1 98.4 101.2 101. 95.6 94.6 106.7 106. 77.9 117.9 70.3 73. 87.4 91.1 107.2 106. 98.3 94.6 91.5 91. 102.0 75.9 145.6 141. 97.0 85.8 114.1 113. 122.0 98.6 121.6 120. 108.9 103.0 116.0 114. 98.6 96.6 105.2 105. 92.6 124.2 64.4 67. 88.2 109.4 73.2 75. 91.8 99.1 117.3 115. 107.1 92.1 119.4 117. 115.2 87.4 132.9 130. 98.8 91.2 124.1 122. 100.1 108.3 93.1 92. 92.8 116.5 68.0 70. 99.4 98.0 79.7 80. 86.5 100.1 100.6 100. 110.2 91.8 107.2 106. 106.2 99.1 94.1 94. 83.8 85.4 133.1 130. 93.0 111.4 89.0 90. 89.7 106.0 61.9 64. 88.3 82.6 140.6 137. 116.3 92.3 117.7 116. 92.1. 89.9 155.3 151. 95.6 87.8 141.7 138.Как видим, прогнозные значения оказались весьма близкими к “истинным”. Если использовать при сравнении этих значений среднюю абсолютную процентную ошибку прогноза (MAPE – Mean Absolute Percent Error), вычисляемую по формуле 210 Глава yt,i _ predict - yt,i _ true MAPE(i) =, 30 yt,i _ true t =то получаются такие результаты:

MAPE(1) = 0.881%, MAPE(2) = 1.797%.

Подойдем теперь к вопросу прогнозирования с другой стороны:

попробуем получить прогнозные значения на основании оцененных структурных уравнений. При этом будем ориентироваться на оценки, полученные ранее методом 3SLS:

Coefficient C(1) -0.C(2) 83.C(3) 0.C(4) 0.C(5) -0.C(6) -1.C(7) 1.Иначе говоря, будем опираться на оцененные структурные уравнения yt1 = -0.425yt 2 + 83.959 + 0.585xt 2, y = 0.889yt1 - 0.653-1.671xt3 +1.624xt.

t 2 Это дает следующие прогнозные значения (Y1F, Y2F):

Y1F Y1_PREDICT Y2F Y2_PREDICT 117.9539 116.3 49.43060 49. 98.62752 92.1 101.2295 101. 95.21508 95.6 106.7986 106. 116.2262 77.9 70.28356 70. 92.14986 87.4 107.2833 107. 95.65463 98.3 91.58455 91. 77.93844 102.0 145.6529 145. 87.49209 97.0 114.3175 114. 98.28987 122.0 121.6912 121. 101.7954 108.9 115.6271 116. 97.07454 98.6 105.3218 105.Инструментальные переменные. Системы… 121.9508 92.6 64.30229 64. 108.9582 88.2 73.29769 73. 98.49096 91.8 117.0801 117. 92.60201 107.1 119.3591 119. 88.14985 115.2 132.8158 132. 91.87218 98.8 124.2472 124. 106.9471 100.1 92.66480 93. 115.1834 92.8 68.00794 68. 98.80164 99.4 79.70102 79. 100.0887 86.5 100.6958 100. 92.81281 110.2 107.3434 107. 99.37046 106.2 94.12591 94. 86.43539 83.8 133.1007 133. 110.1443 93.0 89.02851 89. 106.2692 89.7 62.01926 61. 83.80259 88.3 140.5781 140. 93.01326 116.3 117.8567 117. 89.61098 92.1. 155.1329 155. 88.19077 95.6 141.5809 141. Во втором и четвертом столбцах таблицы приведены для сравнения прогнозные значения, полученные ранее на основании оцененной приведенной формы.

Для прогнозов, полученных по структурным уравнениям, получаем:

MAPE(1) = 0.906%, MAPE(2) =1.773%, в сравнении со значениями MAPE(1) = 0.881%, MAPE(2) =1.797%, полученными для прогнозов на основании оцененных редуцированных уравнений. В целом, прогнозы обоих типов близки по указанной характеристике качества.

Следующие графики иллюстрируют качество прогнозов в сравнении с “теоретическими” значениями:

212 Глава 5 10 15 20 25 Y1_PREDICT Y1_TRUE 5 10 15 20 25 Y2_PREDICT Y2_TRUE Глава 3. Панельные данные 3.1. Модель кажущихся несвязанными регрессий, модель ковариационного анализа Пусть мы имеем данные {yit, xit ; i =1,K, N, t =1,K,T} о значениях переменных y и x для N субъектов (индивидов, фирм, стран, регионов и т. п.) в T последовательных моментов (периодов) времени (в этом случае говорят, что мы имеем дело с панельными данными) и хотим оценить модель линейной связи между переменными y и x, считая y объясняемой, а x – объясняющей переменной. В общем случае x является вектором конечной размерности p, и наиболее общей формой линейной модели наблюдений для такой ситуации являлась бы спецификация T yit = xitit + uit, i =1,K, N, t =1,K,T, где it измеряет частное влияние xit в момент (период) t для субъекта i. Однако такая модель слишком обща, чтобы быть полезной, и приходится накладывать какую-ту структуру на коэффициенты.

it Простейшей в этом отношении является модель пула (pool) с it :

T yit = xit + uit, в которой предполагается, что uit ~ i.i.d. N(0,u ), i =1,K, N, t =1,K,T, и что E(xitujs)= 0 для любых i, j =1,K, N, t,s = 1,K,T, так что x является экзогенной переменной. В этом случае мы имеем дело с обычной линейной регрессией с NT наблюдениями, удовлетворяющей предположениям классической нормальной 214 Глава линейной модели. Для получения эффективных оценок вектора коэффициентов достаточно использовать обычный метод наименьших квадратов (OLS). Полученная при этом оценка является наилучшей линейной несмещенной оценкой (BLUE – best linear unbiased estimate) вектора. При соответствующих предположениях о поведении значений объясняющих переменных, когда N или/и T, эта оценка является также и состоятельной оценкой этого вектора.

П р и м е р Рассмотрим один популярный объект статистических исследований – данные о размере инвестиций (invest), рыночной цене (mvalue) и акционерном капитале (kstock) 10 крупных компаний США за период с 1935 по 1954 г.г. При анализе этих и других данных мы по большей части используем пакет статистического анализа STATA8 и приводим протоколы оценивания, иногда с некоторыми сокращениями. Оценивая по указанным статистическим данным модель пула, получаем следующие результаты.

Pages:     | 1 |   ...   | 15 | 16 || 18 | 19 |   ...   | 30 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.