WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 32 | 33 || 35 | 36 |   ...   | 82 |

rank Y rank Z(= n +1).

Это так называемое порядковое условие идентификации, условие на размерность матриц.

Словесная формулировка порядкового условия:

Количество инструментов Y должно быть не меньше количества регрессоров Z (учитывая константу).

Заметим, что можно сначала «вычеркнуть» общие переменные в Z и Y и смотреть только на количество оставшихся. Количество оставшихся инструментов должно бытьнеменьшеколичестваоставшихся регрессоров.

Почему это только необходимое условие Пусть, например, некоторый фактор c Zj ортогонален Y. Тогд а Zj =0, и невозможно получить оценки aIV, т.е. данное условие не является достаточным.

Необходимое и достаточное условие идентификации формулируется следующим образом:

Матрица Zc имеет полный ранг по столбцам: rank Zc = n +1.

Это так называемое ранговое условие идентификации.

Встречаются случаи, когда ранговое условие идентификации соблюдается, но матрица Zc близка к вырожденности, т.е. в Zc наблюдается мультиколлинеарность. Например, если инструмент Zj является слабым ( Zj и Y почти ортогональны), то Zc близка к вырожденности. Один из способов проверки того, является ли инструмент слабым, состоит в анализе коэффициентов детерминации и F -статистик в регрессиях на первом шаге.

278 Глава 8. Нарушение гипотез основной линейной модели 8.6. Упражнения и задачи Упражнение Дано уравнение регрессии X = Z + = -1.410z1 + +0.080z2 +56.962 +, гд е — вектор-столбец нормальный Таблица 8.случайных ошибок с нулевым средним и ковариационной матрицей Z1 Z2 26.8 541 1 E = 2= 25.3 616 1 2 · · · N- 25.3 610 1 · · · N- 31.1 636 = (8.10) 1 - 2 2 1 · · · N-33.3 651....

.

.....

.

....

31.2 645 N-1 N-2 N-3 · · · 29.5 653 30.3 682 с =0.9 и 2 =21.611.

29.1 604 Используя нормальное распределение с незасисимыми наблюдениями, средним 0 и ковариационной матрицей (8.10), 23.7 515 получите 100 выборок вектора размерности (N 1), 15.6 390 k =1,..., 100, где N = 20. Эти случайные векторы потом используйте вместе с известным вектором = 13.9 364 =(-1.410, 0.080, 56.962) и матрицей регрессоров (табл. 8.1).

18.8 411 Сначала получите ожидаемое значения X0 = Z, затем, 27.4 459 1 чтобы получить 100 выборок вектора X размерности (20 1), добавьте случайные ошибки: X0 + = X.

26.9 517 1.1. Рассчитайте невырожденную матрицу D такую, что 27.7 551 D-1D -1 =.

24.5 506 1.2. Найдите истинную матрицу ковариации для МНК-оценки 22.2 538 (a =(Z Z)-1 Z X):

19.3 576 E (a - )(a - ) = 24.7 697 - -= E Z Z Z Z Z Z = -1 -= 2 Z Z Z Z Z Z 8.6. Упражнения и задачи и истинную матрицу ковариации для ОМНК-оценки -(aомнк = Z -1Z Z -1X):

-E (aомнк - )(aомнк - ) = 2 (Z D DZ) =2 Z -1Z.

Результат поясните.

1.3. Используйте 10 из 100 выборок, чтобы посчитать по каждой выборке значения следующих оценок:

– МНК-оценки a =(Z Z)-1 Z X;

– ОМНК-оценки -aомнк = Z -1Z Z -1X;

– МНК-оценки остаточной дисперсии (x - Za)(x - Za) 2 = ;

e N - n - – ОМНК-оценки остаточной дисперсии (x - Zaомнк)-1 (x - Zaомнк) 2 =.

ej омнк N - n - Объясните результаты.

1.4. Вычислите среднее и дисперсию для 10 выборок для каждого из параметров, полученных в упражнении 1.3 и сравните эти средние значения с истинными параметрами.

1.5. На основе упражнения 1.3 рассчитайте Sa1 омнк, который является первым -1 диагональным элементом матрицы 2 Z -1Z и Sa1, который являe омнк ется первым диагональным элементом матрицы 2 (Z Z)-1. Сравните разe 2 личные оценки Sa1 и Sa1 омнк друг с другом и с соответствующими значениями из упражнения 1.2.

1.6. На основе результатов упражнений 1.3 и 1.5 рассчитайте значения t-статистики, которые могут быть использованы для проверки гипотез: H0 : 1 =0.

1.7. Повторите упражнение 1.3 для всех 100 выборок, постройте распределения частот для оценок и прокомментируйте результаты.

280 Глава 8. Нарушение гипотез основной линейной модели Упражнение Предположим, есть данные, состоящие из 100 выборок X, по 20 значений в каждой, сгенерированных при помощи модеТаблица 8.ли X = Z + = 1z1 + 2z2 +1N +, гд еi — нормально и независимо распределенная случайная величина с E (i) =0, z1 z2 1N 2 E 2 = i и i = e(1zi2+2). Наблюдения за X были полуi 13,9 364 1 чены с использованием следующих значений параметров: = =(1 2 ) =(-1.410, 0.080, 56.962) и =(1 2) = 15,6 390 = (0.25, -2), а матрица значений факторов, упорядоченных 18,8 411 в соответствии с величиной z2, имеет следующий вид (табл.

8.2).

27,4 459 24,5 506 2.1. Найдите матрицу ковариации для -23,7 515 – ОМНК-оценки aомнк = Z -1Z Z -1X;

26,9 517 – МНК-оценки a =(Z Z)-1 Z X.

22,2 538 Что вы можете сказать об относительной эффективности 26,8 541 этих оценок 27,7 551 2.2. Используйте 10 из 100 выборок, чтобы посчитать по каждой выборке значения следующих оценок:

19,3 576 29,1 604 1 – МНК-оценки a =(Z Z)-1 Z X;

-N N 25,3 610 – оценки = yiyi yi ln(e2), где yi = i i=1 i=25,3 616 =(zi2, 1) и ei = xi - zia;

31,1 636 – ОМНК-оценки a, используя найденую оценку.

31,2 645 Сравните все эти оценки друг с другом и с соответствую33,3 651 щими истинными значениями.

29,5 653 2.3. На основе упражнения 2.2 рассчитайте Sa1 омнк, который является первым диагональным элементом матри30,3 682 цы 2 (Z -1Z)-1, Sa1, который является первым e омнк 24,7 697 диагональным элементом матрицы 2 (Z Z)-1, а также e Sa1 Уайта, который является первым диагональным элементом скорректированной оценки ковариационной матрицы (оценка Уайта или устойчивая к гетероскедастичности оценка). Сравните различные оцен2 2 ки Sa1, Sa1 омнк и Sa1 Уайта друг с другом и с соответствующими значениями из упражнения 2.1.

8.6. Упражнения и задачи 2.4. На основе результатов упражнений 2.1 и 2.3 рассчитайте значения t-статистики, которые могут быть использованы для проверки гипотез H0 : 1 =0.

2.5. Возьмите те же выборки, что и в упражнении 2.2, и проведите проверку на гетероскедастичность с помощью:

– критерия Бартлета;

– метода второй группы (метод Голдфельда—Квандта) с пропуском 4-х значений в середине выборки;

– метода третьей группы (метод Глейзера).

2.6. Выполните упражнение 2.2 для всех 100 выборок и, используя результаты, оцените математическое ожидание и матрицу среднеквадратических ошибок для каждой оценки. Есть ли среди оценок смещенные Что можно сказать об относительной эффективности МНК-оценки и ОМНК-оценки Упражнение Предположим, есть данные, состоящие из 100 выборок X, по 20 значений в каждой, сгенерированных при помощи модели X = Z+ = 1z1+2z2+1N + +, гд е i = i-1 + i, и — нормально распределенная случайная величина 2 с E (i) = 0, E i =. Наблюдения за X были получены с использованием следующих значений параметров: = (1 2 ) = (-1.410, 0.080, 56.962), =0.8 и =6.4, а матрица значений факторов взята из упражнения 1.

3.1. Найдите матрицу ковариации для:

-– ОМНК-оценки aомнк = Z -1Z Z -1X;

– МНК-оценки a =(Z Z)-1 Z X.

Что вы можете сказать об относительной эффективности этих оценок 3.2. Используйте 10 из 100 выборок, чтобы посчитать по каждой выборке значения следующих оценок:

– МНК-оценки a =(Z Z)-1 Z X;

N eiei-i=– оценку r = ;

N ei i=– ОМНК-оценки, используя найденую оценку r.

282 Глава 8. Нарушение гипотез основной линейной модели Сравните все эти оценки друг с другом и с соответствующими истинными значениями.

3.3. Возьмите те же выборки, что и в упражнении 3.2, и проверьте гипотезу об автокорреляции ошибок.

3.4. Найдите скорректированную оценку ковариационной матрицы, устойчивую к гетероскедастичности и автокорреляции (оценку Ньюи—Уэста).

3.5. Выполните упражнение 3.2 для всех 100 выборок и, используя результаты, оцените математическое ожидание и матрицу среднеквадратических ошибок для каждой оценки. Есть ли среди оценок смещенные Что можно сказать об относительной эффективности МНК-оценки и ОМНК-оценки Упражнение 0 0 Для уравнения X = Zo+ = -1.410z1 +0.080z2 +1N56.962+, z1 = z1 +z1, z2 = z2 + z2 и при предположении, что i N(0, 21.611), z1 N(0, 21.700) и z2 N(0, 21.800), были генерированы 20 значений выборки. Результаты приведены в таблице 8.3.

Предполагая, что истинная матрица факторов Z0 неизвестна, выполните следующие задания:

4.1. Найдите МНК-оценки a =(Z Z)-1 Z X параметров уравнения регрессии X = Z + = 1z1 + 2z2 +1N +.

4.2. Рассчитайте ковариационную матрицу ошибок измерения факторов — W и ковариационный вектор — w и оцените параметры регрессии как a =(M - W )-1(m - w).

4.3. Найдите оценку через ортогональную регрессию.

4.4. Сравните эти все оценки друг с другом и с соответствующими истинными значениями.

Задачи 1. Какие свойства МНК-оценок коэффициентов регрессии теряются, если ошибки по наблюдениям коррелированы и/или имеют разные дисперсии 2. Как оцениваются параметры уравнения регрессии, если известна матрица ковариации ошибок и она не диагональна с равными элементами по диагонали 8.6. Упражнения и задачи Таблица 8.0 N z1 z2 z1 z2 z1 z2 X 1 26.19 1.96 37.94 13.9 364 15.86 401.94 92.2 6.94 –5.94 3.57 15.6 390 9.66 393.57 73.3 5.55 –13.85 –18.78 18.8 411 4.95 392.22 68.4 14.00 24.48 14.49 27.4 459 51.88 473.49 69.5 0.89 23.91 51.48 24.5 506 48.41 557.48 63.6 46.61 –32.80 10.99 23.7 515 –9.10 525.99 111.7 –20.52 13.27 11.07 26.9 517 40.17 528.07 39.8 10.15 –16.17 18.86 22.2 538 6.03 556.86 78.9 –13.95 –28.22 –18.57 26.8 541 –1.42 522.43 48.10 14.94 20.64 –10.89 27.7 551 48.34 540.11 76.11 19.38 –36.99 –0.91 19.3 576 –17.69 575.09 95.12 5.72 –32.44 –12.71 29.1 604 –3.34 591.29 69.13 1.08 25.91 7.70 25.3 610 51.21 617.70 71.14 11.07 10.90 9.24 25.3 616 36.20 625.24 81.15 5.81 –42.77 8.25 31.1 636 –11.67 644.25 69.16 27.21 25.63 –29.14 31.2 645 56.83 615.86 91.17 –11.63 –13.07 13.20 33.3 651 20.23 664.20 50.18 –4.24 10.27 –37.62 29.5 653 39.77 615.38 63.19 46.56 44.81 33.93 30.3 682 75.11 715.93 115.20 –7.57 –40.10 –6.34 24.7 697 –15.40 690.66 70.284 Глава 8. Нарушение гипотез основной линейной модели 3. Рассматривается регрессионная модель X = Z +. Пусть = AX — это любая несмещенная оценка параметра. Полагая, что E ( ) =2, покажите, что матрица ковариации превышает матрицу ковариации омнк =(Z -1Z)-1Z -1X на какую-то положительно полуопределенную матрицу.

(x - z) -1 (x - z) 4. Докажите, что омнк = есть оценка 2.

N - n - 5. Какое преобразование матрицы наблюдений перед оценкой регрессии полезно сделать, если среднеквадратические отклонения ошибок регрессии пропорциональны какому-либо фактору 6. Оценивается регрессия по 10 наблюдениям. Известно, что дисперсия ошибок для первых 5 наблюдений в два раза больше, чем дисперсия ошибок остальных 5 наблюдений. Опишите процедуру оценивания этой регрессии.

7. Рассмотрите регрессию xt = 1t + + t, t =1,..., 5, где E(t) =0, E(2) =2t2, E(ts) =0, при t = s.

t Пусть =(1, 2, 3, 4, 5) и E( ) =2.

– определите ;

– найдите -1;

– найдите матрицу ковариации МНК-оценки параметра = ;

– найдите матрицу ковариации ОМНК-оценки параметра =.

8. Рассмотрите регрессию xt = 1t + t, t =1,..., 5, где E(t) =0, E(2) =2t2, E(ts) =0, t = s. Если x =(6, 4, 9, 8, 7) :

t – определите оценку МНК для 1 и ее дисперсию;

– определите оценку ОМНК для 1 и ее дисперсию;

– сравните эти оценки друг с другом и сделайте вывод.

9. Рассматривается модель X = Z +, гд е i — нормально и независимо распределенная случайная величина с E (i) =0 и E 2 = i = eyi.

i 8.6. Упражнения и задачи 4 2 1 2 8 5 1 3 В предположении, что X =, Z = 6 2 1, Y = 1 1, 2 1 1 0 9 10 1 2 – найдите МНК-оценки a =(Z Z)-1 ZX;

-– найдите ОМНК-оценки aомнк = Z -1Z Z -1X;

– постройте два 95%-х доверительных интервала для 1: один неправильный, основанный на результатах МНК, а другой правильный, основанный на результатах ОМНК;

– проверьте гипотезу 1 =0.

10. Параметры трехфакторного уравнения регрессии оценены по 20 наблюдениям. S1 и S2 — остаточные дисперсии по первой и второй половинам временного ряда. В каком случае гипотезы о гомоскедастичности следует отвергнуть 11. Приведите примеры графиков зависимостей ошибки от времени в авторегресионной схеме первого порядка для случаев, когда модуль коэффициента авторегрессии превышает единицу. Что можно сказать об автокорреляции ошибок, если этот коэффициент равен нулю 12. Ошибка в регрессии задана процессом i = 0.6i-1 + i, и — нор2 мально распределенная случайная величина с E(i) = 0, E(i ) = и i =1,..., 5. Как выглядит матрица преобразования в пространстве переменных для ОМНК 13. Проверьте, что D D =-1, гд е - r2 0 0 · · · -r 1 0 · · · D = 0 -r 1 · · · 0,....

.

.....

.

....

0 0 0 · · · 286 Глава 8. Нарушение гипотез основной линейной модели 1 r r2 · · · rN- r 1 r · · · rN- =.

1 - r2 r2 r 1 · · · rN-....

.

.....

.

....

rN-1 rN-2 rN-3 · · · 14. Найдите D0D0,где D0 — это матрица размерности (N -1)N, полученная из матрицы D путем удаления первой строки, и сравните ее с матрицей -1.

15. Какое преобразование матрицы наблюдений перед оценкой регрессии полезно сделать, если ошибки в каждом наблюдении имеют одинаковую дисперсию и коррелированы с ошибками в предыдущем наблюдении 16. Почему при использовании критерия Дарбина—Уотсона требуется знать два критических значения для расчетной статистики 17. Фактическое значение dc статистики Дарбина—Уотсона равно 0.5. Чтоэто означает Какое преобразование следует применить к этой модели (запишите формулу) 18. В регрессионной модели X = Z + существует автокорреляции ошибок первого порядка и =0.6. Предположим, что 4 2 8 5 X =, Z = 6 2 1, 2 1 9 10 – найдите преобразованные наблюдения Dx и Dz;

– найдите ОМНК-оценки параметра ;

– найдите фактическое значение dc статистики Дарбина—Уотсона по остаткам после применения ОМНК.

8.6. Упражнения и задачи 19. Положим, построили регрессию для N =20 и n =4 инашлиоценку N eiei-i=z = =0.5, e e =40, e2 =1, e2 =4.

1 N N ei i=Найдите фактическое значение dc статистики Дарбина—Уотсона и с ее помощью проведите тест на автокорреляцию.

20. На основе годовых данных 1959–1983 годов были оценены следующие функции спроса на продовольственные товары.

ln Qt = 2.83 - 0.47 ln PFt + 0.64 ln Yt, (6.69) (-3.94) (24.48) R2 =0.987, DW = dc =0.627, ln Qt = 1.87 - 0.36 ln PFt + 0.38 ln Yt + 0.44Qt-1, (3.24) (-2.79) (3.20) (24.10) R2 =0.990, DW = dc =1.65, где Q — спрос на продукты питания, PF — цены на продукты питания, Y — доход, в скобках приведены значения t-статистики.

Проверьте каждое уравнение на наличие автокорреляции первого порядка и дайте короткий комментарий результатов.

21. Пусть остатки в регрессии xi = + zi + i равны (1, 2, 0, -1, -2).

Pages:     | 1 |   ...   | 32 | 33 || 35 | 36 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.