WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 63 | 64 || 66 | 67 |   ...   | 82 |

4.3. Используя МНК, оцените параметры модели Ct = Yt + + t, вычислите остатки из модели. К остатком примените тест Энгла—Грэйнджера.

4.4. Используя коэффициенты из упражнения 4.3, оцените модель исправления ошибок с четырьмя лагами разностей.

Задачи 1. Задан следующий процесс: xt =0.8xt-1 +0.2xt-2 + t - 0.9t-1. При каком d процесс dxt будет стационарным 17.8. Упражнения и задачи 2. Изобразите графики автокорреляционной функции и спектра для второй разности стохастического процесса, содержащего квадратический тренд.

3. Дан процесс xt = ft + t, ft = ft-1 + t, гд е t N(0, 2) и t N(0, 1).

Определить тип процесса, перечислить входящие в его состав компоненты и вычислить условное математическое ожидание и условную дисперсию процесса xt.

4. Чем отличается стохастический тренд от обычного линейного тренда с точки зрения устранения проблемы ложной регрессии 5. Процессы xt и yt заданы уравнениями xt = xt-2 + t и yt = xt + + t + t-1, гд е t и t — стационарные процессы. При каких условиях на параметры, и можно было бы сказать, что xt и yt коинтегрированы как CI(1, 0) t 6. Известно, что zt = xi, где xi — процесс случайного блуждания, i=а yt = t +0.5t-1 +0.25t-2 +0.125t-3 +.... Можно ли построить регрессию zt от yt Ответ обосновать.

7. Пусть xt = + bxt-1 + t, гд е t N(0, 1) и b 1, а zt — стохастический процесс, содержащий линейный тренд. Можно ли установить регрессионную связь между xt и zt Если да, то как 8. Получены оценки МНК в регрессии xt = xt-1 + t. Приведите вид статистики, используемой в тесте Дики—Фуллера.

9. Правомерно ли построение долгосрочной зависимости yt по xt, если yt — процесс случайного блуждания с шумом, xt — процесс случайного блуждания с дрейфом Если нет,— ответ обосновать. Если да, — изложить этапы построения регрессии с приведением формул, соответствующих каждому этапу.

10. В чем преимущества дополненного теста Дики—Фуллера по сравнению с обычным DF-тестом Привести формулы.

Рекомендуемая литература 1. Магнус Я.Р., Катышев П.К., Пересецкий А.А. Эконометрика — начальный курс.— М.: «Дело», 2000 (гл. 12 — стр. 240–249).

2. Banerjee A., Dolado J.J., Galbraith J.W. and Hendry D.F., Co-integration, Error Correction and the Econometric Analysis of Non-stationary Data, Oxford University Press, 1993 (гл. 3–5) 566 Интегрированные процессы...

3. Davidson, R., and J.G. MacKinnon. Estimation and Inference in Econometrics.

Oxford University Press, 1993 (Гл. 20.) 4. Dickey, D.A. and Fuller W.A., «Distributions of the Estimators for Autoregressive Time Series With a Unit Root», Journal of American Statistical Association, 75 (1979), 427–431.

5. Enders, W. Applied Econometric Time Series. John Wiley & Sons, 1995.

6. Engle, R.F. and Granger C.W.J., «Co-integration and Error Correction: Representation, Estimation and Testing», Econometrica, 55 (1987), 251–276.

7. Granger, C.W.J., and Newbold P. «Spurious Regressions in Econometrics», Journal of Econometrics, 21 (1974), 111–120.

8. Greene W.H. Econometric Analysis, Prentice-Hall, 2000. (гл.18 — стр. 776– 784) 9. Said, E.S. and Dickey D.A., «Testing for Unit Roots in Autoregressive-Moving Average Models of Unknown Order», Biometrica, 71 (1984), 599–607.

10. Stock, J.H. and Watson M.W., «Testing for Common Trends», Journal of the American Statistical Association, 83 (1988), 1097–1107.

11. Stock, J.H., «Asymptotic Properties of Least Squares Estimators of Cointegrating Vectors», Econometrica, 55 (1987), 1035–1056.

12. Wooldridge Jeffrey M. Introductory Econometrics: A Modern Approach, 2nd ed., Thomson, 2003. (Ch. 18).

Часть IV Эконометрия — II Это пустая страница Глава Классические критерии проверки гипотез 18.1. Оценка параметров регрессии при линейных ограничениях Рассмотрим модель линейной регрессии X = Z + в случае, когда известно, что коэффициенты удовлетворяют набору линейных ограничений R = r, где R — матрица размерности k(n+1),а r — вектор свободных частей ограничений длины k. Метод наименьших квадратов для получения более точных оценок в этом случае следует модифицировать, приняв во внимание ограничения. Оценки наименьших квадратов при ограничениях получаются из задачи условной минимизации:

(X - Z) (X - Z) min! R = r.

Запишем для этой задачи функцию Лагранжа:

L =(X - Z) (X - Z) +2 (R - r), 570 Глава 18. Классические критерии проверки гипотез где — вектор-столбец множителей Лагранжа. Возьмем производные (см. Приложение A.2.2):

L = -2(R - r), L = -2(Z (X - Z) - R ).

Следовательно, оценки наименьших квадратов при ограничениях, a1, находятся из уравнений:

Ra1 - r =0, Z (X - Za1) - R =0.

Умножим второе уравнение слева на (Z Z)-1. Получим -1 -a1 = Z Z Z X - Z Z R.

Пусть a0 —оценки без учета ограничений, то есть a0 =(Z Z)-1 Z X. Тогд а -a1 = a0 - Z Z R. (18.1) Если умножим это уравнение слева на R, то получим -R Z Z R = Ra0 - r.

Отсюда = A-1 (Ra0 - r), где мы ввели обозначение A = R (Z Z)-1 R. Это можно проинтерпретировать следующим образом: чем сильнее нарушается ограничение на оценках из регрессии без ограничений, тем более значимы эти ограничения. Подставим множители Лагранжа обратно в уравнение (18.1):

-a1 = a0 - Z Z R A-1 (Ra0 - r). (18.2) Таким образом, оценки a1 и a0 различаются тем сильнее, чем сильнее нарушается ограничение R = r в точке a0, т.е. чем больше невязки Ra0 - r.

Докажем несмещенность оценок. Для этого в выражении для a везде заменим на -1 -1 -1 -Z Z Z X = Z Z Z (Z + ) = Z Z Z (Z + ) = + Z Z Z.

18.1. Оценка параметров регрессии при линейных ограничениях Получим -1 -1 -a1 = + Z Z Z - Z Z R A-1 R + R Z Z Z - r.

При выполнении нулевой гипотезы R = r можем упростить это выражение:

-1 -1 -a1 = + Z Z Z - Z Z R A-1R Z Z Z = -1 -= + I - Z Z R A-1R Z Z Z.

Но по предположению классической модели регрессии E() = 0, следовательно, математическое ожидание второго слагаемого здесь равно нулю. А значит, E(a1) =. Несмещенность оценки a1 доказана.

Величина I - (Z Z)-1 R A-1R (Z Z)-1 Z представляет собой отличие aот.

Найдем теперь ковариационную матрицу оценок a. После преобразований получаем -1 -cov(a1) =E (a1 - )(a1 - ) = 2 I - Z Z R A-1R Z Z, где используется еще одно предположение модели регрессии — отсутствие автокорреляции и гетероскедастичности в ошибках, т.е. E( ) =2I.

В то же время cov(a0) = 2 (Z Z)-1. Таким образом, ковариационные матрицы оценок различаются на положительно (полу-) определенную матрицу 2 (Z Z)-1 R A-1R (Z Z)-1, что можно интерпретировать в том смысле, что оценки a являются более точными, чем, поскольку учитывают дополнительную информацию о параметрах.

Насколько отличаются между собой суммы квадратов остатков в двух рассматриваемых моделях Ясно, что в регрессии с ограничениями сумма квадратов не может быть ниже (так как минимизируется та же функция при дополнительных ограничениях). Вычислим разность между двумя суммами квадратов остатков.

Пусть e0 = X - Za0 — вектор остатков при оценке параметров регрессии без ограничений, а e1 = X - Za1 — вектор остатков при оценке параметров с ограничениями, и пусть RSS(a0) =e e1, RSS(a0) =e e0 — соответствующие 1 суммы квадратов остатков. Из (18.2) получаем -X - Za1 = X - Za0 + Z Z Z R A-1 (Ra0 - r), или -e1 = e0 + Z Z Z R A-1 (Ra0 - r).

572 Глава 18. Классические критерии проверки гипотез Введем обозначение: = Z (Z Z)-1 R A-1 (Ra0 - r), тогда e1 = e0 +.

Поскольку Z e0 =0, то e0 =0. Следовательно, e e1 = e e0 + e0 + e + = e e0 +.

1 0 0 Здесь -1 - = Z Z Z R A-1 (Ra0 - r) Z Z Z R A-1 (Ra0 - r) = -=(Ra0 - r) A-1R Z Z R A-1 (Ra0 - r), или, учитывая определение матрицы A, =(Ra0 - r) A-1 (Ra0 - r).

Итак, RSS(a1) - RSS(a0) =e e1 - e e0 =(Ra0 - r) A-1 (Ra0 - r).

1 Как и следовало ожидать, эта разность оказывается неотрицательной.

18.2. Тест на существенность ограничения Пусть, как и раньше, e0 — вектор остатков в регрессии без ограничений, e1 — вектор остатков в регрессии с ограничениями, N — число наблюдений, n — количество факторов, k — общее количество ограничений на параметры регрессии.

В случае, если ограничения R = r выполнены, то (e e1 - e e0)/k c 1 F = Fk, N-n-1. (18.3) e e0/(N - n - 1) Иными словами, статистика, равная относительному приросту суммы квадратов остатков в регрессии с ограничениями по сравнению с регрессией без ограничений, скорректированному на степени свободы, имеет распределение Фишера (см. Приложение A.3.2). Чем больше RSS(a1) будет превышать RSS(a0), тем более существенно ограничение и тем менее правдоподобно, что ограничение выполнено.

18.2. Тест на существенность ограничения Докажем, что распределение статистики будет именно таким, если предположить, что ошибки имеют нормальное распределение:

N(0, 2I).

Мы видели, что e1 = e0 +. Выразим через с учетом нулевой гипотезы R = r:

= Z (Z Z)-1 R A-1 (Ra0 - r) =Z (Z Z)-1 R A-1R (Z Z)-1 Z = -= Z (Z Z)-1 R R (Z Z)-1 R R (Z Z)-1 Z.

Для вектора остатков e0 имеем e0 = I - Z (Z Z)-1 Z.

Совместное распределение векторов и e0 является нормальным (так как они линейно выражаются через ошибки ). Эти вектора некоррелированы:

E (e ) = -1 = Z (Z Z)-1 R R (Z Z)-1 R R (Z Z)-1 Z E ( ) I - Z (Z Z)-1 Z = -1 = 2Z (Z Z)-1 R R (Z Z)-1 R R (Z Z)-1 Z I - Z (Z Z)-1 Z =0.

Последнее равенство здесь следует из того, что Z I - Z (Z Z)-1 Z = Z - Z Z (Z Z)-1 Z = Z - Z =0.

По свойствам многомерного нормального распределения это означает, что и e0 независимы (см. Приложение A.3.2). Кроме того имеет форму Q (Q Q)-1 Q, гд е Q = Z (Z Z)-1 R.

Для вектора же e0 матрица преобразования равна I - Z (Z Z)-1 Z. Обе матрицы преобразования являются симметричными и идемпотентными. Ранг матрицы преобразования (другими словами, количество степеней свободы) равен k для и N - n - 1 для e0. С учетом того, что N(0, 2I), этоозначает:

1 = (e e1 - e e0) 2, 2 2 1 0 k e e0 2, 2 0 N-n-причем эти две величины независимы. Частное этих величин, деленных на количество степеней свободы, распределено как Fk,N-n-1, что и доказывает утверждение.

Проверяемая нулевая гипотеза имеет вид:

H0 : R = r, 574 Глава 18. Классические критерии проверки гипотез то есть ограничения выполнены. Критерий заключается в следующем: если c c F >Fk, N-n-1, 1-, то нулевая гипотеза отвергается, если F < Fk, N-n-1, 1-, то она принимается.

Распишем статистику подробнее:

-(Ra0 - r) R (Z Z)-1 R (Ra0 - r) /k c F = (18.4) (X - Za0) (X - Za0) / (N - n - 1) Покажем, что F -критерий базового курса — это частный случай данного критерия. С помощью F -критерия для регрессии в целом проверяется нулевая гипотеза о том, что все коэффициенты, кроме свободного члена (последнего, (n +1)-го коэффициента), равны нулю:

H0 : 1 =0,..., n =0.

Запишем эти ограничения на коэффициенты в матричном виде (R = r). Соответствующие матрицы будут равны R =[In; 0n] и r =0n.

Обозначим матрицу Z без последнего столбца (константы) через Z-. В этих обозначениях Z =[Z-; 1N ]. Тогд а M + Z Z Z Z Z = N Z и -1 M-1 -M-1Z Z Z =, N -ZM-1 1+ ZM-1Z 1 где Z = 1 Z- — вектор средних, а M = Z Z — ковариационная матрица N N N факторов Z-. Умножение (Z Z)-1 слеваисправана R выделяет из этой матрицы левый верхний блок:

-R Z Z R = M-1.

N Подставим это выражение в (18.4), обозначая через a- = Ra0 вектор из первых n компонент оценок a0 (все коэффициенты за исключением константы):

(a Ma-) /n c F =.

(X - Za0) (X - Za0) / (N(N - n - 1)) 18.2. Тест на существенность ограничения Здесь a Ma- — объясненная дисперсия в регрессии, а (X-Za0) (X-Za0)/N = = s2 — остаточная дисперсия (смещенная оценка). Видим, что e R2(N - n - 1) c F =, (1 - R2)n а это стандартная форма F -статистики.

Более простой способ получения этого результата состоит в том, чтобы возвратиться к исходной задаче условной минимизации. Ограничение, что все коэффициенты, кроме свободного члена, равны нулю, можно подставить непосредственно в целевую функцию (сумму квадратов остатков). Очевидно, что решением задачи будет an+1 = X 1N = и aj =0, j = n +1, т.е.

x N 0n a1 =.

x Отсюда получаем, что остатки равны центрированным значениям зависимой пере менной: e1 = X. Следовательно, из (18.3) получим (X X - e e0)/n c F =.

e e0/(N - n - 1) В числителе стоит объясненная сумма квадратов, а в знаменателе — сумма квадратов остатков.

Покажем, что t-критерий также является частным случаем данного критерия.

Нулевая гипотеза заключается в том, что j-й параметр регрессии равен нулю.

Таким образом, в этом случае k =1, R =(0,..., 0,, 0,..., 0) и r =0.

j При этом R(Z Z)-1R = m-1, гд е m-1 — j-й диагональный элемент матjj jj рицы M-1, а M = Z Z — матрица вторых начальных моментов факторов Z.

N В числителе F -статистики стоит несмещенная оценка остаточной дисперсии 2 =(X - Za0) (X - Za0) / (N - n - 1).

e Кроме того, Ra0 - r = a0j. Окончательно получаем a0j c F = F1, N-n-1.

m-12/N jj e 576 Глава 18. Классические критерии проверки гипотез Здесь m-12/N = s2 — оценка дисперсии коэффициента a0j. Видим, что jj e aj F -статистика имеет вид:

aa0j 0j c F = = = t2, s2 saj j aj т.е. это квадрат t-статистики для коэффициента a0j. Для квантилей F распределения выполнено F1, N-n-1, 1- = t2. Нулевая гипотеза H0 :

N-n-1, 1 c c j =0 отвергается, если F >F1, N-n-1, 1-, т.е. если |tj| = F >tN-n-1, 1-.

Видим, что два критерия полностью эквивалентны.

Рассмотрим регрессию, в которой факторы разбиты на два блока:

X = Z11 + Z22 +.

В качестве промежуточного случая между F -критерием для регрессии в целом и t-критерием для одного фактора рассмотрим F -критерий для группы факторов.

Требуется получить ответ на вопрос о том, нужна ли в регрессии группа факторов Z2. Для проверки гипотезы H0 : 2 =0 мы можем воспользоваться полученными выше результатами. В этом случае k = n2, гд е n2 — количество факторов во второй группе, а матрицы, задающие ограничение, равны 0 · · · 0 1 0 · · ·..

..

.. 0 1 · · · R = =[0n2n1; In2] и r =0n2.

...

.

....

.

...

0 · · · 0 0 0 · · · n1 nОчевидно, что оценки с этими ограничениями будут равны (Z Z1)-1 Z X 1 a =, 0n а остатки можно найти по формуле e1 = IN - Z1 (Z Z1)-1 Z X.

1 F -статистику можно рассчитать по общей формуле (18.3):

(e e1 - e e0)/nc 1 F = Fn2,N-n-1.

e e0/(N - n - 1) 18.2. Тест на существенность ограничения Мы неявно рассматривали здесь тест на исключение факторов. Можно рассматривать его с другой точки зрения — как тест на включение факторов, при этом формулы не поменяются. То есть мы, оценив регрессию X = Z11 +, можем проверить, следует ли включать в нее дополнительные факторы Z2.

Pages:     | 1 |   ...   | 63 | 64 || 66 | 67 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.