WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 64 | 65 || 67 | 68 |   ...   | 82 |

Тест на включение факторов особенно полезен для проверки того, не нарушаются ли предположения модели регрессии. Это так называемые диагностические тесты. Все они строятся по одному и тому же принципу: если модель X = Z11 + специфицирована корректно, то любые дополнительные факторы Z2 скорее всего будут незначимы в тесте на их включение (т.е. с большой вероятностью будет принята нулевая гипотеза 2 =0). Факторы Z2 конструируются таким образом, чтобы тест имел бо льшую мощность против определенного класса нарушений предположений модели регрессии. Из сказанного следует, что во всех диагностических тестах нулевой гипотезой является то, что базовая модель корректно специфицирована. Если нулевая гипотеза будет отвергнута, то естественно искать другую модель, которая бы лучше описывала имеющиеся данные. Следует понимать, что регрессия X = Z11 + Z22 + в этом случае будет носить обычно вспомогательный характер, то есть оценки коэффициентов в ней, вообще говоря, не призваны нести смысловой нагрузки. Она нужна только для проверки базовой модели X = Z11 +. (Хотя здесь есть, конечно, и исключения.) 18.2.1. Тест Годфрея (на автокорреляцию ошибок) Оценим регрессию X = Z11 +. Для проверки отсутствия автокорреляции p-го порядка попытаемся ввести такой набор факторов:

0 0 · · · e1 0 · · · e2 e1 · · ·...

.

....

Z2 =.

.

...

...

...

... e....

....

....

eN-1 · · · · · · eN-p Столбцы матрицы Z2 состоят из лагов остатков, дополненных нулями. Если нулевая гипотеза (2 = 0) отвергается, то делается вывод о наличии автокорреляции. При p = 1 тест Годфрея представляет собой близкий аналог теста 578 Глава 18. Классические критерии проверки гипотез Дарбина—Уотсона, однако при p >1 помогает обнаруживать и автокорреляцию более высоких порядков, в чем и состоит его преимущество.

18.2.2. Тест RESET Рамсея (Ramsey RESET test) на функциональную форму уравнения Рассмотрим модель X = Z11 +, которую можно записать в виде X = X0 +, гд е X0 = Z11. Можно рассмотреть возможность наличия между X и X0 более сложной нелинейной зависимости, например, квадратичной. Для проверки линейности модели против подобной альтернативы служит тест Рамсея.

Оценим регрессию X = Z11 +. Попытаемся ввести фактор (xc).

.

Z2 =,.

(xc )N где Xc = Z1a1 — расчетные значения из проверяемой регрессии. Если 2 =0, то зависимость линейная, если 2 =0, то зависимость квадратичная.

Можно тем же способом проводить тест на 3-ю, 4-ю степени и т.д. Матрица добавляемых факторов имеет следующую общую форму:

(xc)2 (xc)3 · · · (xc )m 1 1 N...

...

Z2 =.

...

(xc )2 (xc )3 · · · (xc )m N N N 18.2.3. Тест Чоу (Chow-test) на постоянство модели Часто возникает сомнение в том, что для всех наблюдений 1,..., N модель неизменна, в частности, что параметры неизменны.

Пусть все наблюдения в регрессии разбиты на две группы. В первой из них — N1 наблюдений, а во второй — N2 наблюдений, так что N1 + N2 = N. Без ограничения общности можно считать, что сначала идут наблюдения из первой группы, а потом из второй. Базовую регрессию X = Z + можно представить в следующем блочном виде:

X1 Z1 = +.

X2 Z2 18.2. Тест на существенность ограничения Требуется проверить, действительно ли наблюдения в обеих группах подчиняются одной и той же модели x = z +.

1-я форма теста Чоу В качестве альтернативы базовой модели рассмотрим регрессию X1 Z1 0 1 = +.

X2 0 Z2 2 Фактически, это две разные регрессии:

X1 = Z11 + 1 и X2 = Z22 + 2, но предполагается, что дисперсия в них одинакова.

Пусть e0 — вектор остатков в регрессии на всей выборке, e1 — вектор остатков в регрессии с наблюдениями 1,..., N1, e2— вектор остатков в регрессии с N1 +1,..., N наблюдениями. Требуется проверить нулевую гипотезу о равенстве коэффициентов по двум частям выборки:

H0 : 1 = 2.

Для того чтобы применить здесь тест добавления переменных, обозначим 2 - 1 = и подставим 2 = 1 + в рассматриваемую модель:

X2 = Z21 + Z2 + 2, Таким образом, можно рассматривать следующую регрессию (для упрощения обозначений пишем вместо 1):

X1 Z1 0 = +. (18.5) X2 Z2 Z2 Мы хотим проверить гипотезу H0 : =0.

Если нулевая гипотеза принимается, то это означает, что 1 = 2, т.е. коэффициенты постоянны.

Заметим, что в регрессии (18.5) с ограничениями остатки окажутся равными e0, e а в регрессии (18.5) без ограничений —. Суммы квадратов остатков равны e580 Глава 18. Классические критерии проверки гипотез e e0 и e e1 + e e2, соответственно. В регрессии с ограничениями оценивается 0 1 n +1 параметров, без ограничений — 2(n +1). Всего проверяется k = n +ограничений. Используя общую формулу (18.2), получим (e e0 - e e1 - e e2) / (n +1) c 0 1 F = Fn+1, N-2(n+1).

(e e1 + e e2) / (N - 2(n +1)) 1 Для того чтобы применить этот тест, нужно оценить модель по двум частям выборки. Это можно сделать, когда количество наблюдений превышает количество параметров, т.е. N1 n+1 и N2 n+1. Кроме того, если Nj = n+1, то остатки ej =0 (j =1, 2). Таким образом, для применимости теста требуется, чтобы хотя бы в одной части количество наблюдений превышало количество параметров.

2-я форма теста Чоу То, что модель в двух частях одна и та же, можно проверить и по-другому. Пусть сначала рассчитывается регрессия по N1 < N наблюдениям, а затем по всем N наблюдениям. Если полученные результаты существенно отличаются, то это должно означать, что во второй части модель каким-то образом поменялась.

Реализуем эту идею с помощью вспомогательной регрессии, к которой можно применить тест добавления переменных:

X1 Z1 0N1N2 = +. (18.6) X2 Z2 IN2 Эта регрессия с ограничением =0 совпадает с регрессией по всем N наблюдениям по первоначальной модели, и остатки равны e0.

Если же оценить (18.6, 18.5) без ограничений, то, как можно показать, оценки совпадут с оценками по N1

e Остатки будут иметь вид. 0nЭто связано с тем, что добавочные переменные являются фиктивными переменными, каждая из которых всюду равна нулю, за исключением одного из наблюдений второй части выборки. Такие фиктивные переменные приводят к «обнулению» остатков. Следовательно, задача минимизации суммы квадратов остатков по N наблюдениям здесь сводится к задаче минимизации суммы квадратов остатков по первым N1 наблюдениям.

18.2. Тест на существенность ограничения Действительно, запишем модель в матричном виде. Пусть Z1 0 X Z =, X =.

Z2 I X a Тогда оценки коэффициентов модели удовлетворяют нормальным уравнени d ям:

a Z Z = Z X, d или Z1Z1 + Z2Z2 Z2 a Z1X1 + Z2X =.

Z2 I d XПолучаем следующую систему уравнений для оценок коэффициентов:

Z1Z1a + Z2Z2a + Z2d = Z1X1 + Z2X2, (18.7) Z2a + d = X2.

Умножив второе уравнение системы (18.7) слева на Z2, получим Z2Z2a + Z2d = Z2X2.

После вычитания из первого уравнения системы (18.7) получим Z1Z1a = Z1X1.

Таким образом, оценки коэффициентов a являются оценками МНК по первой части выборки.

Далее, остатки второй части равны e2 = X2 - Z2a - d =0.

Последнее равенство следует из второго уравнения системы (18.7).

582 Глава 18. Классические критерии проверки гипотез Суммы квадратов остатков в двух моделях равны e e0 и e e1, соответственно.

0 Количество ограничений k = N2. Таким образом, получаем следующую статистику:

(e e0 - e e1) /Nc 0 F = FN2, N1-n-1.

e e1/ (N1 - n - 1) Статистика имеет указанное распределение, если выполнена нулевая гипотеза H0 : =0.

Если нулевая гипотеза принимается, это означает, что модель не менялась.

Заметим, что в случае, когда наблюдений в одной из частей выборки не хватает, чтобы оценить параметры, либо их столько же, сколько параметров, например, N2 n +1, второй тест Чоу можно рассматривать как распространение на этот вырожденный случай первого теста Чоу.

Второй тест Чоу можно интерпретировать также как тест на точность прогноза.

Поскольку Z2a — прогнозы, полученные для второй части выборки на основе оценок первой части (a), то из второго уравнения системы (18.7) следует, что оценки d равны ошибкам такого прогноза:

d = X2 - Z2a.

Таким образом, проверяя гипотезу =0, мы проверяем, насколько точны прогнозы. Если модель по второй части выборки отличается от модели по первой части, то ошибки прогноза будут большими и мы отклоним нулевую гипотезу.

18.3. Метод максимального правдоподобия вэконометрии 18.3.1. Оценки максимального правдоподобия Метод максимального правдоподобия — это один из классических методов оценивания, получивший широкое распространение в эконометрии благодаря своей универсальности и концептуальной простоте.

Для получения оценок максимального правдоподобия следует записать функцию правдоподобия, а затем максимизировать ее по неизвестным параметрам модели. Предположим, что изучаемая переменная x имеет распределение с плотностью fx(x), причем эта плотность зависит от вектора неизвестных параметров, что можно записать как fx(x|). Тогда для N независимых наблюдений за переменной x, т.е. x1,..., xN, функция правдоподобия, по определению, есть 18.3. Метод максимального правдоподобия в эконометрии плотность их совместного распределения, рассматриваемая как функция от при данном наборе наблюдений x1,..., xN :

N L () = fx(xi|).

i=Если изучаемая переменная имеет дискретное распределение, то fx(x|) следует понимать как вероятность, а не как плотность. Наряду с функцией L () из соображений удобства рассматривают также ее логарифм, называемый логарифмической функцией правдоподобия.

Оценки максимального правдоподобия для параметров являются, по определению, аргмаксимумом функции правдоподобия (или, что то же самое, логарифмической функции правдоподобия). Они являются решением уравнения правдоподобия:

ln L =0.

В более общем случае нельзя считать наблюдения за изучаемой переменной, x1,..., xN, независимыми и одинаково распределенными. В этом случае задается закон совместного распределения всех наблюдений, fx(x1,..., xN|) =fx(x|), и функция правдоподобия для данного вектора наблюдений x полагается равной fx(x|).

Известно, что оценки максимального правдоподобия обладают свойствами состоятельности, асимптотической нормальности и асимптотической эффективности.

Оценку ковариационной матрицы оценок можно получить на основе матрицы вторых производных (матрицы Гессе) логарифмической функции правдоподобия:

-2 ln L() -.

Другая классическая оценка ковариационной матрицы имеет вид (I())-1, где 2 ln L() I() =E — так называемая информационная матрица.

584 Глава 18. Классические критерии проверки гипотез 18.3.2. Оценки максимального правдоподобия для модели линейной регрессии Рассмотрим модель линейной регрессии xi = zi+i, где вектор коэффициентов имеет размерность n +1, ошибки i независимы и распределены нормально:

i N(0, 2), а факторы zi являются детерминированными. При этом изучаемая переменная тоже имеет нормальное распределение: xi N(zi, 2). Плотность этого распределения равна (xi-zi) e-.

Перемножая плотности для всех наблюдений (с учетом их независимости), получим функцию правдоподобия:

N - (xi-zi)1 i=L (, ) = e.

(2)N/2 N Соответствующая логарифмическая функция правдоподобия равна N N ln L (; ) =- ln (2) - N ln - (xi - zi)2, 2 i=или в матричных обозначениях N ln L (; ) =- ln (2) - N ln - (X - Z) (X - Z).

2 Берем производные:

ln L = Z (X - Z) =0, ln L N = - + (X - Z) (X - Z) =0.

Из первого уравнения получим оценки максимального правдоподобия для коэффициентов :

-a = Z Z Z X.

Видим, что оценки наименьших квадратов и оценки максимального правдоподобия совпадают. Из второго уравнения, подставляя в него оценки a вместо, получим оценку дисперсии 2:

s2 = e e, N 18.3. Метод максимального правдоподобия в эконометрии где e e =(X - Za) (X - Za) — сумма квадратов остатков. Оценка максимального правдоподобия для дисперсии ошибки смещена. Несмещенная оценка, используемая в МНК, равна 2 = e e.

N - n - Тем не менее, оценки (a, s) асимптотически несмещены, состоятельны, асимптотически эффективны в классе любых оценок (а не только линейных, как при МНК).

Чтобы проверить, на самом ли деле мы нашли точку максимума правдоподобия, исследуем матрицу вторых производных:

2 ln L = - Z Z, 2 ln L N = - (X - Z) (X - Z), 2 2 2 ln L 2 ln L = = - Z (X - Z).

Таким образом, 1 Z Z (X - Z) Z 2 ln L 2 = -.

(; )(; ) 2 3 N Z (X - Z) (X - Z) (X - Z) 3 4 Значение матрицы вторых производных в точке оценок (a, s) равно Z Z 2 ln L N =.

- (; )(; ) e e a,s 0 2N Видно, что матрица вторых производных отрицательно определена, то есть найдена точка максимума. Это дает оценку ковариационной матрицы оценок (a, s):

(Z Z)-1 e e.

N 2N Таким образом, оценка ковариационной матрицы для a является смещенной (поскольку основана на смещенной оценке дисперсии):

-e e Ma = Z Z.

N 586 Глава 18. Классические критерии проверки гипотез В методе наименьших квадратов в качестве оценки берут -e e Ma = Z Z.

N - n - При N эти две оценки сходятся.

Метод максимального правдоподобия дает также оценку дисперсии для s:

e e var(s) =.

2NРассчитаем также информационную матрицу. Для этого возьмем математическое ожидание от матрицы вторых производных со знаком минус:

1 2 Z Z (X - Z) Z Z Z 2 3 I = E =, 2 3 N 2N Z (X - Z) (X - Z) (X - Z) - 3 4 2 где мы воспользовались тем, что X -Z представляет собой вектор ошибок модели и выполнено E () =0, E ( ) =N2. Обращая информационную матрицу в точке (a, s), получим ту же оценку ковариационной матрицы, что и раньше. Таким образом, оба метода дают одинаковый результат.

Рассмотрим логарифмическую функцию правдоподобия как функLn L цию одного из коэффициентов, j, при остальных коэффициентах зафиксированных на уровне оценок максимального правдоподобия, т.е. срез (n +2)-мерного пространства (см. рис.

18.1). Видим, что оценка aj тем точнее, чем острее пик функции правдоподобия.

А степень остроты пика показывает xj j вторая производная (по абсолютному значению). Поэтому математическое Рис. 18.ожидание матрицы вторых производных со знаком минус называется информационной матрицей. Эта матрица удовлетворяет естественным требованиям: чем больше имеем информации, тем точнее оценка.

Если в логарифмическую функцию правдоподобия ln L (; ) подставить оцен ln L ку s2 для 2, которая найдена из условия =0:

e e s2 =, N 18.3. Метод максимального правдоподобия в эконометрии то получится так называемая концентрированная функция правдоподобия, которая зависит уже только от :

N N 1 N ln Lc () =- ln (2) - ln e e -.

Pages:     | 1 |   ...   | 64 | 65 || 67 | 68 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.