WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 3 | 4 || 6 | 7 |

Очевидно, необходимо дополнительное рецентрирование. Бутстраповский аналог оценки есть n n n n 1 1 1 = arg min m(zi, q) - m(zi, ) Q-1 m(zi, q) - m(zi, ).

mm q n n n n i=1 i=1 i=1 i=Сделаем то же самое для J-статистики. Сама J-статистика есть n n 1 J = n m(zi, ) Q-1 m(zi, ), mm n n i=1 i=а её бутстраповский аналог – n n n n 1 1 1 J = n m(zi, ) - m(zi, ) Q-1 m(zi, ) - m(zi, ).

mm n n n n i=1 i=1 i=1 i=При рецентрировании бутстрап предоставляет асимптотическое рафинирование по сравнению с асимптотическим распределением, то есть то самое свойство, из-за которого бутстрап и используется: большая точность приближения, чем с помощью асимптотического распределения. При этом под точностью имеется в виду скорость сходимости. Без рецентрирования целевой функции бутстраповская процедура остается состоятельной, но асимптотическое рафинирование теряется.

11 Поведение ОММ-оценок в конечных выборках Замечено, что двухступенчатая ОММ-оценка обладает плохими свойствами в маленьких выборках, иногда бывая даже менее эффективной, чем асимптотически неэффективные ОММ-оценки (например, с равномерным взвешиванием W = I).

Причины этого – это, во первых, то что на первом шаге мы оцениваем порядка lэлементов матрицы Qmm, что сложно сделать точно, особенно когда имеется много условий на моменты, и во-вторых, на обоих шагах используется одна и та же выборка.

Как решать эту проблему В литературе встречались следующие предложения:

• Разбить выборку: n = n1 +n2, и использовать подвыборку ni на i-м шаге. Недостаток такого предложения в том, что часть выборки уходит на предварительную процедуру. Как следствие, такая оценка асимптотически неэффективна.

• Суть итеративного ОММ (ИОММ) – расширение двухшаговой процедуры до многошаговой: повторить 2-й шаг со взвешивающей матрицей, которая использует не предварительную, а эффективную ОММ-оценку. Можно повторять итерации до сходимости (если процедура сойдется). Этот метод характеризуется следующими условиями первого порядка для самой последней итерации:

-n n n 1 m(zi, I) 1 m(zi, I)m(zi, I) m(zi, I) = 0.

n q n n i=1 i=1 i=Оценка I менее смещена, чем. Асимптотические свойства ИОММ, конечно же, те же самые, что и ОММ.

• Постоянно обновляющийся ОММ решает задачу n n n 1 1 CUP = arg min m(zi, q) m(zi, q)m(zi, q) m(zi, q).

q n n n i=1 i=1 i=Этот метод одношаговый, мы не оцениваем Qmm заранее. В результате получается менее смещённая, чем ОММ, в конечных выборках оценка. Заметим, что из трех перечисленных эффективных оценок наилучшей в смысле наименьшего смещения является последняя.

• Метод эмпирического правдоподобия. Оценки метода эмпирического правдоподобия имеют те же асимптотические свойства, что и эффективные ОММоценки, но имеют совершенно другую мотивацию. Из-за своей одношаговой природы они обладают лучшими свойствами в конечных выборках, чем ОММоценки.

12 Тест Хаусмана на спецификацию модели Пример 1. Положим, мы специфицировали регрессию, оценили её и интерпретировали результаты. Можно ли протестировать, что оцененное нами уравнение – действительно регрессия Например, пусть мы имеем линейное уравнение y = x + e, и мы хотим узнать, является ли x регрессионной функцией, или же это всего лишь линейная проекция y на пространство x-ов (вспомним, что если это не более чем проекция, её коэффициенты нельзя содержательно интерпретировать). За нулевую мы принимаем более ограничивающую гипотезу, то есть H0 : E[e|x] = 0, HA : E[ex] = 0.

Для тестирования необходимо сконструировать подходящую статистику.

Проиллюстрируем технологию в более абстрактной постановке, а затем применим полученный результат к нашему частному примеру. Пусть специфицированы H0 и HA, а есть значение истинного параметра при предположении, что нулевая гипотеза верна. Пусть 0 и 1 – оценки, состоятельные для при нулевой гипотезе H0, но p lim 0 = p lim 1 при альтернативной гипотезе HA. Этих пределов может вообще не существовать, главное, чтобы разница p lim 1 - p lim 0 была ненулевой. На основе p p этой разницы q = 1 - 0 мы и строим статистику. При H0, q 0, а при HA, q p lim 1 - p lim 0 = 0.

Пусть при H0, 0 и 1 совместно асимптотически нормальны:

0 0 V0 C d n - N,.

1 C VТогда по теореме Манна–Вальда имеем d nq N (0, Vq), где Vq = V0 +V1 -C -C. Теперь необходимо пивотизировать нашу статистику. Пусть p Vq – состоятельная оценка матрицы Vq: Vq Vq. Отсюда строим статистику для теста Хаусмана:

d H = nq Vq-1q 2.

dim() Понятно, что при HA значение этой статистики велико, т.к. велико значение самой dim() q. Если H > q1-, мы отвергаем гипотезу о верной спецификации модели; если же dim() H < q1-, то данные ей не противоречат.

Как построить оценку Vq Наибольшие сложности возникают с оцениванием матрицы C; матрицы V0 и V1, асимптотические дисперсионные матрицы оценок 0 и 1, как правило, легко оцениваются. Оказывается, что C необязательно оценивать, если мудро выбрать оценки.

Лемма. Если при нулевой гипотезе 0 асимптотически эффективна в некотором линейном классе оценок, которому 1 также принадлежит, то Vq = V1 - V0, и поэтому Vq может быть оценена как Vq = V1 - V0.

Замечание 1. Класс должен быть линейным, ему должно принадлежать всё, что лежит на отрезке между 0 и 1.

Интуитивное доказательство. Асимптотическая ковариация ACov(0, q) равно нулю, иначе мы смогли бы улучшить оценку 0, а это противоречит её асимптотической эффективности. Тогда V1 = AV ar(1) = AV ar(0 + q) = V0 + Vq Vq = V1 - V0.

Замечание 2. Построенная таким образом Vq может не быть неотрицательно определенной.

Замечание 3. Матрица Vq может быть вырожденной. Тогда нужно использовать обобщённую обратную матрицу Vq (A- называется обобщённой обратной для матрицы A, если AA-A = A).

Итак, подводём итог. Статистика Хаусмана имеет вид и асимптотическое распределение d H = nq Vq-q 2.

rank(Vq) Благоприятная ситуация для тестирования следующая:

H0 HA 0 состоятельна, асимптотически нормальна и эффективна несостоятельна 1 состоятельна, асимптотически нормальна, но неэффективна состоятельна Неформально говоря, 0 правильно работает только при проверяемой спецификации, а при отклонениях должна быть плохой ; 1 является состоятельной при любых обстоятельствах, но она неэффективна (обычно она выбирается робастной к неправильной спецификации модели).

Пример 1 (продолжение). Вернёмся к проверке регрессионности уравнения:

H0 : E[e|x] = 0, HA : E[ex] = 0.

Необходимые компоненты для построения теста – вот они:

-n n 1 = xix i xiyi, i=1 i=-1 -n n n V1 = n xix i xix ie2 xix i, i i=1 i=1 i=-n n xix i xiyi 0 =, 2(xi) 2(xi) i=1 i=-n xix i V0 = n.

2(xi) i=Здесь предполагается, что скедастичная функция 2(x) известна. Тест H не будет раxe ботать (подумайте, почему) при условной гомоскедастичности или если E = 2(x) 0 без справедливости регрессионного соотношения, что маловероятно.

Пример 2. Построим тест Хаусмана на экзогенность. Постановка задачи следующая:

y = x 1 + z 2 + e, E[e|z1, z2] = 0, E[e2|z1, z2] = 2, где z1 и z2 – валидные инструменты, и l2 k. Мы хотим протестировать x kl11 lна экзогенность. Сформируем H0 : x – экзогенный инструмент, т.е. E[e|x, z1, z2] = 0, и HA : x – эндогенный инструмент, т.е. E[e|x, z1, z2] = 0. Подходящие оценки:

(1 2) 0 – 2ШМНК-оценка, использующая (x z1 z2), и (1 2) 1 – 2ШМНК-оценка, использующая (z1 z2). Можно, однако, придумать ситуации, когда тест Хаусмана не будет работать с таким выбором оценок (например, коллинеарность x и одного из z, и т.п.).

IV Анализ панельных данных 1 Некоторые полезные факты • Идемпотентная матрица A обладает свойством A2 = A. Симметричная идемпотентная матрица A вдобавок симметрична: A = A. Все подобные матрицы, кроме единичной In, имеют редуцированный ранг, то есть вырождены.

• Произведение Кронекера:

a11B... a1kB...

.

...

A B =...

nk ml an1B... ankB nmkl Свойства произведения Кронекера:

(A B) = A B (A B)-1 = A-1 B-(A B)(C D) = AC BD • Проекционная матрица (проектор): Пусть n k (n > k) матрица X имеет ранг k. Ассоциированными проекционными матрицами являются P = X(X X)-1X (r(P ) = k), M = In - P (r(M) = n - k).

Проекторы являются симметричными идемпотентными матрицами. Если у нас есть вектор зависимых переменных y, а X является матрицей независимых переменных, действие проекторов приводит к разложению y на две ортогональные компоненты:

P y = X(X X)-1X y = X = y, My = y - y = e, а если подействовать этими проекторами на X, получим P X = X, MX = 0.

• Сумма квадратов проекционных остатков:

RSS = e e = y My = y y - y X(X X)-1X y.

• Длинные и короткие регрессии. Длина регрессии зависит от количества регрессоров, много их или мало. Можно ли свести длинную регрессию к серии коротких Ответ на этот вопрос был важен в эпоху слабости вычислительной техники, мы же используем этот результат для других целей. Пусть длинная регрессия будет y = x 11 + x 22 + e, где x1 k1 1 x =, =.

x2 k2 2 Считаем, что k1 и k2 маленькие, а k1 + k2 достаточно большое. Пусть – МНКоценка длинной регрессии, а ei = yi - x i – её остатки. Мы хотим найти эти величины с помощью коротких регрессий.

Теорема Фриша–Во–Ловелла. Рассмотрим три регрессии:

y = x 11 + u1, (1) x2 = x 12 + u2, (2) u1 = u2 2 + e. (3) Тогда 1. 2 и ei можно получить как МНК-оценки и МНК-остатки регрессии (3) МНК-остатков регрессии (1) y на x1 на МНК-остатках регрессии (2) x2 на x1.

2. Кроме того, 1 можно получить как МНК-оценки регрессии y - x 22 на x1.

Следствие. Если x1 – константа, то 2 можно получить от регрессии y - y на x2 - x2, при этом 1 = y - x 22.

Заметим, что в теореме и следствии из неё имеется в виду численная идентичность оценок.

2 Структура панельных данных Пусть имеется выборка {yit, xit}, где i = 1,..., n – индекс объектов, а t = 1,..., T – индекс моментов времени. Видим, что в структуре панельных данных есть признаки и кросс-секций, и временных рядов. В то же время анализ панельных данных больше похож на анализ первых, нежели последних.

Если под i подразумеваются одни и те же объекты для всех t, то у нас панель.

Если под i подразумеваются различные объекты для разных t, то у нас псевдопанель. Если имеются наблюдения по каждому i = 1,..., n и каждому t = 1,..., T, то у нас сбалансированная панель. Если для некоторых i и/или t отсутствуют данные, то у нас несбалансированная панель. Для несбалансированных панелей анализ практически такой же, как и для сбалансированных, нужно лишь внимательно следить за пропусками данных. Мы сосредоточимся на сбалансированных панелях.

Вот преимущества использования панельных данных перед кросс-секциями и временными рядами:

• Достигается бoльшая эффективность оценок (размер выборки nT );

• Использование панелей позволяет контролировать и тестировать индивидуальную неоднородность (неоднородность по объектам);

• Использование панелей позволяет идентифицировать эффекты, не обнаруживаемые в кросс-секциях.

Вот два классических примера, подчёркивающих последний пункт:

Пример 1. Женская занятость. Пусть 50% женщин работают, 50% не работают.

При наличии кросс-секции, неясно, что верно: (1) половина женщин всегда работает, а другая половина всегда не работают, или же (2) женщины со временем меняют свой статус, каждая может некоторое время работать, некоторое время не работать.

Наличие панели позволяет идентифицировать, какой из двух вариантов имеет место.

Пример 2. Эффект членства в профсоюзе на зарплату. Без панели неясно, зарплата больше там, где есть профсоюз, или же зарплата зависит от того, входит человек в профсоюз или нет. В панели же можно отследить вход в профсоюз и выход из него и идентифицировать эффект членства в нём.

Асимптотика подразумевается (иногда, правда, мы будем пользоваться точной инференцией, но это вынужденная мера) как n, а T фиксировано. Фиксированность T мотивирована тем, что большинство панелей короткие, где n большое, а T маленькое (типичная ситуация: в течение ряда лет исследуется множество фирм, при этом T 3-5 лет). Как следствие, например, тестирование на единичные корни происходит не по Дики-Фуллеру.

Базовая линейная панельная модель имеет вид yit = + x it + uit, где i = 1,..., n, t = 1,..., T, xit i.i.d. по объектам, для любого фиксированного t.

Структура ошибки uit подчиняется модели составной ошибки (МСО), что означает, что ошибка состоит из нескольких компонент:

uit = µi + vit – однонаправленная МСО, uit = µi + t + vit – двунаправленная МСО, где индивидуальные эффекты µi, временные эффекты t и идиосинкратические компоненты vit взаимно независимы. Предполагается, что 2 2 µi i.i.d.(0, µ), t i.i.d.(0, ), vit i.i.d.(0, v).

Заметим, что vit независимы по обоим индексам.

Индивидуальные (иногда и временные) эффекты можно трактовать как фиксированные и случайные. В первом случае мы их обрабатываем как случайные величины, во втором – как реализации случайных переменных.

3 Однонаправленная МСО с фиксированными эффектами При фиксированных эффектах мы трактуем компоненты ошибки µi как фиксированные неизвестные параметры. А раз это параметры, они из компонент ошибки перемещаются в регрессионную функцию, в ошибке остаётся только идиосинкратическая компонента, и модель преобразуется в yit = + µi + x it + vit, где i = 1,..., n, t = 1,..., T, и vit i.i.d.(0, v) независимы от xit. Независимость vit от регрессоров – это необязательное предположение, его можно ослабить. Такое сильное предположение сделано исключительно из соображений простоты анализа.

Итак, регрессионная функция получилась достаточно сложной – константа и новые фиктивные переменные 1, для i-го объекта, 0, для остальных, коэффициентами у которых служат µi. Сразу можно сказать, что после того, как мы присвоили индивидуальным эффектам статус регрессоров, у нас появилась мультиколлинеарность, поскольку в сумме все фиктивные переменные повторяют константу. В данной модели принято избавляться от константы, хотя возможны другие варианты. Можно посмотреть на этот вопрос по-другому. Индивидуальные эффекты µi пришли из ошибки, где от них требовалась центрированность вокруг нуля. Сейчас же мы этого не требуем, и поглощается ими. Избавившись таким образом от одного регрессора, запишем систему в векторной и матричной формах.

В векторной форме всё связанное с объектом будет содержать один вектор:

yi = iT µi + Xi + vi, i = 1,..., n, где yi1 1 Xi1 vi yi2 1 Xi2 viyi =, iT =, Xi =, vi =.

...

....

T 1 T 1 T k T....

. yiT 1 XiT viT От индекса t мы избавились, теперь избавимся от индекса i, и получится матричная форма. Она нужна нам для того, чтобы приступить к знакомому нам МНКоцениванию, хотя и на скалярную форму МНК-оценки нам также придётся переключаться.

Итак, матричная форма имеет вид:

Pages:     | 1 |   ...   | 3 | 4 || 6 | 7 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.