WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 6 | 7 || 9 | 10 |   ...   | 30 |

i 94 Глава Используя полученные оценки параметров в качестве стартовых значений итерационной процедуры максимального правдоподобия, приходим к уравнениям hi = -3.483+ 0.00480 xi, price = 4159.3 + 5.828xi.

i При этом получаем также =1010.7, 12 = 0.598.

Как видим, оцененные значения параметров достаточно близки к значениям, при которых производилось порождение данных.

Приведем теперь графики, иллюстрирующие полученные результаты.

100 ---H_STAR H_STAR_F Модели с дискретными объясняемыми переменными… 1.0.0.0.0.100 300 500 700 900 1100 1300 H H_F 100 300 500 700 900 1100 1300 Y_STAR Y_STAR_F96 Глава 100 300 500 700 900 1100 1300 Y_STAR Y_STAR_F Y_STAR_F100 300 500 700 900 1100 1300 Y Y_F Модели с дискретными объясняемыми переменными… П р и м е р В условиях Примера 1 перемоделируем данные с измененной функцией полезности, полагая теперь h = -4 + 0.003 xi + 2(dman )i + 2i, i где dman =1, если главой семьи является мужчина, и dman = 0, если главой семьи является женщина.

Применяя к новым смоделированным данным двухшаговую процедуру Хекмана, получаем на первом шаге оцененное уравнение hi = -4.280 + 0.00297 xi + 2.347(dman)i, а на втором шаге – оцененное уравнение price = 3879.97 + 6.124xi.

i При этом получаем также = 984.2, 12 = 0.643.

Как видим, и здесь оцененные значения параметров достаточно близки к значениям, при которых производилось порождение данных. Приведем для сравнения наблюдаемые значения переменной yi и оцененные ожидаемые значения этой переменной (Y_EXPECTED_F).

100 600 1100 1600 Y Y_EXPECTED_F 98 Глава Обратим внимание на две ветви графика оцененных ожидаемых значений yi. Верхняя ветвь соответствует семьям, которые возглавляют мужчины, а нижняя – семьям, которые возглавляют женщины.

Глава 2. Инструментальные переменные.

Системы одновременных уравнений 2.1. Проблема коррелированности случайных ошибок с объясняющими переменными В главе 1 мы встретили модели наблюдений, в которых естественным образом возникла необходимость использования вместо метода наименьших квадратов другого метода оценивания – метода максимального правдоподобия. (В классической линейной модели с независимыми, нормальными, одинаково распределенными ошибками эти методы совпадают.) Теперь мы рассмотрим некоторые ситуации, приводящие к еще одному популярному методу оценивания – методу инструментальных переменных. Общим для такого рода ситуаций является наличие коррелированности одной или нескольких объясняющих переменных со случайной ошибкой, входящей в правую часть уравнения. Поскольку случайные ошибки отражают наличие неучтенных факторов, не включенных в уравнение в качестве объясняющих переменных, указанная коррелированность фактически означает наличие корреляции между некоторыми учтенными и неучтенными факторами.

В матрично-векторной форме классическая нормальная линейная модель наблюдений имеет вид y = X +, где y = (y1, y2,K, yn )T – вектор-столбец значений объясняемой переменной в n наблюдениях, X – (np)-матрица значений объясняющих переменных в n наблюдениях, n > p, = (,, …, )T – вектор-столбец коэффициентов, 1 2 p 100 Глава = (1,2 K, )T – вектор-столбец случайных ошибок n (возмущений) в n наблюдениях, причем случайный вектор имеет n-мерное нормальное распределение с нулевым вектором математических ожиданий E() = (E(1), E(2), …, E(n))T = (0, 0,..., 0)T (в краткой записи:

E() = 0) и ковариационной матрицей Var() = (Cov(i, j)) = 2 In, где In – единичная матрица (размера n n).

Здесь Cov(i, j) = E(i – E(i))(j – E(j)) – ковариация случайных величин i и j.

Предположение о фиксированности значений объясняющих переменных в совокупности со стандартными предположениями об ошибках удобно с чисто математической точки зрения: при таких предположениях оценки параметров, получаемые методом наименьших квадратов, имеют нормальное распределение, что, в свою очередь, дает возможность:

• строить доверительные интервалы для коэффициентов линейной модели, используя квантили t распределения Стьюдента;

• проверять гипотезы о значениях отдельных коэффициентов, используя квантили t-распределения Стьюдента;

• проверять гипотезы о выполнении тех или иных линейных ограничений на коэффициенты модели, используя квантили F-распределения Фишера;

• строить интервальные прогнозы для “будущих” значений объясняемой переменной, соответствующих заданным будущим значениям объясняющих переменных.

Вместе с тем используемое в классической модели предположение о фиксированности значений объясняющих Инструментальные переменные. Системы… переменных в n наблюдениях фактически означает, что мы можем повторить наблюдения значений объясняемой переменной при том же наборе значений объясняющих переменных xi1,K, xip, i = 1,K, n ; при этом мы получим другую реализацию (другой набор значений) случайных составляющих i, i = 1,K, n, что приведет к значениям объясняемой переменной, отличающимся от значений y1,K, yn, наблюдавшихся ранее.

С точки зрения моделирования реальных экономических явлений, предположение о фиксированности значений объясняющих пременных можно считать реалистическим лишь в отдельных ситуациях, связанных с проведением контролируемого эксперимента. Между тем в реальных ситуациях по большей части нет возможности сохранять неизменными значения объясняющих переменных. Более того, и сами наблюдаемые значения объясняющих переменных (как и “ошибки”) часто интерпретируются как реализации некоторых случайных величин. В таких ситуациях становится проблематичным использование техники статистических выводов, разработанной для классической нормальной линейной модели.

Поясним последнее, обратившись к матрично-векторной форме классической линейной модели с p объясняющими переменными y = X + и не требуя нормальности распределения вектора.

Если матрица X имеет полный ранг p, то матрица XTX является невырожденной, для нее существует обратная матрица (XTX)–1, и оценка наименьших квадратов для вектора неизвестных коэффициентов имеет вид = (XTX) – 1XTy.

Математическое ожидание вектора оценок коэффициентов равно 102 Глава E( ) = E ((XTX) – 1XT(X + )) = E ((XTX) – 1XTX ) + E ((XTX) – 1XT ) = = + E ((XTX) – 1XT ).

Если матрица X фиксирована, то тогда E ((XTX) – 1XT ) = (XTX) – 1XT E ( ) = 0, так что E( ) =, т.е. – несмещенная оценка для.

Если же мы имеем дело со стохастическими (случайными, недетерминированными) объясняющими переменными, то в общем случае E ((XTX) – 1XT ) 0, так что E( ), и – смещенная оценка для. Кроме того, эта оценка уже не имеет нормального распределения даже если вектор имеет нормальное распределение.

Если объясняющие переменные стохастические, то в некоторых случаях все же остается возможным использовать стандартную технику статистических выводов, предназначенную для классической нормальной линейной модели, по крайней мере, в асимптотическом плане (при большом количестве наблюдений).

В этом отношении наиболее благоприятной является Ситуация A • случайная величина не зависит (статистически) от i xk1,K, xkp при всех i и k ;

•,, …, являются независимыми случайными 1 2 n величинами, имеющими одинаковое нормальное распределение с нулевым математическим ожиданием и конечной дисперсией 2 > 0. (Как и ранее, мы кратко обозначаем это как ~ i.i.d. N (0, 2). Здесь i.i.d. – i independent identically distributed.) При выполнении таких условий имеем:

E ((XTX) – 1XT ) = E ((XTX) – 1XT) ·E( ) = (если, конечно, математическое ожидание E ((XTX) – 1XT) существует и конечно), так что оценка наименьших квадратов для является несмещенной. Распределение статистик критериев (тестовых Инструментальные переменные. Системы… статистик) можно найти с помощью двухшаговой процедуры. На первом шаге находим условное распределение при фиксированном значении матрицы X ; при этом значения объясняющих переменных рассматриваются как детерминированные (как в классической модели). На втором шаге мы получаем безусловное распределение соответствующей статистики, умножая условное распределение на плотность X и интегрируя по всем возможным значениям X.

Если применить такую процедуру для получения безусловного распределения оценки наименьших квадратов, то на первом шаге находим:

-2 T | X ~ N, (X X).

Интегрирование на втором этапе приводит к распределению, являющемуся смесью нормальных распределений -2 T N, (X X) по X. Это распределение, в отличие от классического случая, не является нормальным.

В то же время для оценки j-го коэффициента имеем:

-j | X ~ N, (XT X), j j j -1 -T T где (X X) – j-й диагональный элемент матрицы (X X), jj так что j j X ~ N (0, 1).

T (X X)-1j j Условным распределением для (n – p)S2/2, где S2 = RSS/(n – p), RSS – остаточная сумма квадратов, является распределение хиквадрат с (n – p) степенями свободы, (n – p)S2/2 | X ~ 2(n – p).

Заметим теперь, что t-статистика для проверки гипотезы H0:

* = определяется соотношением j j 104 Глава * T * (j - ) (X X)-1j j j j j t = =.

T S (X X)-1j Sj Из предыдущего вытекает, что если гипотеза H0 верна, то условное распределение этой t-статистики имеет t-распределение Стьюдента с (n – p) степенями свободы, t | X ~ t(n – p).

Это условное распределение одно и то же для всех X. Поэтому вне зависимости от того, какое именно распределение имеет X, * безусловным распределением t-статистики для H0 : = при j j выполнении этой гипотезы будет все то же распределение t(n – p).

Аналогичное рассмотрение показывает возможность использования стандартных F-критериев для проверки линейных гипотез о значениях коэффициентов.

Те же самые выводы остаются в силе при замене предположений ситуации A следующим предположением.

Ситуация A • | X ~ N(0, 2In), где In – единичная матрица (размера n n).

Ситуация C В рассмотренных выше ситуациях, как и в классической модели, предполагалось, что X ~ i.i.d. Теперь мы откажемся от этого i предположения и предположим, что • условное распределение случайного вектора относительно матрицы X является n-мерным нормальным распределением N(0, 2V) ;

• V – известная положительно определенная симметричная матрица размера nn.

Инструментальные переменные. Системы… Поскольку матрица V симметрична и положительно определена, таковой же будет и обратная к ней матрица V –1. Но тогда существует такая невырожденная (nn)-матрица P, что V –1 = PTP. Используя матрицу P, преобразуем вектор к вектору *= P.

При этом E(*) = 0 и условная (относительно X) ковариационная матрица вектора * Cov(*| X ) = E (**T | X ) = E (P (P )T | X ) = = P E ( T | X ) PT = P 2 V PT.

Но V = (V – 1) – 1 = (PTP) – 1, так что Cov(*| X ) = P 2 V PT = 2 P(PTP) – 1PT = 2In.

Преобразуя с помощью матрицы P обе части основного уравнения y = X +, получаем:

Py = PX +P, или y* = X * +*, где y* = Py, X * = PX, *= P.

В преобразованном уравнении * | X ~ N(0, 2In), так что преобразованная модель удовлетворяет условиям, характеризующим ситуацию A. Это означает, что все результаты, полученные в ситуации A, применимы к модели y*= X * +*.

В частности, оценка наименьших квадратов * = (X *T X *) – 1X *T y* = (XTPTPX) – 1 XTPTPy = (XT V – 1X) – 1 XT V – 1y является несмещенной, т.е. E( *) =, ее условное распределение (относительно X) нормально и имеет ковариационную матрицу Cov( * | X ) = 2(X *T X *) – 1 = 2(XT V – 1X) – 1.

Получение этой оценки равносильно минимизации по суммы n n, wik (yi - 1xi1 - K - xi p )(yk - 1xk1 - K - xk p ) p p i=1 k =106 Глава ( где wik = vik-1) – элементы матрицы V – 1.

Отсюда название метода – обобщенный метод наименьших квадратов. Сама оценка * называется обобщенной оценкой наименьших квадратов (GLS – generalized least squares).

В рамках модели y* = X * + * можно использовать обычные статистические процедуры, основанные на t- и F-статистиках.

Заметим теперь, что во всех трех ситуациях A, A и С общим является условие E( X )= 0, i = 1,K, n, i так что E(i xkj)= 0 для j =1,K, p при всех i и k.

Но тогда E(i ) = и Cov(i, xkj)= E(i - E(i))(xkj - E(xkj))= E(i )(xkj - E(xkj))= = E(ixkj)= (конечно, при этом мы предполагаем, что математические ожидания E(xkj) существуют и конечны).

Таким образом, если ошибка в i -м уравнении коррелирована хотя бы с одной из случайных величин xkj, то ни одно из условий A, A, C не выполняется. Например, эти условия не выполняются, если в i -м уравнении какая-нибудь из объясняющих переменных коррелирована с ошибкой в этом уравнении. Последнее характерно для моделей с ошибками в измерении объясняющих переменных и для моделей “одновременных уравнений”, о которых мы будем говорить ниже. Пока же приведем пример, показывающий, к каким последствиям приводит нарушение условия некоррелированности объясняющих переменных с ошибками.

Инструментальные переменные. Системы… П р и м е р Смоделированные данные следуют процессу порождения данных (DGP – data generating process) DGP: yi = + xi + i, i ~ i.i.d. N(0,1), i = 1,K,100, = 10, = 2, xi =i - 0.9i-1, i = 2,K,100 ;

при этом Corr (xi, ) = 0.743.

i Предположим, что мы имеем в распоряжении значения yi, xi, i = 2,K,100, но ничего не знаем о процессе порождения данных.

Оценим на основании этих данных статистическую модель yi = + xi + i методом наименьших квадратов. При этом получаем следующие результаты:

Dependent Variable: Y_FIXED Method: Least Squares Sample(adjusted): 2 Coefficient Std. Error t-Statistic Prob.

C(1) 10.13984 0.069148 146.6398 0.C(2) 2.553515 0.054971 46.45184 0. Для параметра получаем оценку = 2.553, имеющую весьма сильное смещение.

Зафиксировав полученную реализацию x2,K, x100, смоделируем (k (k ) еще 499 последовательностей {1 ),K,100}, k = 2,K,500, имитирующих реализации независимых случайных величин, имеющих стандартное нормальное распределение, и для каждой такой последовательности построим последовательность ( (k ) {y2k ),K, y100} по формуле:

yi(k ) = + xi + i(k ), i = 2,K,100.

Для каждого k = 2,K,500 по “данным” yi(k ), xi, i = 2,K,100, оцениваем статистическую модель yi(k ) = + xi + i(k ) и получаем 108 Глава (k ) (k ) оценки коэффициентов,. В результате получаем (2) (500) (2) (500) последовательности оценок,K, и,K,.

Приведем статистические характеристики последовательности (2) (500),K,.

Series: SLOPE Sample 2 Observations Mean 1.Median 1.Maximum 2.Minimum 1.Std. Dev. 0.Skewness 0.Kurtosis 2.Jarque-Bera 2.Probability 0.1.8 1.9 2.0 2.1 2.Среднее значение практически совпадает с истинным значением параметра ; гипотеза нормальности распределения оценки не отвергается.

Pages:     | 1 |   ...   | 6 | 7 || 9 | 10 |   ...   | 30 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.