WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 25 | 26 || 28 | 29 |   ...   | 82 |

Итак, преобразования в пространстве переменных в простых регрессиях лишь в особых случаях приводят к получению новых оценок, обычно меняются только шкалы измерения. Некоторые из этих шкал находят применение в прикладном анализе. Такой пример дает стандартизированная шкала, которая возникает, если C = S-1, гд е S — диагональная матрица среднеквадратических отклонений переменных.

Оценки параметров регрессии после преобразования оказываются измеренными в единицах среднеквадратических отклонений переменных от своих средних, и они становятся сопоставимыми межд у собой и с параметрами д ругих регрессий.

В этом случае система нормальных уравнений формируется коэффициентами корреляции, а не ковариации, и f-j = R-1r-j, гд е R-j — матрица коэффици-j ентов корреляции объясняющих переменных между собой, r-j — вектор столбец коэффициентов корреляции объясняющих переменных с объясняемой переменной.

Действительно (предполагается, что j = 1), соотношения (6.33) при указанной матрице C имеют следующую форму:

sX1 s1 X-1S--= e1. (6.36) -- -----S-1a-1 -Для того чтобы вектор параметров приобрел необходимую для простой регрессии форму, его над о разд елить на s1. Тогд а и e делится на s1 (т.е. на s1 делятся обе части уравнения (6.36)). После переноса объясняющих переменных в правую часть получается следующее уравнение регрессии:

1 Y1 = Y-1f-1 + e1, где f-1 = S-1a-1.

s1 sСистема нормальных уравнений для f-1 имеет следующий вид:

1 Y Y1 = Y Y-1f-1, -1 -N N 6.4. Многообразие оценок регрессии или, учитывая зависимость Y от X из (6.36), S-1m-1 = S-1M-1S-1 f-1.

-1 -s1 ------- -----R-r-Что и требовалось доказать.

Преобразование в пространстве переменных в ортогональной регрессии при использовании любой квадратной и невырожденной матрицы C = In приводит к получению новых оценок параметров.

В пункте 4.2 при n =2 этот факт графически иллюстрировался в случае, когда 1 C =.

0 k В общем случае верно утверждение, состоящее в том, что в результате преобразования и «возвращения» в исходное пространство для получения оценок a надо решить следующую задачу:

(M - ) a =0, a a =1, (6.37) где =C -1C-1.

Действительно:

После преобразования в пространстве переменных задача ортогональной регрессии записывается следующим образом (6.24, 6.25):

(MY - In) f =0, f f =1, (6.38) где, учитывая (6.33), MY = C MC, f = C-1a.

Выражение (6.37) получается в результате элементарных преобразований (6.38).

Понятно, что решение задачи (6.37) будет давать новую оценку параметрам a при любой квадратной и невырожденной матрице C = In. Такую регрессию иногда называют регрессией в метрике -1.

216 Глава 6. Алгебра линейной регрессии 6.5. Упражнения и задачи Упражнение По наблюдениям из таблицы 6.1:

Таблица 6.1.1. Вычислите 1 M-1 = X X-1, m-1 = X X-1 -X1 X-1 N N и для регрессии X1 = X-1a-1+1N b1+e1 найдите X2 Xоценки a-1 и b1.

0.58 1.00 1.c 1.2. Рассчитайте вектор X1 = X-1a-1 +1N b1 и век1.10 2.00 4.00 c тор e1 = X1 - X1. Убедитесь, что 1 e1 = 0 и N 1.20 3.00 9.cov(X-1, e) = X e1 =0.

-N 1.30 4.00 16.1.3. Вычислите объясненную дисперсию различными 1.95 5.00 25.способами:

2.55 6.00 36.00 c cX1;

s2 = XqN 2.60 7.00 49.s2 = a m-1;

q1 -2.90 8.00 64.s2 = m M-1m-1.

q1 -1 -3.45 9.00 81.1.4. Вычислите остаточную дисперсию различными 3.50 10.00 100.способами:

3.60 11.00 121.s2 = e e1;

e1 4.10 12.00 144.N 4.35 13.00 169.s2 = s2 - s2 = X1X1 - s2.

e1 1 q1 qN 4.40 14.00 196.1.5. Вычислите коэффициент детерминации различны4.50 15.00 225.ми способами:

sqR1 = ;

s cov(x1, xc) 2 R1 =.

s1sq1.6. Оцените параметры и коэффициент детерминации для ортогональной регрессии x = +.

6.5. Упражнения и задачи – сравните эти оценки с оценками линии регрессии, полученными в 1.1;

– рассчитайте расчетные значения переменных.

1.7. Оцените матрицу оценок и значений главных компонент ( AQ и Q), а также расчетное значение переменных.

1.8. Пусть единицы измерения x1 увеличились в 100 раз. Как в этом случае должна выглядеть матрица преобразования D Как изменятся оценки уравнения прямой и ортогональной регрессий Задачи 1. Может ли матрица 9.2 -3.8 -2 5.2 -3.8 - а) б) -3.8 2 0.6 -3.8 2 0. -2 0.5 2 -2 0.6 являться ковариационной матрицей переменных, для которых строится уравнение регрессии Ответ обосновать.

1 2. Для x = (x1, x2) = найдите оценки ковариаций переменных x, 2 6 оценки параметров уравнения прямой (x1 = a12x2 +1N b1 + e1) и обратной регрессии (x2 = a21x1 +1N b2 + e2). Покажите, что a12 =. Рассчитайте aвектор-столбец остатков по прямой и обратной регрессии. Убедитесь, что сумма остатков равна нулю, вектора остатков и x2 ортогональны при прямой регрессии, вектора остатков и x1 ортогональны при обратной регрессии. Найдите объясненную и остаточную дисперсии различными способами, а также коэффициент детерминации.

3. Предположим, что мы, используя модель регрессии x1 = x-1a-1 +1N b1 + + e1, из условия минимизации e e1 получили следующую систему линейных b1 +2a12 + a13 =3, уравнений:

2b1 +5a12 + a13 =9, b1 + a12 +6a13 = -8.

218 Глава 6. Алгебра линейной регрессии Запишите условия задачи в матрично-векторной форме, решите ее, используя метод, указанный в приложении для обратных матриц, и найдите оценки параметров регрессии.

4. Оцените регрессию x1 = a12x2 + a13x3 +1N b1 + e1 и рассчитайте:

– оценку остаточной дисперсии, – объясненную дисперсию, – коэффициент детерминации, если a) матрица наблюдений имеет вид:

5 1 1 2 X =(X1, X2, X3) =, -2 3 0 4 -4 5 б) X1X1 = 96, X2X2 = 55, X3X3 = 129, X1X2 = 72, X1X3 = 107, X2X3 = 81, X11N = 20, X21N = 15, X31N = 25, N =5.

5. Дисперсии двух переменных совпадают, корреляция отсутствует. Изобразить на графике — в пространстве переменных — линии прямой, обратной и ортогональной регрессий. Ответ обосновать.

6. Дисперсии выпуска продукции и количества занятых по предприятиям равны, соответственно, 10 и 20, их ковариация равна 12. Чему равен коэффициент детерминации в регрессии выпуска по занятым, коэффициент зависимости выпуска от занятых по прямой, обратной и ортогональной регрессии 7. Дисперсии временных рядов индекса денежной массы и сводного индекса цен равны, соответственно, 150 и 200, их ковариация равна 100. Чему равен параметр влияния денежной массы на цены по модели прямой регрессии и доля объясненной дисперсии в дисперсии индекса цен 14 3 8. По заданной матрице ковариации двух переменных найти оста 5 3 точную дисперсию уравнения регрессии первой переменной по второй.

6.5. Упражнения и задачи 9. В регрессии x1 = a12x2 +1Nb1 + e1, гд е x =(5, 3, 7, 1) коэффициент детерминации оказался равным 50%. Найдите сумму квадратов остатков.

10. Оцените модель x1 = a12x2 +1N b1 + e1, используя следующие данные:

3 1 (x1, x2) =.

8 3 5 5 Вычислите остатки (ei) и покажите, что ei =0, x2iei =0.

i=1 i=11. Две парные регрессии построены на одних и тех же данных: x1 = a12x2 + +1N b1 + e1 и x2 = a21x1 +1N b2 + e2. R1 — коэффициент детерминации в 2 2 первой регрессии, R2 — во второй. Запишите соотношение между R1 и R2.

Ответ обосновать.

12. Возможна ли ситуация, когда угловые коэффициенты в уравнениях прямой и обратной регрессии построены на одних и тех же данных, соответственно равны 0.5 и 3.0. Почему 13. Что геометрически означает R2 =0 и R2 =1 14. Регрессия x1 = 12x2 + 1 + 1 оценивается по двум наблюдениям. Чему равен коэффициент детерминации 1 15. Для x =(x1, x2) = оцените параметры ортогональной регрессии 2 6 и коэффициент детерминации. Покажите, что линия ортогональной регрессии находится между линиями прямой и обратной регрессии.

16. Какая из двух оценок коэффициента зависимости выпуска продукции от количества занятых в производстве больше: по прямой или по ортогональной регрессии Ответ обосновать.

17. Какая из двух оценок коэффициента зависимости спроса от цены больше:

по прямой или по ортогональной регрессии Ответ обосновать.

220 Глава 6. Алгебра линейной регрессии 18. Какой вид имеет уравнение ортогональной регрессии для переменных xи x2 с одинаковыми значениями дисперсий и средних, а также имеющих положительную корреляцию равную 19. Покажите, что решение задачи m11 m12 1 0 - =0, min! m12 m22 0 0 -aэквивалентно решению задачи прямой регрессии x1 = a12x2 +1N b1 + e1.

20. Пусть x1 и x2 — центрированные переменные. Уравнение ортогональной регрессии, поcтроенные по множеству наблюдений над величинами x1 и x2, есть x1 - x2 =0. Запишите вектор первой главной компоненты.

21. Оценка парной регрессии ведется в стандартизированной шкале. Как связан коэффициент детерминации и коэффициент регрессии (угловой) 22. Была оценена регрессия x1 = 12x2 + 1 + 1, гд е x1 измеряется в рублях, а x2 — в килограммах. Затем ту же регрессию оценили, изменив единицы измерения на тысячи рублей и тонны. Как при этом поменялись следующие величины: а) оценка коэффициента 12; б) коэффициент детерминации Как в этом случае должна выглядеть матрица преобразования D 23. Пусть в ортогональной регрессии, построенной для переменных x1 и x2, из-за деноминации рубля единица измерения x2 изменилась в 1000 раз. Как в этом случае должна выглядеть матрица преобразования DИзменятсяли оценки Ответ обосновать.

24. Пусть в наблюдениях задачи 2 единица измерения x1 увеличилась в 10 раз.

Как в этом случае должна выглядеть матрица преобразования D Как изменятся оценки уравнения прямой и обратной регрессии 9 25. В регрессии в метрике 1 матрица равна. Как преобразовать 0 исходные переменные, чтобы свести эту регрессию к ортогональной Рекомендуемая литература 1. Айвазян С.А. Основы эконометрики. Т.2. — М.: «Юнити», 2001. (Гл. 2).

6.5. Упражнения и задачи 2. Болч Б., Хуань К.Дж. Многомерные статистические методы для экономики. — М.: «Статистика», 1979. (Гл. 7).

3. Джонстон Дж. Эконометрические методы. — М.: «Статистика», 1980.

(Гл. 2, 11).

4. Дрейпер Н., Смит Г. Прикладной регрессионный анализ: В 2-х кн. Кн.1. — М.: «Финансы и статистика», 1986. (Гл. 1, 2).

5. Езекиэл М., Фокс К. Методы анализа корреляций и регрессий. — М.: «Статистика», 1966. (Гл. 5, 7).

6. Кейн Э. Экономическая статистика и эконометрия. Вып. 2. — М.: «Статистика», 1977. (Гл. 10, 11).

7. Лизер С. Эконометрические методы и задачи. — М.: «Статистика», 1971.

(Гл. 2).

8. (*) Маленво Э. Статистические методы эконометрии. Вып. 1. — М.: «Статистика», 1975. (Гл. 1).

9. Judge G.G., Hill R.C., Griffiths W.E., Luthepohl H., Lee T. Introduction to the Theory and Practice of Econometric. John Wiley & Sons, Inc., 1993. (Ch. 5).

10. William E., Griffiths R., Carter H., George G. Judge Learning and Practicing econometrics, N 9 John Wiley & Sons, Inc., 1993. (Ch. 3).

Глава Основная модель линейной регрессии 7.1. Различные формы уравнения регрессии Основная модель линейной регрессии относится к классу простых регрессий, в левой части уравнения которых находится одна переменная: объясняемая, моделируемая, эндогенная, а в правой — несколько переменных: объясняющих, факторных, независимых, экзогенных. Объясняющие переменные называют также факторами, регрессорами.

Для объясняемой переменной сохраняется прежнее обозначение — x. Авектор-строка размерности n объясняющих переменных будет теперь обозначаться через z, поскольку свойства этих переменных в основной модели регрессии существенно отличаются от свойств объясняемой переменной. Через X и Z обозначаются, соответственно, вектор-столбец размерности N наблюдений за объясняемой переменной и матрица размерности N n наблюдений за объясняющими переменными. Обозначения параметров регрессии и остатков по наблюдениям сохраняются прежними (отличие в том, что теперь вектор-столбцы и a имеют размерность n).

Уравнения регрессии в исходной форме имеют следующий вид:

X = Z +1N +, (7.1) 7.1. Различные формы уравнения регрессии или в оценках X = Za +1Nb + e. (7.2) В сокращенной форме:

X = +, (7.3) или X = a + e. (7.4) Оператор МНК-оценивания ((6.11, 6.13) в п. 6.2) принимает теперь вид:

a = M-1m, b = - za, (7.5) x где M = Z Z — ковариационная матрица переменных z между собой, N m = Z X — вектор ковариаций переменных z с переменной x. Первую часть N оператора (7.5) часто записывают в форме:

- a = Z Z Z X. (7.6) МНК-оценки e обладают следующими свойствами ((6.6, 6.12) в предыдущей главе):

1 = 1 e =0, cov (Z, e) = Z e =0. (7.7) N N N Коэффициент детерминации рассчитывается следующим образом (см. (6.20)):

ssq e R2 = =1 -, (7.8) s2 sx x где s2 — дисперсия объясняемой переменной, s2 — остаточная дисперсия, x e (6.2.6) s2 = a Ma = a m = m a = m M-1m (7.9) q — объясненная дисперсия.

Уравнение регрессии часто записывают в форме со скрытым свободным членом:

X = Z +, (7.10) X = Za + e, (7.11) 224 Глава 7. Основная модель линейной регрессии a где Z =[Z 1N ], =, a =.

b При таком представлении уравнения регрессии оператор МНК-оценивания записывается следующим, более компактным, чем (7.5), образом:

a = M-1m, (7.12) 1 где M = Z Z, m = Z X, или N N - a = Z Z Z X. (7.13) M и m также, как M и m, являются матрицей и вектором вторых моментов, но не центральных, а начальных. Кроме того, их размерность на единицу больше.

Оператор (7.12) дает, естественно, такой же результат, что и оператор (7.5).

Этот факт доказывался в п. 4.2 для случая одной переменной в правой части уравнения.

В общем случае этот факт доказывается следующим образом.

Учитывая, что X = X +1Nx, (7.14) Z = (7.15) Z +1N z 1N, можно установить, что M + z z z M =, (7.16) z m + x z m =, x и записать систему нормальных уравнений, решением которой является (7.12) в следующей форме:

M + z z a m + x z z =.

z 1 b x 7.1. Различные формы уравнения регрессии Вторая (нижняя) часть этой матричной системы уравнений эквивалентна второй части оператора (7.5). После подстановки b, выраженного через a, впервую(верхнюю) часть данной матричной системы уравнений она приобретает следующий вид:

Ma + za + x - z za = m + x, z z z и после приведения подобных становится очевидной ее эквивалентность первой части оператора (7.5).

Что и требовалось доказать.

Кроме того, можно доказать, что M-1 -M-1z M-1 =. (7.17) - 1+ zM-1 zM-1z Этот факт потребуется ниже. (Правило обращения блочных матриц см. в Приложении A.1.2.) Справедливость этого утверждения проверяется умножением M-1 из (7.17) на M из (7.16). В результате получается единичная матрица.

МНК-оценки вектора e ортогональны столбцам матрицы Z:

Pages:     | 1 |   ...   | 25 | 26 || 28 | 29 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.