WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 23 | 24 || 26 | 27 |   ...   | 82 |

6. Пусть — величина ВВП в России в 1998 г. Несколько различных экспертов рассчитали оценки ВВП xi. Какие условия для ошибок этих оценок xiдолжны выполнятся, чтобы среднее xi было несмещенной и эффективной оценкой 7. Проведено пять измерений некоторой величины. Результаты этих измерений следующие: 5.83, 5.87, 5.86, 5.82, 5.87. Как бы вы оценили истинное значение этой величины при доверительной вероятности 0.95 А при вероятности 0.99 8. Предположим, что исследователь, упоминавшийся в задаче 7, полагает, что истинное стандартное отклонение измеряемой величины равно 0.02. Сколько независимых измерений он должен сделать, чтобы получить оценку значения величины, отличающуюся от истинного значения не более чем на 0.01:

а) при 95%-ном доверительном уровне б) при 99%-ном доверительном уровне 9. Случайная величина измерена три раза в неизменных условиях. Получена оценка истинного значения этой величины 5.0 и стандартная ошибка этой оценки. Каким мог быть исходный ряд 10. Пусть имеется 25 наблюдений за величиной x, и по этим данным построен 95%-ный доверительный интервал для x: [1.968; 4.032]. Найдите по этим данным среднее значение и дисперсию ряда.

11. Пусть xi — продолжительность жизни i-го человека ( i =1,..., N), x — средняя продолжительность жизни, элементы выборки случайны и независимы. Ошибка измерения исходного показателя для всех i составляет 5%, 5.3. Упражнения и задачи какова ошибка x Вывести формулу x, рассчитать коэффициент вариации для x, если x1 =50, x2 =60, x3 =70.

12. Пусть объем экспорта равен 8 условных единиц, а импорта — 7 условных единиц. Показатели некоррелированы, их дисперсии одинаковы и равны условной единице. На каком уровне доверия можно утверждать, что сальдо экспорта-импорта положительно 13. Средние рентабельности двух разных фирм равны соответственно 0.4 и 0.2, стандартные отклонения одинаковы и составляют 0.2. Действительно ли первая фирма рентабельнее и почему 14. Наблюдаемое значение некоторой величины в предыдущий и данный момент времени одинаково и равно 10. Ошибки наблюдений не коррелированы и имеют одинаковую дисперсию. Какова относительная ошибка темпа роста 15. Пусть величина ВНП в I и II квартале составляла соответственно 550 и млрд. долларов. Ошибки при расчетах ВНП в I и II квартале не коррелированы и составляют 1%. Какова относительная ошибка темпа прироста ВНП во II квартале К каким последствиям в расчетах темпов роста и темпов прироста приведут ошибки измерения ВНП, равные 5% 16. Стандартная ошибка измерения показателя труда и показателя капитала составляет 1%, ошибки измерений не коррелированы. Найти относительную ошибку объема продукции, рассчитанного по производственной функции Кобба—Дугласа: Y = CKL.

17. Доля бюджетного дефицита в ВВП вычисляется по формуле (R - E)/Y, гд е R = 600 условных единиц — доходы бюджета, E = 500 условных единиц — расходы, Y = 1000 условных единиц — ВВП. Известно, что дисперсии R и E равна 100, дисперсия Y равна 25. Оценить сверху дисперсию доли дефицита.

Рекомендуемая литература 1. Венецкий И.Г., Венецкая В.И. Основные математико-статистические понятия и формулы в экономическом анализе. — М.: «Статистика», 1979.

(Разд. 7).

2. Езекиэл М., Фокс К. Методы анализа корреляций и регрессий. — М.: «Статистика», 1966. (Гл. 2).

198 Глава 5. Случайные ошибки 3. Кейн Э. Экономическая статистика и эконометрия. — М.: «Статистика», 1977. Вып. 1. (Гл. 8, 9).

4. Моргенштерн О. О точности экономико-статистических наблюдений. — М.:

«Статистика», 1968. (Гл. 2, 6).

5. Тинтер Г. Введение в эконометрию. — М.: «Статистика», 1965. (Гл. 1).

6. Frees Edward W. Data Analysis Using Regression Models: The Business Perspective, Prentice Hall, 1996. (Ch. 2).

7. (*) Judge G.G., Hill R.C., Griffiths W.E., Luthepohl H., Lee T. Introduction to the Theory and Practice of Econometric. John Wiley & Sons, Inc., 1993.

(Ch. 3, 5).

8. William E.Griffiths, R. Carter Hill., George G. Judge Learning and Practicing econometrics, N 9 John Wiley & Sons, Inc., 1993. (Ch. 14).

Глава Алгебра линейной регрессии 6.1. Линейная регрессия В этой главе предполагается, что между переменными xj, j =1,..., n существует линейная зависимость:

n xjj = +, (6.1) j=где j, j =1,..., n, (угловые коэффициенты и свободный член) — параметры (коэффициенты) регрессии (их истинные значения), — случайная ошибка; или в векторной форме:

x = +, (6.2) где x и — соответственно вектор-строка переменных и вектор-столбец параметров регрессии.

Как уже отмечалось в пункте 4.2, регрессия называется линейной, если ее уравнение линейно относительно параметров регрессии, а не переменных. Поэтому предполагается, что xj, j = 1,..., n, могут являться результатом каких-либо функциональных преобразований исходных значений переменных.

Для получения оценок aj, j = 1,..., n, b, e, соответственно, параметров регрессии j, j =1,..., n, и случайных ошибок используется N наблюдений за переменными x, i =1,..., N, которые образуют матрицу наблюдений X 200 Глава 6. Алгебра линейной регрессии размерности N n (столбцы — переменные, строки — наблюдения). Уравнение регрессии по наблюдениям записывается следующим образом:

X =1N +, (6.3) где, как и прежде, 1N — вектор-столбец размерности N, состоящий из единиц, — вектор-столбец размерности N случайных ошибок по наблюдениям;

или в оценках:

Xa =1N b + e. (6.4) Собственно уравнение регрессии (без случайных ошибок) x = или xa = b определяет, соответственно, истинную или расчетную гиперплоскость (линию, плоскость,... ) регрессии.

Далее применяется методнаименьших квадратов: оценки параметров регрессии находятся так, чтобы минимального значения достигла остаточная дисперсия:

1 s2 = e e = a X - b1 (Xa - 1N b).

e N N N Из равенства нулю производной остаточной дисперсии по свободному члену b следует, что xa = b (6.5) и 1 e =0. (6.6) N Действительно, - 2(xa - b), s2 e = - 1 (Xa - 1Nb) = N b N - 1 e.

N N Вторая производная по b равна 2, т.е. в найденной точке достигается минимум.

Здесь и ниже используются следующие правила матричной записи результатов дифференцирования линейных и квадратичных форм.

Пусть x, a —вектор-столбцы, — скаляр, а M — симметричная матрица. Тогда:

dx x a x M x Mx = x, = a, = M, =2Mx.

d x x x (См. Приложение A.2.2.) 6.2. Простая регрессия Этот результат означает, что точка средних значений переменных лежит на расчетной гиперплоскости регрессии.

В результате подстановки выражения b из (6.5) через a в (6.4) получается другая форма записи уравнения регрессии:

Xa = e, (6.7) где X = X - 1N x — матрица центрированных значений наблюдений.

(6.3, 6.4) — исходная, (6.7) —сокращенная запись уравнения регрессии.

Минимизация остаточной дисперсии по a без дополнительных условий приведет к тривиальному результату: a =0. Чтобы получать нетривиальные решения, на вектор параметров и их оценок a необходимо наложить некоторые ограничения. В зависимости от формы этих ограничений возникает регрессия разного вида — простая или ортогональная.

6.2. Простая регрессия В случае, когда ограничения на вектор a () имеют вид aj =1 ( j =1), возникают простые регрессии. В таких регрессиях в левой части уравнения остается одна переменная (в данном случае j-я), а остальные переменные переносятся в правую часть, и уравнение в исходной форме приобретает вид (регрессия j-й переменной по остальным, j-я регрессия):

Xj = X-ja-j +1N bj + ej, (6.8) где Xj — вектор-столбец наблюдений за j-й переменной — объясняемой, X-j — матрица наблюдений размерности N (n - 1) за остальными переменными — объясняющими (композиция Xj и X-j образует матрицу X), a-j — вектор a без j-го элемента (равного 1), взятый с обратным знаком (композиция 1 и -a-j образует вектор a), bj и ej — соответственно свободный член и вектор-столбец остатков в j-й регрессии. В сокращенной форме:

Xj = X-ja-j + ej. (6.9) В таких регрессиях ошибки eij — расстояния от гиперплоскости регрессии до точек облака наблюдения — измеряются параллельно оси xj.

Остаточная дисперсия приобретает следующую форму:

1 s2 = e ej = Xj - a X Xj - X-ja-j. (6.10) ej j -j -j N N 202 Глава 6. Алгебра линейной регрессии Из равенства нулю ее производных по параметрам a-j определяется, что a-j = M-1m-j, (6.11) -j где M-j = X X-j — матрица ковариации объясняющих переменных x-j N -j между собой, m-j = X Xj — вектор-столбец ковариации объясняющих пеN -j ременных с объясняемой переменной xj; и cov (X-j, ej) = X ej =0. (6.12) -j N Действительно, s2 2 -2(m-j - M-ja-j), ej = - X Xj - X-ja-j = -j a-j N - 2 X ej.

-j N Кроме того, очевидно, что матрица вторых производных равна 2M-j, и она, как всякая ковариационная матрица, положительно полуопределена. Следовательно, в найденной точке достигается минимум остаточной дисперсии.

Справедливость утверждения о том, что любая матрица ковариации (теоретическая или ее оценка) положительно полуопределена, а если переменные линейно независимы, то — положительно определена, можно доказать в общем случае.

Пусть x — случайный вектор-столбец с нулевым математическим ожиданием. Его теоретическая матрица ковариации по определению равна E (xx ). Пусть =0 — детерминированный вектор-столбец. Квадратичная форма E(xx ) = E( xx ) =E ( x)2 0, т.е. матрица положительно полуопределена. Если не существует такого =0, что x =0, т.е. переменные вектора x линейно не зависят друг от друга, то неравенство выполняется строго, и соответствующая матрица положительно определена.

Пусть X —матрица N наблюдений за переменными x. Оценкой матрицы ко1 вариации этих переменных является X X. Квадратичная форма X X = N N = u u 0, гд е u = X, т.е. матрица положительно полуопределена. Если не N существует такого =0, что X =0, т.е. переменные x линейно не зависят друг от друга, то неравенство выполняется строго, и соответствующая матрица положительно определена.

Оператор МНК-оценивания образуется соотношениями (6.11) и (6.5), которые в данном случае записываются следующим образом:

bj = - x-ja-j (6.13) xj 6.2. Простая регрессия (соотношения МНК-оценивания (4.37), данные в пункте 4.2 без доказательства, являются частным случаем этого оператора).

Уравнения m-j = M-ja-j, (6.14) решение которых дает первую часть оператора МНК-оценивания (6.11), называется системой нормальных уравнений.

МНК-оценки остатков имеют нулевую среднюю (6.6) и не коррелированы (ортогональны) с объясняющими переменными уравнения (6.12).

Систему нормальных уравнений можно вывести, используя иную логику. Если обе части уравнения регрессии (6.9) умножить слева на X и разделить на N, -j то получится условие m-j = M-ja-j + X ej, из которого получается искомая -j N система при требованиях j =0 и cov(X-j, ej) =0, следующих из полученных свойств МНК-оценок остатков.

Такая же логика используется в методе инструментальных переменных. Пусть имеется матрица Z размерности N (n - 1) наблюдений за некоторыми величинами z, называемыми инструментальными переменными, относительно которых известно, что они линейно не зависят от j и коррелированы с переменными X-j.

Умножение обеих частей уравнения регрессии слева на Z и деление их на N да1 1 ет условие Z Xj = Z X-ja-j + Z ej, из которого — после отбрасывания N N N второго члена правой части в силу сделанных предположений — следует система нормальных уравнений метода инструментальных переменных:

mz = Mz az, (6.15) -j -j -j где mz = cov (z, xj), Mz = cov (z, x-j).

-j -j Значения j-й (объясняемой) переменной, лежащие на гиперплоскости регрессии, называются расчетными (по модели регрессии):

c Xj = X-ja-j +1N bj, (6.16) c Xj = X-ja-j. (6.17) Их дисперсия называется объясненной (дисперсия, объясненная регрессией) и может быть представлена в различных вариантах:

1 (6.11) c cXj (6.17) s2 = Xj = a M-ja-j = a m-j = m a-j = m M-1m-j.

qj -j -j -j -j -j N (6.18) 204 Глава 6. Алгебра линейной регрессии Если раскрыть скобки в выражении остаточной дисперсии (6.10) и провести преобразования в соответствии с (6.11, 6.18), то получается s2 = s2 - s2, ej j qj где s2 — дисперсия j-й (объясняемой) переменной, или j s2 = s2 + s2. (6.19) j qj ej Это — дисперсионное тождество, показывающее разложение общей дисперсии объясняемой переменной на две части — объясненную (регрессией) и остаточную.

Доля объясненной дисперсии в общей называется коэффициентом детерминации:

s2 sqj ej Rj = =1 -, (6.20) s2 sj j который является показателем точности аппроксимации исходных значений объясняемой переменной гиперплоскостью регрессии (объясняющими переменными).

Он является квадратом коэффициента множественной корреляции между объясняемой и объясняющими переменными rj,-j, который, по определению, равен коэффициенту парной корреляции между исходными и расчетными значениями объясняемой переменной:

c cov xj, xc 1 XjXj (6.17) 1 XjX-ja-j j rj,-j = = = = sjsqj N sjsqj N sjsqj m a-j (6.18) s2 (6.20) -j qj = = = Rj.

sjsqj sjsqj Из (6.19) следует, что коэффициент корреляции по абсолютной величине не превышает единицы.

Эти утверждения, начиная с (6.16), обобщают положения, представленные в конце пункта 4.2.

Композиция 1 и -aj обозначается a(j) и является одной из оценок вектора. Всего таких оценок имеется n — по числу простых регрессий, в левой части уравнения которых по очереди остаются переменные xj, j =1,..., n. Эти векторстолбцы образуют матрицу A. По построению ее диагональные элементы равны единице ( ajj =1 вслед за aj (j) =1).

Все эти оценки в общем случае различны, т.е. одну из другой нельзя получить алгебраическим преобразованием соответствующих уравнений регрессии:

a (j) = a j, j = j. (6.21) aj (j ) 6.3. Ортогональная регрессия Это утверждение доказывалось в пункте 4.2 при n =2. В данном случае справедливо утверждение, что соотношение (6.21) может (при некоторых j, j ) выполняться как равенство в том и только том случае, если среди переменных xj, j =1,..., n существуют линейно зависимые.

Достаточность этого утверждения очевидна. Действительно, пусть переменные некоторого подмножества J линейно зависимы, т.е. существует такой вектор, вкото ром j = 0 при j J и j = 0 при j J, и X = 0. Тогда для любого j J / / справедливо: a(j) =, причем aj (j) =0 при j J, и ej =0, т.е. некоторые j соотношения (6.21) выполняются как равенства.

Для доказательства необходимости утверждения предполагается, что существует такой =0, что A =0 (6.22) (т.е., в частности, некоторые соотношения из (6.21) выполняются как равенства).

Сначала следует обратить внимание на то, что вслед за (6.14) все компоненты век тора Ma(j) ( M — матрица ковариации всех переменных x: M = X X), кроме N j-й, равны нулю, а j-я компонента этого вектора в силу (6.18, 6.19) равна s2, т.е.

ej MA = Se, (6.23) где Se — диагональная матрица s2.

Pages:     | 1 |   ...   | 23 | 24 || 26 | 27 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.