WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 4 | 5 || 7 |

= = = = = J = = = F = s2 = = = s2 - основное тождество дисперсионного анализа, показывающее xJ J == = = распределение общей дисперсии изучаемой величины по факторам и их взаимодействиям, / где s2 = XJ ~ - дисперсия, объясненная совместным влиянием = = bJ = J NJ факторов J; представляет собой сумму квадратов с NJ степенями свободы.

Все эти дисперсии не зависят друг от друга. Если совместное влияние факторов J так же существенно (или не существенно) как и факторов J, то статистика J s2 N J (предполагается, что она больше единицы) s2 NJ J имеет FN J,N J -распределение (предполагается, что x нормально распределено).

- - - - Этот факт можно использовать для проверки гипотез о сравнительной существенности факторов и их взаимодействий.

Обычно эффекты высоких порядков отождествляют со случайной ошибкой.

Уравнение регрессии приобретает свою обычную форму и можно воспользоваться tи F-критериями для проверки значимости отдельных факторов и их взаимодействий. Важно, что оценки оставшихся в уравнении эффектов при этом не меняются.

Переходя к более общему и более сложному случаю модели дисперсионного анализа с повторениями, полезно вспомнить следующее. Если в модели регрессионного анализа X = Z + = + = + = + несколько строк матрицы Z одинаковы, то можно перейти к сокращенной модели, в которой из всех этих строк оставлена одна, а в качестве соответствующей компоненты вектора X взято среднее по этим наблюдениям с одинаковыми значениями независимых факторов. Т.е. совокупность наблюдений с одинаковыми значениями независимых факторов заменяется одним групповым наблюдением. При исходной гипотезе E(/ ) = 2I дисперсия остатка по этому наблюдению равна ng2, где ng - количество замененных наблюдений, и значения переменных в групповом наблюдении должны быть умножены на ng (в соответствии с ОМНК).

Значения оценок параметров по исходной и сокращенной модели будут одинаковыми, но полная (X/ X ) и остаточная (e/e) суммы квадратов в исходной модели будут больше, чем в сокращенной на сумму квадратов отклонений переменных x по исключенным наблюдениям от своей средней.

Пусть теперь рассматривается регрессионная модель одномерного однофакторного дисперсионного анализа с повторениями:

~ = + X = [Z0,Z] ~ +.

= + = + Фактор принимает k значений, и для каждого i-го значения существует ni наблюдений (ni повторений), т.е. исходная совокупность X разбита по какому-то признаку на k групп, причем сначала в ней идут наблюдения по 1-й группе, потом по 2-й и т.д..

1n1 0. k ~ 0 1n2. = N = ni ; Z - Nk-матрица структуры.

= = = i== =....

0 0. 1nk Всем повторениям в матрице Z соответствуют одинаковые строки, поэтому можно перейти к сокращенной модели.

k = x - среднее и s2 - дисперсия по i-й группе; s2 = nis2 - суммарная = = i i e i N = i == = дисперсия по группам. Сокращенная модель имеет следующий вид:

= + i = ni x = ni (0 + ), i = 1, k.

= + = = + = i k При естественном требовании b0 = x, которое эквивалентно nibi = 0, = = = = i== = - n2 n - -.. - nk - - n1 - n - - - n 1 0.. матрица C имеет вид и bi = x - x.

= = = i 0 1......

....

0 0.. k s2 = nib2 - объясненная дисперсия, равная полной дисперсии в = = = q i N = i == = сокращенной модели.

Полная дисперсия в исходной модели распадается на две части:

= + s2 = s2 + s= + = + x q e - объясненную и остаточную, или в терминах дисперсионного анализа межгрупповую и внутригрупповую дисперсии, которые имеют, соответственно, k и - N-k-1 степеней свободы. Применяя F-критерий, можно оценить статистическую - - значимость использования данной группировки в целом или выделения отдельных групп.

Теперь рассматривается общий случай L-факторной модели.

В этом случае N больше NF на общее число повторений по всем сочетаниям значений факторов. Пусть nI - число наблюдений при I-м сочетании значений факторов;

nI 1, nI = N ;

= = = I xI - среднее значение и s2 - дисперсия наблюдений при I-м сочетании;

I s2 = nIs2 - суммарная внутригрупповая или остаточная дисперсия для = = = e I N I исходной модели с N-NF-1 степенями свободы.

Сокращенная модель имеет вид:

= n0.5X = n0.5Z, = = где n - диагональная NF-матрица {nI};

X - NF-вектор-столбец {xI};

Z, - аналогичны L-факторной модели без повторений.

Пусть далее ~ M = n, = = = N ~ ~ ~ ~ ~ J JJ = N NJ -матрица M = ZJ / MZJ, в частности NMJJ - диагональная = = NJ- матрица {nJJ }, где nJJ - количество наблюдений при IJ-м сочетании значений I I ~~ FF факторов J ( M = M );

= = = ~ J JJ JJ N NJ -матрица M = CJ / M CJ, = = = - - - - ~ NJ -вектор-столбец mJ = CJ / MJJXJ, = = = -~ ~ ~ где XJ = MJJ ZJ / MX - NJ-вектор-столбец средневзвешенных x по = = = сочетаниям значений факторов J.

Матрица M и вектор m системы нормальных уравнений для b составляются JJ естественным образом из блоков M и mJ.

Формулы для MJ (в данном случае MJJ), mJ и XJ, приведенные для модели без повторений, являются частным случаем этих формул при n = IN F.

= = = F ~ - - 2 - = - =~ ~ -1 s2 = m/M-1m - x = X/M(M - 1N )MX - полная дисперсия в = - = = - = q сокращенной модели или объясненная дисперсия в исходной модели.

JJ Разные эффекты могут оставаться ортогональными ( M = 0 при J J ) в = = = одном специальном случае, когда каждый более младший фактор делит все ~~ выделенные до него подгруппы в одинаковых пропорциях, т.е. M = (в = = = M jj jF частности, когда количество повторений nI для всех сочетаний I одинаково). В этом случае для ортогональности эффектов достаточно матрицы Сj выбрать так, чтобы ~ j 1/ MCj = 0. Эти требования удовлетворяются, если данные матрицы обладают = = = k j описанной выше (для однофакторной модели с повторениями) структурой:

-cj j j = = Сj =, где cj = (n2,..., nk j ).

= = = = j nk I j - - - - Такие матрицы обобщают структуру матриц Сj модели без повтрений.

Для этого специального случая можно построить формулы решения задачи дисперсионного анализа, обобщающие приведенные выше формулы для модели без повторений.

В общем случае указанный выбор матриц Сj обеспечивает равенство нулю только M0j. Особым выбором CJ (p(J)>1) можно добиться равенства нулю еще некоторых блоков общей матрицы M.

Матрица CJ не обязательно должна равняться прямому произведению Сj по jJ. Она должна быть размерности NJ NJ и иметь ранг NJ, т.е., например, - - - - -cJ - - - обладать структурой, где cJ - (NJ - NJ ) NJ -матрица. Поэтому для - - - - IN J определения этой матрицы необходимо иметь (NJ - NJ ) NJ условий.

- - - - Поскольку J - = NJ - NJ = N, - = - = -- - - J J J J нужное количество условий содержат требования ~ = = MJJ = CJ / MJJCJ = = = = = N для всех J J, J J, включая пустое множество J = 0 (C0 = 1).

= = = Таким образом, матрицы CJ всегда можно определить так, чтобы эффекты нулевого и высшего порядков были ортогональны друг с другом и с остальными эффектами, и, в частности, b0 = x.

= = = Дисперсия s2 в общем случае не делится на факторные дисперсии, как это q было в модели без повторений; точно в ней выделяется только дисперсия эффектов высшего порядка (при указанном выборе CJ):

~ ~ ~ = s2 = X/MCF(CF / MCF)-1CF / MX, = = F и для нее непосредственно можно проверить нулевую гипотезу с помощью Fкритерия F s2 N F.

F s2 (N - N - 1) - - - e Нулевые гипотезы для остальных факторных дисперсий имеют вид J = 0, и в числителе F-статистики помещается величина -bJ / (MJJ )-1 bJ NJ, -где MJJ - соответствующий блок матрицы M-1, а в знаменателе F F F s2 (N - N - 1) или (s2 + s2 ) (N + N- - N - 1) - если - - + + - - - + + - - - + + - e e F нулевая гипотеза для s2 не отвергается.

F Теоретические вопросы и задания 1(*). Доказать смещенность МНК-оценок в случае наличия ошибок в независимых переменных.

2. Почему, если известна оценка W ковариационной матрицы ошибок независимых переменных, то приведенная формула расчета оценок параметров простой регрессии обеспечивает их несмещенность 3. Вывести формулу оценки Вальда углового коэффициента регрессии.

4(*). Почему при наличии ошибок во всех переменных применима ортогональая регрессия Каким образом в этом случае регрессия в метрике - играет роль взвешенной регрессии 5. Для модели с фиктивными переменными вывести формулы, связывающие ~ параметры, и в общем случае.

6(*). Показать эквивалентность обоих приведенных способов устранения линейной зависимости между фиктивными переменными в исходной форме уравнения регрессии.

7. Оценка параметров систем уравнений 7.1. Невзаимозависимые системы x, - k-вектора-строки центрированных значений изучаемых (эндогеных) переменных и их случайных ошибок; E() = 0, E(/) = 2;

z - n-вектор-строка центрированых значений независимых факторов (экзогенных переменных);

A - n k-матрица коэффициентов регрессии;

x = zA + - система уравнений регрессии;

= + = + = + X = Z A + - та же система по N наблюдениям; в каждом наблюдении = + = + = + матожидание ошибок равно нулю, их матрица ковариации одинакова (равна 2) и они не скоррелированы по наблюдениям.

-A = MZZMZX, = = = = = где MZZ = Z/ X, MZX = Z/ Z, т.е. факт скоррелированности = = = = N N ошибок разных изучаемых переменных ( Ik ) не создает дополнительных проблем, и уравнения системы могут оцениваться по отдельности с помощью обычного МНК.

Пусть для коэффициентов матрицы A имеются априорные ограничения, и эта матрица имеет, например, следующую структуру:

a1 0.. 0 a2..,....

....

0 0.. ak где ai - ni-вектор-столбец коэффициентов в i-м уравнении (для i-й изучаемой k = переменной); ni = n. Т.е. для каждой изучаемой переменной имеется свой набор = = = i== = ni-матрицей наблюдений Z (Z = [Z,Z,...,Z ]), объясняющих факторов с N = = = i 1 2 k и система уравнений записывается как совокупность внешне не связанных между собой уравнений:

X = Z ai + i, i = 1, k.

= + = = + = = + = i i Поскольку ошибки скоррелированы, правильная оценка параметров регрессии дается решением следущих уравнений:

k k - -1M = = = -1mij, i = 1, k, - = - = = - ijaj = ij ij = = j=1 j== = = = = = -где M = Z/ Z, mij = Z/ X, - элемент матрицы -1.

= = = = - j j ij i i ij N N -= Эта оценка совпадает с обычной МНК-оценкой ai = M mii, если матрица = = ii диагональна.

7.2. Взаимозависимые или одновременные уравнения.

Проблема идентификации.

Уравнения регрессии записываются в форме без свободного члена.

X - N k-матрица наблюдений за изучаемыми переменными x;

Z - N(n+1)-матрица наблюдений за независимыми факторами z;

B - k k-матрица параметров регрессии при изучаемых переменных; B 0 и ll = 1 - условия нормализации, т.е. предполагается, что в конечном счете в левой части l-го уравнения остается только l-я переменная, а остальные изучаемые переменные переносятся в правую часть;

A - (n+1)k-матрица параметров регрессии при независимых факторах;

- N k-матрица значений случайных ошибок по наблюдениям;

xB = zA +, или XB = ZA + - структурная форма системы уравнений регрессии;

- - - - - - - - - x = zAB-1 + B-1, или X = ZAB-1 + B-1 - приведенная форма системы;

D = AB-1 - (n+1) k-матрица параметров регрессии приведенной формы.

Для их оценки используется МНК: D = (Z/Z)-1Z/X.

= = = DB - A = 0 или WH = 0, = где (n+1)(n+k+1)-матрица W = [D, In+1 ], = = + + + B (n+k+1) =, k-матрица H = = = -A - - - - условия для оценки параметров структурной формы.

В общем случае этих условий недостаточно. Необходимы дополнительные условия. Пусть для параметров l-го уравнения имеется дополнительно r l условий:

R lh l = 0, где R l - r l(n+k+1)-матрица дополнительных условий;

Bl hl - (n+k+1)-вектор-столбец параметров l-го уравнения - l-й -A - - l - столбец матрицы H.

W = = = = = = l R h = Wlhl = 0 - общие условия для определения структурных l (n+k+1)-матрица.

параметов l-го уравнения, где Wl - (n+r l+1) Они позволяют определить искомые параметры с точностью до постоянного множителя (с точностью до выполнения условий нормализации ll = 1), если ранг матрицы Wl равен n+k. Для этого необходимо, чтобы rl k - 1 ; необходимо и -1.

достаточно, чтобы ранг матрицы R lH равнялся kl-е уравнение не идентифицировано, если rl < k - 1 ; оно точно < < < идентифицировано, если rl = k - 1 и ранг Wl равен n+k;

= = = сверхидентифицировано, если rl > k - 1 и строки Rl линейно не зависмы.

> > > Обычно строки матрицы Rl являются ортами, т.е. дополнительные ограничения исключают некоторые переменные из структурной формы. Тогда, если kl и n l - количества, соответственно, изучаемых переменных и независимых факторов в l-м уравнении, то для его идентификации необходимо, чтобы kl + nl n + 1.

+ + + + + + Дальнейшее изложение ведется в предположении, что строки матрицы Rl орты.

7.3. Оценка параметров отдельного уравнения Xl - N kl-матрица наблюдений за изучаемыми переменными xl, входящими в l-е уравнение;

Xl - N-вектор-столбец наблюдений за l-й переменной x l;

l l X- - N(kl-1)-матрица Xl без столбца Xl наблюдений за ;

x - - - l - kl-вектор-столбец параметров при изучаемых переменных в l-м уравнении;

l - (kl-1)-вектор-столбец l с обратным знаком и без l-го элемента (без - - - элемента ll = 1);

Z l - N +1)-матрица наблюдений за независимыми факторами zl, (n l входящими в l-е уравнение;

l - (n l+1)-вектор-столбец параметров при этих факторах;

l - N-вектор-столбец остатков l в l-м уравнении по наблюдениям;

l Xll = Zl + l или Xl = X-l + Zl + l - l-е уравнение регрессии.

= + = + + = + = + + = + = + + l - l Применение обычного МНК к этому уравнению дает в общем случае смещенные оценки.

Если данное уравнение точно идентифицировано, то для оценки его параметров можно использовать косвенный метод (КМ) наименьших квадратов. С помощью МНК оцениваются параметры приведенной формы системы уравнений, через которые однозначно выражаются структурные параметры данного уравнения.

Можно записать уравнения для этой оценки. Действительно, условия RlH = = = = l эквивалентны TlBBl =, TlAAl =, = l = = = = = l где TlB - klk-матрица, полученная из Ik вычеркиванием нужных строк;

TlA - аналогичная (n l+1) (n+1)-матрица для Al.

Pages:     | 1 |   ...   | 4 | 5 || 7 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.