WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 19 | 20 || 22 | 23 |   ...   | 82 |

В действительности любое число, лежащее на отрезке с концами a12, a12 (2) (т.е. либо [a12, a12 (2)], если m12 0, либо [a12 (2), a12], если m12 0), может являться МНК-оценкой параметра 12, т.е. оценкой этого параметра является 1a12 + 2a12 (2) при любых 1 и 2, таких что 1 0, 2 0, 1 + 2 =1.

Каждая из этих оценок может быть получена, если расстояния от точек облака наблюдения до линии регрессии измерять подопределенным углом, что достигается с помощью предварительного преобразования в пространстве переменных.

Убедиться в этом можно, рассуждая следующим образом.

Пусть получена оценка углового коэффициента по ортогональной регрессии (рис. 4.3, слева). Теперь проводится преобразование в пространстве переменных: x умножается на некоторое число k >1, и снова дается оценка этого коэффициента по ортогональной регрессии (рис. 4.3, справа). После возвращения в исходное пространство получается новая оценка углового коэффициента, сопоставимая со старой (возвращение в исходное пространство осуществляется умножением оценки коэффициента, полученной в преобразованном пространстве, на число k).

Этот рисунок не вполне корректен, т.к. переход в новое пространство переменных и возвращение в исходное пространство ведет к смещению линии регрессии. Однако 4.2. Регрессионный анализ смысл происходящего он поясняет достаточно наглядно: новая оценка получена так, как будто расстояния от точек облака наблюдений до линии регрессии измеряются под углом, не равным 90. Должно быть понятно, что в пределе, при k, расстояния до линии регрессии будут измеряться параллельно оси x1 и полученная оценка углового коэффициента совпадет с a12. Наоборот, в пределе при k 0 эта оценка совпадет с a12 (2).

Выбор оценок параметров регрессии на имеющемся множестве зависит от характера распределения ошибок измерения переменных. Это — предмет изучения во II части книги. Пока можно предложить некоторые эмпирические критерии.

Например, следующий.

Общая совокупность (множество наблюдений) делится на две части: обучающую и контрольную. Оценка параметров производится по обучающей совокупности. На контрольной совокупности определяется сумма квадратов отклонений фактических значений переменных от расчетных. Выбирается та оценка, которая дает минимум этой суммы. В заключение выбранную оценку можно дать по всей совокупности.

Рассмотренный случай двух переменных легко обобщить на n переменных (без доказательств: они даются во II части книги). Основное уравнение регрессии записывается следующим образом: x1 = x-1-1 + 1 + 1, где x-1 =[x2,..., xn] — вектор-строка всех переменных кроме первой, вектор факторных переменных,.

.

-1 =.

1n — вектор-столбец параметров регрессии при факторных переменных, а в матрич ной форме: X1 = X-1a-1 + e1, гд е X-1 — матрица размерности N (n - 1) наблюдений за факторными переменными.

По аналогии с (4.21, 4.26):

a-1 = M-1m-1, (4.37) -b1 = - x-1a-1, x где M-1 = X X-1 — матрица ковариации факторных переменных между соN -бой, m-1 = X X1 — вектор-столбец ковариации факторных переменных с моN -делируемой переменной, 158 Глава 4. Введение в анализ связей x-1 = 1 X-1 — вектор-строка средних значений факторных переменных.

N N Расчетные значения моделируемой переменной, т.е. ее математические ожидания, есть c X1 = X-1a-1.

Как и в случае двух переменных объясненной дисперсией является дисперсия расчетных значений моделируемой переменной:

1 (4.37) (4.37) s2 = a X X-1a-1 = a M-1a-1 = a m-1 = m M-1m-1.

q1 -1 -1 -1 -1 -1 -N (4.38) Коэффициент множественной корреляции r1,-1 есть коэффициент корреляции между моделируемой переменной и ее расчетным значением (cov — обозначение ковариации):

1 (4.38) cov (xc, x1) = a X X1 = a m-1 = s2, 1 -1 -1 -1 qN scov (xc, x1) sqqr1,-1 = = =, sq1s1 svar (xc) var (x1) Коэффициент детерминации, равный квадрату коэффициента множественной корреляции:

sqR2 =, sпоказывает долю объясненной дисперсии в общей.

Если связь отсутствует и -1 =0 (нулевая гипотеза), то расчетная статистика Фишера R2 (N - n) c F = (1 - R2)(n - 1) имеет F -распределение с n - 1 степенями свободы в числителе и N - n степенями свободы в знаменателе — Fn-1,N-n. Логика использования этой статистики сохраняется прежней.

При использовании в общем случае записи уравнения регрессии в форме со скрытым свободным членом X1 = X-1-1 + e, 4.2. Регрессионный анализ a- где X-1 — матрица [X-1, 1N ] размерности N (n+1), -1 — вектор, bоператор МНК-оценивания записывается как -1 = M-1m-1, (4.39) -1 где m-1 = X X1, M-1 = X X-1.

N -N -Достаточно простые алгебраические преобразования показывают, что этот оператор эквивалентен (4.37).

Полезной является еще одна геометрическая A иллюстрация регрессии — в пространстве наблюдений (см. рис. 4.4 и 4.5).

При n = 2 (n — количество переменных), OA — вектор x1, OB — вектор x2, OC — вектор проекции x1 на x2, равный расчетному O C B значению xc, CA — вектор остатков e1, так что:

x1 = a12x2 + e1. Косинус угла между OA и OB Рис. 4.равен коэффициенту корреляции.

При n =3, OA — вектор x1, OB — вектор x2, OC — вектор x3, OD — вектор проекции A x1 на плоскость, определяемую x2 и x3, равный расчетному значению xc, DA — вектор остатков F C e1, OE — вектор проекции xc на x2, равный a12x2, OF — вектор проекции xc на x3, равный O a13x3, так что x1 = a12x2 + a13x3 + e1. Косинус угла между OA и плоскостью, определенной x D E и x3, (т.е. межд у OA и OD) равен коэффициенту множественной корреляции.

B Кроме оценки a-1 можно получить оценки a-1 (j), j =2,..., n, последовательно переводя Рис. 4.в левую часть уравнения переменные xj, приме няя МНК и алгебраически возвращаясь к оценкам исходной формы уравнения.

Для представления ортогональной регрессии в общем случае подходят формулы (4.34, 4.36) и другие матричные выражения, приведенные выше при описании ортогональной регрессии. Необходимо только при определении векторов и матриц, входящих в эти выражения, заменить «2»на «n».

С помощью преобразований в пространстве переменных передиспользованием ортогональной регрессии и последующего возвращения в исходное пространство 160 Глава 4. Введение в анализ связей в качестве оценок a-1 можно получить любой вектор из множества (симплекса) n n 1a-1 + ja-1 (j), j 0, j =1,..., n, j =1.

j=2 j=Это — подмножество всех возможных МНК-оценок истинных параметров -1.

4.3. Дисперсионный анализ Дисперсионный анализ заключается в представлении (разложении) дисперсии изучаемых признаков по факторам и использовании F -критерия для сопоставления факторных «частей» общей дисперсии с целью определения степени влияния факторов на изучаемые признаки. Примеры использования дисперсионного анализа даны в предыдущем пункте при рассмотрении общей дисперсии моделируемой переменной как суммы объясненной и остаточной дисперсии.

Дисперсионный анализ может быть одномерным или многомерным. Впервом случае имеется только один изучаемый (моделируемый) признак, во втором случае их несколько. В данном курсе рассматривается только первый случай. Применение методов этого анализа основывается на определенной группировке исходной совокупности (см. п. 1.9). В качестве факторных выступают группирующие признаки. То есть изучается влияние группирующих признаков на моделируемый. Если группирующий (факторный) признак один, то речь идет об однофакторном дисперсионном анализе, если этих признаков несколько — о многофакторном анализе. Если в группировке для каждого сочетания уровней факторов имеется строго одно наблюдение (численность всех конечных групп в точности равна единице), говорят о дисперсионном анализе без повторений; если конечные группы могут иметь любые численности — с повторениями. Многофакторный дисперсионный анализ может быть полным или частичным. В первом случае исследуется влияние всех возможных сочетаний факторов (смысл этой фразы станет понятным ниже). Во втором случае принимаются во внимание лишь некоторые сочетания факторов.

В этом пункте рассматриваются две модели: однофакторный дисперсионный анализ с повторениями и полный многофакторный анализ без повторений.

Пусть исходная совокупность xi, i =1,..., N сгруппирована по одному фактору, т.е. она разделена на k групп:

xill — значение изучаемого признака в il-м наблюдении (il =1,..., Nl) в l-й группе (l =1,..., k); Nl = N.

4.3. Дисперсионный анализ Рассчитываются общая средняя и средние по группам:

k Nl k 1 x = xill = Nlxl, N N l=1 il=1 l=Nl xl = xill, Nl il=общая дисперсия, дисперсии по группам и межгрупповая дисперсия (s2):

q Nl k s2 = (xill - x)2, N l=1 il=Nl s2 = (xill - xl)2, l Nl il=k s2 = Nl ( - x)2.

xl q N l=Общую дисперсию можно разложить на групповые и межгрупповую дисперсии:

k Nl s2 = ((xill - xl) +(xl - x))2 = N l=1 il=k Nl k Nl k Nl 1 2 = (xill - xl)2 + (xill - xl)(xl - x) + ( - x)2 = xl N N N l=1 il=1 l=1 il=1 l=1 il=k Nl k Nl k 1 1 2 = Nl (xill - xl)2 + ( - x) (xill - xl) + Nl ( - x)2 = xl xl N Nl il=1 N N l=1 l=1 il=1 l= -------=-----------------=k = Nls2 + s2 = s2 + s2.

l q e q N l=Данное представление общей дисперсии изучаемого признака аналогично полученному в начале предыдущего пункта при рассмотрении регрессии, построенной по данным совместного эмпирического распределения признаков. В том случае «группами» выступали значения первого признака при тех или иных значениях второго признака. В данном случае (в терминах дисперсионного анализа) s2 — внутригрупповая дисперсия;

e s2 — межгрупповая дисперсия.

q 162 Глава 4. Введение в анализ связей Тот факт, что среднее слагаемое в вышеприведенном выражении равно нулю, означает линейную независимость внутригрупповой и межгрупповой дисперсий.

Чем выше межгрупповая дисперсия по сравнению с внутригрупповой, тем вероятнее, что группирующий (факторный) признак влияет на изучаемый признак.

Степень возможного влияния оценивается с помощью F -статистики:

s2 (N - k) q c F =.

s2 (k - 1) e В случае если влияние отсутствует (нулевая гипотеза), эта статистика имеет распределение Fk-1,N-k (межгрупповая дисперсия имеет k - 1 степеней свободы, внутригрупповая — N - k), что объясняет указанный способ расчета F -статистики. Логика проверки нулевой гипотезы та же, что и в предыдущих случаях.

Рассмотрение модели однофакторного дисперсионного анализа с повторениями завершено.

Пусть теперь имеется группировка исходной совокупности xi, i = 1,..., N по n факторам; j-й фактор может принимать kj уровней, j =1,..., n. Все численности конечных групп равны единице: NI =1, для любого I. Такая совокупность может быть получена по результатам проведения управляемого эксперимента. В экономических исследованиях она может быть образована в расчетах по математической модели изучаемой переменной: для каждого сочетания уровней факторов проводится один расчет по модели.

В этом случае n N = kj = kj, j=1 G где через G, как и в пункте 1.9, обозначено полное множество факторов J = {12... n}, xI — значение изучаемого признака при сочетании уровней факторов I = {i1i2... in}.

Общаясред няяизучаемогопризнака:

b0 = = xI.

x N I N Каждый j-й фактор делит исходную совокупность на kj групп по элеkj ментов. Для каждого из уровней ij j-го фактора (для каждой из таких групп) рассчитывается среднее значение изучаемого признака:

kj xij(j) = xI, N I-ij(j) 4.3. Дисперсионный анализ где означает суммирование по всем наблюдениям, в которых j-й фактор I-ij(j) находится на уровне ij.

Если бы тот факт, что j-й фактор находится на уровне ij, не влиял на изучаемый признак, означало бы, что xij(j) = b0.

Потому bij(j) = xij(j) - b0 — коэффициент влияния на изучаемый признак того, что j-й фактор находится на уровне ij. Это—главные эффекты, илиэффекты 1-го порядка.

Очевидно, что kj bij(j) =ij=и дисперсия, определенная влиянием j-го фактора, равна kj s2 = bij(j).

j kj ij=N Каждые два фактора j и j делят совокупность на Kjj = kjkj групп по Kjj элементов. Для каждой из таких групп рассчитывается среднее изучаемого признака:

Kjj xijij (jj ) = xI, N I-ijij (jj ) где означает суммирование по всем наблюдениям, в которых j-й фактор I-ijij (jj ) находится на уровне ij, а j -й фактор — на уровне ij.

Если бы тот факт, что одновременно j-й фактор находится на уровне ij, а j -й фактор — на уровне ij, не влиял на изучаемый признак, то это означало бы, что xjj = b0 + bij(j) + bij (j ).

ijij (jj ) Поэтому bijij (jj ) = xijij (jj ) - b0 + bij(j) + bij (j ) 164 Глава 4. Введение в анализ связей — коэффициент влияния на изучаемый признак того, что одновременно j-й фактор находится на уровне ij, а j -й фактор — на уровне ij. Этоэффекты взаимодействия (или сочетания) факторов j и j, парные эффекты, или эффекты 2-го порядка.

Легко убедиться в том, что kj kj bijij (jj = bijij (jj ) =0, ) ij=1 ij = и тогда s2 = bijij (jj ) jj Kjj ij,ij — дисперсия, определенная совместным влиянием факторов j и j.

Рассмотрим общий случай.

Факторы J = {j1j2... jn }, n n делят совокупность на KJ = kj групп J N по элементов (выделяют группы класса J порядка n ). Мультииндексом таких KJ групп является I (J) = i1i2... in j1j2... jn = ij1ij2... ijn ; конкретно данный мультииндекс именует группу, в которой фактор j1 находится на уровне ijи т.д. По каждой такой группе рассчитывается среднее изучаемого признака:

KJ xI(J) = xI, N I-I(J) где — означает суммирование по всем наблюдениям, в которых фактор jI-I(J) находится на уровне ij1 ит.д.

Как и в двух предыдущих случаях:

bI(J) = xI(J) - b0 + bI(J) (4.40) JJ— эффекты взаимодействия (или сочетания) факторов J, эффекты порядка n.

Здесь — суммирование по всем подмножествам множества J без самого JJмножества J.

Суммирование этих коэффициентов по всем значениям любого индекса, входящего в мультииндекс I(J) дает нуль.

s2 = bJ KJ I(J) I(J) 4.3. Дисперсионный анализ — дисперсия, определенная совместным влиянием факторов J.

При определении эффектов наивысшего порядка J = G, xI(G) = xI, KG = N.

Из способа получения коэффициентов эффектов должно быть понятно, что G xI = b0 + bI(J).

J=Все факторные дисперсии взаимно независимы и общая дисперсия изучаемого признака в точности раскладывается по всем возможным сочетаниям факторов:

G s2 = s2. (4.41) J J=Данное выражение называют дисперсионным представлением, или тождеством.

Этот факт доказывается в IV части книги.

Пока можно его только проверить, например, при n =2.

Используя 1-й способ обозначений (см. п. 4.1):

b0 = xi, k1k2 i1,i2 i 1 xi = xi i2, bi = xi - b0, s2 = b2, 1 1 1 1 k2 i2 k1 i1 i 1 xi = xi i2, bi = xi - b0, s2 = b2, 2 1 2 2 k1 i1 k2 i2 i bi i2 = xi i2 - b0 - bi - bi, s2 = b2.

Pages:     | 1 |   ...   | 19 | 20 || 22 | 23 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.