WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 69 | 70 || 72 | 73 |   ...   | 82 |

Для удобства обозначим F (y) =1-F(-y). (При симметричности относительно нуля распределения будет выполнено F (y) =1 - F(-y) = F(y).) Таким образом, Pr(x =1) =F (z).

Пусть имеются N наблюдений, (xi, zi), i =1,..., N, которые соответствуют этой модели, так что xi имеют в основе ненаблюдаемую величину xi = zi + i.

Предполагаем, что ошибки i имеют нулевое математическое ожидание, одинаково распределены и независимы. Рассмотрим, как получить оценки коэффициентов методом максимального правдоподобия.

Обозначим через pi = pi() = F (zi). Также пусть I0 = {i| xi =0}, I1 = {i| xi =1}. Функция правдоподобия, то есть вероятность получения наблюдений xi при данных zi, имеет вид:

L() = pi() (1 - pi()).

iI1 iI628 Глава 21. Модели с качественными зависимыми переменными Вместо самой функции правдоподобия удобно использовать логарифмическую функцию правдоподобия:

ln L() = ln pi() + ln(1 - pi()), iI1 iIкоторую можно записать как N ln L() = xi ln pi() +(1- xi)ln(1 - pi()). (21.1) i=В результате максимизации этой функции по получаем оценки максимального правдоподобия. Условия первого порядка максимума (уравнения правдоподобия), т.е.

ln L() =0, имеют простой вид:

N f(zi) (xi - pi) zi =0, pi(1 - pi) i=где мы учли, что pi() dF (zi) = = f(zi)zi, d где f — производная функции F (·). Поскольку F (·) представляет собой функцию распределения, то f(·) — плотность распределения.

Можно использовать следующий метод, который дает те же оценки, что и метод максимального правдоподобия. Пусть a0 — некоторая приближенная оценка коэффициентов модели. Аппроксимируем функцию F (·) ее касательной в точке zi (т.е. применим линеаризацию):

F (zi) F (zia0) +f(zia0)zi - a0.

Подставим затем эту аппроксимацию в исходную модель:

xi - pi(a) f(zia)zi( - a) +i, или xi - pi(a0) +f(zia0)zia0 f(zia0)zi + i.

21.2 Оценивание модели с биномиальной зависимой переменной При данном a0 это линейная регрессия. Как несложно проверить, дисперсия ошибки i равна pi()(1 - pi()), т.е. ошибки гетероскедастичны. К этой модели можно применить взвешенную регрессию. Следует разделить левую и правую части на корень из оценки дисперсии ошибки i, т.е. на pi(a0)(1 - pi(a0)):

xi - pi(a0) +f(zia0)zia0 f(zia0)zi i +.

pi(a0)(1 - pi(a0)) pi(a0)(1 - pi(a0)) pi(a0)(1 - pi(a0)) Оценивая эту вспомогательную регрессию, мы на основе оценок a0 получим новые оценки, скажем a1. Повторяя эту процедуру, получим последовательность оценок {ak}. Если процедура сойдется, т.е. ak a при k, то a будут оценками максимального правдоподобия.

В качестве оценки ковариационной матрицы оценок a можно использовать -2 ln L(a) -.

По диагонали этой матрицы стоят оценки дисперсий коэффициентов. На их основе обычным способом можно получить аналоги t-статистик для проверки гипотезы о равенстве отдельного коэффициента нулю. Такой тест будет разновидностью теста Вальда.

Для проверки набора ограничений удобно использовать статистику отношения правдоподобия LR =2(ln L(a) - ln L(aR)), гд е ln L(a) — логарифмическая функция правдоподобия из 21.1, a — оценка методом максимума правдоподобия без ограничений, aR — оценка при ограничениях.

Эту же статистику можно использовать для построения показателя качества модели, аналогичного F -статистике для линейной регрессии. Она позволяет проверить гипотезу о равенстве нулю коэффициентов при всех регрессорах, кроме константы. Соответствующая статистика отношения правдоподобия равна LR0 =2(ln L(a) - ln L0), гд е ln L0 — максимум логарифмической функции правдоподобия для модели с одной константой. Она распределена асимптотически как 2 с n степенями свободы, где n — количество параметров в исходной модели, не включая константу. Величина ln L0 получается следующим образом. Пусть N — общее количество наблюдений, N0 — количество наблюдений, для которых xi =0, N1 — количество наблюдений, для которых xi =1. Тогда предсказанная вероятность появления xi =1 в модели с одной константой будет равна для всех наблюдений N1/N. Отсюда ln L0 = N0 ln N0 + N1 ln N1 - N ln N.

630 Глава 21. Модели с качественными зависимыми переменными 21.2.1. Регрессия с упорядоченной зависимой переменной Регрессия с упорядоченной зависимой переменной имеет дело с альтернативами, которые можно расположить в определенном порядке. Например, это могут быть оценки, полученные на экзамене, или качество товара, которое может характеризоваться сортом от «высшего» до «третьего». Будем предполагать, что альтернативы пронумерованы от 0 до S. Переменная x принимает значение s, если выбрана альтернатива s. Предполагается, что в основе выбора лежит ненаблюдаемая величина x = z +. При этом x =0 выбирается, если x меньше нижнего (нулевого) порогового значения, x =1, если x попадает в промежуток от нулевого до первого порогового значения и т. д.; x = S выбирается, если x превышает верхнее пороговое значение:

0, x<0, 1, 0 < x<1, x = · · · S, x>S-1.

Если среди регрессоров z есть константа, то невозможно однозначно идентифицировать. В связи с этим следует использовать какую-либо нормировку.

Можно, например, положить 0 =0. Это оставляет S - 1 неизвестных пороговых параметров.

Пусть F(·) — функция распределения ошибки. Тогда вероятность того, что x = s, гд е s =1,..., S - 1, равна Pr(x = s) =Pr(s-1

Аналогично для s =0 и s = S получаем Pr(x =0) =Pr( <0 - z) =F(0 - z), Pr(x = S) =Pr(S-1 - z < ) =1 - F(S-1 - z).

Пусть (xi, zi), i =1,..., N — имеющиеся наблюдения. По этим наблюдениям можно получить оценки максимального правдоподобия. Обозначим pis(, ) =Pr(xi = s).

21.2 Оценивание модели с биномиальной зависимой переменной Соответствующая логарифмическая функция правдоподобия равна S ln L(, ) = ln pis(, ), гд еIs = {i| xi = s}.

s=0 iIs Максимизируя эту функцию по и, получим требуемые оценки.

На практике обычно используют одну из двух моделей: упорядоченный пробит, то есть модель с нормально распределенным отклонением, илиупорядоченный логит, то есть модель, основанную на логистическом распределении.

21.2.2. Мультиномиальный логит Предположим, что принимающий решение индивидуум стоит перед выбором из S альтернатив, s =0,..., S - 1. Предполагается, что выбор делается на основе функции полезности u(s). В линейной модели u(s) = zss, гд е zs — матрица факторов, s — неизвестные параметры. Обычно есть также факторы, не отраженные в zs из-за их ненаблюдаемости, которые тоже влияют на полезность. Такие характеристики представлены случайной ошибкой u(s) =zss + s. При этом x выбирается равным s, если u(s) >u(t), s = t.

В самой простой модели принимается, что ошибки s подчинены распределению экстремального значения и независимы между собой. Распределение экстремального значения1 в стандартной форме имеет функцию распределе-y ния F (y) =e-e. Распределение экстремального значения обладает следующими важными для рассматриваемой модели свойствами: максимум нескольких величин, имеющих распределение экстремального значения, также имеет распределение экстремального значения, а разность двух величин, имеющих распределение экстремального значения, имеет логистическое распределение. Используя эти свойства, можно вывести, что в данной модели ezss Pr(x = s) =.

S-eztt t=Этамод ель называетсямультиномиальным логитом.

Относительно функций zss обычно делаются какие-либо упрощающие допущения, например, что факторы для всех альтернатив одни и те же, то есть Это «распределение экстремального значения первого рода» (согласно теореме Гнеденко есть еще два распределения экстремального значения) или, как его еще называют, распределение Гумбеля. Данное распределение также изредка называют распределением Вейбулла. Кроме того, именем Вейбулла называют и другие распределения (в частности, «распределение экстремального значения третьего рода»), поэтому может возникнуть путаница.

632 Глава 21. Модели с качественными зависимыми переменными u(s) =zs + s, или что функция имеет один и тот же вид, коэффициенты в зависимости от s не меняются, а меняются только факторы, определяющие выбор, то есть u(s) =zs + s. В первом случае z можно интерпретировать как характеристики индивидуума, принимающего решение. Это собственно мультиномиальный логит. Во втором случае zs можно интерпретировать как характеристики s-й альтернативы. Этот второй вариант называют условным логитом.

Можно предложить модель, которая включает оба указанных варианта. Обозначим через w характеристики индивидуума, а через zs характеристики s-ой альтернативы (в том числе те, которые специфичны для конкретных индивидуумов).

Например, при изучении выбора покупателями супермаркета альтернативами являются имеющиеся супермаркеты, w мог бы включать информацию о доходах и т.п., а в zs следует включить информацию о супермаркетах (уровень цен, широта ассортимента и т.п.) и характеристики пары покупатель—супермаркет, такие как расстояние до супермаркета от места жительства потребителя.

Втакоймод ели u(s) =zs + ws + s и вероятности вычисляются по формуле ezs+ws Pr(x = s) =.

S-ezt+wt t=Заметим, что в этой модели есть неоднозначность. В частности, если прибавить к коэффициентам s один и тот же вектор — это все равно, что умножить числитель и знаменатель на ew. Таким образом, для идентификации модели требуется какая-либо нормировка векторов s. Можно, например, положить 0 =0.

Для оценивания модели используется метод максимального правдоподобия.

Пусть (xi, zi0,..., zi,S-1, wi), i =1,..., N — имеющиеся наблюдения. Обозначим ezis+wis pis(, ) =Pr(xi = s) =.

S-ezit+wit t=Тогда логарифмическая функция правдоподобия имеет вид S- ln L(, ) = ln pis(, ), гд еIs = {i| xi = s}.

s=0 iIs На основе xi можно ввести набор фиктивных переменных dis, таких что 1, xi = s, dis = 0, xi = s.

21.2 Оценивание модели с биномиальной зависимой переменной В этих обозначениях функция правдоподобия приобретет вид N S- ln L(, ) = dis ln pis(, ).

i=1 s=21.2.3. Моделирование зависимости от посторонних альтернатив в мультиномиальных моделях Для мультиномиального логита отношение вероятностей двух альтернатив («соотношение шансов») равно Pr(x = s) e(zs+ws) = = e((zs-zt)+w(s-t)).

Pr(x = t) e(zt+wt) Оно зависит только от характеристик этих двух альтернатив, но не от характеристик остальных альтернатив. Это свойство называется независимостью от посторонних альтернатив. Оно позволяет оценивать мультиномиальные модели на подмножестве полного множества альтернатив и получать корректные (состоятельные) оценки. Однако это свойство мультиномиального логита во многих ситуациях выбора не очень реалистично.

Рассмотрим, например, выбор между передвижением на поезде, на самолете авиакомпании A и на самолете авиакомпании B. Известно, что 50% пассажиров выбирает поезд, 25% — авиакомпанию A и 25% — авиакомпанию B. Допустим, авиакомпании предоставляют примерно одинаковые услуги по схожей цене, и пассажиры предпочитают одну из двух авиакомпаний по каким-то чисто субъективным причинам. Если авиакомпании объединятся, то естественно ожидать, что соотношение шансов для поезда и самолета будет равно один к одному. Однако с точки зрения мультиномиального логита соотношение шансов должно остаться два к одному, поскольку характеристики передвижения поездом и передвижения самолетом остались теми же.

Предложено несколько модификаций этой модели, которые уже не демонстрируют независимость от посторонних альтернатив, и, следовательно, более реалистичны.

Вмод еливложенного логита используется иерархическая структура альтернатив. В двухуровневой модели сначала делается выбор между группами альтернатив, а затем делается выбор внутри выбранной группы. В приведенном примере есть две группы альтернатив: «самолет» и «поезд». Внутри группы «самолет» делается выбор между авиакомпаниями A и B. Группа «поезд» содержит только одну альтернативу, поэтому выбор внутри нее тривиален.

Пусть имеется l групп альтернатив. Обозначим через Sk множество альтернатив, принадлежащих k-й группе. Безусловная вероятность того, что будет выбрана 634 Глава 21. Модели с качественными зависимыми переменными альтернатива s из группы k в модели вложенного логита, определяется формулой (запишем ее только для условного логита, т.е. модели, где от альтернативы зависят факторы, но не коэффициенты) zk+zs) e( ekezs Pr(x = s) = =.

l l zm+zt) e( em ezt m=1 tSm m=1 tSm Если альтернативы s и t принадлежат одной и той же группе k, то отношение вероятностей равно Pr(x = s) ekezs ezs = =.

Pr(x = t) ekezt ezt Это отношение, как и в обычном мультиномиальном логите, зависит только от характеристик этих альтернатив. В то же время, если альтернативы s и t принадлежат разным группам, k и m соответственно, то отношение вероятностей равно Pr(x = s) ekezs ek+zs = =.

Pr(x = t) emezt em+zt Это отношение зависит, кроме характеристик самих альтернатив, также от характеристик групп, к которым они принадлежат.

Другое направление модификации модели мультиномиального логита исходит из того, что независимость от посторонних альтернатив является следствием двух предположений, лежащих в основе модели: то, что ошибки s одинаково распределены и, следовательно, имеют одинаковую дисперсию, и то, что они независимы.

Во-первых, можно предположить, что имеет место гетероскедастичность.

(Имеется в виду не гетероскедастичность по наблюдениям, а гетероскедастичность по альтернативам.) Для того чтобы ввести гетероскедастичность в модель, достаточно дополнить распределения ошибок масштабирующими коэффициентами. При этом ошибка s имеет функцию распределения -y/s Fs(y) =e-e.

Поскольку одновременно все s идентифицировать нельзя, то требуется нормировка. Например, можно принять, что 0 =1. С помощью такой модификации мы получим гетероскедастичную модель с распределением экстремального значения.

Во-вторых, можно предположить, что ошибки s могут быть коррелированными друг с другом. Обычно в таком случае используют многомерное нормальное 21.3. Упражнения и задачи распределение ошибок:

.

.

= N(0, ).

.

S-Здесь — ковариационная матрица ошибок, которая обычно предполагается неизвестной. С помощью такой модификации мы получим модель мультиномиального пробита.

Ковариационная матрица не полностью идентифицирована. Дело в том, что, во-первых, важны разности между ошибками, а не сами ошибки, а во-вторых, ковариационная матрица разностей между ошибками идентифицируется только с точностью до множителя. Можно предложить различные варианты нормировки. Как следствие нормировки, количество неизвестных параметров в матрице существенно уменьшается. Если в исходной матрице их S(S +1)/2, то после нормировки остается S(S - 1)/2 - 1 неизвестных параметров.

Pages:     | 1 |   ...   | 69 | 70 || 72 | 73 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.