WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     || 2 | 3 |
-- [ Страница 1 ] --

Г.А.Медведев, В.А.Морозов Практикум на ЭВМ по анализу временных рядов Учебное пособие Медведев Г.А., Морозов В.А. Практикум на ЭВМ по анализу временных рядов [Электронный ресурс]: Учебное пособие. —

Электрон. текст. дан. (1780 кб). — Мн.: “Электронная книга БГУ”, 2003. — Режим доступа:. — Электрон. версия печ. публикации, 2001. — PDF формат, версия 1.4. — Систем. требования: Adobe Acrobat 5.0 и выше.

МИНСК «Электронная книга БГУ» 2004 © Г.А.Медведев, В.А.Морозов, 2004. © Научно-методический центр «Электронная книга БГУ», 2004 www.elbook.bsu.by elbook@bsu.by МИНИСТЕРСТВО ОБРАЗОВАНИЯ РЕСПУБЛИКИ БЕЛАРУСЬ БЕЛОРУССКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ Г.А.Медведев, В.А.Морозов Практикум на ЭВМ по анализу временных рядов Учебное пособие Минск 2001 УДК 581.3:519.1(076.5)(075.8) ББК 22.17я73 М 42 Рецензенты: кафедра прикладной математики и экономической кибернетики Белорусского государственного экономического университета;

Г.И.Лебедева, кандидат технических наук, доцент М Медведев Г.А. Практикум на ЭВМ по анализу временных рядов: Учеб. пособие / Г.А.Медведев, В.А.Морозов. — Мн.: Университетское, 2001. — 192 с. ISBN 985-09-0335-Х.

Пособие подготовлено по программам курсов «Теория вероятностей и математическая статистика» и «Статистический анализ временных рядов» для студентов, обучающихся по специальности «Прикладная математика». Будет полезно студентам физикоматематических, технических и экономических специальностей вузов, изучающих курс «Теория вероятностей и математическая статистика». УДК 581.3:519.1(076.5)(075.8) ББК 22.17я73 Учебное издание Медведев Геннадий Алексеевич Морозов Валерий Александрович ПРАКТИКУМ НА ЭВМ ПО АНАЛИЗУ ВРЕМЕННЫХ РЯДОВ Учебное пособие Редактор А.В.Новикова. Художественный редактор НБ.Ярота. Технический редактор ВП.Безбородова. Корректоры Л.Н.Макейчик, Т.В.Кульнис. Подписано в печать 31.01.2001. Формат 70x100/16. Бумага офсетная. Гарнитура Таймс. Печать офсетная. Усл. печ. л. 15,48. Уч.-изд. л. 11,72. Тираж 230 экз. Заказ 5258. Налоговая льгота — Общегосударственный классификатор Республики Беларусь ОКРБ 007-98, ч. 1;

22.11.20.600. Издательское республиканское унитарное предприятие «Университетское» Государственного комитета Республики Беларусь по печати. Лицензия ЛВ № 9 от 8.09.2000. 220048, Минск, проспект Машерова, 11. Отпечатано с оригинала-макета на республиканском унитарном предприятии «Типография «Победа». 222310, Молодечно, ул. Тавлая, 11. ISBN 985-09-0335-Х © Медведев Г.А., Морозов В.А., ОСНОВНЫЕ ОБОЗНАЧЕНИЯ AIC BIC C cor(X, Y ) cov(X, Y ) D{X} det(A) F RE F (P, N ) I K (N ) M {X} med(xi ) N (a, ) Rn V {X} Z (x) 1 (), 2 () k l 1, i = j;

ij = 0, i=j. = статистика информационного критерия Акаике статистика модифицированного критерия Акаике множество комплексных чисел корреляция СВ X и Y ковариация случайных величин X и Y дисперсия СВ X определитель матрицы A статистика критерия, основанного на минимизации предельной ошибки предсказания распределение Фишера с числом степеней свободы P и N (F -распределение) единичная матрица квантиль критерия Колмогорова Смирнова математическое ожидание СВ X медиана выборки {xi } нормальное распределение со средним значением a и дисперсией (ковариационной матрицей) n-мерное евклидово пространство вариация оценки X множество целых чисел функция распределения N (0, 1) квантиль распределения (x) на уровне СВ с 2 -распределением с степенями свободы k! биномиальный коэффициент l!(k l)! знак транспонирования пустое множество символ Кронекера знак приближенного равенства ОСНОВНЫЕ СОКРАЩЕНИЯ АКФ АР АРСС БПФ ВКМ ВКФ ГФП ДПФ КМ КФК ММП МНК МСП НКФ НЛО НОР НСП ОСП ПАРСС автоковариационная функция авторегрессия авторегрессия скользящее среднее быстрое преобразование Фурье выборочная ковариационная матрица выборочная ковариационная функция гауссовская функция правдоподобия дискретное преобразование Фурье ковариационная матрица квадратичная функция когерентности метод максимального правдоподобия метод наименьших квадратов матрица спектральных плотностей нормированная ковариационная функция наилучшая линейная оценка независимые одинаково распределенные нормированная спектральная плотность оценка спектральной плотности проинтегрированная авторегрессия скользящее среднее СВ случайная величина СП случайный процесс СПАРСС сезонная проинтегрированная авторегрессия скользящее среднее СС скользящее среднее ССП стационарный случайный процесс ТСА тип стохастической аппроксимации ФР функция распределения ПРЕДИСЛОВИЕ Анализ временных рядов одна из ветвей математической статистики, представляющая ярко выраженное практическое направление. Можно утверждать, что не существует такой области деятельности, имеющей дело с наблюдениями или измерениями, в которой не использовались бы методы анализа временных рядов. Цель настоящего учебного пособия ознакомление с основными методами анализа временных рядов и алгоритмами обработки данных для получения необходимых характеристик. Пособие предназначено для студентов, изучивших теорию вероятностей и математическую статистику или соответствующий курс высшей математики. Оно будет также полезно и специалистам, которые применяют методы анализа временных рядов для обработки данных в своей предметной области. Пособие состоит из семи глав, посвященных основным направлениям в анализе временных рядов. Теоретический материал служит руководством к практическим работам. Каждая лабораторная работа составлена по следующим принципам: формулируется цель работы, затем определяется порядок ее выполнения, подразумевающий последовательность заданий. Лабораторные работы ориентированы на использование ЭВМ с графическим дисплеем, так как многие результаты полезно (а иногда и необходимо) иллюстрировать графиками. Однако при наличии определенного навыка можно организовать выдачу результатов в виде графика на любой ЭВМ. Наиболее подходящим средством выполнения лабораторных работ являются персональные ЭВМ типа IBM PC с применением соответствующей периферии и программного обеспечения. Лабораторные работы составлены таким образом, что каждая последующая производится с возможным использованием результатов предыдущих (по крайней мере, в пределах одной темы). Поэтому при прохождении практикума необходимо иметь персональную дискету, на которой бы организовывались и сохранялись все файлы данных для использования в случае необходимости. Основная направленность лабораторных работ не реализация методов и алгоритмов, а проведение исследования их эффективности. Поэтому следует обязательно производить сравнение применяемых методов и алгоритмов на основе полученных при работе наблюдений. В пособии излагаются, как правило, несколько известных подходов, на основе которых можно провести грамотный сравнительный анализ. Главы 1,2,4 6 написаны Г.А.Медведевым, главы 3 и 7 В.А.Морозовым. Авторы выражают глубокую благодарность Е.В.Храмовой за большую помощь в подготовке к изданию настоящего учебного пособия.

Глава СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ И ВРЕМЕННЫЕ РЯДЫ 1.1. Основные понятия и числовые характеристики Случайные процессы. Семейство случайных величин {Xt, t R} образует случайный процесс (СП), где t называется параметром СП, а параметрическим множеством. Если дискретное множество, например = {0, ±1, ±2,...}, то СП называется СП с дискретным временем. Если интервал на числовой оси, то СП называется СП с непрерывным временем. Рассматривая Xt как случайную величину (t, ), отметим, что при фиксированном = 0 величина x(t) = (t, 0 ) как функция параметра t называется реализацией (траекторией) СП. Значение x(t) при фиксированном t=tk, xk=x(tk ) называется выборочным значением или просто значением СП. Множество выборочных значений {xk, tk T } называется временным рядом. Чаще всего, но не всегда, T это дискретное множество. Множество T может совпадать с параметрическим множеством. Можно сказать, что временной ряд это множество данных о СП Xt, которыми располагает наблюдатель и на основании которых он должен делать выводы о свойствах наблюдаемого СП. В соответствии с этим, как обычно делается в математической статистике, элементы временного ряда xk рассматриваются, с одной стороны, как заданные, фиксированные числа при получении оценок параметров СП или принятия решений о его свойствах. С другой стороны, при анализе свойств этих оценок или правил принятия решений элементы временного ряда изучаются как случайные величины с соответствующими вероятностными характеристиками. В каком смысле используются элементы временного ряда, становится ясно из контекста. Для всякого целого n множество n = · · · является n-кратным прямым произведением параметрического множества самого на себя. Пусть t1 < t2 <... < tn и t = (t1, t2,..., tn ). (Конечномерной) функцией распределения СП называется Fn (x, t) = P{Xt1 x1,..., Xtn xn }, функция переменных (x1, x2,..., xn ) = x. Функция распределения Fn (x, t) определена для всех n, t n и x Rn. Характеристическая функция СП задается равенством (u, t) = M eiu x = Rn eiu x dFn (x, t), где (u, t) определена для всех n, u Rn и t n. В показателе экспоненты под интегралом u и x представлены как векторы-столбцы размером n;

знак транспонирования. Числовые характеристики. Математическое ожидание СП и его дисперсия находятся по формулам m(t) = M{Xt } = x dF1 (x, t), R D(t) = M{(Xt m(t))2 }. Функции (авто)ковариации СП и (авто)корреляции СП задаются равенствами R0 (r, s) = cov(Xr, Xs ) = M{(Xr m(r)) (Xs m(s))}, R(r, s) = cor(Xr, Xs ) = M{Xr Xs }, r, s. Формулы связи между этими функциями имеют вид R(r, s) = R0 (r, s) + m(r)m(s), R0 (r, r) = D(r), R(r, r) = D(r) + (m(r))2.

Основное свойство функций автоковариации и автокорреляции состоит в том, что они являются положительно определенными. Функция R(s, t) называется положительно определенной, если выполняется следующее свойство. Пусть t1 < t2 <... < tn любые вещественные числа и ak, ak любые ненулевые комплексно-сопряженные числа, 1 k n. Функция R(s, t) положительно определенная, если для всех n = 1, 2,... имеет место неравенство n n aj ak R(tj, tk ) > 0.

j=1 k= Пусть теперь {Xt }, {Yt } два различных СП, определенных на одном и том же параметрическом множестве ;

mX (t), mY (t) математические ожидания данных СП;

DX (t), DY (t) дисперсии СП. Функции (взаимной) корреляции СП Xt и Yt и их (взаимной) ковариации представляются в виде RXY (r, s) = cor(Xr, Ys ) = M{Xr, Ys }, R0 XY (r, s) = cov(Xr, Ys ) = M{(Xr mX (r)) (Ys mY (s))}. Соответствующая формула связи между ними задается формулой RXY (r, s) = R0 XY (r, s) + mX (r)mY (s). Коэффициентом корреляции СП Xs, Yt называется отношение r(Xs, Yt ) = cov(Xs, Yt )/ DX (s)DY (t). Коэффициент корреляции обладает следующими свойствами: 1) |r(Xs, Yt )| 1 ;

2) если Xs, Yt независимы, то r(Xs, Yt ) = 0;

3) |r(Xs, Yt )| = 1 тогда и только тогда, когда с вероятностью единица выполняется равенство Yt = aXs + b, a = 0. В связи с этими свойствами коэффициент корреляции принято рассматривать как меру линейной (корреляционной) зависимости между СП {Xs } и {Yt }.

1.2. Стационарность и эргодичность СП называется стационарным в широком смысле (или слабо стационарным), если выполняются следующие условия при = R или =Z= = {0, ±1, ±2,...}: 1) M{|Xt |2 } < + для всех t ;

2) M{Xt } = m для всех t (математическое ожидание не зависит от времени);

3) cov{Xr, Xs } = cov{Xr+t, Xs+t } для всех r, s, t. СП называется стационарным в узком смысле (или строго стационарным), если выполняется условие Fn (x, t) = Fn (x, t + s) для всех n = 1, 2,..., всех x Rn, всех t n, всех s = (s, s,..., s) s. Если M{|Xt |2 } < + для всех t, то СП, стационарные в узком смысле, являются стационарными и в широком смысле. Обратное, вообще говоря, неверно. Тем не менее имеются случаи, когда это так. В частности, из стационарности в широком смысле следует стационарность в узком смысле для гауссовских (нормальных) процессов. Если СП стационарный (слабо или строго), то R(r, s) = R(r s), R0 (r, s) = R 0 (r s).

Это значит, что функции автокорреляции и автоковариации зависят не от абсолютных значений своих переменных, а от их разности. Отсюда следует, что R( ) и R 0 ( ) четные функции. Причем R 0 (0) = D. Коэффициентом корреляции стационарного СП является отношение ( ) = R 0 ( )/R 0 (0) = cov(Xt, Xt+ )/D. Приведем свойства коэффициента корреляции стационарного СП: 1) |( )| (0) = 1;

2) если Xt, Xt+ независимы, то ( ) = 0. Обратное справедливо не всегда;

3) если Xt+ = aXt + b, a = 0, то |( )| = 1. Обратное утверждение имеет место с вероятностью единица. Процессы {Xs } и {Yt } не коррелированы, если cov(Xs, Yt ) = 0 при любых s, t. Процесс {Xt } называется процессом с ортогональными приращениями, если для любых t1

T Эргодическое свойство СП позволяет определять числовые характеристики СП не используя функций распределения, а основываясь на средних по параметру. Выяснение эргодичности СП вообще затруднительно. Однако в частных случаях могут быть сформулированы относительно простые признаки эргодичности СП. Вещественный нормальный непрерывный стационарный процесс с нулевым средним {Xt } является эргодическим по отношению к функции f (x) = x тогда и только тогда, когда его спектральная функция G() непрерывна. По крайней мере, необходимыми условиями эргодичности СП {Xt } по отношению к функции f (x) = x являются следующие: 1) M{|Xt |2 } < +;

T 2) для каждого конечного T существуют интегралы Римана T Xt dt.

Эти условия должны быть дополнены достаточными, которые определяются для каждого конкретного случая. Понятие эргодичности легко модифицируется для дискретного времени. Для этого нужно операцию интегрирования по t заменить на операцию суммирования, при которой t принимает значения из множества Z или его подмножества. Операция интегрирования по на всей числовой оси заменяется операцией интегрирования на интервале (, ).

1.3. Спектральные свойства Пусть {Xt } СП с непрерывным временем. СП Xt сходится к случайной величине X0 при t t0 в среднеквадратичном, если t t lim M{(Xt X0 )2 } = 0.

СП {Xt } непрерывен в среднеквадратичном в точке s, если Xt сходится к Xs в среднеквадратичном при t s. Пусть теперь Xt стационарный в широком смысле и непрерывный в среднеквадратичном СП с нулевым средним (M{Xt } = 0). Тогда существует такой СП с ортогональными приращениями z, что Xt для каждого фиксированного t допускает представление + Xt = eit dz, t (, +), где стохастический интеграл понимается как предел в среднеквадратичном интегральной суммы (сначала 0, затем N ):

N + e n=N itn (z(n+1) zn ) eit dz, обычные СП;

где z = z + iz СП с комплексными значениями;

z, z M{z } = 0 для всех. Представление СП Xt называется спектральным представлением СП Xt, а процесс z спектральным процессом СП Xt. Если Xt СП с дискретным временем, то спектральное представление имеет вид + Xt = eit dz, где z,, непрерывный справа СП с ортогональными приращениями и z = 0. Справедлива теорема Бохнера, в соответствии с которой всякую положительно определенную функцию R( ) можно представить в виде + R( ) = eit dS(), где S() вещественная неубывающая и ограниченная функция. Если R( ) ковариационная функция СП Xt, то функция S() называется спектральной функцией. При этом + R(0) = dS() = lim (S() S()).

Спектральный процесс z связан со спектральной функцией S() соотношением S() = M{|z |2 }. Так как спектральная функция определяется с точностью до константы, то удобно положить S() = 0. Тогда S(+) = R(0). Если S() абсолютно непрерывна, то ее производная g() = dS()/d называется спектральной плотностью СП Xt и имеют место взаимно обратные преобразования + + R(t) = eit g() d, + R(0) = g() d, + 1 g() = e it R(t) dt, 1 g(0) = R(t) dt.

Приведенные интегральные представления могут быть записаны через вещественные функции u(t), v(t). Для процесса с непрерывным временем в среднеквадратичном справедливы следующие предельные соотношения: 1 lim T 1 lim T T T sin t Xt dt = u(), t T 1 cos t Xt dt = v(). t T Эти формулы верны для любого параметра > 0, который является точкой непрерывности спектральной функции S(), а функции u() и v() вещественные СП с ортогональными приращениями. Определив вещественную функцию G() равенством G() = S() S(), можно показать, что G() связана с R( ) соотношениями R( ) = cos dG, G() = sin R( ) d.

Свойства СП u() и v() следующие: M{u()} = M{v()} = 0, M{u()v()} = 0, M{u2 ()} = G(), M{v 2 ()} = G() G(+0) для всяких положительных и. Таким образом процессы u() и v() являются ортогональными. Они (совместно) могут рассматриваться как спектральный процесс, соответствующий СП Xt, спектральное представление которого можно переписать в виде Xt = (cos t du() + sin t dv()).

1.4. Статистические критерии Пусть в результате наблюдений СП получен временной ряд X = {xt, 1 t N }.

Проверка на нормальность. Обозначим символами µ, d математическое ожидание и дисперсию элементов временного ряда. Нормированное среднее абсолютное отклонение, коэффицциент асимметрии и коэффициент эксцесса элементов временного ряда определяются равенствами 1 1 = M{|xt µ|}, = M{|xt µ|3 }, d d3 1 = 2 M{(xt µ)4 }. d Для нормального распределения значения данных числовых характеристик 2 следующие: = = 0,79 788;

= 0;

= 3. Выборочные значения этих характеристик для исследуемого временного ряда вычисляются по формулам = 1 dN N t= |xt µ|, 1 2 N d = N t= 1 d3 N N t= |xt µ|3, = (xt µ)4, где используются выборочные математическое ожидание и дисперсия 1 µ= N N xt, t= 1 d= N N t= (xt µ)2.

Таким образом, если выборочные значения,, существенно отличаются от значений,, для нормального распределения, то распределение элементов ряда нельзя считать нормальным. В противном случае для проверки нормальности следует использовать более строгие критерии. Критерий 2. Разделим множество возможных значений элементов временного ряда X на несколько (например, на 11) интервалов таким образом, чтобы вероятности попадания выборочных значений в каждый интервал были примерно одинаковыми при проверяемой гипотезе. Например, проверяемой гипотезой может быть предположение о нормальном распределении элементов ряда. В этом случае при использовании f = 11 интервалов для стандартного нормального распределения границы интервалов ui определяются значениями, приведенными в табл. 1.1. Таблица 1. Номер интервала,i 1 2 3 4 5 6 7 8 9 10 Нижняя граница –1,345 –0,915 –0,615 –0,360 –0,125 0,125 0,360 0,615 0,915 1, Верхняя граница –1,345 –0,915 –0,615 –0,360 –0,125 0,125 0,360 0,615 0,915 1, + Вероятность попадания,pi 0,0893 0,0908 0,0892 0,0902 0,0908 0,0994 0,0908 0,0902 0,0892 0,0908 0, Границы реальных интервалов Ui пересчитываются через нормированные гра ницы интервалов ui по формулам Ui = µ +ui d, где µ и d выборочные среднее значение и дисперсия временного ряда соответственно. Пусть hi число попаданий выборочных значений в i-й интервал, N общее количество выборочных значений. Естественно, что N = hi. Тогда статистика критерия определяется соотношением f = i=1 i f (hi N pi )2 /N pi.

При справедливости применяемой гипотезы некоррелированные выборочные значения являются независимыми и f при N сходится к случайной величине (СВ), распределенной по закону 2 с (f 1) степенями свободы. Проверяемая гипотеза о нормальности X на уровне значимости отвергается, если f > 2 1,1, где пороговое значение 2 1,1 определяется по таблицам кванf f тилей 2 -распределения. Уровень значимости обычно выбирается в интервале [0,001;

0,1]. Для f = 11 пороговое значение можно определить исходя из следующих данных: 2 1,1 f 0,001 29,59 0,005 25,19 0,01 23,21 0,025 20,48 0,05 18,31 0,1 15, Описанный критерий построен для независимых выборочных значений. Если они зависимые, то выводы могут оказаться неверными. Критерий, основанный на порядковых статистиках. Пусть x(1) x(2)... x(N ) порядковая статистика выборочных данных {xt, 1 t N }, подчиняюшихся нормальному распределению N(µ, d) со средним значением µ и дисперсией d. Если z(1) < z(2) <... < z(N ) порядковая статистика для СВ, имеющих стандартное нормальное распределение N(0, 1) выборки объемом N, то M{z(t) } = mt, а M{x(t) } = µ + dmt, 1 t N. Таким образом, между xt и mt имеется близкая к линейной зависимость, что обеспечивает корреляцию, близкую к единице. Малое значение корреляции указывает на отсутствие линейной зависимости, в связи с чем распределение xt нельзя считать нормальным. Величина mt достаточно хорошо приближается значением обратной функции Лапласа в точке (2t 1)/2N, т. е. 1 ((2t 1)/2N ). Поэтому в качестве статистики критерия можно взять выражение N R2 = t=1 N t= (xt µ)1 ((2t 1)/2N ) µ) N t=, (xt (1 ((2t 1)/2N )) которое по смыслу является квадратом выборочной корреляции между xt и mt. 2 Гипотеза о нормальности отвергается, если R2 < R, где уровень значимо2 приведены в табл. 1.2. сти. Некоторые пороговые значения R Таблица 1.2 N 131 200 0,05 0,980 0,987 0,1 0,983 0, Критерий Аббе. Разобьем выборочные данные X ={xt, 1 t N = nm} на m подмножеств X(k), 1 k m, где Xk = {xt, (k 1)n < t kn}. Для этих подмножеств введем суммы 1 Sk = n kn t=(k1)n+ xt, 1 k m;

1 S= m m Sk.

k= Статистика Аббе представляет собой величину m1 m k= q= k= (Sk+1 Sk )2 (Sk S)2.

Проверяемой гипотезой является гипотеза равенства средних M{S1 } = M{S2 } =... = M{Sm }. Альтернативой является неравенство |M{Sk+1 } M{Sk }| > 0, 1 k m 1.

Согласно критерию Аббе, гипотеза о равенстве средних отвергается, если значение статистики q оказывается меньше критического значения qm (). это квантиль распределения q на уровне знаКритическое значение qm () чимости. При фиксированных m и qm () является решением уравнения M{q < qm ()} =. Для m = 10 критические значения равны: q10 () 0,001 0,2408 0,01 0,3759 0,05 0, Критерий Аббе сформулирован для случая, когда суммы Sk, 1 k m, независимы в совокупности. Критерий Кокрена. Данный критерий используется для проверки гипотезы о равенстве m дисперсий dk, 1 k m, нормальных независимых выборок одинакового объема. Критерий основан на статистике m t= где dk = 1km max dk j= dj, 1 n kn t=(k1)n+ (xt Sk )2 ;

1 k m.

Sk = 1 n kn xt, t=(k1)n+ На основе асимптотического распределения статистики t вычисляются критические значения tm,n1 () для уровня значимости. Если t > tm,n1 (), то проверяемая гипотеза отвергается. При m = 10 критические значения могут быть найдены из табл. 1.3. Таблица 1. 0,01 0,05 10 0,2704 0,2353 16 0,2297 0,2032 36 0,1811 0, n 144 0,1376 0, 0,1000 0, Лабораторная работа 1. Исследование стационарного случайного процесса Цель работы. Получить на ЭВМ реализацию случайного процесса с дискретным временем. Установить стационарность и эргодичность случайного процесса. Определить его основные характеристики. Порядок выполнения работы Определим последовательность случайных величин xt рекуррентным соотношением p q xt = i= ai xti + j= bj Wtj, (1.1) где {ai }, {bj } задаваемые наборы констант;

{Wt } последовательность независимых одинаково распределенных (НОР) СВ. Заметим, что для определения стационарности последовательности (1.1) константы ai следует задавать, пользуясь равенством p p ai z i = i=1 i= (1 i z), (1.2) где {i } набор вспомогательных констант, таких, что |i | < 1. Задав набор {i } из (1.2), определить набор параметров {ai }. Основным содержанием работы является, во-первых, получение числового материала;

во-вторых, его анализ, связанный с формулировкой закономерностей, которые проявляются в этом числовом материале;

в-третьих, сравнение числовых результатов, основанных на обработке полученных данных, с теоретическими результатами. Успех выполнения лабораторной работы в большой степени зависит от качества датчика случайных чисел. Поэтому, приступив к выполнению заданий, надо убедиться, что датчик обеспечивает необходимые условия. Кроме того, выбрав конкретный вид соотношения (1.1), порождающего СП, следует взять такие его параметры, которые обеспечат возможность аналитического получения характеристик СП xt, таких, как числовые характеристики, нормированная ковариационная функция (НКФ) и нормированная спектральная плотность (НСП), эргодичность, стационарность, вид распределения. Задание 1. Пользуясь формулой (1.1), получить реализацию СП, состоящую из N выборочных значений, N = mn, X = {xt, 1 t N }. Расчленить выборку на m подпоследовательностей Yk = {ytk, 1 t n} по правилу ytk = xt+n(k1), 1 k m, 1 t n. Задание 2. Определить следующие выборочные числовые характеристики последовательностей X и Yk, 1 k m : µ, d,,, (см. § 1.4). Провести их сравнительный анализ для различных подпоследовательностей, провести проверку на нормальность. Задание 3. Определить выборочные нормированные корреляционные функции последовательностей X и Yk, 1 k m. Выборочная нормированная корреляционная функция находится по формуле N 1 r( ) = (xt xt+ µ2 ), 0 max, 1) d(N t= где max определяется из условия r( ) < для всех > max и r(max 1) >. Величина max называется временем корреляции на уровне. Для достаточно малых можно считать, что выборочные значения СП X являются некоррелированными, если отстоят друг от друга на расстояние более чем max. Вычислить числовые характеристики µ, d,,, по некоррелированным вы борочным значениям, проводя суммирование в этих формулах через max значений. Провести сравнительный анализ числовых характеристик, полученных в задании 2, и по некоррелированным выборочным значениям. Задание 4. Определить выборочные нормированные спектральные плотности (НСП) последовательностей X и Yk, 1 k m. Для вычисления выборочных НСП использовать оценку Бартлетта, которая имеет вид 1 g () = max 1+ = max cos ( )( ), r 0, для СП X и Yk, 1 k m. Эта формула определяет НСП только для неотрицательных. Поскольку g () четная функция, этого достаточно для выяснения вида g () на всем интервале [, ] изменения. Задание 5. Для определенного класса стационарных СП {xt } можно показать, что значения выборочных корреляционных функций и выборочных спектральных плотностей нормально распределены. Поэтому при достаточно больших объемах выборки можно рассматривать совокупности {k ( ), 1 k m} r и {k (), 1 k m} как наблюдения НКФ r( ) и НСП g() соответственно, g распределенные по нормальному закону. С учетом асимптотической нормальности значений НКФ и НСП построить доверительные интервалы для значений этих функций при рассмотрении каждого конкретного значения (или ) в качестве наблюдений величины rk ( ) (или gk ( )), 1 k m. Задание 6. Проверить свойство эргодичности СП X по отношению к степенной функции. Для этого вычислить временные средние l = 1 N N l xt, t= lk = 1 n n l ytk, t= 1 l 5.

Провести сравнительный анализ k и kl. Задание 7. Основываясь на критерии 2 и критерии порядковых статистик, проверить нормальность СП X. Использовать эти критерии для некоррелированной части выборки и для всей выборки. Провести сравнение. Задание 8. Основываясь на критерии Аббе, проверить гипотезу о равенстве средних значений последовательностей {ytk }, 1 k m, по некоррелированным выборочным значениям, имеющим нормальное распределение.

Задание 9. Основываясь на критерии Кокрена, проверить гипотезу о равенстве дисперсий последовательностей {ytk }, 1 k m, по некоррелированным нормально распределенным выборочным значениям.

Глава ОЦЕНИВАНИЕ ФУНКЦИИ РЕГРЕССИИ. ВЫДЕЛЕНИЕ ТРЕНДОВ 2.1. Оценивание полиномиального тренда методом наименьших квадратов Наиболее простой математической моделью временного ряда является сумма xt = mt + st + yt, (2.1) где mt некоторая медленно меняющаяся функция, называемая трендом (систематическая составляющая);

st более или менее регулярные колебания относительно тренда (сезонная составляющая);

yt случайная (несистематическая, нерегулярная) компонента, как правило, представляющая собой стационарный случайный процесс с нулевым средним. Если st = 0, mt = const для всех t, то (2.1) является процессом, свойства которого подробно исследованы в гл.1. Предположим теперь, что st = 0, а тренд mt достаточно медленно меняющаяся функция, которая может рассматриваться как ”наилучшим образом сглаженный” временной ряд xt. В такой постановке mt удобно представлять в виде полинома по t некоторой степени q, т. е. mt = a0 + a1 t + a2 t2 +... + aq tq. (2.2) Если вероятностные характеристики случайной компоненты предполагаются известными, то задачей анализа такого временного ряда является определение неизвестных коэффициентов полинома (2.2). Рассмотрим эту задачу вначале в предположении, что {yt } некорелированные СВ, т. е. M{yt1 yt2 } = 0 для любых t1 = t2. Для компактности записи перейдем к матричным обозначениям. Представим, что для оценивания тренда (2.2) выполнено N наблюдений временного ряда (2.1) при значениях параметра t из множества {t1, t2,..., tN }. Пусть a = (a0, a1,..., aq ) вектор-столбец, составленный из коэффициентов полинома (2.2);

= (ij ) (N (1 + q))-матрица с j1 элементами ij = ti, 1 i N, 1 j 1 + q;

x = (xt1, xt2,..., xtN ) векторстолбец наблюдений временного ряда;

y = (yt1, yt2,..., ytN ) вектор-столбец значений случайной компоненты в точках наблюдений. Тогда набор наблюдений временного ряда (2.1) представляется в матричной форме x = a + y. 18 (2.3) Для того, чтобы определить тренд, нужно найти коэффициенты полинома (2.2), т. е. вектор a. Наиболее распространенный метод нахождения данного вектора метод наименьших квадратов (МНК), в соответствии с которым этот вектор находится из условия y y = (x a) (x a) min, a (2.4) что приводит к решению системы линейных алгебраических уравнений относительно вектора a, обычно называемой нормальной системой уравнений a = x, a = ( )1 x. (2.5) Оценка a вектора a является несмещенной и по теореме Гаусса Маркова обладает минимальной дисперсией в классе всех несмещенных линейных оценок (т. е. таких оценок, которые линейно связаны с наблюдениями (2.1)). Кроме то го, векторы a и (x ) некоррелированы. Причем матрица ковариации оценки a a имеет вид M{( a)( a) } = ( )1 D{yt }, a a (2.6) где D{yt } дисперсия случайной составляющей yt. Таким образом, точность оценивания вектора a при помощи (2.5) определяется свойствами матрицы ( )1. Для существования этой матрицы необходимо, чтобы N (1+q), и достаточно, чтобы содержала не менее (1+q) линейно независимых строк. Обозначим диагональные элементы матрицы через c2, а столбцы матi рицы через i, т. е.

N ( )ii = i i = j= 2 = c2, ij i 1 i (1 + q).

(2.7) В этом случае имеет место неравенство (( )1 )ii ci 2, 1 i (1 + q). (2.8) Причем равенство достигается тогда и только тогда, когда j = 0 при i = j. i Из (2.6),(2.8) следует, что при фиксированных c2 минимальные значения дисi персий оценки a получаются тогда и только тогда, когда столбцы матрицы ортогональны. Причем оценки ai коэффициентов ai некоррелированы и вычис ление как самих оценок, так и их дисперсий является существенно более простым по сравнению с (2.5) и (2.6). Действительно, если j = 0 при i = j, то i в (2.5) и (2.6) будем иметь ai1 = x i, i i D{i1 } = a D{yt }, i i 1 i (1 + q). (2.9) Следовательно, матрицы с ортогональными столбцами обеспечивают важное преимущество, которое заключается в том, что вызывающее затруднение при вычислениях обращение матрицы, используемое в (2.5) и (2.6), при равенстве в (2.8) не требуется. Итак, для получения точных и более простых с точки зрения вычислений оценок желательно, чтобы столбцы матрицы были ортогональными. Для достижения этого имеется две возможности: либо соответствующим образом задать точки наблюдения {ti }, либо для всякого заданного набора точек наблюдения модифицировать структуру полинома (2.2) так, чтобы тренд mt был линейной комбинацией полиномов, ортогональных на {ti }. В первом случае, когда тренд j1 представлен полиномом (2.2), а элементы матрицы выбраны в виде ij = ti, ортогонализировать столбцы для вещественных {ti } невозможно, поскольку в этих условиях для всяких l = k, таких, что l+k = 2(m+1), должны выполняться соотношения N l k = i= t2m = 0. i Остается второй случай, при реализации которого полиномиальный тренд (2.2) следует представить в виде mt = b0 0 (t) + b1 1 (t) +... + bq q (t), где {j (t), 0 j q} i N } вида таких, что N (2.10) набор ортогональных полиномов на множестве {ti, 1 (2.11) j (t) = c0 (j) + c1 (j)t +... + cj1 (j)tj1 + tj, l (ti )j (ti ) = 0 для всех l = j.

i= (2.12) В частности, (2.12) выполняется, если j (t) ортогонален по отношению к tl, 0 l j 1, на множестве {ti }. Тогда для коэффициентов ck (j), 0 k j 1, получается система уравнений j1 N N ck (j) k=0 i= tk+l i = tl+j, i i= 0 l j 1.

(2.13) Использовав обозначение k = 1 N N tk, i i= (2.14) представим (2.13) в более компактном виде:

j1 k= ck (j)k+l = l+j, 0 l j 1.

(2.15) Коэффициенты первых трех полиномов (2.11) будут иметь вид c0 (0) = 1;

c1 (1) = 1, c2 (2) = 1, c1 (2) = c0 (1) = 1 ;

c0 (2) = При ti = i получаются наиболее простые полиномы. При этом предположении три первых полинома (2.11) выглядят следующим образом: 0 (t) = 1, N +1, 2 (N + 1)(N + 2) 2 (t) = t2 (N + 1)t +. 6 Разрешив q систем уравнений (2.13) (при 1 j q), можно найти коэффициенты ck (j) и набор ортогональных полиномов (2.11), которые задают матрицу с элементами ij = j (tj ). Свойства ортогональности полиномов j (t) позволяют найти оценки коэффициентов (2.10) и их дисперсий в виде 1 (t) = t N 1 2 3 2, 2 2 1 3 2 2. 2 j = b i=1 N i= j (ti )xti, (j (ti ))2 D{j } = b N D{yt } (j (ti )), 0 j q.

(2.16) i= Приведем явные формулы для оценки линейного тренда (q = 1). Обозначим x= 1 N N xti, i= x = 1 N N ti xti, i= 2 = D{yt }.

(2.17) Тогда оценка тренда имеет вид mt = а ее дисперсия D{mt mt } = 2 x 1 x + ( x 1 x)t, 2 2 1 2 N 1+ t2 2 2 1. (2.18) (2.19) Отметим не менее важное преимущество представления тренда ортогональными полиномами (2.10), (2.11) по сравнению с представлением (2.2). Примененный здесь МНК основывается на квадратичной мере качества приближения оценки mt к тренду mt. При этом предполагается, что вид mt известен с точ ностью до коэффициентов, поэтому оценивание тренда связывается с оцениванием коэффициентов. Однако такая замена не всегда правомерна. Действительно, в случае представления (2.2) и оценок (2.5) выборочное среднеквадратичное отклонение оценки mt от тренда mt в точках наблюдения вы ражается равенством 1 N N i=1 q q (mti mti )2 = k=0 l= (k ak )(l al )k+l. a a (2.20) Отсюда видно, что минимизация дисперсии оценок aj еще не обеспечивает ми нимизации среднего значения (2.20). В случае представления (2.10) (2.12) и оценок (2.16) выборочное среднеквадратичное отклонение оценки mt от тренда mt находится в виде 1 N N i=1 q (mti mti )2 = k= (k bk )2 b 1 N N 2 (ti ). k i= (2.21) В этом случае минимизация дисперсии оценок j обеспечивает и минимизацию b среднего значения (2.21). До сих пор предполагалось, что значения случайной компоненты yt в (2.1) являются независимыми в совокупности. К сожалению, это не всегда имеет место на практике. Пусть теперь значения yt для различных t коррелированы, а их корреляция известна, т.е. M{yt ys } = R(t s), где R(t) заданная функция. Обозначим Rij = R(ti tj ), R (N N )-матрица, составленная из Rij. Тогда оценка (2.5) выглядит слудующим образом: a = ( R1 )1 R1 x. (2.22) При этом оценка существенно усложняется, так как приходится оперировать с матрицей R1, получение которой для больших объемов выборки наблюдений N является затруднительным в вычислительном отношении. Однако когда удается найти матрицу R1/2 (под матрицей R1/2 понимается симметрическая невырожденная матрица, удовлетворяющая условию R1/2 R R1/2 = I) на ос новании конкретных свойств R, то, заменив = R1/2, x = R1/2 x, можно перейти к случаю некоррелированных случайных компонент, так как исходное соотношение (2.3) превращается в равенство x = a + y, (2.23) где случайный вектор y = R1/2 y имеет уже некоррелированные компоненты и выполняются условия предыдущего анализа только по отношению к новым преобразованным данным. Положительная определенность функции R(t) влечет за собой положительную определенность матрицы R. Поскольку матрица R является положительно определенной, матрица R1/2 всегда существует и тоже является положительно определенной. В случае коррелированных yt оценка (2.16) также существенно усложняется, так как ортогональные полиномы j (t) должны удовлетворять не (2.2), а более сложному требованию N N 1 l (t )R j (t ) = 0 для всех l = j, =1 = (2.24) а это приводит к тому, что вместо уравнений (2.15) относительно коэффициентов ck (j) ортогональных полиномов j (t) получаются уравнения j1 k= ck (j)k,l = j,l, N N 0 l j 1, (2.25) где k,l = =1 =1 1 1 В (2.24) и (2.26) R обозначает элемент матрицы R1, R (R1 ). Сами уравнения (2.25) по сложности не отличаются от (2.15), но для вычисления коэффициентов k,l приходится обращать матрицу R, что и усложняет проблему нахождения ортогональных полиномов j (t). Если в представлении (2.10) полиномы j (t) удовлетворяют (2.11), (2.25), то оценки коэффициентов bj и их дисперсии выражаются формулами N N 1 l (t )R xt 1 tk tl R.

(2.26) j = b =1 =1 N N =1 = 1 j (t )R j (t ), D{j } = b N N D{yt } 1 j (t )R j (t ).

(2.27) =1 = До сих пор неявно предполагалось, что степень q полинома (2.2), характеризующего тренд временного ряда (2.1), известна. Однако на практике такое предположение может оказаться неоправданным. Поэтому возникает проблема оценивания не только коэффициентов полинома (2.2), но и его степени q. Это может быть сделано следующим образом. Оценка качества приближения тренда полиномом степени q по наблюдениям x = (xt1, xt2,..., xtN ) с вероятностью (1 ) характеризуется величиной J(q) = N N (1 + q) 1 + ln 1 N q ln + (x b) (x b), (2.28) где (N (1 + q))-матрица с элементами ij =j (ti );

j (t) полиномы, оп ределяемые соотношениями (2.11), (2.14) и (2.15);

b (1 + q)-вектор-столбец, составленный из оценок (2.16). Та степень q, при которой J(q) принимает наименьшее значение, является оптимальной степенью полиномиального приближения, а тренд mt аппроксимируется алгебраическим полиномом (2.10) этой степени. Следует учитывать тот факт, что минимизация J(q) имеет смысл только в области значений параметров, которые обеспечивают неотрицательные значения (2.28). Если дисперсия случайной составляющей yt неизвестна, то она может быть оценена по формуле D{yt } = 1 (x b) (x b), N 1q (2.29) где матрица с элементами ij = j (ti );

b вектор-столбец оценок (2.16). В том случае, когда для описания тренда используется степенной полином (2.2), дисперсия случайной составляющей оценивается по формуле D{yt } = 1 (x ) (x ), a a N 1q (2.30) j1 где матрицы с элементами ij = ti, 1 i N, 1 j (1 + q);

a вектор-столбец, определяемый (2.5). Рассмотрим теперь случай, когда систематическая составляющая mt в (2.1) отсутствует, но сезонная компонента st отличается от нуля. Причем q st = j= (aj cos j t + bj sin j t), t = 1, 2,..., N, 0 j, (2.31) где j набор известных параметров;

aj, bj неизвестны. Случайная компонента yt представляет собой последовательность некоррелированных случайных СВ. Так что xt = st + yt, t = 1, 2,..., N, (2.32) а st определена в (2.31). Ассимптотически несмещенной оценкой коэффициентов aj и bj являются 2 aj = N N xt cos j t, t= j = 2 b N N xt sin j t.

t= (2.33) Лабораторная работа 2. Выделение полиномиального тренда Цель работы. Освоить технику выделения полиномиальных трендов и приближения функций регрессии полиномами. Научиться оценивать точность аппроксимации и выбирать оптимальные параметры аппроксимирующих полиномов. Порядок выполнения работы Предполагается исследовать один из двух объектов: временной ряд с полиномиальным трендом или временной ряд, тренд которого полиномом не является, но аппроксимируется полиномом. Все задания одинаковы по отношению к указанным объектам. Только в случае, когда тренд полином, надо выяснить, насколько точно определяется степень полиномиального тренда q при помощи минимизации функционала (2.28). Когда же исследуется тренд, не являющийся полиномом, предполагается выбирать его из класса дробно-рациональных, иррациональных или трансцендентных функций. После того, как решение о виде тренда принято, следует задать множество точек наблюдения, включая в него (не обязательно) все значения параметра t, для которых предполагается получать значения временного ряда. Задание 1. Пользуясь датчиком случайных чисел, получить реализацию временного ряда в виде (2.3). Задание 2. Построить оценку (2.5) коэффициентов тренда, пользуясь реализацией (2.3). Построить оценку тренда (2.2) по полученным оценкам коэффициентов в точках наблюдения mt = a0 + a1 t + · · · + aq tq, t {t1, t2,..., tN }. Найти a = 1 N N k= |mtk mtk |. Оценить дисперсию случайной составляющей по формуле (2.30). Задание 3. Построить набор ортогональных полиномов {j (t), 0 j q} на множестве {ti }, пользуясь уравнениями (2.15). Задание 4. Построить оценки (2.16) коэффициентов тренда, представленного в виде (2.10). По этим оценкам найти значение тренда в точках {ti }: mt = 0 0 (t) + 1 1 (t) + · · · + q q (t), b b b Найти b = 1 N N k= t {t1, t2,..., tN }.

|mtk mtk |. Сравнить a и b. Оценить дисперсию случайной составляющей по формуле (2.29). Задание 5. Пользуясь датчиком случайных чисел, построить случайную компоненту временного ряда по типу скользящего среднего: 1 yt = n n k= tk 1, где t СВ, распределенные равномерно в [0,1]. В этом случае yt являются коррелированными, так что M{yt ys } = R(t s) = (1 |ts| ) 2, |t s| < n, n R(t s) = 0, |t s| n, где 2 дисперсия СВ t. Задание 6. Построить реализацию временного ряда с коррелированной случайной составляющей. Найти оценку (2.22) коэффициентов полиномиального тренда. Вычислить оценку тренда в точках наблюдения и определить ее отклонение a так же, как в задании 2. Задание 7. Построить набор ортогональных полиномов {j (t), 0 j q} на множестве {ti }, применив уравнения (2.25). Задание 8. Построить оценки (2.27) коэффициентов представления (2.10), определить значение тренда в точках наблюдения и их отклонения от истинных значений так, как в задании 4. Дать сравнительный анализ выполнения заданий 2, 4, 6, 8. Задание 9. Построить функционал качества (2.28) приближения тренда полиномом степени q и определить оптимальные значения q. Найти оптимальный набор полиномов (2.11) (2.15), соответствующие ему оценки (2.16) и выборочное квадратичное отклонение b, введенное в задании 4. Задание 10. Применяя датчик случайных чисел и задавая параметры q, aj, bj, j, 1 j q, получить по формулам (2.31), (2.32) реализацию временного ряда с периодическим трендом. По формулам (2.33) найти оценки коэффициентов aj, bj, если параметры q и j известны. Исследовать изменение оценок aj, j в зависимости от объема выборки N. b 2.2. Оценивание функции регрессии. Общий случай Функцией регрессии временного ряда {xt, t T } называется математическое ожидание СВ xt, рассматриваемое как функция параметра t: mt = M{xt }. (2.34) Отличие (2.34) от (2.1) состоит в том, что, во-первых, значения временного ряда не разделяются на случайные и детерминированные компоненты. Во-вторых, mt не представляется в виде определенной функциональной зависимости, как в (2.2), (2.10) или (2.31). Для рассмотрения общего случая используем некоторые унифицированные обозначения. Пусть T [a, b], где a, b конечные величины, т. е. t является скалярной переменной. Унифицируем изменение t, определив новую переменную u= 2t a b. ba (2.35) При изменении t в интервале [a, b] переменная u принимает значения от 1 до +1 для любых a и b. Таким образом, не теряя общности, вместо (2.34) можно рассматривать функцию m(u) = m 2t a b ba mt, 1 u +1. (2.36) Когда верхняя граница интервала [a, b] неограниченна, т. е. b = +, полагаем u = t a, так что m(u) = m(t a) mt, u (0, +). Наконец, когда T совпадает с числовой осью, u = t. Будем предполагать, что функция m(u) принадлежит некоторому линейному подпространству, заданному набором функций {1 (u), 2 (u),..., q (u)}, т. е. имеет место представление q m(u) = j= cj j (u) = c (u), (2.37) где c = (c1, c2,..., cq ) вектор коэффициентов разложения m(u) по базису {j (u)};

(u) = (1 (u), 2 (u),..., q (u)) вектор-столбец, составленный из функций {j (u)}. Представление (2.37) определяет функцию регрессии m(u) с точностью до коэффициентов {cj }. Эти коэффициенты обычно определяются из требования минимизации функционала (m(u) c (u))2 du min.

cj (2.38) Здесь, как и далее, интегрирование осуществляется по всему интервалу. В общем случае оценивания функции регрессии аргумент t в (2.34), а следовательно, и u в (2.35) могут выбираться некоторым случайным образом в соответствии с некоторой функцией распределения P (u). Тогда вместо функционала (2.38) вводится его обобщение (m(u) c (u))2 dP (u) и коэффициенты {cj } находятся из условия минимизации (2.39). Определим функционал среднего риска соотношением J(c) = M (x(u) c (u))2 dP (u), (2.40) (2.39) где, как и в случае (2.35), x(u) = x 2t a b xt. Математическое ожидаba ние M{·} в (2.40) вычисляется по значениям временного ряда, т. е. по x. Можно показать, основываясь на (2.34), что вектор c, доставляющий минимум функционалу (2.39), минимизирует и средний риск J(c), т. е. представление функции регрессии (2.37) находится при помощи минимизации (2.40). Вместе с тем в реальных задачах ни P (u), ни распределение значений временного ряда, как правило, не известны и средний риск J(c) в явной форме не может быть определен. Поэтому коэффициенты разложения функции регрессии принято получать при помощи минимизации эмпирического риска, который вводится следующим образом. В реальных условиях временной ряд xt наблюдается на некотором конечном множестве t1, t2,..., tN значений параметра t. Положим для определенности ti < ti+1. Наблюдаемому ряду соответствует множество {x(ui ), 1 i N }. Эмпирическим риском называется 1 Jэ (c) = N N i= (x(ui ) c (ui ))2.

(2.41) Предположим, что наблюдения {x(ui )} независимы в совокупности. Имеет место следующее неравенство Хфдинга. Если 0 (x(ui ) c (ui ))2, 1 i N, е то P {|J(c) Jэ (c)| > } <, (2.42) где и связаны соотношением = ln (1/)/2N. (2.43) Из (2.43) следует, что всегда найдется объем выборки N, при котором с любой заданной вероятностью 1 абсолютная величина разности между J(c) и Jэ (c) не будет превышать. Аналогичный результат можно получить и из неравенства Чебышева, которое имеет тоже вид (2.42), но величины и в нем связаны соотношением = D/N, (2.44) где D дисперсия (x(u)c (u))2. Из (2.43), (2.44) можно оценить объем выборки, обеспечивающий с заданной вероятностью 1 гарантированную точность нахождения среднего риска через эмпирический. Это является основанием для определения коэффициентов разложения (2.37) не минимизацией (2.40), а минимизацией риска (2.41), который может быть построен по наблюдениям временного ряда. Пусть x = (x(u1 ), x(u2 ),..., x(uN )) вектор-столбец наблюдений временного ряда;

(N q)-матрица с элементами ij = j (ui ). Тогда для определения коэффициентов разложения получаем уравнение Jэ (c) = 1 (x c) (x c) min, c N (2.45) которое в формальном смысле не отличается от уравнения (2.44). Решение (2.45) сводится к решению нормальной системы уравнений c = x;

c = ( )1 x. (2.46) О свойствах решения (2.46) ранее уже говорилось. Выбор функций {j (u)} должен быть таким, при котором матрица не вырождена, и если составлена из ортогональных столбцов, то точность оценки (2.46) наиболее высокая (см.(2.8)). Более предпочтительным является случай, когда столбцы матрицы не только ортогональные, но и ортонормированные. Тогда = I и оценка (2.46) приобретает наиболее простую форму c = x. (2.47) Системы ортогональных полиномов. В § 2.1 была рассмотрена процедура построения ортогональных полиномов. Приведем системы ортогональных функций, используемых чаще других. Полиномы Лежандра Pk (u) ортогональны на интервале [1, +1]. Рекуррентной формулой для определения последовательности полиномов является равенство 2k + 1 k Pk+1 (u) = uPk (u) Pk1 (u). (2.48) k+1 k+1 Первые шесть полиномов имеют вид P0 (u) = 1, P1 (u) = u, 1 P2 (u) = (3u2 1), 2 1 P3 (u) = (5u3 3u), 2 1 P4 (u) = (35u4 30u2 + 3), 8 1 P5 (u) = (63u5 70u3 + 15u) 8 2 с нормировочным соотношением Pk (u) du = (k + 1 )1. 2 Ортогональные функции, основанные на полиномах Чебышева, определяются для интервала [1, +1] формулой k (u) = (1 u2 )1/4 Tk (u), где Tk (u) задаются рекуррентной зависимостью Tk+1 (u) = 2uTk (u) Tk1 (u). Первые шесть полиномов Чебышева имеют вид T0 (u) = 1, T1 (u) = u, T3 (u) = 4u3 3u, T2 (u) = 2u2 1, (2.49) с нормировочным соотношением 2 (u) du =, 2 (u) du = (1 0 k, k 1. 2 u2 )1/2 Tk (u) = 2 Тригонометрические функции, ортогональные на [1, +1], образуют ортонормированную систему 1 0 (u) =, 2 2k (u) = cos (ku), T5 (u) = 16u5 20u3 + 5u T4 (u) = 8u4 8u2 + 1, 2k1 = sin (ku), k = 1, 2,..., (2.50) с нормировочным соотношением 2 (u) du = 1. k Ортогональные на (0, +) функции, основанные на полиномах Лаггера Lk (u), выражаются формулой k (u) = eu/2 Lk (u), где полиномы Lk (u) определяются рекуррентно: Lk+1 (u) = (2k + 1 u)Lk (u) k 2 Lk1 (u). Первые шесть полиномов Лаггера имеют вид L0 (u) = 1, L1 (u) = u + 1, (2.51) с нормировочным соотношением 2 (u) du = eu L2 (u) du = (k!)2. k k Примером функций, ортогональных на всей числовой оси (, +), являются функции, построенные с использованием полиномов Эрмита Hk (u), т. е. k (u) = eu 2 / L5 (u) = u5 + 25u4 200u3 + 600u2 600u + L4 (u) = u4 16u3 + 72u2 96u + 24, L3 (u) = u3 + 9u2 18u + 6, L2 (u) = u2 4u + 2, Hk (u).

Полиномы Эрмита Hk (u) находятся по рекуррентной формуле Hk+1 (u) = 2uHk (u) 2kHk1 (u). Первые шесть полиномов Эрмита имеют вид H0 (u) = 1, H1 (u) = 2u, H3 (u) = 8u3 12u, H2 (u) = 4u2 2u, (2.52) H5 (u) = 32u5 160u3 + 120u с нормировочным соотношением 2 (u) du = k H4 (u) = 16u4 48u2 + 12, 2 2 eu Hk (u) du = 2k k!.

Ортогональную систему функций можно построить для всякой конечной или бесконечной последовательности линейно независимых функций f1 (u), f2 (u),..., нормируемых на некотором интервале. Наиболее известным способом такого преобразования функций является метод ортогонализации Грама Шмидта, который заключается в следующем. Обозначим (f, f ) = f 2 (u) du. Пусть 1 (u) = f1 (u), k k+1 (u) = fk+1 (u) l= (l, fk+1 )l (u), (l, l ) k = 1, 2,...

.

(2.53) Функции k (u), определенные таким образом, являются ортогональными. Если, кроме того, положить k (u) = k (u)/ (k (u), k (u)), то функции k (u) образуют систему ортонормированных функций на рассматриваемом интервале. До сих пор предполагалось, что функциональное подпространство, в котором может быть представлена функция регрессии, задано. Но это обычно на практике не выполняется, и речь может идти лишь о том, чтобы аппроксимировать функцию регрессии функциями из задаваемого линейного подпространства. Выбор подпространства, к сожалению, формализовать не удается, если не считать формализацией перебор всех подпространств, доступных для использования. Поэтому считается, что аппроксимирующее подпространство функций выбирается исследователем эмпирически. Однако некоторые соображения можно сформулировать. Например, если функция регрессии, определенная на ограниченном интервале, предполагается периодической, то можно рекомендовать аппроксимацию тригонометрическими полиномами. Отметим, что при аппроксимации на ограниченном интервале чаще других используются ортогональные функции, построенные с использованием полиномов Чебышева. После того, как функциональное пространство выбрано, необходимо уточнить его размерность. Для этого может быть использован подход, описанный в § 2.1. Оценка качества приближения, справедливая для любой случайной выборки, характеризуется выражением J(q) = N (x ) (x ) c c N q 1 + ln N q, (2.54) ln где c оценка (2.46), основанная на (2.45) с учетом (2.37);

N объем выборки;

q размерность аппроксимирующего подпространства (размерность q выбирается такой, чтобы (2.54) принимала минимальную величину);

уровень значимости при определении размерности аппроксимирующего подпространства. Лабораторная работа 3. Изучение функций регрессии Цель работы. Изучить возможность нахождения функций регрессии в виде разложения ее по набору линейно независимых или ортогональных функций. Провести сравнительное исследование точности оценивания функции регрессии по различным базисам. Порядок выполнения работы Использовать те же реализации временных рядов, которые были получены в лабораторной работе 2, поскольку оценивание в данном случае осуществляется другими средствами и появляется возможность сравнивать качество работы этих подходов. Если реализацию временного ряда лабораторной работы сохранить не удалось, то временной ряд, который должен быть исследован в настоящей работе, получается таким же образом, как и в предыдущем случае. При выполнении лабораторной работы более важным, чем получение оценки функции регрессии, является ее исследование. Поэтому в ходе выполнения заданий следует анализировать матрицы вариаций, которые по форме одинаковы в заданиях 1 5, но могут сильно отличаться по значениям при использовании различных базисов разложения. Необходимо провести анализ точности оценивания (например, по показателям ) в зависимости от отношения tN 1 m2 dt (D{yt }). = t tN t t Задание 1. Использовать полиномы Лежандра для оценивания функции регрессии исследуемого временного ряда. Найти 1 p = + |mp (u) m(u)| du, где mp (u) оценка функции регрессии в виде разложения по полиномам Лежандра Pk (u). Число членов разложения определить с помощью минимизации (2.54). Задание 2. Использовать функции Чебышева для оценивания функции ре+1 1 грессии исследуемого временного ряда. Найти T = 2 |mT (u)m(u)| du. Чис1 ло членов разложения определить с помощью минимизации (2.54). Задание 3. Использовать тригонометрические функции для оценивания функции регрессии исседуемого временного ряда. Определить 1 = + |m (u) m(u)| du.

Число членов разложения найти с помощью минимизации (2.54).

Задание 4. Применяя функции Лаггера, оценить функцию регрессии используемого временного ряда. Число членов разложения найти с помощью минимизации (2.54). Определить качество оценивания интегралом 1 L = ba b a |mL (u) m(u)| du, где [a, b] интервал попадания точек наблюдения ui. Задание 5. Использовать функцию Эрмита для оценивания функции регрессии исследуемого временного ряда. Число членов разложения определить с помощью минимизации (2.54). Вычислить качество оценивания интегралом 1 = ba b H a |mH (u) m(u)| du.

2.3. Оценивание функции регрессии. Рекуррентные методы Использование для определения функции регрессии оценок (2.46) в явной форме имеет негативные в вычислительном отношении аспекты, связанные с обращением матрицы. Во-первых, эта матрица может иметь довольно большую размерность и, во-вторых, может быть плохо обусловленной, что приводит к значительным вычислительным погрешностям и, как следствие, некачественному восстановлению функции регрессии. Существуют методы получения оценок (2.46) в вычислительном отношении более подходящие, так как они не предполагают обращения в явной форме. Это рекуррентные методы или, как их часто называют, адаптивные. Покажем, как можно придать рекуррентную форму вычислениям выборочных средних. Пусть N 1 F (N ) = ft N t= является выборочным средним N некоторых наблюдений ft. Нетрудно видеть, что этой формуле можно придать рекуррентную форму F (N ) = 1 1 N F (N 1) + 1 fN ;

N F (1) = f1. (2.55) Такая формула является удобной в том случае, когда наблюдения ft поступают вычислителю последовательно и имеется возможность до получения очередного наблюдения обработать предыдущие. Тогда очередное наблюдение только корректирует выборочное среднее, вычисленное по предыдущим наблюдениям. Происходит адаптация выборочного среднего к поступившему новому наблюдению. Такой способ обработки наблюдений удобен в тех случаях, когда необходимо использовать выборочное среднее еще до окончания процесса наблюдения, т. е. в процессе получения наблюдений. Эта ситуация часто встречается при реализации процессов управления. Кроме того, и в вычислительном плане такой способ удобен тем, что перерасчет выборочного среднего производится с использованием минимального объема памяти: не нужно накапливать все наблюдения, а достаточно помнить только предыдущее выборочное среднее. Наконец, использование рекуррентной формы выборочных средних удобно для реализации процесса имитационного моделирования в задачах исследования методов статистического анализа. При такой обработке данных не нужно организовывать больших массивов, а следует проводить обработку этих данных одновременно с их имитацией. Воспользуемся таким подходом для вычисления оценок (2.46). Пусть (n) означает матрицу, составленную из элементов ij = j (ui ), 1 j q, 1 i n, т. е. (n) это матрица, на основе n первых наблюдений над временным рядом. С ростом n число строк матрицы (n) увеличивается. Пусть, как и прежде, (ut ) = (1 (ut ), 2 (ut ),..., q (ut )) t-я строка матрицы (n). Тогда будем иметь соотношения (n + 1) = (n) (u n+1 ) ;

. (n + 1) = ((n). (un+1 )),.

в связи с чем (n)(n) = (n 1)(n 1) + (un ) (un ). Полезным для дальнейшего рассмотрения является следующее матричное равенство. Пусть A иB квадратные невырожденные матрицы, не обязательно одинаковых размеров, а X, Y, Z матрицы соответствующих размеров, связанные с A и B соотношением Z = A + XBY. Тогда Z 1 = A1 A1 X(B 1 + Y A1 X)1 Y A1. Эта формула удобна для нахождения обратной матрицы Z 1, когда A1 можно задать, а B 1 просто вычислить. Пусть в данном случае Z = (n+1)(n+1), A = (n)(n), X = Y = (un+1 ). Тогда B оказывается скалярным параметром, равным единице, B = 1. Отсюда имеем ( (n + 1)(n + 1))1 = ( (n)(n))1 ( (n)(n))1 (un+1 ) (un+1 )( (n)(n))1. 1 + (un+1 )( (n)(n))1 (un+1 ) Обозначим для краткости ( (n)(n))1 = (n), (n + 1) = (n)(un+1 ). (2.56) Поэтому рекуррентная формула для вычисления последовательности обратных матриц ( (n)(n))1 = (n) приобретает наиболее простую форму (n + 1) = (n) (n + 1) (n + 1). 1 + (un+1 )(n + 1) 34 (2.57) Обозначим через x(n) вектор-столбец, составленный из первых n наблюдений временного ряда xt, 1 t n. Тогда оценка (2.46), полученная с использованием n первых наблюдений временного ряда, будет иметь вид c(n) = ( (n)(n))1 (n)x(n) = (n)( (n 1)x(n 1) + xn (un )) = = (n 1) (n) (n) 1 + (un )(n) ( (n 1)x(n 1) + xn (un )) = (2.58) = c(n 1) + (n) (xn c (n 1)(un )). 1 + (un )(n) Эта формула получена с учетом того, что матрица (n), по определению, симметрическая матрица. Заметим, что матрица (n) с точностью до постоянного множителя совпадает с матрицей ковариации оценки (2.46). Указанным множителем является дисперсия временного ряда, т. е. V {xt } = M{(xt mt )2 }, где mt определено в (2.34). Оценке этой дисперсии соответствует величина Vn = 1 (x(n) (n)(n)) (x(n) (n)(n)). c c nq (2.59) Таким образом, процедура рекуррентного вычисления оценки (2.46) сводится к последовательному вычислению матрицы (n) и вектора c(n) с помощью соотношений (n)(un+1 ) (un+1 )(n) (n + 1) = (n) ;

(2.60) 1 + (un+1 )(n)(un+1 ) c(n + 1) = c(n) + (n + 1)(un+1 )(xn+1 c (n)(un+1 )). (2.61) При реализации процедуры вычисления по формулам (2.60), (2.61) удобно использовать вектор (n + 1) = (n)(un+1 ). Для того, чтобы описанная процедура была полностью определена, необходимо задание начальных условий. В общем случае для существования матрицы (n) = ( (n)(n))1 необходимо, чтобы n q, и достаточно, чтобы (n) содержала не менее q линейно независимых столбцов. В предположении, что первые q наблюдений обеспечивают линейную независимость векторов (ui ), 1 t q, рекуррентные формулы (2.60), (2.61) могут быть использованы только при n q. Поэтому процедуру оценивания коэффициентов c(n) удобно осуществлять в два этапа. Для малых n < q определим (q q)-матрицу H(n) следующими рекуррентными соотношениями: Hn (n 1) (nk (un )Hk (n 1)), n )Hn (n 1) 1 k q, Hk (n) = Hk (n 1) + (u (2.62) где Hk (n) k-й столбец матрицы H(n), причем матрица H(0) = I, т.е. Hij (0) = ij, ij символ Кронекера. Оценка вектора c(n) при этом вычисляется по формуле c(n) = c(n 1) + (u Hn (n 1) (xn c (n 1)(un )). n )Hn (n 1) (2.63) Если существуют какие-либо априорные данные, позволяющие составить на чальный вектор c(0), то это начальное приближение может быть использовано в (2.63). Если же априорных данных относительно вектора c нет, то полагаем c(0) = 0. Применив q раз формулы (2.62), (2.63), получим H(q) и c(q). На этом этап малых n заканчивается. В качестве (q) выбирается H(q)H (q), и дальнейшие вычисления для n q производятся по формулам (2.60), (2.61). Может оказаться, что первые q наблюдений не порождают линейно независимые векторы (ut ). Тогда может быть использована общая процедура, которая сводится к следующему: c(n + 1) = c(n) + K(n + 1)(xn+1 c (n)(un+1 )), c(0) = 0, где K(n + 1) вектор, который вычисляется по формулам A(n)(un+1 ) (u )A(n)(u n+ (2.64) K(n + 1) = n+1 ), если A(n)(un+1 ) = 0, (2.65) В (2.11) A(n) и B(n) формулам:

B(n)(un+1 ), если A(n)(un+1 ) = 0. 1 + (un+1 )B(n)(un+1 ) (q q)-матрицы, определяемые по рекуррентным A(n + 1) = = A(n), A(n) A(n)(un+1 ) (un+1 )A(n), если A(n)(un+1 ) = 0, (un+1 )A(n)(un+1 ) если A(n)(un+1 ) = 0;

B(n + 1) = B(n) ) (u n+1 )A(n) + A(n)(un+1 ) (un+1 )A(n)(un+1 ) (u n+1 )B(n) (2.66) B(n)(un+ + (2.67) + (un+1 )B(n)(un+1 ) A(n)(un+1 ) (un+1 )A(n), ( (un+1 )A(n)(un+1 ))2 если A(n)(un+1 ) = 0;

B(n + 1) = B(n) B(n)(un+1 ) (un+1 )B(n), 1 + (un+1 )B(n)(un+1 ) 36 (2.68) если A(n)(un+1 ) = 0. Начальные значения матриц следующие: A(0) = I, B(0) = 0. Из формул (2.66) (2.68) видно, что матрицы A(n), B(n) являются симметрическими. При реализации вычислительного процесса по формулам (2.65) (2.68) удобно применять векторы A (n + 1) = A(n)(un+1 ) и B (n + 1) = B(n)(un+1 ). Условие A(n)(un+1 ) = 0, используемое в (2.65) (2.68), эквивалентно тому, что вектор (un+1 ) не является линейной комбинацией предыдущих векторов (ut ), 1 t n. Значит, это условие при вычислениях может встретиться не более q раз. Если первые q наблюдений порождают линейно независимые векторы (ut ), то вычисление вектора K(n + 1) и матриц A(n + 1) и B(n + 1) для первых q наблюдений осуществляется по первым формулам в (2.65) (2.68), а для всех последующих наблюдений (n > q) по вторым формулам, так как в этом случае для (n q) всегда будет выполняться условие A(n)(un+1 ) = 0. При этом формула (2.68) совпадает с формулой (2.60) и необходимость в вычислении матрицы A(n) исчезает, поскольку она в дальнейшем не используется при вычислении оценок c(n). Таким образом, как только в процессе рекуррентных вычислений условие A(n)(un+1 ) = 0 выполнилось q раз, необходимость в даль нейшей проверке этого условия исчезает и вычисления оценок c(n) проводятся с использованием только формулы (2.64), второй формулы (2.65) и формулы (2.68), т.е. процедура вычисления оценок полностью совпадает с вычислениями по формулам (2.60), (2.61). Вместе с тем на первом этапе при обработке линейно независимых векторов, если ими являются q первых (ut ), использование (2.62), (2.63) значительно упрощает вычислительный процесс по сравнению с использованием (2.65) (2.68). Совершая N итераций вычислений по формулам (2.60) (2.63) или (2.65) (2.68), получаем оценку коэффициентов c функции регрессии (2.37) без обращения матрицы. Если размерность вектора c невелика и указанная матрица хорошо обусловлена, то использование оценки (2.46) предпочтительнее. Применение рекуррентных оценок оправдано тогда, когда обращение матрицы составляет проблему либо когда оценки функции регрессии необходимо использовать в процессе получения наблюдений, что часто имеет место при решении задач управления в обстановке априорной неопределенности. До сих пор предполагалось, что наблюдения временного ряда xt являлись независимыми случайными величинами. Рассмотрим теперь случай, когда они коррелированы. Обозначим yt = xt mt. Предыдущий анализ относился к случаю, когда R = (Rij ) = 2 I, Rij = M{yti ytj } = M{(xti mti )(xtj mtj )} = 0, i = j. (2.69) Когда это условие не выполняется, способ определения коэффициентов c в (2.37) должен быть модифицирован. Если ковариации (2.15) известны, то вместо (2.41) эмпирический риск следует записывать в виде Jэ (c) = 1 N N N 1 (x(ui ) c (ui ))Rij (x(uj ) c (uj )) = i=1 j= = 1 (x c) R1 (x c), N (2.70) 1 где R1 матрица с элементами Rij, а остальные элементы (2.70) определяются так же, как и в (2.45). Минимизация (2.70) по c приводит к результату, аналогичному (2.22): c = ( R1 )1 R1 x. (2.71) Для того чтобы оценку c получить рекуррентным методом, можно поступить следующим образом. Пусть R(n) = (Rij ), 1 i, j n. Тогда имеет место соотношение R(n 1) Rn R(n) =, R Rnn n где R = (Rn,1 Rn,2... Rn,n1 ). Обозначим n 1 n = Rn,n R R1 (n 1)Rn, n (n) = n R R1 (n 1). n (2.72) Введем в рассмотрение последовательность матриц D(1) = R 1/, D(n) = D(n 1) 0 (n) n, n = 2, 3,..., и вектор y(n) = (yt1, yt2,..., ytn ). Окажется справедливым равенство D(n)R(n)D (n) = I. В этом случае преобразование D(n)y(n) = y(n) декоррелирует вектор y(n), т.е. M{ (n) (n)} = I, что позволяет, преобразуя вектор yy наблюдений временного ряда D(n)x(n) = x(n) и матрицу известных коэффици ентов D(n)(n) = (n), получать условия, в которых решалась задача ранее. Поэтому можно показать, что явные формулы для рекуррентного вычисления оценок коэффициентов регрессии c в отличие от (2.60), (2.61) имеют вид: c(n) = c(n 1) + (n)(n (n)(n 1));

x c (n) = (n 1)(n) ;

Rnn R R1 (n 1)Rn + (n)(n 1)(n) n (2.73) (2.74) (2.75) (n) = (n 1) где обозначено (n 1)(n) (n)(n 1), Rnn R R1 (n 1)Rn + (n)(n 1)(n) n (n) = (un ) xn = xn R R1 (n 1)x(n 1), n (2.76) R R1 (n n 1)(n 1), а обратная матрица R1 (n) может вычисляться рекуррентно: R1 (1) = R1 (n) = 1, R11, (2.77) R1 (n 1) + (n)(n) n (n) 2 n (n) n где n и (n) определены в (2.72). Формулы (2.72) (2.77) показывают, что наличие корреляции в наблюдениях временного ряда в большой степени усложняет проблему. В частности и потому, что, как видно из (2.73), (2.76), при вычислениях на n-й итерации необходимо использовать все наблюдения, а не только те, которые получены при n-м наблюдении, как было в (2.67). Правда, в некоторых случаях усложнения не очень существенные. Для иллюстрации этого факта рассмотрим случай марковской зависимости, когда временной ряд описывается следующей математической моделью: xt = mt + yt, yt = yt1 + t, где t последовательность НОР СВ. В данном случае Rij = |ji|. Матрица, составленная из таких элементов, обращается аналитически. При этом (R1 (n))11 = (R1 (n))nn = (1 2 )1, (R1 (n))kk = (1 + 2 )/(1 2 ), (R1 (n))ij = 1 < k < n, (2.79), |i j| = 1;

(R1 (n))ij = 0, |i j| > 1. 1 2 Rnn R (n 1)Rn = 1 2, n = 2, 3,..., (2.80) M{t } = 0, D{t } = 1, || < 1, (2.78) Эти свойства обратной матрицы приводят к соотношениям R R1 (n 1) = (0 0... 0 1), n xn = xn xn1, (n) = (un ) (un1 ), и формулы (2.73) (2.75) существенно упрощаются. Мы рассмотрели несколько вариантов рекуррентного построения оценок коэффициентов регрессии. Сравнивая вид рекуррентных оценок, задаваемый выражениями (2.61), (2.63), (2.64), (2.73), можно обнаружить, что все они имеют структуру типа (2.73) и отличаются вектором (n), который в том или ином случае определяется соответствующим образом. Сама структура рекуррентных оценок напоминает структуру последовательного уточнения по типу стохастической аппроксимации (Т С А), которая была развита для определения нулей и экстремумов неизвестной функции регрессии. Покажем, как могут быть использованы идеи стохастической аппроксимации для построения оценок коэффициентов регрессии. Оценку Т С А введем соотношением c(n) = c(n 1) + (n)(xn (un )(n 1)), c (2.81) в котором вектор (n) определяется из условия минимизации вариаций оценок вектора c(n). Отличие такой оценки от оценок, минимизирующих (2.41) или (2.70), в том, что в случае коррелированных наблюдений оценка (2.81) является более простой по сравнению с оценкой (2.73), так как для ее построения используется только последнее наблюдение, а не все предыдущие наблюдения. Иначе говоря, вместо xn и (n), которые задаются (2.76), используются xn и (un ) соответственно. В случае некоррелированных наблюдений требование минимизации вариаций обеспечивается применением оценок МНК (2.61), (2.64), так что оценка (2.81) будет совпадать с ними. Описанный принцип приводит к тому, что вектор (n) определяется по формуле (n) = Rnn 2 (u G(n 1)(un ) (n), n )(n) + (un )G(n 1)(un ) (2.82) где G(n) матрица вариации оценки (2.81), которая вычисляется рекуррентно по формулам G(0) = I, (n) G(n) = (I (n) (un ))G(n 1) + (n) (n);

(2.83) вектор, определяемый по формулам (1) = 0, (n) = B(n 1)Rn, n > 1. (2.84) Матрица B(n) находится рекуррентно по формулам B(1) = (1), где B(n). B(n) = ((I (n) (un ))B(n 1)..(n)), (2.85) матрица размером (q n).

Лабораторная работа 4. Рекуррентные методы оценивания функции регрессии Цель работы. Исследовать процессы последовательного оценивания коэффициентов функции регрессии. Установить скорость сходимости к истинным значениям. Порядок выполнения работы Использовать реализацию временного ряда (рассмотренного в лабораторных работах 2 и 3), для которой параметры функции регрессии уже определены другими методами, выбрано множество точек наблюдения {ui } и функциональный базис разложения функции регрессии {yj (u), 1 j q}. Задание 1. Используя рекуррентную формулу (2.66), исследовать, как часто возникает ситуация, когда q последовательных точек наблюдения {u1, u2,..., uq } временного ряда порождают линейно независимые векторы (uk ). Для этого выбрать некоторое n0 и, взяв un0 за начальную точку наблюдения, по формуле (2.66) последовательно вычислять матрицы A(n0 + k), k = 1, 2,..., при A(n0 ) = I. Затем, проверяя выполнение неравенства A(n0 + k)(un0 +k ) = 0, определить такое k0, при котором указанное неравенство выполнится q раз для различных n0 на непересекающихся множествах точек наблюдения ui. Задание 2. Построить процедуру вычисления оценок c(n) по формулам (2.62), (2.63) для первых q наблюдений и по формулам (2.60), (2.61) для последующих наблюдений. Устанавливая скорость сходимости, параллельно выc c числить tr (n), n q, и ((n) c) ((n) c), где c оценка коэффициентов регрессии, полученная для исследуемой реализации при выполнении лабораторной работы 3. Задание 3. Построить процедуру вычисления оценок c(n) по формулам (2.64) (2.68). Провести исследование скорости сходимости по той же схеме, как и в задании 2. Задание 4. Исследовать влияние корреляции наблюдений и по формулам (2.60), (2.61) осуществить процедуру построения оценок c(n) для последующих наблюдений. Для этого по формуле (2.62) и последовательности точек наблюдения {u1, u2,..., uq } определить матрицы H(q) и (q) = H(q)H (q). Затем по формуле (2.75) вычислить последовательность матриц вариаций (n), n > q, предположив справедливыми соотношения (2.79), (2.80), которые характеризуют случай наблюдений, образующих марковский процесс. Для контроля скорости сходимости параллельно вычислять tr (n). Повторить эту процедуру для нескольких значений (0, 1). Выяснить влияние параметра корреляции на поведение tr (n). Задание 5. Исследовать качество алгоритма оценивания по типу стохастической аппроксимации при коррелированных наблюдениях. Для этого по формулам (2.82) (2.85) в предположении справедливости соотношений (2.79), (2.80) вычислить последовательность матриц H(n), n = 1, 2,.... Исследовать поведение tr G(n) для различных, принимающих те же значения, как и в задании 4.

2.4. Метод максимального правдоподобия. М-оценки Будем предполагать, что yt = xt mt, t T = {t1, t2,..., tN }, образуют последовательность НОР СВ с заданной плотностью вероятности p(y). Функция регрессии mt представляется в виде разложения по некоторому базису {j (u)} на интервале изменения унифицированной переменной u (см.(2.35)):

q mt = j= cj j (u) = c (u).

Для простоты будем считать xti = xi. Функция правоподобия определяется как функция неизвестных параметров c вида N N L(c) = i= p(yti ) = i= p(xi c (ui )), где p(y) ции плотность вероятности. Удобнее работать с логарифмом этой функN N log L(c) = i= log p(xi c (ui )) = i= (xi c (ui )).

(2.86) Оценками параметра c по методу максимального правдоподобия (оценками ММП) называются такие c, которые максимизируют log L(c), т.е.

N cММП = arg min c i= (xi c (ui )).

(2.87) Если функция (·) дифференцируема по c, то максимизация (2.86) по c соответствует решению системы уравнений N i= (ui )(xi c (ui )) = 0, (2.88) где через (·) обозначена производная функции (·). Заметим, что если yt нормально распределенные величины с нулевыми 2, то средними и дисперсией ln p(xi c (ui )) = const 1 (xi c (ui ))2 2 и максимизация (2.86) соответствует минимизации N i= xi c (ui ), (2.89) т.е. минимизация эмпирического риска (2.41) и получаемая оценка ММП не отличаются от оценки МНК. Таким образом, в случае нормального распределения yt оценка ММП имеет исследованные ранее свойства. В общем случае уравнение (2.88) не может быть решено в явной форме. При довольно слабых предположениях, известных под названием условий регулярности, доказывается, что при N оценки ММП являются асимптотически несмещенными, асимптотически эффективными и распределенными асимптотически нормально. Примеры для некоторых распределений. Распределение Лапласа: p(y) = 1 |y|/a e, 2a (y) = ln (2a) + |y|, a (y) = 1 sign y. a При этом уравнение (2.88) имеет вид N i= (ui )sign (xi c (ui )) = 0.

(2.90) Равномерное распределение в интервале [a, +a] p(y) = 1/2a, |y| a, 0, |y| > a, (y) = log (2a), |y| a,, |y| > a.

В этом случае решение уравнения (2.88) сводится к решению системы неравенств |xi c (ui )| a, 1 i N. (2.91) Оценкой ММП является любой вектор c, который удовлетворяет всем этим неравенствам. Распределение Коши: p(y) = 1 a, a2 + y 2 (y) = log + log (a2 + y 2 ), a (y) = 2y. a2 + y При этом уравнение (2.88) сводится к следующему:

N i= (xi c (ui ))(ui ) = 0. a2 + (xi c (ui )) (2.92) Из (2.90) (2.92) видно, что уравнения максимального правдоподобия для коэффициентов регрессии относятся к различным классам уравнений и не могут быть решены какими-либо стандартными методами, кроме численных. НьюЧисленные методы решения уравнения (2.88). Метод Гаусса тона. Пусть c(n) оценка на n-й итерации. Предположим, что (·) в точках остаточных разностей наблюдения имеет производную. Используем представление (xi c (n + 1)(ui )) = (xi c (n)(ui )) (ui )(c(n + 1) c(n)) (xi c (n)(ui )) +..., (2.93) где (·) производная (·) по ее аргументу. Ограничиваясь только приведенными слагаемыми представления (2.93), уравнение (2.88) перепишем в виде N i=1 N (ui )(xi c (n)(ui )) i= (ui ) (ui ) (xi c (n)(ui )) (c(n + 1) c(n)) = 0.

Из полученного уравнения находится рекуррентная формула последовательного уточнения оценки ММП N c(n + 1) = c(n) + i=1 N (ui ) (ui ) (xi c (n)(ui )) i= (ui )(xi c (n)(ui )).

(2.94) В качестве начального приближения можно брать оценку МНК (2.46) N c(0) = ( ) x= i= (ui ) (ui ) i= 1 N (ui )xi.

(2.95) Взвешенный МНК. Перепишем уравнение (2.88) следующим образом:

N i= (xi c (ui )) (ui )(xi (ui ) c) = 0. xi c (ui ) На основе такого представления имеем N i= (xi c (n)(ui )) ((ui )xi (ui )(ui ) c(n + 1)) = 0, xi c (n)(ui ) откуда и получается рекуррентная формула N c(n + 1) = i= Wi (c(n))(ui ) (ui ) i= 1 N Wi (c(n))(ui )xi, (2.96) в которой для краткости обозначено Wi (c) = (xi c (ui )). xi c (ui ) Равенства (2.95), (2.96) определяют последовательность приближений к оценке ММП. Оценки ММП имеют и недостатки, заключающиеся в том, что эти оценки являются чувствительными к отклонениям распределения от предполагаемого. В массивах данных, отражающих наблюдения временного ряда, могут встречаться ошибки, которые порождаются либо сбоями, либо погрешностями в записи или при измерении. В данном случае оценки ММП, а также и оценки МНК могут достаточно сильно отличаться от истинных значений параметров регрессии. В связи с этим существует обобщения оценок ММП, которые образуют класс М-оценок и формулируются таким образом, чтобы обеспечить более высокий уровень устойчивости по отношению к несоответствию выборочного массива данных предполагаемому распределению. Поскольку такое несоответствие обычно имеет место для небольшого числа наблюдений, говорят о том, что в выборке есть выбросы или что выборка ”загрязнена”. Имеются различные математические модели такого загрязнения выборки. Модификация оценок ММП выглядит следующим образом. В качестве М-оценки принимается (2.87), в которой функция (y) = log p(y), как это предполагалось в (2.86). Собственно выбор функции (·) и определяет характер М-оценки. Обычно функция выбирается дифференцируемой, так что и М-оценка находится из уравнения (2.88), в котором (·) определяется соответствующим образом. Само уравнение (2.88) при этом в модифицированном виде выглядит так:

N (ui ) i= xi c (ui ) s = 0, (2.97) где s помехоустойчивая оценка параметра масштаба, о которой речь пойдет ниже. Примеры выбора функции (·). Функция Хьюбера: (y) = y, |y| a, a sign y, |y| > a. (2.98) Параметр a обычно выбирается из интервала [1, 2]. Функция Хампеля: 0 |y| < a, |y|, a, a |y| < b, (y) = a(c |y|)/(c b), b |y| < c, 0, c |y|. sin (y/a), |y| a, |y| > a, 0, (2.99) Рекомендуемыми значениями параметров являются: a =1,7;

b = 3,4;

c = 8,5. Функция Андрюса: (y) = (2.100) где обычно a = 2,1. Биквадратная функция Тьюки: (y) = y(1 (y/a)2 )2, |y| a, 0, |y| > a, (2.101) где обычно a = 6,0. В уравнении (2.97) чаще других используются следующие оценки параметра масштаба s. Пусть Q квантиль выборочного распределения {xi }, т.е. значение аргумента выборочной функции распределения значений временного ряда, при котором эта функция принимает значение. Для одних случаев в качестве помехоустойчивой оценки параметра масштаба может служить величина s = (med|xt Q0,5 |)/0,6745, (2.102) где med|xt Q0,5 | означает медиану вариационного ряда, составленного из |xt Q0,5 |;

знаменатель 0,6745 является 75%-м квантилем стандартного нормального распределения. Для других случаев помехоустойчивого оценивания масштаба s = (Q0,75 Q0,25 )/1,349. (2.103) Если значения {xi } подчиняются нормальному распределению, то s оценка среднеквадратичного отклонения значений xi. Численное решение уравнения (2.97) может быть осуществлено при помощи итерационных методов (2.94),(2.95) или (2.95),(2.96) с небольшой модификацией, связанной с появлением оценки s в функции (·). Оценка вычисляется по формуле N c(n + 1) = c(n) + i= Wi (c(n))(ui ) (ui ) Ньютона, 1 N Wi (c(n))(ui ), i= (2.104) где в случае метода Гаусса 1 Wi (c) = s xi c (ui ) s Wi (c) = xi c (ui ) s, а в случае взвешенного МНК Wi (c) = 1 xi c (ui ) xi c (ui ) s, Wi (c) = Wi (c)xi.

Лабораторная работа 5. Оценивание функции регрессии. Метод максимального правдоподобия Цель работы. Освоить технику оценивания коэффициентов регрессии при помощи ММП. Провести сравнение качества оценок ММП и оценок МНК.

Порядок выполнения работы Выбрать некоторый базис {j (u)} и задать с его помощью функцию регрессии m(u). Затем выбрать распределение ошибок наблюдения временного ряда необходимой длины. Установить множество точек наблюдения {ui } и получить реализацию временного ряда. Поскольку при выполнении настоящей работы потребуется генерирование случайных чисел, рапределенных в соответствии с различными плотностями вероятностей, приведем способы их получения. Предполагается, что в используемой ЭВМ имеется датчик случайных чисел t, распределенных равномерно в интервале [0,1]. СВ, равномерно распределенная в интервале [a, b], получается преобразованием t = (b a)t + a. СВ t, распределенная в соответствии с плотностью экспоненциального распределения p(z) = ez, z 0, 1 t = ln t. СВ t, распределенная в соответствии с плотностью нормального распределения (z a)2 1 2 2, z (, +), p(z) = e 2 получается преобразованием (практическое приближение) получается преобразованием СВ t, распределенная в соответствии с распределением Коши p(z) = (b2 b, + (z a)2 ) z (, +), t = j= jt 6 + a.

получается преобразованием t = a + b tg (2t ). СВ t, распределенная по закону Лапласа с плотностью p(z) = e|z|, получается преобразованием 1 t = sign 1t 47 1 2 ln 2t. z (, +), СВ t, распределенная по закону Вейбулла с плотностью p(z) = a(z)a1 exp{(z)a }, получается преобразованием t = 1 (ln t )1/a. z (0, ), СВ t, распределенная в соответствии с логистическим распределением p(z) = exp za, (1 + exp za )2 z (, +), получается преобразованием t = a + ln t. 1 t СВ t, распределенная по закону Эрланга с плотностью p(z) = получается преобразованием 1 t = ln a (z)a1 z e, (a 1)!

z (0, +), it i= = a ln it.

i= Задание. После того, как выбрано распределение ошибок и получена реализация временного ряда, определить функцию (·) для этого распределения, составить уравнение (2.88) с использованием этой функции и решить его методом Гаусса Ньютона и взвешенного МНК. Результаты cГН и cВМНК сравнить между собой и с оценками МНК. При помощи функций Хьюбера, Хампеля, Андрюса и Тьюки построить М-оценки коэффициентов регрессии. Сравнить все полученные оценки с истинными значениями коэффициентов регрессии.

2.5. Устойчивые процедуры оценивания параметров регрессии Классические оценки ММП и МНК представляют собой примеры идеализированного подхода к решению практических задач оценивания коэффициентов регрессии, когда предполагается, что все условия строго выполнены. В то же время в реальных данных нередко встречаются грубые ошибки, которые существенно влияют на качество оценок, приводя к потере эффективности, увеличению смещения оценок, потере их состоятельности. При оценке регрессионных зависимостей эффект даже одной грубой ошибки может быть очень сильным. Поэтому применение классических методов должно осуществляться после тщательной отбраковки грубых ошибок. Вместе с тем большие массивы обрабатываемых данных не позволяют делать это тщательно. Поэтому существует потребность в использовании таких методов обработки данных, которые зависят в небольшой степени от наличия указанных дефектов в обрабатываемых массивах. Такие методы известны под названием устойчивых, робастных или огрубленных. В § 2.4 уже была рассмотрена модификация ММП, обладающая чертами устойчивости. В данном параграфе эти и другие оценки используются для обработки данных, засоренных грубыми выбросами. Применим следующую модель ”засорения”. Пусть плотность вероятностей остатков yt = xt mt имеет вид p (y) = (1 )p(y) + h(y), (2.105) где параметр ”засорения”, 0 < < 1;

p(y) плотность вероятностей теоретического распределения, для которого строится М-оценка;

h(y) плотность вероятностей ”засоряющего” распределения. Для случая, когда p(y) нормальное распределение с нулевым средним и неизвестной дисперсией, а h(y) произвольная, но симметричная относительно нулевого значения плотность, Хьюбером была получена функция (2.98), используемая в уравнениии (2.97), которая определяет оценки параметров регрессии c. Поскольку в рассматриваемом случае предполагаются неизвестными вектор c и параметр масштаба (среднеквадратичное отклонение), для их определения используется два уравнения:

N (ui ) i= xi c (ui ) = 0;

(2.106) (2.107) = (med |xi c (ui )|)/0,6745.

Медиана выборки находится просто. Пусть {zi } некоторая выборка объемом N. Упорядочим ее (ранжируем), получив вариационный ряд z(1) z(2)... z(N ). Тогда med zi = z(m), если N = 2m 1, (z(m+1) + z(m) )/2, если N = 2m. (2.108) Поэтому решением (2.107) можно считать (2.108). Определим процедуру решения уравнения (2.106) для конкретного вида функции (·), заданного формулой (2.98). Пусть на n-й итерации получены оценки c(n) и (n) неизвестных параметров. Образуем следующие множества индексов: H = {i | xi c (n)(ui ) < k(n)}, C = {i | |xi c (n)(ui )| k(n)}, B = {i | xi c (n)(ui ) > k(n)}. (2.109) Для любого n выполняется равенство |H| + |B| + |C| = N, где N объем выборки. Число k зависит от параметра засорения, удовлетворяя уравнению 2 2 k 2 = ek /2 k et /2 dt. 1 k Таблица 2. 0,000 0,001 0,002 0,005 0,01 0,02 0,05 0,10 0, k 0,20 0,25 0,30 0,40 0,50 0,65 0,80 1, k 0,826 0,766 0,685 0,550 0,436 0,291 0,162 0, 2,630 2,435 2,160 1,945 1,717 1,309 1,140 0, В табл. 2.1 приведены корни этого уравнения для некоторых значений. Используя формулу (2.98), определяющую функцию (·), уравнение (2.106) можно конкретизировать: (xi c (n + 1)(ui ))(ui ) +, (ui ) (ui ) k(n) = 0, iH iC iB где, означают, что суммирование ведется по индексам i множеств C, B, H соответственно. Из этого уравнения получаем c(n + 1) = iC iC iB iH (ui ) (ui ) (2.110) xi (ui ) + iC iB (ui ) (ui ) k(n).

iH Уравнение (2.107) запишем в виде (n) = (med |xi c (n)(ui )|)/0,6745. (2.111) В качестве нулевого приближения для c можно принять оценку МНК, которая соответствует тому, что множества B = H = :

N c(0) = i= (ui ) (ui ) i= 1 N xi (ui ).

(2.112) Процедура вычислений сводится к следующему. Ш а г 1. Вычисляется c(n) по формуле (2.110) (для n = 0 по (2.112)). Ш а г 2. Вычисляется (n) по формуле (2.111). Ш а г 3. Определяются множества H(n), C(n), B(n) по формулам (2.109). Ш а г 4. Если множества H(n), C(n), B(n) не отличаются от предыдущих H(n 1), C(n 1), B(n 1) соответственно, то вычисления завершаются и решением признается пара c(n), (n). Если же отличие наблюдается, то значение n увеличивается на единицу и выполняется снова шаг 1. При выполнении этой процедуры необходимо следить за тем, чтобы не происходило зацикливания при образовании множеств H, C, B. Данная процедура существенным образом базировалась на представлении исходной плотности вероятностей ошибок (2.105), ориентированной на нормальное распределение и известный параметр засорения. На практике эта информация либо неизвестна исследователю, либо исходное распределение существенно отличается от (2.105). В этих случаях можно руководствоваться рекомендациями, приведенными при описании формулы (2.98). Приведем еще два способа вычисления оценок c(n). Процедура, использующая модифицированные остатки. Предположим, что на n-й итерации получены оценки c(n) и (n) неизвестных параметров. Определим ri (n) = (n) xi c (ui ) (n) = 0, (2.113) где (·) функция, заданная формулой (2.98). Решим задачу минимизации относительно вектора :

N i= (ri (n) (ui ))2 min.

Решение этой задачи следующее:

N (n) = ( ) r(n) = i= (ui ) (ui ) i= 1 N (ui )ri (n).

(2.114) В качестве оценки c(n + 1) принимаем c(n + 1) = c(n) + (n), (2.115) где произвольный множитель, такой, что 0 < < 2. Оценки (n) находятся по формуле (2.111). В качестве c(0) принимается, как и прежде, оценка МНК, вычисляемая по формуле (2.112). Процедура выполняется до достижения необходимой точности.

Процедура, использующая модифицированные веса. Предположим, что на n-й итерации получены оценки c(n) и (n). Определим Wi (n) = xi c (n)(ui ) (n) xi c (n)(ui ) (n), (2.116) W (n) = diag{Wi (n), 1 i N } диагональная матрица, по главной диагонали которой стоят Wi (n). Пусть вектор (n) задается соотношением (n) = ( W (n))1 W (n)(x c(n)). В качестве оценки c(n + 1) принимаем c(n + 1) = c(n) + (n). (2.118) (2.117) Оценки (n) вычисляются, как и прежде, по формуле (2.111). Завершая описание процедур, основанных на М-оценках, приведем еще несколько подходов. Процедура Андрюса. Пусть на n-й итерации получена оценка c(n). Оценка (n + 1) определяется как медиана (n + 1) = med |xi c (n)(ui )|. Оценка c(0) вычисляется по формуле (2.112), а c(n + 1) из условия N (2.119) c(n + 1) = arg min c i= (ui ) xi c (ui ), (n + 1) (2.120) где (·) задана формулой (2.90). После этого вычисления выполняются до достижения необходимой точности. Этот метод достаточно эффективен в ситуациях ”тяжелого засорения” при наличии значительного числа очень грубых ошибок. Процедура Форсайта. Оценка параметра c определяется из условия N c = arg min c i= |xi c (ui )|p, (2.121) где p < 2. При p = 2 она совпадает с оценкой МНК. При наличии засорения в выборке c предпочтительнее оценки МНК. Обычно выбирается p = 1,5. Процедура Ейла Форсайта. Данная процедура основана на так называемой винзоризации остатков. Пусть c(0) оценка МНК (2.112). Определим остатки ri (n) = xi c (n)(ui ), n = 1, 2,.... (2.122) Ранжируем их, построив вариационный ряд r(1) (n) r(2) (n)... r(N ) (n). 52 (2.123) Винзоризируем их, т.е. приведем к виду r(i) (n) преобразованием Винзора: r(g+1) (n), 1 i g, g < i N g, r(i) (n) = r(i) (n), r(N g) (n), N g < i N. Оценка c(n + 1) находится из соотношения N c(n + 1) = i= (u(i) ) (u(i) ) i= 1 N ((i) (n) + c (n)(u(i) ))(u(i) ). r (2.124) Процедура выполняется до достижения необходимой точности. Заметим, что суммирование в (2.124) производится не по индексам наблюдения, а по индексам ранжирования, задаваемым неравенствами (2.123). Возможны различные формы использования винзоризации в ходе выполнения итераций. Простой итерационный метод. Уровень винзоризации g остается постоянным на каждой итерации. При определении остатков ri (n) по формуле (2.122) вместо xi используется r(i) (n + 1) + c (n)(u(i) ), n 1. Метод уровней. Уровень винзоризации g растет от итерации к итерации. При определении остатков ri (n) по формуле (2.122) всегда используется наблюдение xi. Итерационный метод с растущим уровнем. Этот метод является комбинацией двух первых. Уровень винзоризации g растет от итерации к итерации, причем в (2.122) для определения остатков ri (n) используется вместо xi r(i) (n 1) + c (n)(u(i) ). В заключение рассмотрим применение оценок, не принадлежащих к Моценкам. Определим для некоторого вектора c остатки ri = xi c (ui ), 1 i N, (2.125) и ранжируем их так: r(1) r(2)... r(N ). Пусть Ri ранг остатка ri, т.е. r(Ri ) ri. Отталкиваясь от суммы квадратов (2.89), модифицируем эту сумму следующим образом. Один из множителей (xi c (ui ))2 заменим на его ранг Ri. Тогда получим вместо (2.89) N i= (xi c (ui ))Ri.

(2.126) Поскольку ранг Ri представляет собой функцию c, эта сумма является кусочнолинейной выпуклой функцией c, которую можно использовать для нахождения вектора c, соответствующего минимуму этой суммы. Этот вектор принимается в качестве оценки параметров регрессии. В общем случае вместо Ri в (2.22) можно использовать некоторую монотонную неубывающую функцию a(Ri ), удовлетвоN ряющую условию i= a(Ri ) = 0. В этих условиях вместо уравнения (2.88) получим уравнение N a(Ri )(ui ) = 0, i= (2.127) решение которого относительно c и дает оценку параметров регрессии. Решение уравнения (2.127) затрудняется тем, что ранги Ri, рассматриваемые как функции c, являются разрывными функциями. Лабораторная работа 6. Устойчивые методы оценивания параметров регрессии Цель работы. Ознакомиться с робастными методами оценивания коэффициентов регрессии. Освоить технику реализации робастных процедур оценивания. Провести сравнение качества различных оценок. Порядок выполнения работы Необходимо использовать реализацию временного ряда из лабораторной работы 5, которую надо модифицировать следующим образом. Выбрать некоторый уровень загрязнения. Определить случайным образом N номеров из множества {1, 2,..., N } и каждое наблюдение с номером из выбранного множества заменить ”грубым выбросом”. Это означает следующее. Пусть для выбранной реализации Y такой уровень, что для некоторого t выполняется неравенство P{|yt | > Y } = P{|xt mt | > Y }, где достаточно малая положительная величина, возможно, равная нулю. При помощи случайного механизма определим yt такое, что |t | > Y. В каче y стве грубо искаженного значения временного ряда в точке t возьмем вместо xt величину xt = mt + yt. Полученную таким образом реализацию будем называть загрязненной реализацией временного ряда. Задание. Для загрязненной реализации получить: а) оценки параметров регрессии методами, использованными в лабораторной работе 5;

б) оценки параметров устойчивыми методами, т. е. методом Хьюбера по формулам (2.110) (2.112), методом модифицированных остатков (2.113) (2.115), методом модифицированных весов (2.116) (2.118), методом Андрюса (2.119), (2.120), методом Форсайта (2.121), методом Ейла Форсайта по формулам (2.122) (2.124), а также используя ранговые критерии из уравнения (2.127). Произвести сравнение качества оценок между группами а) и б), а также внутри группы. Исследовать зависимость качества оценок от уровня загрязнения. Качество оценок определять по норме отклонения оценок параметров регрессии от их истинных значений:

q j= (j cj )2, c а также по среднеквадратичному отклонению функции регрессии на интервале наблюдения: 1 tN t tN t (mt mt )2 dt.

2.6. Аппроксимация функции регрессии сплайнами Под приближением сплайнами понимают способ кусочно-полиномиального приближения непрерывных функций. В этом случае область изменения аргумента, скажем [0, T ], делится на (1 + p) интервалов точками 0 = t(0) < t(1) < < t(2) <... < t(p) < t(p+1) = T. На каждом интервале (t(k), t(k+1) ), 1 k p, аппроксимирующая функция изображается полиномом фиксированной степени q. В точках t(k), 1 k p, требуется выполнение условий непрерывности аппроксимируемой функции и ее (q 1) первых производных. Такие кусочнополиномиальные функции называются сплайнами степени q с p сопряжениями. Для приближения кривой регрессии будем использовать такие сплайны Sp (t), которые минимизируют эмпирический риск 1 N N i= (xti Sp (ti ))2.

Сплайн Sp (t) задается (1+q+p) параметрами, если разбиение области изменения аргумента делается равномерным, т.е. t(k+1) t(k) = const, 0 k p. В этом случае говорят, что Sp (t) сплайн на равномерной сетке. Аппроксимация функции регрессии сплайнами основана на следующем важном свойстве. Пусть о функции регрессии известно только то, что она является непрерывной функцией на [0, T ]. Какова бы ни была непрерывная исходная функция регрессии mt, осредненные сплайны с сопряжениями в равноотстоящих узлах (на равномерной сетке) при N и p(N ) (p(N ))4 равномерно приближают mt, т.е. sup t [0, T ] ln (N/p(N )) 0 N/p(N ) |mt Sp (t)| 0.

Вместе с тем известно, что всегда существует такая непрерывная функция mt на [0, T ], которую полиномиальные приближения, полученные методом наименьших квадратов, равномерно не приближают ни при каком соотношении числа наблюдений N и степени полинома q(N ), т.е. для всякой системы полиномов {j (t)}, заданных на [0, T ], справедливо q sup t [0, T ] |mt j= cj j (t)| = 0.

Этим и объясняется преимущество аппроксимации функции регрессии сплайнами перед приближением полиномами, если о приближаемой функции mt отсутствует полная информация. Обычно достаточно строить сплайны на основе полиномов третьей степени (кубические сплайны). Строить сплайны удобно, определяя систему фундаментальных сплайнов. Для кубических сплайнов с p сопряжениями на сетке (t(0),t(1),...,t(p),t(p+1) ) вводятся (p + 4) фундаментальных сплайна {µj (t)}. Фундаментальные сплайны однозначно определяются следующими условиями. Пусть для краткости µij = µj (t(i) ), µij производная µj (t) в точке t(i). Тогда µi1 = 0, µij = i,j2, 0 i 1 + p, 0 i p + 1, µ01 = 1, µp+1,1 = 0, 2 j p + 3, µp+1,p+4 = 1, (2.128) µ0j = µp+1,j = 0, 0 i p + 1, µ0,p+4 = 0, µi,p+4 = 0, где i,j означает символ Кронекера. Поскольку любой кубический сплайн Sp (t) полностью определяется (p + 2) значениями в узлах t(j), 0 i p + 1, и значениями первой производной на концах отрезка, имеет место равенство p+ Sp (t) = j= Sp (t(j) )µj+2 (t) + Sp (t(0) )µ1 (t) + Sp (t(p+1) )µp+4 (t).

(2.129) Именно такое представление будет использоваться в дальнейшем при восстановлении регрессии в классе кубических сплайнов с p сопряжениями. Это выражение запишем короче:

p+ Sp (t) = j= cj µj (t) = c µ(t).

(2.130) Таким образом, данная задача сведена к проблеме минимизации эмпирического риска N 1 Jэ (c) = (xi c µ(ti ))2 (2.131) N i= по вектору c, содержащему (p + 4) компонент. Но для решения этой задачи нужно определить в явной форме систему кубических фундаментальных сплайнов. Сетку выберем равномерной, такой, что t(i+1) t(i) =, 0 i p. Пусть mi+1,j и mi,j значения второй производной фундаментального сплайна µj (t) в узлах t(i+1) и t(i) соответственно. Поскольку вторая производная полинома третьей степени линейная функция, для t [t(i), t(i+1) ] справедливо µj (t) = mi+1,j t(i+1) t t t(i) + mi,j, (2.132) где mi+1,j = µj (t(i+1) );

mi,j = µj (t(i) ). Проинтегрировав дважды (2.132) с учетом непрерывности сплайна на концах отрезка [t(i), t(i+1) ], получим µj (t) = mi,j + µi,j 2 mi,j 6 (t(i+1) t)3 (t t(i) )3 + mi+1,j + 6 6 (t t(i) ), (2.133) (t(i+1) t) 2 + µi+1,j mi+1,j где для краткости обозначим µj (t(i) ) = µi,j. Для нахождения производных mi,j воспользуемся условием непрерывности в узлах сопряжения первой производной кубического сплайна. Дифференцируя (2.133) для узлов t(i), 1 i p, приходим к уравнению mi1,j mi+1,j 6 + 2mi,j + =2 2 2 Для узла t(0) имеем 2m0j + m1j = Для узла t(p+1) получаем mp,j + 2mp+1,j = 6 (µpj µp+1,j + µj (t(p+1) )). 2 (2.136) 6 (µj (t(0) ) µ0j + µ1j ). 2 (2.135) µi1,j µi+1,j. µi,j + 2 2 (2.134) Учитывая (2.137) и образуя матрицу M = (mij ) размером (p + 2) (p + 4), получаем для матрицы M уравнение AM = 6 B, Значения правых частей (2.134) (2.136) определены в (2.128). Таким образом, совокупность (2.134) (2.136) представляет собой неоднородную систему (p + 2) линейных алгебраических уравнений для (p + 2) неизвестных mi,j, 0 i p + 1. Рассматривая (2.134) (2.136) для различных j, 1 j p + 4, строим (p + 4) таких систем. Заметим, что матрицы коэффициентов при mi,j в этих системах являются одинаковыми и имеют вид ((2.134) удобно умножить на 2) 2 1 0 0... 0 0 0 1 4 1 0... 0 0 0 0 1 4 1... 0 0 0. A= (2.137)............ 0 0 0 0... 1 4 1 0 0 0 0... 0 1 (2.138) Матрица A является матрицей Якоби, и ее можно обратить аналитически. Обозначим A1 = C = (cij ). Тогда элементы матрицы C вычисляются по формулам cij = cij = di dp+3j, dj1 dp+3j dj dp+4j 1 i j, j i p + 2, где (p + 2) (p + 2) матрица A, определенная в (2.138), а (p + 2) (p + 4) матрица B, составленная из правых частей уравнений (2.134) (2.136), имеет структуру 1 1 0 0... 0 0 00 0 1 2 1 0... 0 0 0 0 0 0 1 2 1... 0 0 0 0. (2.139) B=............ 0 0 0 0 0... 1 2 1 0 0 0 0 0 0... 0 1 в которых 1 j p + 2, a числа dj находятся рекуррентно: d0 = 2, d1 = 1, dj = 4dj1 dj2, 2 j p + 3. (2.141) dp+3i dj, dj1 dp+3j dj dp+4j (2.140) Таким образом, матрица M, составленная из чисел mij, определяется соотношением 6 M = 2 CB, (2.142) где матрицы B и C задаются формулами (2.139) (2.141). Это и завершает определение фундаментальных сплайнов µj (t) в виде (2.133), в котором числа µij удовлетворяют условиям (2.128), а числа mij являются элементами матрицы (2.142). После того, как система фундаментальных сплайнов µj (t) построена, вычисление сплайна Sp (t), минимизирующего эмпирический риск, проводится по обычной схеме получения оценок МНК. Вектор, минимизирующий (2.131), находится в виде N c= i= µ(ti )µ (ti ) i= 1 N xi µ(ti ).

(2.143) Здесь, как в (2.130), (2.131), вектор-столбец µ(t) составлен из фундаментальных сплайнов µ (t) = (µ1 (t),..., µp+1 (t)), которые для каждого t из интервала (t(i), t(i+1) ) заданы формулой (2.133).

Остановимся теперь на определении числа сопряжений p. Как и прежде, за качество приближения функции регрессии примем функционал N p+4 J(p) = N i= xi cj µj (ti ) j= N N ((p + 4)(1 + ln p+4 ) ln ), (2.144) уровень значимости, на котором принимается решение о числе сопрягде жений. Наилучшим числом сопряжений считается то, которое минимизирует функционал (2.144), обеспечивая ему неотрицательное значение. При определении числа сопряжений следует сначала выяснить, имеет ли смысл приближать функцию регрессии сплайнами, так как техника приближения сплайнами всетаки более сложная, чем техника приближения полиномами. Поэтому надо проверить, насколько хорошо функция регрессии аппроксимируется полиномами нулевого, первого, второго или третьего порядка на всем интервале наблюдения [0, T ]. Качество приближения оценивается при этом функционалом (2.28). Если оно недостаточно, то используются сплайны с оптимальным числом сопряжений p. Лабораторная работа 7. Приближение функции регрессии сплайнами Цель работы. Освоить технику построения кубических сплайнов, приближающих функции регрессии. Порядок выполнения работы Необходимо построить реализацию временного ряда, функция регрессии которого не является полиномом. В качестве реализации временного ряда в этом случае взять тот же временной ряд, который был использован в работе 2, или тот, функция регрессии которого аппроксимировалась полиномами Лежандра в работе 3. Такой выбор поможет воспользоваться уже имеющимися результатами для сравнения качества приближения. В противном случае их придется получать снова в ходе выполнения настоящей работы. После того, как построена реализация временного ряда и выбрано число сопряжений p, необходимо построить систему фундаментальных сплайнов (2.133), параметры которых заданы (2.128) и системой уравнений (2.139) (2.142). Задание. Для построения системы фундаментальных сплайнов определить оценки параметров c по формуле (2.143) и по ним построить сплайнприближение (2.130). При помощи функционала (2.144) найти оптимальное число сопряжений. Для этого числа сопряжений оценить качество приближения по формуле 1 tN t tN t | µ(t) mt | dt, c где mt истинная функция регрессии. Сравнить это качество с качеством приближения полиномами, которое определялось в предыдущих работах (выделение полиномиального тренда, приближение функции регрессии полиномами Лежандра).

Глава СТАЦИОНАРНЫЕ ПРОЦЕССЫ АВТОРЕГРЕССИИ СКОЛЬЗЯЩЕГО СРЕДНЕГО 3.1. Основные понятия Пусть xt центрированный СП, определенный на действительной прямой R или в комплексной области C. Будем считать, что xt является процессом авторегрессии скользящего среднего (АРСС), или ARM A (autoregressive moving average), порядка (p, q), если существует процесс белого шума Wt и действительные или комплексные числа a0,..., ap, b0,..., bq такие, что p q ak xtk = k=0 l= bl Wtl, t Z, ap, bq = 0.

(3.1) Определим два частных класса процесса АРСС. Будем считать, что xt является процессом авторегрессии (АР) порядка p (АР(p)-процессом), если он удовлетворяет уравнению (3.1), где q = 0, а именно:

p ak xtk = Wt, k= t Z.

Будем считать, что xt является процессом скользящего среднего (СС) порядка q (СС(q)-процессом), если он удовлетворяет уравнению (3.1), где p = 0, а именно:

q xt = l= bl Wtl.

Уравнение (3.1) можно представить в операторной форме: A()xt = B()Wt, где вида оператор сдвига на шаг назад: xt = xt1 ;

p q A(z) и B(z) bl z l.

полиномы A(z) = k= ak z, k B(z) = l= Центрированный СП xt имеет рациональный спектр, если xt имеет спектральную плотность g() = G(ei ), [, ], где G дробнорациональная функция с коэффициентами из множества C. Справедлива теорема Фейера Рисса, в соответствии с которой центрированный СП xt является АРСС-процессом тогда и только тогда, когда существует несократимая дробь B(z)/A(z), где полином A(z) не имеет корней, по модулю равных единице, и такой, что B(z) 2 для |z| = 1, z C. G(z) = A(z) Если полином G(z) имеет действительные коэффициенты, то можно найти полиномы A(z), B(z) с действительными коэффициентами. Процесс АРСС (p, q) каузальный, если существует последовательность констант {j } таких, что j= |j | <, t Z, (3.2) xt = j= j Wtj, и обратимый, если существует последовательность констант {j } таких, что j= |j | <, j xtj, t Z.

Wt = j= Справедлива теорема, согласно которой процесс АРСС (p, q) является каузальным и обратимым тогда и только тогда, когда A(z) = 0, B(z) = 0 для всех z C таких, что |z| < 1. При этом коэффициенты определяются из соотношений (z) = i=0 i= j z j = B(z)/A(z), j z j = A(z)/B(z), |z| < 1, |z| < 1.

(3.3) (z) = (3.4) Для определения коэффициентов j и j перепишем (3.3), (3.4) в виде (z)A(z) = B(z), (z)B(z) = A(z) и приравняем коэффициенты при одинаковых степенях z. Тогда получим j j + k= ak jk = bj, p 0 j < max(p, q + 1), j > max(p, q + 1).

j + k= ak jk = 0, Данные уравнения разрешаем относительно 0, 1, 2,... следующим образом: 0 = b0 = 1, 1 + 0 a1 = b1 2 + a1 1 + a2 = b2...

и 1 = b1 a 1, и 2 = b2 a 1 1 a 2....

(3.5) Аналогично находятся коэффициенты {j } из уравнений min(q,j) j = k= bk jk = aj, j = 0, 1,..., Алгоритм 1. Из соотношения (3.2) следует, что ковариационная функция удовлетворяет соотношению s = j= где a0 = 1 и bk = 0 для k > q;

aj = 0 для j > 0. Рассмотрим три алгоритма вычисления ковариационной функции процесса АРСС (p, q): s = M{xt xt+s }, s = 0, ±1,....

j j+|s|, 2 = M{Wt2 }.

Коэффициенты j находятся из соотношений (3.5). Алгоритм 2. Основан на разностных уравнениях для s, s = 0, 1,..., которые получаются умножением каждого слагаемого в (3.1) на xts и использованием операции математического ожидания:

q s + a1 s1 +... + ap sp = k=s bk ks для 0 s < max(p, q + 1).

(3.6) (3.7) s + a1 s1 +... + ap sp = 0 для s max(p, q + 1). Общее решение уравнения (3.7) записывается в виде s = где zi, 1 i k, k i=1 k ri 1 i=1 j= ij sj zi s, s max(p, q + 1) p, кратность i-го корня;

различные корни полинома A(z);

ri ri = p;

p констант ij и ковариации s, 0 s < max(p, q + 1) p, един ственным образом определяются из граничных условий (3.6) после вычисления 0, 1,..., q. 1 Пример. Пусть (1 + 4 2 )xt = (1 + )Wt. Из уравнения (3.7) следует, 1 что s s1 + 4 s2 = 0, s 2. Общее решение данного уравнения задается соотношением n = (10 + 11 n)2n, n 0. (3.8) Граничные условия (3.6) имеют вид 1 s s1 + s2 = 2 (0 + 1 ), 4 1 s s1 + s2 = 2 0, (3.9) 4 где из (3.5) 0 = 1, 1 = 2. Подставляя 0, 1, 2 из общего решения в уравнения (3.9), получаем 310 211 = 16 2, 11 = 8 2, 310 + 511 = 8 2, 10 = 32 2 /3.

Окончательно имеем s = 2 2s 32 + 8s. 3 Алгоритм 3. Вычисления s из уравнений (3.6), (3.7) производятся следующим образом. Сначала из (3.6) находятся 0, 1,..., p, а затем последовательно определяются p+1, p+2,... из уравнения (3.7). Частная ковариационная функция (k), k = 1, 2,..., может быть интерпретирована как ковариационная функция между x1 и xk+1 при устранении влияния x2,..., xk. Частная ковариационная функция стационарного временного ряда задается так, что (1) = 1 = 1 0, (k) = cov(xk+1 P1,x2,...,xk (xk+1 ), x1 P1,x2,...,xk (x1 ))/, где P1,x2,...,xk (x) проекция переменной x на линейное подпространство, образованное переменными 1, x2,..., xk, т.е.

n P1,x1,...,xn (x) = i= i xi, x0 = 1.

Коэффициенты i находятся из уравнений n i= i M{xi xj } = M{xxj }, j = 1,..., n.

Если процесс xt центрированный, то P1,x2,...,xk (·) = Px2,...,xk (·). Для каузального процесса АР (p) имеет место соотношение p Px2,...,xk (xk+1 ) = j= aj xk+1j. можно определить иначе. Пусть Частную ковариационную n j= функцию Px1,...,xn (xn+1 ) = anj xnj. Тогда из соотношения j = 1,..., n, M{(xn+1 Px1,...,xn (xn+1 ))xj } = 0, получим 0 1... 1 0... r2... n1 an1 1... n2 an2 2.. =.....,..... n ann... n 1, (3.10) n где j = j /0. Частная ковариационная функция в этом случае записывается в виде (n) = ann, n 1, где ann единственным образом находятся из (3.10). Лабораторная работа 8. Вычисление ковариационных и частных ковариационных функций Цель работы. Смоделировать временные ряды, порождаемые процессами АРСС. Оценить ковариационную функцию процесса по значениям ряда. Вычислить ковариационную и частную ковариационную функции по заданным коэффициентам процесса АРСС. Сравнить полученные функции. Порядок выполнения работы Используя генераторы псевдослучайных чисел, смоделировать временные ряды, порождаемые каузальными и обратимыми процессами АРСС, длиной N. Изобразить графически значения временных рядов. Задание 1. Для временного ряда x1,..., xN, порождаемого уравнением АР (p) xt + a1 xt1 +... + ap xtp = Wt, t = p + 1,..., N, где {Wt } последовательность независимых гауссовских СВ с нулевым средним и дисперсией 2, начальные значения x1 =... = xp = 0, оценить ковариационную функцию 1 s = N s N xt xts, t=s+ s = 0, 1,..., N 1.

С помощью алгоритмов 1–3 вычислить ковариационную функцию s. Используя формулу (3.10), определить частную ковариационную функцию (n), n = 1, 2,..., p + k. Применяя формулу (3.10), в которой истинные значения n заменены на их оценки n = n /0, оценить частную ковариационную функцию (n), n = 1, 2,..., p + k. Изобразить графически ковариационную и частную ковариационную функции. Задание 2. Для временного ряда x1,..., xN, порождаемого прецессом СС (q), вычислить и оценить ковариационную и частную ковариационную функции, провести сравнение вычисленных и оцененных функций. Исследовать поведение частной ковариационной функции (n) при n. Изобразить графически полученные функции. Задание 3. Для временного ряда, порождаемого процессом АРСС (p, q), вычислить и оценить ковариационную и частную ковариационную функции. Исследовать поведение ковариационной функции n при n и частной ковариационной функции (n) при n в зависимости от значений коэффициентов процесса АРСС (p, q).

3.2. Оценивание параметров процесса авторегрессии и процессов скользящего среднего Одной из первоочередных задач при статистическом исследовании процессов АР и СС является задача оценивания коэффициентов a1,..., ap, b1,..., bq и дисперсии 2 = M{Wt2 } по наблюдениям x1,..., xN за процессом xt. Рассмотрим несколько методов оценивания. Метод наименьших квадратов. Пусть xt каузальный процесс АР (p) p xt = i= ai xti + Wt, (3.11) последовательность независимых одинаково распределенных слугде {Wt } чайных величин с нулевым средним и дисперсией 2. Обозначим xt = (xt, xt1,..., xtp+1 ), Тогда уравнение (3.11) примет вид xt = a xt1 + Wt, t = p + 1,..., N. t = p + 1,..., N, a = (a1,..., ap ).

Оценки МНК получаются в результате решения задачи N t=p+ (xt a xt1 )2 mina1,...,ap.

Оценки коэффициентов a1,..., ap и дисперсии 2 определяются соотношениями a(N ) = N t=p+ N t1 xt1 x N xt1 xt ;

t=p+ (3.12) (N ) = t=p+ (xt a (N ) t1 )2. x (3.13) Найти МНК-оценки можно также с помощью рекуррентных соотношений, которые, с одной стороны, упрощают вычислительную процедуру (3.12), а с другой позволяют пересчитывать оценки по мере поступления данных (в ре альном масштабе времени). Оценка a на t + 1 шаге вычисляется следующим образом: a(t + 1) = a(t) P (t) t Lt (xt+1 a (t) t );

x x t+1 P (t + 1) = P (t) P (t) t+1 Lt+1 x P (t);

x t+1 Lt+1 = (1 + x P (t) t+1 )1. x (3.14) (3.15) (3.16) Процедура является полностью определенной, если заданы начальные зна чения a(p), P (p). Метод Юла Уолкера. Умножая обе части уравнения (3.11) на xtj, j = 0,..., p, и применяя операцию математического ожидания, получаем систему уравнений Юла Уолкера (p)a = (p);

2 = 0 a (p), (3.17) (3.18) где (p) ковариационная матрица (p) = ||ij ||, i, j = 1,..., p;

ij = ij ;

(p) = (1,..., p ). Если заменить ковариации j, j = 0,..., p, в (3.17), (3.18) соответствующими выборочными оценками, например, N j = t=j+ xt xtj, то получим систему уравнений a (p) = (p). (3.19) Если 0 > 0, то матрица (p) невырожденная. Разделив каждую часть (3.19) на 0, получим a = R1 (p) (p);

(3.20) где R1 (p) = (p)/ 0 ;

(p) = (p)/ 0. Метод Дурбина Левинсона. Специфическая форма матрицы R и век тора приводит к простому рекуррентному способу вычисления коэффициентов уравнения АР (m) по коэффициентам уравнения АР (m 1). Таким образом, можно подобрать последовательно уравнение АР такого порядка, которое наиболее точно описывает данные x1,..., xN. Этот процесс АР можно записать в виде m 2 = 0 [1 (p)R1 (p) (p)], (3.21) xt = i= ami xti + Wt, где {Wt } последовательность НОР СВ, M{Wt } = 0, M{Wt2 } = vm. Используя метод Дурбина для вычисления amj, vm :

Левинсона, определяем рекуррентные формулы a11 = 1 ;

(3.22) (3.23) (3.24) amm am1,m1 am1,1 am1... =... ;

amm... am,m1 am1,1 am1,m1 vm = vm1 (1 a2 ). mm = m v1 = 0 [1 2 ];

m1 j= am1,j mj vm1 ;

(3.25) (3.26) Для процесса АР (p) коэффициент amm является также частной ковариацией (m) = amm, которая отражает корреляционную зависимость СВ x1 и xm+1 при ”устранении влияния” переменных x2,..., xm. Известно, что для процесса АР (p) больших значений параметра N и m > p оценка amm имеет нормальное распределение с нулевым средним и дисперсией 1/N. Это свойство позволяет эвристически оценить порядок p уравнения АР: p = inf{m : |m+1,m+1 | < N 1/2 1/2 }, a (3.27) где 1 квантиль уровня (1 ) стандартного нормального распределения. Доверительные интервалы для коэффициентов a1,..., ap определяются из соотношений (для достаточно больших N ) {aj R : |aj apj | N 1/2 1/2 vjj 1/ }, j = 1,..., p, (3.28) где vjj j-й диагональный элемент матрицы vp 1 (p). Последовательный метод. Данный метод не гарантирует несмещенность оценок, но позволяет контролировать среднеквадратичные отклонения оценок и обоснованно выбирать момент прекращения наблюдений в зависимости от требуемой точности оценивания. Пусть {cn }, {n } неограниченно возрастающие последовательности положительных чисел и таких, что n= cn <. 2 n Эти неравенства выполняются, например, если справедливы условия cn = n, n= 1 <. cn Определим p последовательных моментов остановки {i (n), n 1}, i = 1,..., p, по формуле N i (n) = inf N 0 :

t= i (t) cn, где n 1;

i (t) i-й диагональный элемент матрицы (1/ 2 )t x. x t Введем следующие статистики: m(n) = (m1 (n),..., mp (n)), i (n) M (n) = ||mij (n)||, i (n) mi (n) = t= ( t xt+1 )i, x mij (n) = t= ( t x )ij, x t где (a)i i-й элемент вектора a;

(B)ij = bij элемент матрицы B;

штрих у знака суммы означает, что последнее слагаемое берется с весом i (i (n)), определяемым из уравнения i (n) i (t) + i (i (n))i (i (n)) = cn.

t= Вычислим искомые оценки параметров ai :

k si si (H) = inf ai (H) = 1 H k1 :

si 1 n= l= gi (l) H, H > 0;

(3.29) zi (n)gi (n) + i zi (si )g(si ) ;

H si 1 2 gi (n) (3.30) i = n=1 2 gi (si ), (3.31) где статистики zi (·), gi (·) имеют вид: zi (n) = ai (n)n, Ri (n)kn gi (n) = n, Ri (n)kn a(n) = (1 (n),..., ap (n)) = M 1 (n)m(n), a Ri (n) = 1kp max |Gik (n)|, n = detG(n), G(n) = ||Gik (n)||, Gik (n) алгебраическое дополнение элемента mik (n) в матрице M (n). Для каузального процесса АР (p) оценки вида (3.30) для любого фиксированного H > обладают свойством равномерной ограниченности среднеквадратичного откло cn и все моменты S (H) конечны с нения M{i (H) ai )2 } /H, = p2 a i 2 kn n=1 вероятностью единица. Для одномерного процесса АР xt = axt1 + Wt последовательные оценки имеют вид N (H) = min{N 0 : a(H) = 1 t= t= x2 H};

t (3.32) [xt xt+1 + (H)x( )x( + 1)] /H, (3.33) где коэффициент (H) находится из уравнения 2 xt + (H)x2 ( ) = H. t= (3.34) При этом оценка a(H) является несмещенной, среднеквадратичное отклонение оценки равномерно ограничено: sup M{((H) a)2 } a 1 H (3.35) < a < + и момент остановки (H) конечен с вероятностью единица. Последовательные оценки представляют собой взвешенные суммы МНК-оценок, вычисленных в случайные моменты времени. Метод Дурбина Левинсона оценивания коэффициентов процесса СС. Будем подбирать уравнение СС в форме q xt = Wt + i= mi Wti b для m = 1, 2,..., N 1, где {Wt } последовательность НОР СВ, M{Wt } = 0, M{Wt2 } = vm. Если известны оценки коэффициентов процесса СС (m 1), то оценки коэффициентов процесса СС (m) вычисляются рекуррентно: v0 = 0 ;

m,mk = v 1 mk b k vm = 0 k1 j= (3.36) k = 0,..., m 1;

(3.37) m1 j= m,mj k,kj vj, b b m,mj vj, b m = 1, 2,..., N 1.

(3.38) Ковариационная функция pm процесса СС (q) для больших значений пара метра N аппроксимируется нормальным распределением с нулевым средним и 2 дисперсией N 1 (1+21 +...+22 ). Этот факт позволяет предложить следующий q эвристический алгоритм поиска порядка q: q = inf{m : |m+1 | < N 1/2 1/2 }. (3.39) Доверительные интервалы для коэффициентов b1,..., bq определяются из соотношений (для достаточно больших N ) b R : |bj mj | N 1/2 1/2 b j j 1/ 2 bmk k=, j = 1,..., q.

(3.40) Наконец, рассмотрим задачу оценивания порядка p процесса АР в следующей постановке. Построим тесты для проверки нулевой гипотезы H0 : am+1 = am+2 =... = ap = 0 против альтернативы H1 : am+1 = 0... ap = 0. Для этого можно использовать статистики 2 и 2, которые для каузального 1 2 процесса АР (m) имеют в пределе 2 -распределение с (pm) степенями свободы:

2 a(2) (M22 M21 (M11 )1 M12 )(2) a =, 2 M11 M21 M12 M N p 2 = j=m+ 2 h2 /m, j где M= = t=p+ t xt x ;

a= a(1) a(2).

Матрица M является блочной с выделением m и p m строк и столбцов, вектор a разбит на два подвектора с размерностью m и p m соответственно, m m hj = N 1/ k=0 l= ak al ml,jk, где j = m + 1,..., p, 2 a0 = 1;

ai, i = 1,..., m МНК-оценки;

m оценка дисперсии 2 для процесса АР (m);

mij элемент матрицы M. Тогда тест для проверки гипотезы H0 имеет следующий вид:

принимается где () = 2 (1 ) pm H0, если 2 < () j, 2 H1, если j () j = 1, 2, квантиль уровня (1 ) 2 -распределения. Лабораторная работа 9. Исследование методов оценивания процессов АР (p) и СС (q) Цель работы. Познакомиться и освоить методы оценивания коэффициентов процесса АР (p) и дисперсии шума. Провести сравнительный анализ получаемых оценок. Порядок выполнения работы Используя генераторы псевдослучайных чисел, произвести моделирование временных рядов, порождаемых каузальным процессом АР (p). Задание 1. С помощью классического (формулы (3.12), (3.13)) и рекуррентного (формулы (3.14) (3.16),(3.13)) МНК оценить коэффициенты процесса АР (p) и дисперсию 2. Исследовать поведение оценок рекуррентного МНК в зависимости от начальных оценок a(0), p(0). Задание 2. Оценить коэффициенты процесса АР (p) и дисперсию шума с помощью метода Юла Уолкера (формулы (3.20), (3.21)) и с помощью метода Дурбина Левинсона (формулы (3.22) (3.26)). Провести сравнение алгоритмов по эффективности (число операций, время) и точности. Используя формулу (3.27), оценить порядок p процесса АР (p). Применяя формулу (3.28), построить доверительные интервалы для получения оценок коэффициентов a1,..., ap. Задание 3. Оценить коэффициенты процесса АР (p) с помощью последовательного алгоритма по формулам (3.29) (3.31) для p > 1 и по формулам (3.32) (3.34) для p = 1. Исследовать качество полученных оценок в зависимости от выбора cn, n, H. Для p = 1 проверить неравенство (3.35) при помощи моделирования n временных рядов x11,..., x1,N, x21,..., x2,N,... и xn1,..., xn,N. Для каждого из этих рядов оценить ai (H), i = 1,..., n, и математическое ожи дание n 1 M{((H) a)2 } = a (i (H) a)2. a n i= Задание 4. Произвести моделирование временного ряда, порожденного процессом СС (q). С помощью метода Дурбина Левинсона (формулы (3.36) (3.38)) оценить неизвестные коэффициенты. Используя формулу (3.39), оценить порядок q процесса СС (q), а используя формулу (3.40), построить доверительные интервалы для коэффициентов. Задание 5. Провести сравнительный анализ алгоритмов оценивания коэффициентов процесса АР (p) по эффективности и точности. Изобразить графически поведение остатков et = xt a xt1, t = p + 1,..., N, и отклонений оценок a от истинных коэффициентов t = ||(t) a||2, где || · || a евклидова норма. Задание 6. Провести моделирование временного ряда, порождаемого процессом АР (p) с полиномиальным трендом ujt = tj :

p q xt = i= ai xti + j= cj ujt + Wt.

(3.41) С помощью МНК оценить коэффициенты a1,..., ap, c1,..., cq. Исследовать влияние тренда на точность оценок процесса АР (p). Провести сравнение с оценками a1,..., ap при отсутствии тренда. Задание 7. Произвести моделирование временного ряда, порожденного процессом АР (p). Для различных значений m (m < p, m = p) проверить гипотезу 2 2 H0 о равенстве нулю коэффициентов am+1,..., ap с помощью статистик 1 и 2.

3.3. Оценивание параметров процесса АРСС Любой стационарный ряд можно приблизить с любой степенью точности моделями АР (p) и СС (q), задав p и q достаточно большими. Смешанные модели авторегрессии и скользящего среднего позволяют строить модели, дающие хорошую аппроксимацию с помощью небольшого числа параметров. Метод Юла Уолкера. Для оценивания коэффициентов a1,..., ap, b1,..., bq можно использовать уравнение Юла Уолкера q1... qp+1 a1 q+1 q q... qp+2 a2 q+2 q+1... =.,.............. q+p1 q+p2... q ap q+p матричная форма которого задается соотношением (p, q)a = (p, q). Решение имеет вид a = 1 (p, q)(p, q). (3.42) Оценка параметра a получается при замене ковариационных функций s в (3.42) их оценками s = 1 N s p N xt xts.

t=s+ После того, как получена оценка a, требуется оценить b1,..., bq. Положим Yn = k= ak xnk.

Пусть sj ковариация процесса Y, которая определяется следующим образом: sj = M{Yn Yn+j } = ak al j+kl.

0k,lp Тогда из соотношения (3.1) имеем sj = 0 для j > q и q q q sj = M l= bl Wnl u= bu Wn+ju 0 j q.

= u=j bu buj, (3.43) Необходимо решить систему (3.43). Предположим, что sj известны, а 2, b1,..., bq (b0 = 1) неизвестны. В качестве sj можно использовать ее оценку sj = 0k,lp ak al j+kl.

(3.44) Обозначим y0 = и yj = bj, 1 j q. Тогда система (3.43) преобразуется к виду q yu yuj = sj, u=j 0 j q.

(3.45) Для q 2 эта система не может быть решена аналитически, в общем случае она имеет конечное число различных решений. Заметим также, что искомое решение должно быть таким, при котором корни полинома q S(z) = l= yl z l лежат вне единичного круга |zi | > 1. Покажем, что решение системы (3.45) эквивалентно нахождению полиномов S(z), которые удовлетворяют соотношениям q S(z)S(1/z) = s0 + k= sk z k + 1 zk, z C, или S(z)S(1/z) = U z+ 1 z = U (v), (3.46) где U полином степени q относительно переменной v = z +1/z, коэффициенты которого являются линейными комбинациями sk, 0 k q. Рассмотрим три алгоритма решения системы (3.45). Алгоритм 1. Применяется метод Ньютона нахождения корней векторного уравнения g(y) = 0 вида y(n+1) = y(n)[g (y(n))]1 g(y(n)), y = (y0, y1,..., yq ), где y(n) оценка вектора y на n-м шаге;

y(0) некоторым образом выбранное начальное приближение, g0 (y). g(y) =.,. gq (y) q gj (y) = sj + yu yuj ;

u=j Если lim y(n) = y(), то g(y()) = 0. Однако это решение может не n удовлетворять условию обратимости процесса АРСС. Таким же образом можно найти новые оценки параметров b1,..., bq, 2, если использовать начальные приближения y(0), отличающиеся от предложенных. Алгоритм 2. Для поиска решения использовать уравнение (3.46). Найти в C решение уравнения U (v) = 0. (3.47) Для q 3 это может быть сделано явно, для q > 3 существует несколько численных методов. Пусть v1,..., vk различные корни уравнения (3.47) кратности m1,..., mk соответственно. Для нахождения корней zj решить квадратное уравнение z + 1/z = vj, 1 j k, корни которого обозначим zj и 1/zj, полагая |zj | 1. Если |zj | > 1, то S(z) = B(z) = c 1jk g0 y0 g (y) =... g q y g0 y1... gq y.........

g0 yq... gq yq.

(z zj )mj, где константа c находится из соотношения S(i) = U (0), i2 = 1. В общем случае S(z) = c |zj |> (z zj )mj |zj |= [z 2 2zRe(zj ) + 1]1/mj.

Алгоритм 3. Спектральная плотность g процесса Y имеет вид g() = 2 |B(z)|2, 2 [, ], z = ei.

Аппроксимировать процесс Y процессом АР большого порядка M, а именно: PM ()Yt = Wt. В этом случае спектральная плотность процесса Yt имеет вид g() = 2 1 2 PM (z), [, ], z = ei.

Таким образом, полином B(z) можно аппроксимировать полиномом BM (z) = 1 1 = = PM (z) 1 + PM (z) 1.

= 1 (PM 1) + (PM 1)2 +... + (1)k (PM 1)k +... где sj определяется выражением (3.44) (sj = 0, j q). Представленный метод параметров по сравнению с предыдущим методом имеет преимущества в случае q > 3. Метод Дурбина Левинсона. Сначала подбирается уравнение СС по рядка m, т.е. вычисляются по формулам (3.36) (3.38) коэффициенты Bm,m+j, j = 0,..., m 1. Порядок m должен удовлетворять условию m p + q, и его можно выбрать, например, следующим образом: m = inf{k : |(k)| < }, где >0 достаточно малое число, или можно выбрать такое m, при котором достигается минимум критерия AIC (см. гл.4). Затем оцениваются коэффициенты a1,..., ap из матричного уравнения B m,q+1 Bm,q Bm,q1... Bm,q+1p a1 m,q m,q+2 Bm,q+1 B... Bm,q+2p a2 B =. (3.48)................. ap Bm,q+p Bm,q+p1 Bm,q+p... Bm,q и параметры Bj, j = 1,..., q, по формуле min(j,p) Коэффициенты этого полинома bk (M ) сходятся к коэффициентам полинома B(z) при M, 0 k q, и к нулю для k q + 1. Коэффициенты полинома PM (z) находятся из уравнения Юла Уолкера порядка M для процесса Y : s1 s2... sM p1 s0 s1... sM 1 p2 s2 s1......... =.,........ sM sM 1... s1 pM sM Bj = Bm,j ai, m,ji, b i= j = 1,..., q.

(3.49) Дисперсия оценивается по формуле 2 = vm, где vm вычисляется по (3.38). Метод максимального правдоподобия. Предположим, что процесс АРСС (p, q) является гауссовским и M{Wt } = 0, M {Wt2 } = 2, а также каузальным и обратимым. Рассмотрим два способа вычисления логарифмической функции правдоподобия. Алгоритм Бокса Дженкинса. Пусть векторный параметр (a, b) принадлежит некоторому компактному подмножеству U, (a, b) U Rp+q, такому, что для всех точек этого множества процесс АРСС (p, q) является каузальным и обратимым. Пусть также известны наблюдения x1,..., xN за процессом АРСС (p, q). Тогда логарифмическую функцию правдоподобия можно записать в виде 1 1 LN (a, b, 2 ) = [N ln (2 2 ) + 2 FN ], 2 где FN =

[M{Wk | x1,..., xN }]2 = 0 – некоторое малое число;

ek – базисный вектор 0... 0 ek = 1 k. 0... В качестве начальной точки можно использовать (, b). a Ш а г 2. Минимизировать выражение N ln (2 2 ) + 1/ 2 · FN (, b, xN ) по a 1 2. Это даст оценку 2 в форме 2 = FN [, b, xN ]/N. a 1 Итак, для завершения процедуры оценивания осталось рассмотреть вычисление FN (a, b, xN ) при заданных a и b. Из сделанных предположений о процессе 1 АРСС следует, что существует белый шум Vt с дисперсией 2, удовлетворяющей соотношению p q ak xt+k = k=0 l= bl Vt+l, t Z.

(3.51) Возьмем условное математическое ожидание (при фиксированном xN ) от 1 соотношений (3.51), (3.1):

p q ak xt+k = k=0 l= bl Vt+l ;

(3.52) p q ak xtk = k=0 l= bl Wtl.

(3.53) Алгоритм вычисления FN Ш а г 1. Выбрать произвольный вектор = (1,..., q ) Rq и положить VN p+j = j, 1 j q. Используя формулу (3.52), вычислить Vt. При этом индекс t уменьшать с N p до единицы. Положить Vt = 0 для t 0. В результате данного шага получаются значения Vt, t N p + q. Ш а г 2. Используя соотношения (3.52), вычислить xt, t = 0, 1,..., M. При этом |M | должно иметь достаточно большое значение в случае, когда значения xt, t M, близки к нулю. Ш а г 3. Используя формулу (3.53), вычислить последовательно Wt, t = M + 1,..., N. Положить Wt = 0 для t N + 1. Ш а г 4. Используя формулу (3.53), вычислить последовательно xt, t = N + 1,..., N + T, где T достаточно большое число и такое, что xt 0 для = t > T. Ш а г 5. Используя формулу (3.52), вычислить последовательно Vt, t = T, T 1,..., N p + 1. Этот шаг дает новое множество величин j = VN p+j, 1 j q, которые отличаются от начальных. Данный пошаговый алгоритм позволяет итерационно вычислить вектор (k) на k-й итерации, а следовательно, и значения Wt (k), t N, на k-й итерации. Окончательно получаем FN [a, b, xN ] = lim k tN |Wt (k)|2.

В практической ситуации ограничиваемся некоторым достаточно большим числом итераций k. Заметим также, что в случае q = 0 требуется одна итерация. Алгоритм, основанный на одношаговом прогнозе. Логарифмическую функцию правдоподобия для процесса АРСС (p, q) можно записать в виде 1 1 LN (a, b, 2 ) = [N ln (2 2 r0 ·... · rN 1 ) + 2 SN ], N где SN = j= (xj xj )2 /rj1 ;

xj одношаговый прогноз;

M{(xj+1 xj+1 )2 } = = 2 r j = vj дисперсия ошибки прогноза. Одношаговый прогноз и его дисперсия вычисляются по формулам i xi+1 = j= ij (xi+1j xi+1j ), q 1 i < m = max(p, q);

i m;

(3.54) xi+1 = a1 x1 +... + ap xi+1p + j= ij (xi+1j xi+1j ), (3.55) v0 = W (1, 1), 1 n,nk = vk W (n + 1, k + 1) n1 j= k,kj n,nj vj, k = 0, 1,..., n 1, (3.56) n1 j=0 2 n,nj vj.

vn = W (n + 1, n + 1) где i = M{xt xti } ковариационная функция процесса xt. Процедура поиска неизвестных параметров состоит из двух шагов. Ш а г 1. SN (, = inf SN (a, b). a b) (a, b) U Рекуррентное вычисление по формулам (3.54) (3.56) производится в порядке v0 ;

11, v1 ;

22, 21, v2 ;

Pages:     || 2 | 3 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.