WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 || 3 |

«Г.А.Медведев, В.А.Морозов Практикум на ЭВМ по анализу временных рядов Учебное пособие Медведев Г.А., Морозов В.А. Практикум на ЭВМ по анализу временных рядов [Электронный ресурс]: Учебное пособие. — ...»

-- [ Страница 2 ] --

.... Ковариационная функция процесса W M{Wi Wj } = W (i, j) удовлетворяет соотношению 2 1 i, j m, ij, p 2 ij al l|ij|, min(i, j) m < max(i, j) 2m, l=1 W (i, j) =, q bl bl+|ij|, min(i, j) > m, l=0 0, иначе, 1 a b). Ш а г 2. 2 = N SN (, Поиск параметров a, b, минимизирующих SN (a, b), можно произвести с помощью какого-нибудь алгоритма нелинейной оптимизации. Если xt каузальный обратимый процесс АРСС (p, q) и полиномы A(z), B(z) не имеют общих корней, то оценка параметров a, имеет ассимптотичеb ски нормальное распределение N ( ) N (0, V ()), где = (, V () a b);

асимптотическая ковариационная матрица: 2 M{Ut U } M{Ut Vt } t } M{V V } M{Vt Ut tt V () =.

(3.57) Здесь Ut = (ut,..., ut+1p ) ;

Vt = (vt,..., vt+1q ) ;

ut, vt процессы авторе2 [M{V V }]1, для грессии A()ut = Wt, B()vt = Wt. Для p = 0 V () = tt q = 0 V () = 2 [M{Ut U }]1. Для оценивания элементов можно использовать t представление процесса АР в виде бесконечного скользящего среднего: ut = A1 ()Wt = 0 Wt + 1 Wt1 +... ;

vt = B 1 ()Wt = 0 Wt + 1 Wt1 +.... (3.58) (3.59) Способы вычисления {i }, {i } даны в § 3.1. Для практического вычисления матрицы V () следует ограничиться конечными рядами (3.57), (3.58). Данное асимптотическое распределение позволяет получить приближенные доверительные интервалы для оцененных коэффициентов:

1/2 {j R : |j j | N 1/2 1 vjj ()}, 1/ (3.60) где vjj () j-й диагональный элемент матрицы V (), = (, b). a Рекуррентный МНК. Если бы в каждый момент времени t величины W1,..., Wt процесса АРСС (p, q) были известны, то для оценки параметров a, b можно было бы применить МНК-оценки N t= (xt )2 min, t = (a1,..., ap, b1,..., bq ), = (xt1... xtp Wt1... Wtq ). t Рекуррентная форма данного алгоритма аналогична (3.14) (3.16): (t + 1) = (t) P (t)t Lt (xt+1 (t));

t P (t + 1) = P (t) P (t)t+1 Lt+1 P (t);

t+1 Lt+1 = (1 + P (t)t+1 )1. t+1 (3.61) (3.62) (3.63) Использование в этом алгоритме вместо неизвестных СВ W1,..., Wt подходящих оценок W1,..., Wt делает процедуру оценивания реализуемой. Оценку Wt можно интерпретировать как прогноз СВ Wt по данным наблюдениям (1),..., (t), 1,..., Wt1, x1,..., xt. Будем вычислять Wt следующим образом: W Wt = xt (t). t1 (3.64) Соотношения (3.61) (3.64) после задания начальных оценок (0), P (0), W0, 1,... полностью определяет рекуррентную процедуру оценивания. РекурW рентная процедура МНК становится малопригодной, если приходится оценивать вектор параметров высокой размерности: основной объем вычислений связан с процедурой вычисления матриц P (t). Предложим упрощенный вариант МНК, когда в алгоритме оценивания используется не сама матрица P (t), а ее след. Алгоритм имеет вид (t + 1) = (t) Lt Pt1 t (xt+1 (t));

t p1 = p1 + t+1 ;

t+1 t t+1 Lt = (1 + pt1 t )1. t (3.65) (3.66) (3.67) Данный алгоритм является одним из вариантов метода стохастической аппроксимации. Метод оценивания параметров АРСС с пропущенными наблюдениями. Пусть каузальный и обратимый процесс АРСС описывается уравнением (3.1). Предположим, что можно наблюдать не все величины x1, x2,..., xN. Пусть, например, известны r наблюдений xj1,..., xjr. Для того, чтобы вычислить логарифмическую функцию правдоподобия, надо искусственно добавить ряд наблюдений до числа N следующим образом. Перепишем уравнение АРСС в виде Yt+1 = F Yt + T Wt+1 ;

xt = GYt, t = 1, 2,..., где i-я компонента вектора Yt, i = 1,..., k = max(p, q + 1), определяется уравнением k (Yt )i = j=i (aj xt+i1j + bj1 Wt+ij ), i = 1,..., k;

aj = 0 для j > k и bj = 0 для j > q;

F = ||fij ||, fij = a1 ij + i+1,j, ij символ Кронекера, i, j = 1,..., k;

T = (1 b1... bk1 ), G = (1 0... 0). Определим величину zt = Gt Yt + t Vt, t = 1, 2,..., где {Vt } последовательность независимых гауссовских СВ с нулевым средним и единичной дисперсией, не зависит от Y1, W2, W3,... и Gt = 0, если xt пропущено G, иначе t = 1, если xt пропущено 0, иначе.

Таким образом, вектор ZN = (z1... zN ) совпадает с xN, за исключением 1 ненаблюдаемых компонент xN, которые в ZN заменяются независимыми стан1 дартными гауссовскими величинами. Тогда одношаговый прогноз величины zj, j = 1,..., N, получается с помощью алгоритма калмановской фильтрации: Yt+1 = F Yt ;

t+1 = F t F + T T ;

zt = Gt+1 Yt+1 ;

2 st+1 = Gt+1 t+1 Gt+1 + t+1 ;

(3.68) (3.69) (3.70) (3.71) (3.72) (3.73) (3.74) Kt+1 = t+1 G /st+1 ;

t+ с начальными условиями Yt+1 = Yt+1 + Kt+1 (zt+1 zt+1 );

t+1 = t+1 Kt+1 Gt+1 t+1, 1 = M{Y1 Y1 }, Y1 = 0, z1 = 0, Логарифмическая функция правдоподобия имеет вид LN (a, b, 2, xN ) = 1 1 rln (2 2 ) + 2 ln si1 + 2 2 s1 = 1 + x, K1 = s1 1 G, Y1 = K1 z1, 1 2 1 = 1 K1 G1, x = M{x2 }. t 1 (xi zi )2 /si1, где у суммы означает суммирование только по тем индексам i, для которых xi наблюдается;

si, zi определяются по формулам (3.68) (3.74). Поиск неизвестных параметров осуществляется с помощью алгоритмов нелинейной оптимизации. Лабораторная работа 10. Оценивание параметров процесса АРСС (p, q) Цель работы. Познакомиться с методами оценивания коэффициентов процесса АРСС и дисперсии шума, освоить их и провести сравнительный анализ алгоритмов. Порядок выполнения работы Используя генераторы псевдослучайных чисел, произвести моделирование временных рядов, порождаемых каузальным и обратимым процессом АРСС (p, q). Задание 1. Оценить коэффициенты процесса АРСС (p, q) с помощью метода Юла Уолкера (алгоритмы 1–3). Провести сравнительный анализ по эффективности и точности оценок коэффициентов, входящих в уравнение скользящего среднего. Задание 2. Оценить коэффициенты процесса АРСС (p, q) с помощью метода Дурбина Левинсона. Провести сравнительный анализ по эффективности и точности оценок коэффициентов с оценками из задания 1. Задание 3. Оценить коэффициенты процесса АРСС (p, q) с помощью метода максимального правдоподобия (алгоритм Бокса Дженкинса и алгоритм, основанный на прогнозе). Провести сравнительный анализ по эффективности и точности предложенных алгоритмов. Для алгоритма Бокса Дженкинса подобрать оптимальные значения T и M. Для поиска экстремума функции FN и SN использовать градиентные прямые методы, а также методы случайного поиска. Задание 4. Оценить ковариационную матрицу оценки ММП (формулы (3.57) (3.59)). Построить доверительные интервалы для коэффициентов по формуле (3.60). Исследовать зависимость качества оценок (величины доверительных интервалов) от значений коэффициентов процесса АРСС. Изобразить графически поведение оценок ММП и доверительные границы. Задание 5. Оценить коэффициенты процесса АРСС (p, q) с помощью рекуррентного алгоритма МНК (формулы (3.61) (3.63)) и упрощенного варианта (формулы (3.65) (3.67)). Исследовать эффективность алгоритмов для оценивания коэффициентов процесса АРСС. Используя рекуррентные алгоритмы МНК, оценить коэффициенты процесса АРСС с трендом (3.41). Задание 6. Оценить коэффициенты процесса АРСС (p, q) для модели с пропущенными наблюдениями. В качестве модели пропуска наблюдений использовать модель пропуска через фиксированное или случайное число тактов времени. Исследовать влияния числа m = N r пропущенных наблюдений на точность оценивания.

3.4. Обнаружение разладки процессов АРСС Пусть {xk, 1 k t} = xt реализация СП xt, которая в момент t0 скачко1 образно меняет свои свойства. В общем случае это означает, что до момента t0 процесс xt имел распределение F 0 (x1,..., xt0 ), а после этого момента распределение F 1 (xt0 +1,..., xN ). С практической точки зрения существует два типа задач, решаемых с помощью алгоритмов обнаружения разладки. В первом случае необходимо обнаруживать разладку как можно быстрее после ее появления при заданном уровне ложных тревог и определить момент времени, когда произошла разладка. Алгоритмы подобного типа называются последовательными алгоритмами обнаружения разладки. Второй основной тип задач сводится к оцениванию момента появления разладки после получения всей выборки. В некоторых случаях сам факт наличия разладки в пределах анализируемой выборки заранее неизвестен, и проверка ее наличия также является предметом решения. Алгоритмы подобного типа называются алгоритмами апостериорного обнаружения разладки. Будем рассматривать параметрические свойства распределений F 0, F 1, в частности, процессы АРСС. t Апостериорные алгоритмы. Пусть две части временного ряда x10 1 и xN t0 t порождаются стационарными моделями АР (p) и x10 1 не зависит от xN, т.е. t p xt = i=1 (j) (j) ai xti + Wt, (j) (3.75) где a1,..., ap коэффициенты АР до (j = 1) и после (j = 2) разладки;

2 j дисперсия независимой последовательности Wt, M{Wt } = 0, M{Wt2 } = 2 2 = j. Если векторные параметры j = (a1... ap j ), j = 1, 2, известны, то для определения момента t0 можно использовать ММП: (j) (j) t0 = arg = arg p+1k N p max [lnp(xk1 | 1 ) + lnp(xN | 2 )] = 1 k k1 t1 lnp(xt | xtp, 1 )+ p+1k N p max lnp(xp | 1 ) + N (3.76) t=p+ +lnp(xk+p1 | 2 ) + k t=k+p t1 lnp(xt | xtp, 2 ), где p(· | ·) условная плотность. Рассмотрим случай гауссовской модели, т.е. 2 Wt N (0, j ), и предположим, что N p. Тогда (3.76) можно аппроксимировать следующим образом: t0 = arg k 1 2 ln(21 ) 2 2 21 p+1k N p max 1 nk 2 ln(22 ) 2 2 22 N k t=p+1 2 et e2, t t=k+ (3.77) p 2 (j) ai xti e2 tj = xt, j = 1, 2.

i= Если 1 и 2 неизвестны, то в (3.77) используются оценки 1, 2. Оценки 1 k, а 2 по значениям xN, в то время рассчитываются по значениям выборки x1 k как k изменяется от p + 3 до N p 1. В рамках данного подхода можно исследовать модель разладки авторегрессии для случая, когда последовательности xt0 1 и xN зависимы. Первую модель t0 1 разладки можно рассматривать как момент переключения с наблюдения генератора авторегрессионной последовательности (3.75) с параметрами 1 на наблюдение генератора с параметрами 2. Вторая модель разладки соответствует не переключению наблюдения, а скачкообразному изменению коэффициентов t0 генератора (3.75) с сохранением ”хвоста” памяти xt0 1. Для новой модели разладки соотношение (3.76) заменяется на следующее: t0 = arg p+1k N p max ln где 1, 2 известны. В случае гауссовской АР данный алгоритм имеет вид k 1 k ln 1 + 1 e2 2 t0 = arg max t2 2 2 22 21 p+1k N p t=p+ p(xk1 | 1 ) 1, p(xN | 2 ) k k t=p+ Для отыскания неизвестных параметров можно использовать метод Юла Уолкера или рекуррентный МНК. Последовательные алгоритмы. Существуют два подхода для обнаружения разладки. Первый состоит в пропускании наблюдаемого сигнала xt через выбеливающий фильтр и в проверке отклонения характеристик последовательности остатков et данного фильтра от параметров белого шума. Будем называть его одномодельным. Второй подход основан на использовании двух моделей, которые оцениваются на различных участках временного ряда и сравниваются между собой с помощью подходящей меры расстояния между распределениями. Будем называть его двухмодельным. Существуют также два алгоритма оценивания момента изменения свойств t0. Алгоритм 1. Данный алгоритм основан на использовании порогового решающего правила для статистик, представленных в виде кумулятивных сумм:

t e2. t (3.78) St = k= sk, (3.79) где sk некоторая статистика. Статистика sk подбирается таким образом, чтобы до разладки St в среднем дрейфовала вниз, а после разладки вверх. При этом правило подачи сигнала о разладке имеет вид t0 = inf{t 1 : gt h}, 84 (3.80) где gt = St 1kt min Sk ;

h> порог. Поведение суммы St до и после разладки изображено на рис. 3.1.

Рис. 3.1 Опишем алгоритмы обнаружения разладки временного ряда, порождаемого процессом АР (p). Все алгоритмы основаны на статистиках вида (3.79). Рассмотрим идеальный случай, когда параметры АР (p) известны до и после изменения свойств. Пусть СП xt описывается известными условными плотностями t1 t1 t1 t1 p1 (xt | x1 ) = p(xt | x1, 1 ) до изменения и p2 (xt | x1 ) = p(xt | x1, 2 ) после изменения. Одномодельный подход для обнаружения разладки использует статистику t Ut = k= uk, (3.81) где uk = p1 (x | xk1 )lnp1 (x | xk1 ) dx lnp1 (x | xk1 ). 1 1 Статистика Ut до изменения имеет нулевое среднее и принимает положительное значение после изменения, если выполняется условие Htx (p2 ) > Htx (p1 ), (3.82) где Htx (pj ), j = 1, 2 условная энтропия: Htx (pj ) = pj (x | xk1 ) 1 k1 lnpj (x | x1 ) dx. В гауссовском случае для модели АР (p) статистика Ut принимает вид Ut = 1 t k= e2 k1 2 1. (3.83) Условие (3.82) изменяется следующим образом: 2 > 1. Если же 2 < 1, то после изменения среднее статистики Ut может быть положительным, отрицательным или даже нулевым. В этом случае не рекомендуется использовать тест Ut. При применении двухмодельного подхода можно использовать три статистики. 1. Статистика, основанная на отношении правдоподобия:

t Vt = k= vk, где vk = ln[p2 (xk | xk1 )/p1 (xk | xk1 )]. 1 1 2. Статистика, основанная на расстоянии между условными распределениями, определяемом дивергенцией Кульбака:

t Dt = k= dk, где dk = p1 (x | xk1 )ln p2 (xk | xk1 ) p2 (x | xk1 ) 1 1 dx + ln = p1 (x | xk1 ) p1 (xk | xk1 ) 1 1 p2 (xk | xk1 ) 1, p1 (xk | xk1 ) x = Ik (p2 | p1 ) + ln x информационное число Кульбака. Условные математические где Ik (p2 | p1 ) ожидания этих двух статистик Vt и Dt до изменения и после него имеют вид t1 x M1 {vt | x1 } = Ik (p1 | p2 ) < 0, t1 M1 {dt | x1 } = 0, t1 x M2 {vt | x1 } = Ik (p2 | p1 ) > 0, где Mj {· | ·} математическое ожидание по распределению pj (· | ·);

J(p1, p2 ) дивергенция Кульбака между условными плотностями. 3. Статистика, основанная на расстоянии Чернова между условными распределениями:

t t1 M2 {dt | x1 } = J(p1, p2 ) > 0, Zt = k= zk, где приращения zk таковы, что M1 {zk | xk1 } = const, t1 M2 {zk | x1 } = fk ( ) = ln [p2 (x | xk1 )] [p1 (xk | xk1 )]1 dx, 1 1 где fk ( ) расстояние Чернова между условными плотностями p1, p2, 0 < < 1. Теперь рассмотрим случай гауссовской АР. Запишем статистики vt, dt, zt следующим образом: 1 2 e2 e2 vt = ln 1 + t1 t2 ;

(3.84) 2 2 2 2 2 21 22 dt = zt = zt ( ) = 2 e2 e2 1 t2 2 t1 2 + 1 + 1 2 2 22 2 2 e2 t1 1 + 12 ;

2 21 2(1 ) (3.85) (3.86) ( 1) et1 (et1 et2 ) 1 2 ln 2 2 1 2 2 2, 2 2 2 + (1 )1 2 + (1 ) где etj, j = 1, 2, определяются формулой (3.77). В частном случае, когда коэффициенты АР не изменяются (т.е. et1 = et2 ), а изменяется только дисперсия, формула (3.86) задается соотношением 2 2 2 2 2zt ( ) = ln( 2 + (1 )1 ) ln2 (1 )ln1.

(3.87) В случае, когда дисперсия остается постоянной (т.е. 1 = 2 ), статистика принимает вид ( 1) et1 (et1 et2 ) ( 1) zt ( ) = = dt. 2 2 2 На практике модели АР до и после изменения неизвестны и должны быть идентифицированы. При использовании единственной модели, т.е. когда разладку определяют с помощью Ut, АР-модель идентифицируют (оценивают параметры a1,..., ap, 2, p с помощью рекуррентных алгоритмов (например, МНК). При использовании двухмодельного подхода необходимо выбрать расположение двух участков временного ряда для идентификации моделей. Первую АР-модель M1 идентифицируют в фиксированном окне (например, T значений в начале временного ряда) и используют ее в качестве проверяемой модели. Другими словами, взяв значения xt1,..., xt1 +T, оценивают параметры АР-модели (1) (1) 2 a1,..., ap, 1. Затем вторую модель M2 идентифицируют в скользящем окне такого же размера и применяют в качестве проверяемой модели (т.е. оценивают (2) (2) 2 коэффициенты a1,..., ap, 2 ). Когда модели существенно отличаются друг от друга, находят момент разладки, вторая модель становится первой и т.д. В качестве меры различия двух моделей можно использовать статистику fT = 1 T T t= (et1 et2 )2, где обновляющие последовательности et1 и et2 определяются на окнах M1 и M2 соответственно. Этот способ имеет недостаток, заключающийся в возрастании вероятности ложной тревоги. Об этом свидетельствует простой факт: вследствие идентификации опорной модели M1 внутри временного окна заведомо ограниченных размеров часть информации о сигнале до изменения теряется. Положение можно изменить к лучшему, если в качестве опорной использовать глобальную (т.е. оцененную в длинном временном окне) модель M1 вместо локальной (т.е. оцененной в коротком временном окне) модели (рис. 3.2).

Рис. 3.2 В общем случае, значения xt1,..., xt1 +tk определяют окно M1, а значения xt,..., xt+T окно M2 (t текущее время). Если t1 = 1, k = 0, окна M1, M2 соответствуют окнам, изображенном на рис. 3.2. Алгоритм 2. Пусть T длина временного окна M2 и пусть 1 и 2 2 2 оцененные дисперсии остатков моделей M1 и M2 соответственно: 1 2 1 = tk 2 2 1 tk p t1 +tk i=t1 t+T i=t (i1 e1 )2, e 1 = T (i2 e2 )2, e e2 = 1 T t+T t1 +tk e1 = ei1, i=t ei2, i=t p (2) ei1 = xi (1) (1) aj xij, j=1 (2) ei2 = xi aj xij, j= коэффициенты АР-модели, оцененные в окнах где t текущее время;

aj, aj M1 и M2 соответственно. Тогда статистика обнаружения задается формулой (3.86), в которой = T /t, и ее можно записать в виде zt (T ) = = H(1, t) 2 [a, b] H(1, t T ) H(t T + 1, t), где H(a, b) = (b a + 1)ln. ba+1 Пусть также обнаружение произошло в момент времени t и истинный момент изменения находится в интервале [t T + 1, t ]. Тогда вычисляются разно сти для моментов t от t + 1 до t + T 1 по формуле t = Zt (T ) Zt (t t0 + 1), где t0 = t T + 1, и оценивается момент изменения t0 = tM T + 1, tM = inf{t + 1 t t + T 1 : t > 0}. (3.88) Лабораторная работа 11. Обнаружение разладки процессов АР (p) Цель работы. Познакомиться и освоить методы обнаружения разладки и оценивания моментов изменения свойств процессов АР (p). Провести сравнительный анализ алгоритмов. Порядок выполнения работы Используя генераторы псевдослучайных чисел, произвести моделирование временных рядов, порождаемых процессом АР (p). В некоторые моменты времени (детерминированные или случайные) процесс АР (p) меняет свои свойства (коэффициенты, математическое ожидание или дисперсию шума). Следует учитывать, что участки стационарности или однородности (процесс не меняет свои свойства) должны быть достаточно большими. Задание 1. Произвести моделирование временного ряда, порождаемого процессом АР (p), с одним моментом разладки и первой моделью разладки. С помощью ММП (3.77) оценить момент разладки. Используя ММП (3.78), оценить единственный момент разладки для второй модели. Исследовать качество алгоритмов в зависимости от величины разладки = ||a(1) a(2) ||. Задание 2. Произвести моделирование временного ряда, порождаемого процессом АР (p), с несколькими моментами разладки. В качестве разладки использовать изменение только коэффициенов a1,..., ap, только дисперсии 2 и коэффициентов и дисперсии одновременно. Предположить, что параметры до и после разладки известны точно. Оценить моменты разладки, используя статистики Ut, Vt, Dt, Zt ( ), правила остановки (3.80) и правила остановки (3.88). Исследовать качество предложенных методов в зависимости от величины ”скач ка параметров” = || ||2, = (a, 2 ). Задание 3. Оценить моменты разладки временных рядов аналогично заданию 2. При этом предположить, что параметры до и после разладки неизвестны. Параметры оценить с помощью метода Дурбина Левинсона (включая порядок p). Для оценивания использовать окна фиксированной длины в первом случае. Во втором случае опорную модель оценивать в увеличивающемся окне. Исследовать качество алгоритмов в зависимости от выбора длины фиксированного окна T (в первом случае), величины смещения k, длины T (во втором случае) и величины ”скачка параметров”. Задание 4. Для каждого из последовательных алгоритмов исследовать правило остановки (3.80) в зависимости от выбора порога h. Оценить среднюю величину запаздывания при обнаружении разладки. Для этого провести моделирование n временных рядов с единственной разладкой, в один и тот же момент времени, оценить для каждого ряда момент разладки ti и вычислить среднюю величину n 1 t= ti. n i= Глава ПРОГНОЗИРОВАНИЕ ВРЕМЕННЫХ РЯДОВ 4.1. Прогнозирование тренда Прогнозирование (предсказание) временного ряда является важной практической задачей. Вообще говоря, определение математического описания временного ряда, его параметров это вспомогательная задача, которую необходимо решить, чтобы воспользоваться ею для предсказания. Наиболее типичное предсказание прогноз погоды. Однако погода описывается сложно, зависит от многих детерминированно и случайно изменяющихся факторов и не может служить примером временного ряда. Обратимся к более простым ситуациям. Временной ряд, как в большинстве рассмотренных случаев, представим в виде xt = mt + yt, t T = {t1, t2,..., tN }, (4.1) где mt детерминированная или стохастическая составляющая, которая порождается определенным закономерным образом, быть может, неизвестным исследователю;

yt случайная составляющая, независимая от mt, являющаяся реализацией некоторого ССП. Для определенности в дальнейшем считаем, что ti < ti+1 для всех i, и пишем вместо xti более кратко xi, полагая ti = i. В рамках такой модели могут быть сформулированы следующие задачи, связанные с предсказанием: 1) по наблюдениям {x1, x2,..., xN } предсказать значение mN +k, k > 0;

2) по наблюдениям {x1, x2,..., xN } предсказать значение xN +k, k > 0. При решении первой задачи возможны два варианта: mt является детерминированным трендом, mt случайный процесс. Поскольку в (4.1) mt и yt независимы между собой, при решении второй задачи требуется вначале решить первую, затем, имея в виду, что yt ненаблюдаемый процесс, определить его как остатки xt mt и осуществить предсказание значения yN +k по множеству остатков {xi mi, 1 i N }. Из вышеуказанных свойств следует, что процесс xt mt является стационарным СП, поэтому возникает задача предсказания данного процесса. Таким образом, будут найдены предсказанное значение mN +k и предсказанное значение yN +k, сумма которых и даст предсказанное значение xN +k. Прежде чем переходить к конкретным оценкам предсказания, рассмотрим некоторые общие вопросы. Будем считать, что временной ряд {xt, t T }, T = {1, 2,..., N }, порождается СП с ограниченным вторым моментом, т.е. M{x2 } < + t t. Предсказание величины xN + временного ряда, > 0, по наблюдениям {x1, x2,..., xN } сводится к нахождению детерминированной функции N аргументов, значения которой можно было бы принимать в качестве xN +, т.е. xN + = f (x1, x2,..., xN ), > 0. (4.2) Среди всевозможных функций (4.2) представляет интерес та, которая дает наилучшее предсказание. В анализе временных рядов принято считать наилучшим такое предсказание (прогнозирование), которое обеспечивает минимальную среднеквадратичную ошибку предсказания, иными словами функция (4.2) должна быть решением следующего экстремального уравнения: M{(xN + xN + )2 } = M{(xN + f (x1, x2,..., xN ))2 } min.

f (·) (4.3) Эта задача имеет единственное решение xN + = f (x1, x2,..., xN ) = M{(xN + | x1, x2,..., xN }. (4.4) Таким образом, оптимальное предсказание это вычисление условного математического ожидания предсказываемого значения при фиксированных наблюдаемых значениях временного ряда. Рассмотрим случай нормального распределения. Предположим, что имеются наблюдения N значений временного ряда {x1, x2,..., xN }. Составим из них вектор-столбец x(1, N ) = (x1, x2,..., xN ). Полагаем, что структура временного ряда определена формулой (4.1), где mt детерминированная компонента, которая в данном случае определяет математическое ожидание xt так, что M{x(1, N )} = m(1, N ) = (m1, m2,..., mN ). (4.5) Необходимо по наблюдениям x(1, N ) построить прогноз значений временного ряда для значений параметра, определяемых неравенствами N + k t N + k + n 1, т.е. с учетом вектора x(1, N ) предсказать значения {xN +k, xN +k+1,..., xN +k+n1 }. Для удобства обозначим x(1, n) = (1, x2,..., xn ), где x xj оценка xN +k+j1. Итак, зная вектор x(1, N ) прошлых значений временного ряда, необходимо оценить n будущих значений этого временного ряда, представ ленных вектором x(1, n). Предполагается, что распределение значений времен ного ряда нормальное, так что совместная плотность x(1, N ) и x(1, n) имеет вид detK 1 p(x, x) = где K (2)n+N e m m x x K m m, x x (4.6) матрица, обратная матрице ковариаций составного вектора (x, x ), т.е. K 1 = xx xx 91 x x xx, (4.7) вектор математических m вектор математических ожиданий x(1, N );

m ожиданий вектора x(1, n). Пусть векторы m, m и матрица K известны. Тогда наилучшее предсказание, соответствующее (4.4), приводит к соотношению 1 x(1, n) = m(1, n) + xx xx (x(1, N ) m(1, N )).

(4.8) При этом корреляционная матрица ошибок предсказания (1, n) = (1, 2,..., n ), j = xj xN +k+j1, имеет структуру = xx xx 1 x. x xx (4.9) Характерной особенностью оптимальной оценки предсказания нормально распределенного временного ряда является тот факт, что предсказание значения временного ряда линейные функциии наблюдений, т.е. выражения (4.8) можно представить в виде x(1, N ) = a + Bx(1, N ), (4.10) где a среднее значение прогноза a = m(1, n) xx 1 m(1, N ). B = = xx 1 xx xx (n N )-матрица коэффициентов регрессии предсказываемых зна чений имеющихся наблюдений. Из полученнного результата следует, что для построения прогноза на n значений временного ряда по N наблюдениям необхо димо знать векторы математических ожиданий m(1, N ), m(1, n) и корреляционные матрицы xx, x, xx, xx. Иными словами, при построении оптимального x прогноза (4.4) требуется большое количество сведений о предсказываемом СП. Если временной ряд порождается СП, отличающимся от нормального, необходимо еще знать многомерное совместное распределение данного процесса. Это требование является наиболее трудновыполнимым. Проблемы, связанные с прогнозированием случайных процессов в общем случае, будут обсуждены в последующих параграфах. Обратимся к задаче прогнозирования значений детерминированного тренда mt в модели (4.1). Пусть наблюдается временной ряд (4.1) с неизвестным детерминированным трендом mt и случайной компонентой yt. Требуется по N наблюдениям {x1, x2,..., xN } найти прогноз значений {mN +k, mN +k+1,..., mN +k+n1 } тренда mt. Для этой задачи надо воспользоваться техникой оценивания функции регрессии (§ 2.2), которая сводится к следующему. Пусть наблюдения временного ряда известны для некоторого множества T значений параметра t. Необходимо определить прогноз детерминированного тренда для значений t из множества T, T T =. Объединим эти множества: = T T. Выберем отрезок числовой оси [a, b], в который бы погружалось множество, т.е. [a, b]. Введем линейное преобразование параметра t так, чтобы отрезок [a, b] отображался в [+1, 1]. Исходя из практических соображений, связанных с конкретным характером временного ряда, выберем систему ортогональных или линейно независимых функций {j (u)}. Методом наименьших квадратов найдем коэффициенты разложения mt по базису {j (u)}, а именно:

s m(u) = j= cj j (u) = c (u), (4.11) где переменная u связана с пераметром t соотношением u = (2t b a)/(b a);

N c= i= (ui ) (ui ) i= 1 N xi (ui ).

(4.12) Таким образом, прогнозируемые значения временного ряда mN +k+l1 = m(ul ), 1 l n, определяются по формуле m(ul ) = c (ul ), ul U, (4.13) образ множества T, соответствующий описанному где c задано в (4.12);

U линейному преобразованию параметра t в u. Возвращаясь теперь к исходной переменной tl = ((b a)ul + a + b)/2, получим оцениваемые значения mN +k+l1. Лабораторная работа 12. Прогнозирование нормально распределенных временных рядов Цель работы. Исследовать характер изменения качества прогнозирования значений временного ряда при изменении корреляционных свойств временного ряда, а также при изменении срока прогнозирования. Порядок выполнения работы Задание 1. Пусть xt нием процесс СС (q), определяемый разностным уравнеq xt = j= bj Wtj + mt, (4.14) где Wt стандартный белый шум с нормальным распределением. Задать функцию mt. Задать зависимость bj от j (например, последовательность чисел одного знака, не увеличивающихся по абсолютной величине с ростом j). Произвести имитацию процесса (4.14). Задание 2. По заданной выборке {xt, 1 t N } построить оценку предсказания {N +, = 1, 2, 3}. Построить доверительные интервалы для каждой x из оценок xN +, задавшись уровнем значимости. Графически представить на одном рисунке для некоторого диапазона N доверительные интервалы, реализацию xN, оценку предсказания xN +. Задание 3. Вычислить матрицу корреляции ошибок предсказания {N +, = 1, 2, 3}. Исследовать зависимость дисперсий ошибок (N + xN + ) x x и det от величины q, которую в данном случае можно назвать временем корреляции временного ряда (4.14). Учесть, что корреляционная функция процесса (4.14) вычисляется по формуле q rx (k) = j= bj bj+|k|, |k| q;

rx (k) = 0, |k| > q.

Задание 4. По заданной выборке {xt, 1 t N } найти оценку предсказания xN + для некоторых значений q (например, q = 1, 3, 5). Построить доверитель ные интервалы для каждого из вариантов при некотором уровне значимости. Графически представить на одном рисунке для некоторого диапазона N доверительные интервалы, реализацию xN и оценку предсказания xN + во всех вариантах изменения q. Задание 5. Вычислить матрицу корреляции ошибок предсказания (N xN + ). Исследовать зависимость дисперсий ошибок от величины при x различных q. Лабораторная работа 13. Прогнозирование значений тренда Цель работы. Освоить технику оценивания функции регрессии с целью прогнозирования ее значений. Порядок выполнения работы Использовать временной ряд, который исследовался в лабораторной работе 12. Задание. Определить множества значений параметра временного ряда, в которых берутся наблюдения (T ) и в которых надо построить прогноз (T ). Рассматривая T T, определить отрезок [a, b], на котором следует восстановить функцию регрессии. Осуществить прогнозирование по формулам (4.11) (4.13). Определить качество прогнозирования, пользуясь критерием = |mt mt |/|T |. Исследовать зависимость качества прогнозирования от объема выборки временного ряда N и от величины набора базисных функций s.

tT 4.2. Предсказание ССП Значения СП yt в модели (4.1) являются ненаблюдаемыми, однако они влияют на предсказываемые значения временного ряда xt. Если mt известная функция своего параметра или ее оценка уже получена способом, описанным в гл.2, можно ввести разности xt mt, которые и характеризуют значения СП yt. Предсказывая значения yt для необходимого значения параметра t и используя известное или предсказанное значение mt на основе (4.1), можно получить предсказанное значение временного ряда. Рассмотрим проблему предсказания yt, полагая, что M{yt } = 0, а корреляционная функция r( ) = M{yt yt+ } этого процесса является известной. Пусть значения СП {y1, y2,..., yN } известны и необходимо оценить yN +k, k > 0. В формуле (4.4) определена оптимальная оценка прогнозируемого значения, в (4.8) она построена для нормального распределения. В частности, для случая оценивания СП yt с нулевым средним и корреляционной функцией r( ) оптимальный прогноз (4.8) трансформируется в выражение yN +k = (r(N + k 1), r(N + k 2),..., r(k))R1 (y1, y2,..., yN ) = = r(N + k 1, k)R1 y(1, N ), (4.15) где корреляционная (N N )-матрица R = (Rij ) составлена из элементов Rij = r(i j), а структура строки r(N + k 1, k) и столбца y(1, N ) понятна из (4.15). В представлении (4.10) эта оценка имеет нулевое среднее a и матрицу коэффициентов регрессии, которая вырождается в строку B = (b1, b2,..., bN ) = r(N + k 1, k)R1. (4.16) С учетом этого оценку предсказания для нормального ССП можно представить в виде N yN +k = i= bi yi = By(1, N ), (4.17) где коэффициенты bi определены равенством (4.16). Если процесс yt не является нормальным, вычисление условного математического ожидания (4.4) обычно затруднительно. Поэтому в среднеквадратичной теории анализа временных рядов принято строить оценки предсказания в классе линейных оценок. Предположим также, что выполняется обычно реализующееся на практике условие r(0) > 0, lim r( ) = 0. (4.18) Тогда оценку предсказания будем искать в форме N yN +k = f (y1, y2,..., yN ) = l= bN,l yN l+1.

(4.19) Подставляя (4.19) в (4.17) и разрешая это уравнение, при выполнении условия (4.18) получаем, что коэффициенты регрессии bN,k оптимальной оценки предсказания определяются из равенства (bN,1, bN,2,..., bN,N ) = (r(k), r(k + 1),..., r(N + k 1))R1. (4.20) Дисперсия Dk (N ) ошибки предсказания по формулам (4.19), (4.20) выражается равенством Dk (N ) = M{(N +k yN +k )2 } = y = r(0) r(k, N + k 1)R1 r (k, N + k 1).

(4.21) Как видно из сравнения (4.15), (4.19) и (4.20), для нормального процесса yt оптимальная линейная оценка предсказания полностью совпадает с общей оптимальной оценкой. Часто по значениям {y1, y2,..., yN } необходимо предсказать следующее значение yN +1. Для этого случая имеет место предельный результат. Обозначим D1 = D1 (+), тогда log D1 = N lim 1 log detR(N ), N (4.22) где D1 минимальная дисперсия оценки предсказания, определяющая предельную точность предсказания на один шаг;

R(N ) = (Rij ), 1 i, j N, Rij = r(i j). Между оптимальными коэффициентами регрессии (4.20) и точностью предсказания (4.21) для k = 1 может быть установлено взаимно однозначное соответствие, которое позволяет производить их вычисление по рекуррентным формулам (метод Дурбина Левинсона). Если выполнено условие (4.18) и обозначено D1 (0) = r(0), b1,1 = r(1)/r(0), то справедливы рекуррентные формулы D1 (N ) = D1 (N 1)(1 b2 ), N,N N 1 1 r(N ) bN 1,j r(N j), = D1 (N 1) j= bN,N (4.23) bN,k = bN 1,k bN,N bN 1,N k, 1 k N 1.

Иногда может оказаться более подходящим представление линейной оценки предсказания, которое отличается от (4.17) и для k = 1 записывается в виде N y1 = 0, yN +1 = j= N,j (yN +1j yN +1j ), N > 0, (4.24) где коэффициенты N,j вычисляются рекуррентно по формулам: N,N = v(N + 1, 1)/v(1, 1);

k1 j= N,N k 1 = v(N + 1, k + 1) D1 (k) k 1 k N 1, j= k,kj N,N j D1 (j) ;

1 k N, (4.25) D1 (k) = v(k + 1, k + 1) 2 k,kj D1 (j), D1 (0) = v(1, 1). Здесь в отличие от предыдущего обозначено M{yi yj } = v(i, j). Если yt ССП, то v(i, j) = r(i j). По рекуррентным формулам (4.25) величины D1 (k) и k,j вычисляются в следующей последовательности: 11, D1 (1);

22, 21, D1 (2);

33, 32, 31, D1 (3) и т.д. Рекуррентные формулы Дурбина Левинсона определяют коэффициенты в (4.19) при прошлых значениях yt, в то время как формулы (4.25) определяют коэффициенты при обновлениях (инновациях) (yt yt ) в ортогональном раз ложении (4.24). Это разложение является очень простым при использовании. Заметим, что если положим N,0 = 1, то N yN +1 = j= N,j (yN +1j yN +1j ), N = 0, 1, 2,..., т.е. текущее значение процесса yt представится в виде разложения по обновлениям (yj yj ). Оценка предсказания типа (4.24), (4.25) может быть получена и для прогноза на k шагов. Она приобретает форму yN +k = j=k (k) N +k N +k1,j (yN +kj yN +kj ), (1) (4.26) (i) где коэффициенты N +k1,j по-прежнему вычисляются при помощи (4.25);

yN оценка предсказания на i шагов по (N i) наблюдениям. Средний квадрат ошибки предсказания может быть подсчитан по формуле Dk (N ) = M{(yN +kj yN +kj )2 } = N = v(N + k, N + k) N +k1,N +kj D1 (j).

j= (4.27) Рассмотрим некоторые важные случаи. Процесс АРСС (p, q). Пусть yt каузальный процесс АРСС (p, q). Пользуясь формулами (4.24), (4.25), можно было бы построить процесс предсказанных значений для yt. Причем в этом случае каждое yt+1 определялось бы t инновациями (yj yj ). В данном случае удается построить более простой про цесс предсказанных значений, в котором для определения оценки yt+1 требуется только m = max(p, q) инноваций (yj yj ) независимо от t. Этот процесс строится следующим образом. Мы предполагаем, что yt описывается уравнением p q yt = i= ai yti + j= bj Wtj, (4.28) где ai, bj известные константы;

Wt N процесс белого шума. Тогда 1 N < m, N m. (4.29) yN +1 = j=1 p N,j (yN +1j yN +1j ), q yN +1 = i= ai yN +1i + j= N,j (yN +1j yN +1j ), 0 0 Причем D1 (N ) = M{(yN +1j yN +1j )2 } = 2 D1 (N ). Величины D1 (N ) и N,j определяются формулами (4.25), в которых D1 (k) необходимо заменить на 0 D1 (k), а v(i, j) вычислить следующим образом:

Заметим, что если v(i, j) определяется соотношением (4.30), а в (4.25) вместо 0 0 D1 (k) используется D1 (k) = D1 (k)/ 2, то D1 (k) и i,j, определяемые формулами 2. В (4.30) r( ) (4.25), не зависят от функция ковариации процесса (4.28);

2 дисперсия белого шума Wj. Напомним, что функция ковариации процесса (4.28) имеет вид r( ) = 2 j= 1 i, j m;

r(i j)/ 2, p r(i j) 2, min(i, j) m, ak r(k |i j|) k=1 m max(i, j) 2m;

v(i, j) = q bb, min(i, j) > m;

k=0 k k+|ij| 0, в остальных случаях.

(4.30) j j+| |, = 0, ±1, ±2,..., (4.31) где значения j могут быть вычислены рекуррентно (предполагается, что b0 = 1, aj = 0 для i > p;

bj = 0 для j > q) по формулам 0 = 1;

k k = bk + i=0 k aki i, p 1 k < max(p, q + 1), ai ki, k max(p, q + 1).

(4.32) k = i=kp aki i = i= Таким образом, для построения процесса, предсказывающего временной ряд типа АРСС (p, q) на один шаг вперед, можно воспользоваться либо формулами (4.24), (4.25) и (4.31), (4.32) (с учетом того, что в этом случае v(i, j) = = r(i j)/ 2 ), либо формулами (4.29) (4.32). Заметим, что в рассматриваемом случае, если процесс АРСС (p, q) является не только каузальным, но и обратимым, при N в (4.29) D1 (N ) 2, N,j bj, 1 j q. Процесс АР (p). Пусть yt процесс АР (p), который получается из (4.28), если положить bj = 0, 1 j q. Тогда p yN +1 = i= ai yN +1i, N p, (4.33) т.е. в оценке (4.29) N,j = 0, 1 j q. Пусть теперь yt процесс СС (q), который получается из (4.28), если положить ai = 0, 1 i p. В этом случае min(N,q) yN +1 = j= N,j (yN +1j yN +1j ), N 1.

(4.34) Коэффициенты N,j находятся из (4.25), где ковариации v(i, j) вычисляются по формулам q|ij| v(i, j) = k= bk bk+|ij|, v(i, j) = 0, |i j| > q.

(4.35) Процесс АРСС (1,1). Пусть yt процесс АРСС (1,1). В этом случае yt = ayt1 + Wt + bWt1, |a| < 1. Уравнение оценки предсказания имеет вид yN +1 = ayN + N 1 (yN yN ), N 1. (4.36) Используя (4.31), (4.32) и (4.30), получаем (1 + 2ab + b2 )/(1 a2 ), i = j = 1, (1 + b2 ), i = j 2, v(i, j) = b, |i j| = 1, i 1, 0, в остальных случаях, а из (4.25) с учетом этого равенства 0 N,1 = b/D1 (N 1), 0 0 D1 (N ) = (1 + b2 (b/D1 (N 1))).

Описанные результаты можно обобщить на случай предсказания на k шагов вперед процесса АРСС (p, q). Тогда оценка предсказания для процесса (4.28) p q yN +k = i= (k) ai yN +ki + j=k (ki) N +k1,j (yN +kj yN +kj ), (1) (4.37) где второе слагаемое обращается в нуль при k > q. Среднее значение квадрата ошибки предсказания по (4.37) выражается формулой Dk (N ) = M{(yN +k yN +k )2 } = k1 j (k) = j=0 l= l N +kl1,jl D1 (N + k j 1), (4.38) где D1 (N ) и i,j определяются в (4.25);

l может быть вычислена рекуррентно:

min(p,l) 0 = 1, l = j= aj lj, l = 1, 2,...

.

Если рассматривать процесс АРСС (p, q) не только каузальный, но и обратимый, при N получаются следующие асимптотические формулы:

p q yN +k = i= (k) ai yN +ki + j=k k1 j (k) bj (yN +k yN +k );

2 k (1) (4.39) Dk (N ) = 2 j=0 l= l bjl = 2 j= 2 j, (4.40) где j вычисляются по формулам (4.32). Лабораторная работа 14. Предсказание стационарных временных рядов Цель работы. Познакомиться и освоить методы предсказания значений временных рядов. Исследовать в интересах сравнительного анализа различные подходы. Порядок выполнения работы В качестве основы для построения стационарного временного ряда выбрать модель АРСС (p, q) (4.28), коэффициенты которой {ai }, {bj } обеспечивают каузальность и обратимость моделируемому процессу yt. По формулам (4.31), (4.32) вычислить корреляционную функцию процесса yt. Задание 1. Построить оценки предсказания временного ряда на один шаг вперед по формулам (4.16), (4.17);

(4.17), (4.23);

(4.24), (4.25). Сравнить сложность получения оценок в этих трех случаях. Оценки сравнить на некотором интервале изменения t. Вычислить дисперсию ошибок предсказания на этом интервале. По формуле (4.22) определить предельную дисперсию. Проконтролировать получение этого результата при помощи первой формулы (4.23) и второй формулы (4.25). Результаты представить в виде графиков. Повторить исследования для нескольких различных вариантов наборов параметров p, q, {ai }, {bj }. При этом установить зависимость изменения качества оценок предсказания от тенденции изменения параметров модели. Задание 2. Воспользоваться формулой (4.26) для оценивания прогноза временного ряда на k шагов вперед. Определить точность передсказания на k шагов вперед по формуле (4.27). Исследовать точность предсказания в зависимости от срока предсказания k и объема выборки N, по которой производится предсказание. Результаты представить в виде графиков. Задание 3. Использовать формулы (4.29), (4.30) для получения оценок предсказания на один шаг. Для интервала значений t, использованного в задании 1, сравнить эти оценки с оценками, полученными в задании 1. Сравнить также дисперсии ошибок предсказания. Установить скорости сходимости коэффициентов, вычисляемых по формулам (4.30), (4.25), к коэффициентам {bj } модели АРСС (p, q). Повторить исследования тех же вариантов наборов параметров p, q, {ai }, {bj }. Провести сравнение. Задание 4. Использовать формулы (4.37), (4.38) для построения оценок предсказания на k шагов вперед и определения точности предсказания для различных сроков прогнозирования k и объемов выборки N. Получить приближение оценки предсказания и точности по формулам (4.39), (4.40) и установить их эффективность по сравнению с точными формулами (4.26), (4.27). Результаты представить в виде графиков. Задание 5. Исследовать качество прогнозирования процессов АР (p) с помощью формулы (4.33). Для этого выбрать модель АР (p), в которой зависимость {ai } от i обеспечивала бы каузальность модели, с одной стороны, и не очень быструю сходимость к нулю коэффициентов ai с ростом i, с другой стороны (например, указанным свойствам удовлетворяют коэффициенты ai = (a)i, где a положительное число, не превышающее единицу, но близкое к ней). Исследовать качество прогнозирования выбранного процесса АР (p) в зависимости от p и {ai }. Задание 6. Выбрать модель СС (q) с коэффициентами {bj }, обеспечивающими обратимость модели, аналогично способу определения {ai } в задании 5. Воспользоваться формулами (4.34), (4.35) для предсказания значений процесса yt, порождаемого выбранной моделью. Исследовать качество предсказания в зависимости от q и {bj }. Задание 7. Выбрать модель АРСС (1,1), каузальную и обратимую. Построить оценки предсказания по формуле (4.36) для процесса, порождаемого этой моделью. Исследовать зависимость качества предсказания от значений параметров a и b.

4.3. Построение моделей на основе предсказания Для исследования временного ряда {xt, 1 t N }, когда его математическое описание неизвестно, первоочередная задача построение математической модели процесса, порождающего этот ряд. Вначале решается задача выделения тренда (функции регрессии), которая рассматривалась в § 4.1. Важный частный случай, когда тренд является полиномом или имеет полиномиально описываемую сезонную (циклическую) составляющую, будет описан в § 4.4. Предположим, что тренд выделен и исключен из выборки, так что наблюдаемые данные представляются в виде {yt, 1 t N }, где yt = xt mt, и их можно рассматривать как некоторый стационарный процесс, который можно аппроксимировать подходящим процессом АРСС. Задача заключается в том, чтобы задать подходящий процесс АРСС. Процесс АРСС (p, q), порождаемый белым шумом, определен в (4.28). Вообще говоря, для всякого фиксированного набора {yt, 1 t N } можно подобрать такие p и q, {ai, 1 i p}, {bj, 1 j q}, что среднеквадратичное рассогласование (выборочная дисперсия белого шума) может быть сделана сколь угодно малым. В частности, если y1 = 0, то можно выбрать p = N 1, а в качестве {ai, 1 i N 1} решение уравнения Y a = y, (4.41) где a = (a1, a2,..., aN ) ;

y = (y1, y2,..., yN ) ;

Y = (Yij ) ((N 1) (N 1))-матрица с элементами Yij = yij+1, i j, Yij = 0, i < j. В этом случае выборка {yt, 1 t N } будет порождаться совершенно точно при помощи модели (4.28), когда Wj 0. Однако построенная модель будет давать большую ошибку предсказания значения yN +1 при достаточно больших N. Примем следующий принцип построения наиболее подходящих моделей для наблюдаемого множества {yt }. Предположим, что при помощи какого-либо метода оценены p, q, {i } и {j } на основе наблюдений {yt, 1 t N }. Пусть {Yt, a b 1 t N} другая выборка наблюдений этого же процесса, но независимая от {yt }, по которой вычислялись оценки параметров модели. Составим теперь по наблюдениям {Yt } и оценкам параметров, определенным по выборке, оценку предсказания YN +1. Дисперсия оценки такого предсказания и выбирается в качестве критерия согласованности полученных оценок параметров наблюдаемой модели. Оказывается, что эта дисперсия не уменьшается монотонно с ростом p и q, а принимает свое минимальное значение при некоторых p и q процесса АРСС (p, q), порождающего наблюдаемую выборку {yt, 1 t N }. Опишем вначале этот подход для частного случая процесса АР (p). Пусть {yt, 1 t N } реализация каузального процесса АР (p), определяемого коэффициентами {ai, 1 i p}, p < N ;

{Yt, 1 t N } независимая реализация того же самого процесса. Если {i, 1 i p} a оценки коэффициентов {ai }, основанные на {yt, 1 t N }, то оценка предсказания, вычисляемая по формуле (4.33), имеет дисперсию p d1 (p) = M{ Yt+ ai Yt+1j i= } = 2 + M{(((p) a(p)) Y)2 }, a где Y = (YN, YN 1,..., YN p+1 ) вектор последних p наблюдений из выборки {Yt };

a(p) = (a1, a2,..., ap ) вектор истинных значений параметров модели;

a(p) аналогичный вектор их оценок;

2 дисперсия белого шума модели АР (p). Рассматривая второе слагаемое как условное математическое ожидание при фиксированных {yt, 1 t N } и используя независимость {Yt } от {yt }, получаем d1 (p) = 2 + M{( (p) a(p)) R(p)( (p) a(p))}, a a где R(p) = (Rij (p)) (p p)-матрица корреляций Rij (p) = M{Yi Yj } = r(i j), 1 i, j N. Если в качестве a(p) выбираются оценки Юла Уолкера, то для достаточно больших N можно считать, что вектор N1/2 ((p) a(p)) распреa делен нормально с нулевым средним и матрицей ковариации R1 (p). Применив это свойство, приходим к выводу, что при достаточно больших N имеет меp сто d1 (p) 2 1 + N. Осталось оценить 2. Оценка МНК для 2, обладает = тем свойством, что при достаточно больших N отношение N 2 / 2 распределено 2 с (N p) степенями свободы. Оценка дисперсии белого приблизительно по шума имеет вид N 1 0 2 = ((yt yt )2 /D1 (t 1)). (4.42) N t= Здесь yt оценка предсказания yt, которая находится по формулам (4.25) и (4.30), где вместо параметров {ai } используются их оценки, вычисленные по наблюдениям {yt }. Суммируя все это, получаем статистику FRE = N +p N (N p) N t= (yt yt )2 0 (t 1), D (4.43) которая и принимается в качестве критерия, определяющего наиболее подходящее значение порядка p;

наиболее подходящее p минимизирует FRE (Final Prediction Error). Перейдем теперь к каузальным моделям АРСС (p, q), которые порождают процесс {yt }, описываемый уравнением (4.28). Обозначим для удобства c = = (a1,..., ap, b1,..., bq ) вектор, составленный из p + q параметров модели АРСС (p, q). Параметры p, q в этом случае будем находить не с точки зрения минимизации дисперсии оценки предсказания, а исходя из более общего требования максимизации функции правдоподобия оценки предсказания, которую можно построить для достаточно больших N, пользуясь асимптотической нормальностью распределения оценки. Это приводит к статистике AIC = N ln 1 N N t= (yt yt )2 0 (t 1) D N + t= 0 ln D1 (t 1) + 2(p + q), (4.44) где оценка предсказания yt определяется по формулам (4.29), в которых ко 0 эффициенты N,N k, дисперсии D1 (t) вычисляются с помощью (4.30), (4.25). Заметим, что (4.44) не зависит от 2. В качестве наиболее подходящих параметров p и q выбираются такие, которые минимизируют значение статистики AIC (Akaike Iformation Criterion). Практика использования AIC показала, что он имеет тенденцию переоценивать p. Для того чтобы скорректировать эту тенденцию, предлагается использовать модифицированный критерий, который для каузального обратимого процесса АРСС (p, q) с нулевым средним основан на статистике BIC = (N p q)ln N 2 N pq + (p + q)ln N r(0) N 2 p+q, (4.45) где 2 вычисляется по формуле (4.42) с учетом того, что оценка предсказания определяется по общим формулам (4.29), r(0) выборочная оценка дисперсии {yt }. Наиболее подходящими значениями параметров p и q будут такие, которые минимизируют статистику BIC (Binomial Iformation Criterion). При обработке реальных данных необходимо иметь ввиду, что подбираемая модель АРСС (p, q) служит только аппроксимацией реально существующей модели, которая вовсе не обязана относиться к классу АРСС процессов. Поэтому понятие истинных значений p и q имеет только относительный смысл. Для реального процесса может существовать несколько АРСС процессов, достаточно хорошо аппроксимирующих его. Все они могут иметь различающиеся p и q. Поэтому принято выбирать модели АРСС, для которых соответствующая статистика попадает в некоторую -окрестность минимального значения (для AIC типичное значение = 2), а окончательный выбор модели основывается на дополнительных соображениях, таких, как простота модели или “качество случайности” остатков. Из рассмотренных критериев чаще всего используется AIC. После того как описанными методами определена наиболее подходящая АРСС (p, q)-модель, с учетом ее структуры (4.28) найдем предсказанное значение yt () величины yt, основанное на предыдущих значениях {yi, 1 i t 1}, c и вычислим остатки по формуле 0 Wt = (yt yt ())/(D1 (t 1))1/2, c 1 t N.

(4.46) Если предполагаемая АРСС (p, q)-модель действительно порождает заданный процесс {yt }, то {Wt } должны образовывать процесс белого шума. При этом дисперсия Wt должна быть равна единице. Первое суждение о {Wt, 1 t N } можно получить из ее графика. Несмотря на то что трудно судить о корреляционной структуре по графику, тем не менее на нем часто хорошо просматривается отклонение от среднего значения (которым в данном случае является нуль), наличие тренда или периодической составляющей, непостоянство дисперсии (обычно выражающееся в виде нали чия некоторой модуляции процесса Wt ). Далее представляет интерес исследовать выборочную корреляционную функцию (ВКФ). Нормированные значения ВКФ вычисляются по формуле W ( ) = N t= N (Wt Wt )(Wt+ W ) = 1, 2,..., t= (Wt W )2, (4.47) 1 где W = N Wt выборочное среднее значение {Wt }. Поскольку каждое Wt t=1 определяется параметрами c, вычисляемыми на основе выборки {yt, 1 t N }, t нельзя считать, что W НОР СВ. Поэтому вид W ( ) не такой, как в случае, когда Wt являются НОР СВ. Можно уточнить поведение ( ). Для каузального обратимого процесса АРСС (p, q) введем a(z) = 1 a1 z... ap z p, b(z) = = 1 + b1 z +... + bq z q, c(z) = (a(z)b(z))1 = 1 + c1 z + c2 z 2 +... + ck z k +.... Пусть W = (W (1), W (2),..., W ( )), где фиксированное положитель ное целое число. Положим > p + q. Пусть далее C и S матрицы размером ( (p + q)) и (p + q) (p + q) соответственно с элементами C = (Cij ), Cij = cji ;

S = (Sij ), Sij = N {Y1,..., Yp+q }, где {Yt } процесс АР (p + q) с полиномом АР, равным a(z)b(z), и с дисперсией возбуждающего белого шума, равной единице. Пусть Q матрица Q = CS 1 C = Qij. Вектор N1/2 W распределен при N асимп тотически нормально с нулевым средним и матрицей ковариации (I Q), так 1 что W (i) имеет дисперсию N (1 Qii ). Исследование вектора W не совсем удобно из-за его многомерности, в то время как при принятии решений желательно работать со скалярной статистикой, которую определим выражением k= ck ck+|ij|. Заметим, что S ковариационная матрица СВ W = N W = N W t= 2 (t). W (4.48) С учетом того, что W асимптотически нормален с указанной корреляционной матрицей, статистика распределена приближенно по 2 с ( p q) степенями свободы. Поэтому при проверке адекватности модели АРСС (p, q) гипотеза адекватности отвергается, если W > 2 ( p q), 1 (4.49) где 2 (n) квантиль 2 распределения с n степенями свободы на уровне 1;

1 уровень значимости теста на адекватность. Более точные решения при отклонении неадекватных моделей получаются с помощью модифицированного теста, основанного не на корреляции остатков, а на корреляции квадратов остатков. К этому тесту приходится прибегать, потому что встречаются случаи, когда остатки некоррелированы, тогда как квадраты остатков коррелированы. Определим W W ( ) = N t=1 N 2 (Wt2 Wt2 )(Wt+ W 2 ) t= (Wt2 W 2 )2, 1, где W W ( ) 1 ВКФ квадратов остатков;

W 2 = N (4.50) N k= 2 Wk. Можно показать, что (4.51) W W = N (N + 2) t= 2 W (t)/(N 1) W имеет приближенно 2 ( )-распределение при адекватной модели. Гипотеза адекватности модели отвергается на уровне значимости, если W W > 2 ( ). 1 (4.52) Практика применения тестов, основанных на ВКФ остатков или их квадратов, показала, что эти тесты работают лучше, когда решается задача отклонения неадекватной модели. Для решения проблемы “случайности” последовательности остатков (т.е. проблемы подтверждения того, что последовательность является последовательностью НОР СВ) можно использовать и классические тесты. Анализ экстремальных точек. Рассмотрим выборку {yt, 1 t N }. Точку T назовем экстремальной, если yt1 < yt, yt > yt+1 или yt1 > yt, yt < < yt+1, 1 t N. Пусть число экстремальных точек в выборке. Если наблюдаемая последовательность выбрана из последовательности НОР СВ, то вероятность того, что точка t будет экстремальной, равна 2/3, 1 t N. Поэтому среднее значение и дисперсия числа вычисляются соответственно по формулам µ = M{ } = 2(N 3)/3;

D = M{( µ )2 } = (16N 29)/90.

Большое отклонение | µ | от нуля свидетельствует о том, что выборка имеет свойства, отличающиеся от свойств последовательности НОР СВ. Случайная величина асимптотически нормальна. На этом основании можно построить тест: если (| µ |/ Dt ) > 1/2, то гипотеза о том, что последовательность {y1,..., yN } является последовательностью НОР СВ, отвергается на уровне значимости. Здесь 1/2 (1 /2)-квантиль стандартного нормального распределения. Анализ знаков разностей. При использовании этого теста определяется количество t, таких, что yt > yt1, 2 t N. Обозначим число данных t через s. Если {yt } является выборкой из последовательности НОР СВ, то среднее значение и дисперсия s вычисляются по формулам µs = M{s} = (N 1)/2, Ds = M{(sµs )2 } = (N +1)/12. Так же, как в предыдущем случае, s асимптотически нормально распределено. Сильное отклонение |c µs | от нуля говорит о том, что выборка {yt } скорее всего не соответствует НОР СВ, а имеет тренд. На этом основании гипотеза о том, что {yt } выбирается из последовательности НОР СВ, на уровне значимости должна отвергаться, если (|s µs |/ Ds ) > 1/2. Ранговый тест. Ранговый тест полезен на практике для обнаружения линейного тренда в выборке. Определим P как число пар (i, j), таких, что yj > yi, j > i, 1 i N 1. Полное число пар (i, j), таких, что j > i, равно N (N 1)/2. И для каждой пары НОР СВ yi, yj событие {yj > yi } имеет вероятность 1/2. Среднее значение и дисперсия P определяются формулами µp = M{P } = N (N 1)/4;

Dp = M{(P µp )2 } = N (N 1)(2N + 5)/8.

Величина P, как и предыдущие, асимптотически нормальна, поэтому для достаточно больших N гипотеза о выборке из последовательности НОР СВ отвергается на уровне значимости, если (|P µp |/ Dp ) > 1/2. Лабораторная работа 15. Определение параметров моделей АРСС (p, q) на основе предсказания Цель работы. Исследовать критерии FRE, AIC и BIC, определить порядки p, q моделей АРСС (p, q) с использованием оценок предсказания. Порядок выполнения работы Задание 1. Произвести моделирование некоторого процесса АРСС (p, q). Используя уравнение (4.41), убедиться, что для всякого N всегда найдется набор коэффициентов {ai, 1 i N 1}, который дает аппроксимацию исследуемого процесса как процесса типа АР (N 1). Убедиться также, что предсказание значения процесса yN +1 производится с ошибкой. Исследовать значение этой ошибки в зависимости от N. Обратить внимание, как изменяются параметры {ai } с изменением N. Задание 2. Произвести моделирование некоторого процесса АР (p0 ). По выборке наблюдений {yt, 1 t N } оценить параметры {ai }, полагая параметр p различным (2 p p0 + 2). Для каждого из значений p построить значения статистик FRE, AIC и BIC по формулам (4.43) (4.45). В двух последних случаях исследуемый процесс рассматривать как АРСС (p, 0). Оценить дисперсию белого шума по формуле (4.42). Убедиться, что оценка дисперсии монотонно уменьшается с ростом p. При помощи критериев FRE, AIC, BIC принять решение о порядке p модели исследуемого процесса. Задание 3. Произвести моделирование некоторого процесса АРСС (p0, q0 ). По выборке наблюдений {yt, 1 t N }, придав различные значения парам (p, q), построить оценки параметров {ai }, {bj } исследуемого процесса. Область возможных значений пар (p, q) желательно определить как множество {(p, q) | 0 p p0 + 2, 0 q q0 + 2}. Для каждой пары (p, q) вычислить значения статистик AIC и BIC по формулам (4.44), (4.45). Сравнить правильность решений относительно порядков p, q, основанных на рассмотренных критериях. Лабораторная работа 16. Исследование остаточных разностей в процессе построения моделей временного ряда Цель работы. Построить различные критерии “белошумности” остаточных разностей, получаемых в процессе идентификации временного ряда. Произвести их сравнительный анализ. Порядок выполнения работы Продолжить исследования временного ряда, начатые при выполнении задания 3 лабораторной работы 15. Исходным материалом здесь служат выборка {yt, 1 t N }, полученная при выполнении указанного задания, и решение p о модели АРСС (, q ), которое было там принято. На основании этих данных строится выборка нормированных остаточных разностей с помощью формулы (4.46). Задание 1. Построить график Wt, 1 t N. Проанализировать его на предмет наличия систематического тренда, периодической составляющей и непостоянства дисперсий. Задание 2. Построить выборочную КФ W процесса остаточных разностей Wt по формуле (4.47). Основываясь на модели АРСС (p, q), найти параметры асимптотического распределения вероятностей значений W ( ). Построить до верительные интервалы для этих значений на некотором уровне значимости. Результат представить в виде графика функции W ( ) и границ доверительных интервалов и проанализировать его. Использовать критерии (4.48), (4.49) для решения вопроса об адекватности модели АРСС (p, q). Выполнить это задание также для истинной модели АРСС (p0, q0 ). Сравнить результаты. Задание 3. Построить выборочную КФ W W ( ) квадратов остаточных раз ностей по формуле (4.50). Представить ее на графике. Сравнить с графиком для W ( ). Использовать критерий (4.51), (4.52) для решения вопроса об адекват ности модели АРСС (p, q). Задание 4. Исследовать выборку остатков {Wt } по критерию экстремальных точек. Задание 5. Исследовать выборку остатков {Wt } по критерию знаков разностей. Задание 6. Использовать ранговый тест для исследования качества случай ной выборочной последовательности остаточных разностей {Wt }.

4.4. Прогнозирование нестационарных случайных процессов, построенных на основе АРСС В предыдущих главах и параграфах подробно описаны методы анализа класса ССП, объединенных моделями АРСС (p, q). Эти методы оказались настолько привлекательными, что появилось стремление распространить их на какие-либо нестационарные процессы. Оказалось, что это можно сделать для процессов с полиномиальным трендом. Процессы АРСС (p, q) определяются соотношением p q yt = i= ai yti + j= bj Wtj, (4.53) где Wj процесс белого шума с дисперсией 2. Пусть a(z) = 1 a1 z a2 z 2...... ap z p, b(z) = b0 + b1 z +... + bq z q. Если полиномы a(z) и b(z) не имеют общих корней, а все корни полинома a(z) лежат за пределами единичного круга, процесс называется каузальным. Пусть d положительное целое число и p+d a(z) = a(z)(1 z)d = Процесс xt, задаваемый соотношением p+d ai z i, i= a0 = 1.

(4.54) q xt = i= ai xti + j= bj Wtj, (4.55) называется процессом типа проинтегрированной авторегрессии скользящего a среднего (ПАРСС) (p, d, q), если в (4.55) коэффициенты {i } определяются соотношением (4.54), в котором полином a(z) не имеет корней внутри или на границе единичного круга. Таким образом, полином a(z) имеет корень z = 1 кратности d, а остальные его корни лежат вне единичного круга. Другими словами, введем разности xt = xt xt1, 2 xt = xt xt1,..., d xt = = d1 xt d1 xt1, назвав d xt d-кратной разностью xt. Тогда xt является процессом ПАРСС (p, d, q), если его кратные разности образуют каузальный процесс АРСС (p, q). Можно представить d-кратные разности xt в виде d d xt = k= (1)k d xtk = yt. k Так что если yt, определяемый этим разностным соотношением, является каузальным процессом АРСС (p, q), то процесс xt относится к классу ПАРСС (p, d, q). Процессы ПАРСС не обязательно стационарные. Более того, типичный представитель процесса ПАРСС (p, d, q) случайный процесс с полиномиальным трендом. Действительно, пусть xt = (1) (1) xt + (2) xt, (1) xt d = k= ck tk1.

(4.56) Определим d xt. Имеем xt равенства xt (1) (1) (1) = 0, если d = 1 и для d > 1 выполняются (1) d1 k= = xt xt1 = ck+1 (tk (t 1)k ) = d d = l= t l k=l+ ck+ k (1)kl l.

Здесь скобка k l означает биномиальный коэффициент. Обозначив cl (1) d = (1)kl ck+ k=l+ k, l запишем разность (1) xt = (1) xt (1) xt d = l= cl t l, (1) d 2.

(4.57) Вообще, если cl (i+1) di = k=l+ (1)kl ck+ di (i) k l, то 1 i d 1. (4.58) (1) (i) xt (1) = l= cl t l, (i) Таким образом, для любого и любого набора коэффициентов {ck } d xt = 0. (1) Отсюда следует, что если в (4.56) компонента xt является полиномом степени (1) (d 1), то d xt = 0 и d-кратная разность процесса xt не зависит от компонен(1) (2) ты xt. Если d xt = d xt случайный процесс типа АРСС (p, q), то (4.58) нестационарный случайный процесс ПАРСС (p, d, q), обладающий полиномиальным трендом. Обратимся теперь к проблеме предсказания значений процесса xt. Пусть {yt } процесс АРСС (p, q), определяемый (4.53). Тогда процесс xt, являющийся процессом ПАРСС (p, d, q), можно представить в виде разностного уравнения d xt = yt так как (i) xt = i k= k= d (1)k xtk, k t = 1, 2,..., (4.59) i k k (1) xtk. Из (4.59) видно, что значения процесса yt можно однозначно определить по наблюдениям {xtk, 0 k d}. Прогнозирование процессов АРСС (p, q) подробно рассмотрено в § 4.2. Используя этот факт, будем строить процедуру прогнозирования процесса xt с целью определения оценки предсказания значения xN +, основывающейся на наблюдениях {x1d, x2d,..., xN }. Для удобства здесь устанавливаем объем выбор( ) ( ) ки N + d. Пусть xt+, yt+ наилучшие в среднеквадратичном смысле линейные оценки предсказания значений xt+ и yt+ соответственно по выборке {x1d, x2d,..., xt }. Основываясь на (4.59) и свойствах оптимальных линейных оценок, получаем xN + = yN + (1) ( ) ( ) d k= d ( k) (1)k xtk+ ;

k (1) (4.60) (4.61) xt+1 xt+1 = yt+1 yt+1, ( ) t 0.

Естественно, в (4.8) предполагается, что xt+ = xt+, если 0. Кроме того, значения yt, t > 0 не коррелированы с начальными значениями процесса xt, т.е. с вектором (x1d, x2d,..., x0 ). ( ) Используя выражение (4.37) для оценки предсказания yN + и учитывая (4.61), получаем p q yN + = i= ( ) ai yN + i + ( i) j= N + j,j (xN + j xN + j ), (1) (4.62) где второе слагаемое обращается в нуль для > q. Наконец, по аналогии с (4.60) имеем p+d i=1 q ( ) xN + = ( i) ai xN + i + j= N + 1,j (xN + j xN + j ).

(1) (4.63) Коэффициенты ai определены в (4.54). Коэффициенты i,j заданы формулами (4.25), (4.30). Дисперсия построеноой оценки предсказания процесса xt на шагов вперед по выборке {x1d, x2d,..., xN }, которая является наилучшей в среднеквадратичном смысле линейной оценкой, определяется соотношением D (N ) = M{(xN + xN + ( ) )2 } = = 1 j=0 j r=0 r N + r1,jr DM (N + j), (4.64) где D1 (k) дисперсия предсказания на один шаг по k наблюдениям для процесса yt, которая вычисляется по формуле (4.27). Коэффициент k0 = 1, а r находятся из равенства (z) = r=0 p+d r z = r ak z k= k, |z| < 1.

Они могут быть вычислены рекуррентно по формулам min(p+d,r) 0 = 1;

r = j= aj rj, r = 1, 2,...,.

Если процесс {yt } не только каузальный, но и обратимый, для достаточно больших N оценку (4.63) можно выразить в приближенном виде с учетом того, что при N коэффициенты N,j bj, 1 j q. Кроме того, D1 (N ) 2. Поэтому дисперсия D (N ), определяемая по (4.64), будет иметь асимптотику D = lim D (N ) = 1 j=0 2 j, N (4.65) где коэффициенты j удовлетворяют равенствам (z) = j= j z j = ((x))1 b(z), a |z| < 1, а полиномы a(z) и b(z) определены в (4.53) и (4.54). Рассмотрим процесс ПАРСС (1,2,1). В этом случае (4.55) превращается в уравнение xt = (2 + a)xt1 (1 + 2a)xt2 + axt3 + Wt + bWt1, t 1. (4.66) Для удобства здесь обозначены a1 = a, b0 = 1, b1 = b, без потери общности. Начальные значения x1, x0 предполагаются некоррелированными с АРСС (1,1) процессом yt = xt 2xt1 + xt2. Из § 4.2 имеем yN +1 = ayN + N 1 (yN yN ), yN + = aN + 1 = a 1 yN +1, y Поэтому xN +1 = (2 + a)xN (1 + 2a)xN 1 + axN 3 + N,1 (xN xN ), x x x xN + = (2 + a)N + 1 (1 + 2a)N + 2 + aN + 3, ( ) ( 1) ( 2) ( 3) (1) (1) ( ) ( 1) (1) (1) (1) | | > 1.

> 1.

(4.67) Зафиксируем N и рассмотрим последовательность {g, = 1, 2,...}, где g = = x +. Очевидно, что g удовлетворяет разностному уравнению N g (2 + a)g 1 + (1 + 2a)g 2 ag 3 = (1) (4.68) с начальными условиями g1 = xN 1, g0 = xN, g1 = xN =1. Решение разностного уравнения (4.68) получим в виде g = h0 + h1 + h2 a, в котором h0, h1, h2 не зависящие от величины, задаваемые начальными условиями. Таким образом, для всякого фиксированного N, последовательно вычислив g, можно определить необходимое количество предсказанных значений по выборке {x1,..., xN }. ( ) В общем случае произвольного процесса ПАРСС (p, d, q) функция g = xN + удовлетворяет разностному уравнению порядка (p + d) p+d g k= ak g k = 0, > q, (4.69) с начальными условиями g = xN +, = q, q 1,..., q + 1 p d. Решение (4.69) может быть записано для d 1 в виде d1 p ( ) g = i= Gi i + j= Hj A, j > q, (4.70) обратные значения корней полинома a(z), а не зависящие от велигде Aj чины {Gi, 0 i d 1} и {Hj, 1 j p} определяются из начальных условий. Величины g являются значениями оценок предсказания процесса на шагов вперед по выборке {x1, x2,..., xN }. Таким образом, оценки предсказания значений процесса xt могут последовательно находиться по формуле (4.63), точность этих оценок определяется по формуле (4.64), а вычисления по формуле (4.70) позволяют найти оценки для различных сроков прогнозирования. Как правило, полиномиальные тренды используются для описания таких процессов, математические ожидания которых имеют тенденцию к монотонному изменению. Вместе с тем при описании экономических процессов или процессов протекающих в природе, часто встречаются временные ряды, математические ожидания которых периодически изменяются с ростом параметра (сезонные компоненты временного ряда). Процессы такого типа также могут быть описаны с использованием техники исследования процессов АРСС. Предположим, что некоторый процесс xt обладает упомянутыми свойствами, которые формально можно интерпретировать следующим образом. Будем считать, что значения процесса xt представлены в виде таблицы, содержащей столбцы по s строк, причем последовательными значениями процесса заполняется сначала первый столбец, затем второй и т.д.: x1 x1+s x2 x2+s...... xs x2s x1+2s x2+2s... x3s... x1+ns... x2+ns......... x(1+n)s............

Пусть значения процесса xt, попадающие в одну строку, образуют некоторый процесс ПАРСС. Причем параметры этих процессов ПАРСС для различных строк одинаковы. Построим аналитическую модель такого процесса. Определим по аналогии с рассмотренными d-кратными разностями процесса xt “разности процесса xt с циклом s” s-циклические разности процесса xt соотношением s xt 1 xt = s = xt xts. Двукратные s-циклические разности 2 xt = 1 xt 1 xts. s s s D1 D1 И вообще, D-кратные s-циклические разности D xt = s xt s xts. s В явной форме D-кратная s-циклическая разность вычисляется по формуле D D xt s = l= (1)l D xtsl l (4.71) с использованием (D + 1) значений процесса xt, взятых через интервал (цикл) длиной s. Понятно, что если s = 1, то циклические разности полностью совпадают с обычными разностями, а рассмотренная таблица значений процесса xt состоит из одной строки. Перейдем теперь к обычным разностям s-циклических разностей процесса xt. Первая разность D-кратных s-циклических разностей 1 (D xt ) = D xt s s D xt1. Вторая разность D-кратных s-циклических разностей 2 (D xt ) = s s = 1 (D xt ) 1 (D xt1 ). Вообще, d-кратная разность D-кратных s-цикличесs s ких разностей (4.72) d (D xt ) = d1 (D xt ) d1 (D xt1 ). s s s В явной аналитической форме эта разность выглядит следующим образом:

d D d (D xt ) s = k=0 l= (1)l+k d k D xtksl. l (4.73) Пусть d и D целые неотрицательные числа. Будем называть СП xt сезонным процессом ПАРСС (p, d, q) (P, D, Q)s с периодом s, если d-кратные разности D-кратных s-циклических разностей этого процесса образуют каузальный процесс АРСС (p + sP, q + Qs). Формальное аналитическое описание такого процесса сводится к следующему. Обозначим через yt процесс, образуемый d-кратными разностями D-кратных s-циклических разностей процесса xt, т.е. из (4.73) имеем d D yt = k=0 l= (1)l+k d k D xtksl, l t = 1, 2,...

.

(4.74) В свою очередь, процесс yt порождается разностным уравнением p+sP q+sQ yt = i= Ai yti + j= Bj Wtj, t = 1, 2,..., (4.75) где {Wt } процесс белого шума с дисперсией 2, а коэффициенты Ai и Bj находятся, исходя из следующих соображений. Определим полиномы p p a(z) = 1 b(z) = 1 + ai z, i=1 q i A(z) = 1 B(z) = 1 + Ai z i, i=1 Q bj z j, j= Bj z j.

j= (4.76) Коэффициенты Ai и Bj вычисляются из равенств p+P s A(z) = a(z)A(z s ) = 1 B(z) = b(z)B(z s ) = 1 + Ai z i ;

i=1 q+Qs Bj z j.

j= (4.77) Для каузальности процесса yt, определяемого (4.75) (4.77), необходимо и достаточно, чтобы a(z) = 0 и A(z) = 0 для всех |z| 1. Таким образом, сезонный ПАРСС (или СПАРСС) это такой процесс xt, значения которого связаны соотношением (4.74) со значениями каузального процесса yt. Для СПАРСС, встречающихся в практических задачах, D редко бывает больше единицы, а P и Q чаще всего меньше трех. Комбинация обычных и s-циклических разностей процесса xt значительно усложняет структуру корреляционных зависимостей процессов СПАРСС, хотя анализ этих процессов может быть представлен как совокупность некоторых фрагментов, каждый из которых используется для анализа менее сложных, чем СПАРСС, процессов. В связи с этим не будем подробно описывать весь анализ, а только перечислим основные его этапы с краткими комментариями. Первый этап определение таких величин d и D, которые обеспечивают стационарность последовательности yt, задаваемой формулой (4.74), по выборочным значениям наблюдаемого временного ряда. Параметр s обычно полагается известным, так как в приложениях СПАРСС описывают данные с годовым или дневным циклом. Второй этап определение P и Q, когда исследуются последовательности выборочных данных, выбираемых через сезонный цикл {xj+st, t = 0, 1,...}. Пусть y ( ) нормированная выборочная корреляционная функция процесса 1 N N t=1 1 N y ( ) = (yt y )(yt+ y ) N t=, y= (yt y ) 1 N N yt.

t= Тогда P и Q должны быть выбраны таким образом, чтобы y (ks), k = 1, 2,..., рассматриваемая как функция k, была совместима с корреляционной функцией процесса АРСС (P, Q). Затем фиксируются параметры p и q из расчета, чтобы y (1), y (2),..., y (s 1) соответствовали корреляционной функции процесса АРСС (p, q). Окончательное решение относительно параметров P, Q, p и q принимается с использованием AIC и критериев “белошумности” остатков, описанных в § 4.3. Следует заметить, что при определенном сочетании параметров P, Q, p, q и s от дельные коэффициенты Ai и Bj должны быть нулевыми. В этом случае последнее слагаемое в (4.44) надо заменить на 2m, где m число нулевых параметров модели (4.75). Для фиксированных значений параметров p,d,q,P,D,Q,s соответствующие наборы коэффициентов {ai }, {bj }, {Ai }, {Bj } определяются по выборке наблюдений с использованием методов, изложенных в гл.3. Метод прогнозирования, описанный для процесса ПАРСС, может быть использован также при нахождении оценок предсказания значений процесса СПАРСС. Для построенной модели процесса СПАРСС сначала предсказываются значения процесса АРСС (p + P s, q + Qs), описываемого уравнением (4.75). Затем на основе (4.74) и (4.60) записывают соотношение ( ) xN + = ( ) yN + d D (1)l+k k=0 l= d k D ( k) xtksl+, l (4.78) которое рекуррентно определяет оптимальные оценки предсказания значений процесса СПАРСС на шагов вперед. Дисперсия ошибки предсказания значений процесса СПАРСС на шагов вперед вычисляется по формуле, аналогичной формуле (4.64). Если процесс, описываемый формулой (4.75), является не только каузальным, но и обратимым, при достаточно больших N дисперсия ошибки предсказания процесса СПАРСС на шагов вперед может приближенно вычисляться по формуле D (N ) = 1 j=0 2 j, (4.79) где 2 дисперсия белого шума Wt в (4.75), а коэффициенты j определяются из равенства j= j z j = b(z)B(z s ), a(z)A(z s )(1 z)d (1 z s )D |z| < 1.

(4.80) Лабораторная работа 17. Прогнозирование процессов, порождаемых моделью ПАРСС (p, d, q) Цель работы. Ознакомиться с моделью ПАРСС и методами исследования процессов, порождаемых этой моделью. Построение прогноза значений процессов ПАРСС (p, d, q). Порядок выполнения работы Выберем параметры p, q, {ai, 1 i p}, {bj, 0 j q} таким образом, чтобы они определяли каузальный и обратимый процесс АРСС (p, q). На основе этого выбора и выбора положительного числа d построим процесс ПАРСС (p, d, q) в соответствии с формулой (4.55). При моделировании данного процесса необходимо задать соответствующие начальные условия, которые находятся следующим образом. Пусть в качестве полиномиального тренда выбран полином c(t) = c0 + c1 t + c2 t2 +... + cd1 td1. В качестве начальных условий выбирается d значений xt, определяемых равенствами xt = c(t), t = 1 d, 2 d,..., 1, 0. Использование этих значений в совокупности с (4.55) позволяет произвести моделирование процесса ПАРСС (p, d, q) с трендом в виде полинома c(t). Задание 1. Получить выборку {xt, 1 t N } процесса ПАРСС (p, d, q) с полиномиальным трендом. По формулам (4.63) произвести рекуррентное прогнозирование исследуемого процесса. Определить дисперсию ошибок такого прогноза при помощи формулы (4.64). Рассмотреть асимптотику этой дисперсии в виде (4.65) и установить быстроту сходимости (4.64) к (4.65). Использовать для построения прогноза функцию g, определяемую из (4.69), (4.70). Сравнить этот подход, используя формулу (4.63). Задание 2. Рассмотреть случай процесса ПАРСС (1,2,1), определяемого (4.66). При моделировании этого процесса использовать требования к нахождению начальных условий, сформулированные выше. При помощи (4.67) и (4.68) осуществить прогноз изучаемого процесса. На основе асимптотической дисперсии ошибок предсказания исследовать качество предсказания в зависимости от значений параметров a и b модели ПАРСС (1,2,1). Лабораторная работа 18. Исследование процессов, порождаемых моделью СПАРСС (p, d, q) (P, D, Q)s Цель работы. Ознакомиться с классом процессов с наличием полиномиального тренда и циклической составляющей сезонными моделями, построенными на основе АРСС (p, q). Произвести построение модели, осуществить моделирование, по выборке наблюдений найти параметры модели и осуществить прогноз. Порядок выполнения работы Задать параметры p, d, q, P, D, Q, s модели СПАРСС, а также коэффициенты полиномов (4.76). Коэффициенты следует задавать таким образом, чтобы процессы АРСС (p, q) и АРСС (P, Q) были каузальными и обратимыми. Для того чтобы модель была не очень сложной, рекомендуется выбрать D = 1, P < 3, Q < 3, а один из параметров p, q положить равным нулю. Для выбранных значений параметров построить полиномы (4.77) и разностное уравнение (4.75). Задать соответствующее количество начальных условий. Задание 1. Провести моделирование процесса для выбранной модели с таким расчетом, чтобы в выборке {xt, 1 t N } было не менее 10 сезонных циклов. Построить график реализации и визуально убедиться, что процесс имеет сезонную компоненту. Моделирование процесса xt осуществить следующим образом. Вначале при помощи разностного уравнения (4.75) моделируется процесс {yt, 1 t N }. Переписать (4.74) в виде d yt = k= (1)k d xtk + k d D (1)l+k k=0 l= d k D xtksl l и далее d xt = yt (1) k= k d xtk + k d D (1)l+k k=0 l= d k D xtksl. l (4.81) Эта формула позволит по прошлым значениям {xj, t 1 j t d Ds} и значению yt определить xt. Отсюда видно, что для получения реализации процесса xt необходимо иметь (d + Ds) начальных значений. Задание 2. Согласно этапам, описанным в § 4.4, оценить параметры наблюдаемого процесса. Построить прогноз для процесса yt в соответствии с подходами, описанными в § 4.2. А затем при помощи (4.78) с учетом (4.81) построить прогноз процесса xt. Определить дисперсию ошибки данного прогноза по формуле (4.64). Вычислить асимптотическое приближение этой дисперсии, выражаемое формулой (4.79). Рекуррентно вычисленный прогноз процесса xt вместе с истинными значениями данного процесса представить на графике.

4.5. Калмановская фильтрация и прогнозирование До сих пор, когда говорилось о тренде временного ряда, предполагалось, что он является некоторой заданной функцией mt (или st, если речь шла о сезонной компоненте). Вместе с тем более реалистичная постановка задачи следующая: тренд (включая сезонную составляющую) возникает в темпе текущего времени синхронно с наблюдениями временного ряда и может сам изменяться случайным образом. Поэтому будем предполагать, что существует некоторое разностное уравнение, определяющее тренд, уравнение тренда mt+1 = Ft mt + Vt+1, t = 0, 1, 2,.... (4.82) Здесь в качестве тренда будем рассматривать вектор mt = (mt1, mt2,..., mtn ), поскольку аналитическая запись результатов для векторного тренда практически нисколько не усложняется по сравнению со скалярным случаем, а охват математических моделей значительно более широкий. Соответствующие результаты для скалярного тренда получаются, если в формулах положить n = 1. В (4.82) Ft известная (nn)-матрица, а Vt = (Vt1,..., Vtn ) векторный процесс белого шума, т.е. последовательность случайных векторов со свойствами M{Vt } = 0, Qt M{Vt Vj } = 0 для всех t = j, M{Vt Vt } = Q, (4.83) (n n)-матрица ковариаций компонент вектора Vt. Кроме уравнения тренда, имеется уравнение наблюдений многомерного временного ряда xt = Ht mt + Wt, t = 1, 2,..., (4.84) где xt = (xt1, xt2,..., xtm ) вектор выборочных значений наблюдений временного ряда;

Ht известная (m n)-матрица;

Wt = (Wt1, Wt2,..., Wtm ) вектор белого шума, для которого аналогично (4.83) имеем M{Wt } = 0, M{Wt Wt } = Rt, M{Wt Wj } = 0 для всех t = j, (4.85) Rt (m m)-матрица ковариаций компонент вектора Wt. Обычно также предполагается, что M{m0 Vt } = 0, M{Wt Vt } = M{Wt Vj } = 0 для любых t и j.

(4.86) При таком описании данных представляют интерес две задачи. Задача фильтрации: основываясь на наблюдениях {x1, x2,..., xN }, построить оценку значения тренда mN. Задача предсказания: основываясь на наблюдениях {x1, x2,..., xN }, построить оценку значения тренда mN +, 1. При этом указанные оценки должны быть оптимальными в том смысле, чтобы обеспечивать минимальное значение дисперсии ошибки соответствующего оценивания. Принципиальные вопросы построения таких оценок были разработаны в классических трудах А.Н.Колмогорова и Н.Винера. Однако Р.Калманом были предложены эквивалентные оценки в рекуррентной форме, удобные в вычислительном отношении. Поэтому здесь будут описаны именно эти оценки. Оптимальная в среднеквадратичном смысле линейная оценка предсказания mN +1 определяется следующими рекуррентными соотношениями: m1 = F0 M{m0 }, mN +1 = FN mN + KN (xN HN mN ), (4.87) где коэффициент усиления Калмана KN (n m)-матрица, вычисляемая по формуле KN = FN N HN (HN N HN + RN )1. (4.88) Здесь N (n n)-матрица корреляции ошибок предсказания, в свою очередь, задаваемая рекуррентно по формулам N +1 = (FN KN HN )N (FN KN HN ) + QN +1 + KN RN KN ;

1 = F0 0 F0 + Q1, 0 = M{(m0 M{m0 })(m0 M{m0 }) }.

(4.89) Оптимальная в среднеквадратичном смысле линейная оценка фильтрации mN определяется следующими соотношениями: mN = mN + KN (xN HN mN ), где (n m)-матрица KN находится по формуле KN = N HN (HN N HN + RN )1, N = 1, 2,..., (4.90) (4.91) а корреляционная матрица ошибок фильтрации N = M{(mN mN )(mN mN ) } определяется по формуле N = (I KN HN )N, (4.92) единичная матрица. где I Сравнение формул (4.87) (4.92) позволяет заключить, что оценки предсказания и фильтрации и корреляционные матрицы ошибок предсказания и фильтрации связаны простыми соотношениями: mN +1 = FN mN, N = 1, 2,... ;

(4.93) (4.94) N +1 = QN +1 + FN N FN.

Это позволяет наиболее рационально построить процесс последовательного вычисления оценок предсказания и фильтрации. Э т а п 1. Определяется mt по (4.93) (для t = 1 по (4.87)). Э т а п 2. Определяется t по (4.94) (для t = 1 по (4.89)). Э т а п 3. Определяется Kt по (4.91). Э т а п 4. Определяется mt по (4.90). Э т а п 5. Определяется t по (4.92). После каждой итерации значение индекса t увеличивается на единицу и процедура повторяется. Заметим, что для определения корреляционных свойств (и, в частности, дисперсий) оценок нет необходимости использовать этапы 1 и 4, на которых подсчитываются сами оценки. Добавим, что оценки фильтрации и предсказания с ростом N модернизируются в зависимости от самих выборочных значений xN. Причем при определении очередной оценки требуется использовать только одну последнюю инновацию. Временной ряд, заданный уравнениями (4.92), (4.93), является более общим описанием процессов типа АРСС. Покажем это. Пусть yt процесс АРСС (p, q), описываемый уравнениями (4.28). Представим его в более удобной форме n yt = j= (aj ytj + bj1 Wt+1j ), (4.95) где n = max{p, 1 + q};

ai = 0, i > p;

bi = 0, i > q. Определим вектор mt = (mt1,..., mtn ) с компонентами mtj = yti+1 ;

F (n n)-матрица с элементами Tij = bj 1j ;

vt вектор с компонентами vtj = = Wt+1j, 1 j n. Составим векторное равенство mt+1 = F mt + T vt+1. (4.96) В этом равенстве первая компонента полностью совпадает с уравнением (4.95), а остальные компоненты являются тождествами yti+1 yti+1, 2 i n. Сравнивая (4.96) с (4.82), убеждаемся в том, что уравнение (4.92) в частном случае, когда Ft = F, Vt = T vt, приобретает вид (4.96). Причем матрица Q = = M{Vt Vt } = 2 TT. Она не меняется с возрастанием t и имеет единственный ненулевой элемент Q11 = q j= b2. j Далее, если мы определим (1 n)-матрицу Ht = (1 0 0... 0) и Wt = 0, то уравнение (4.84) вырождается в уравнение наблюдения временного ряда xt = mt с нулевыми ошибками наблюдения. Таким образом, уравнение процесса АРСС (p, q) является частным случаем уравнений (4.82) (4.84). Поэтому полученные в § 4.1 4.4 уравнения оценки предсказания процесса авторегрессии могут быть выражены в форме (4.90) (4.94). Калмановские оценки фильтрации и прогнозирования довольно просты и удобны для организации вычислений. Однако их практическое использование показало, что может возникнуть неустойчивость при определении оценок и процесс оценивания может расходиться. Это возникает тогда, когда параметры уравнений (4.82) (4.85) известны неточно. Такая ситуация возникает, когда предсказанию процесса предшествует этап оценивания неизвестных параметров модели временного ряда и в дальнейшем используются не точные значения параметров уравнений (4.82) (4.85), а их выборочные оценки. В результате такой неточности оценка вычисляется неверно, эти ошибки накапливаются, и оценки могут отличаться очень сильно. Проблема становится особенно острой, когда член, соответствующий шуму, в уравнениях системы мал. Тогда малы ковариации ошибок и коэффициент усиления Калмана, а последующие наблюдения незначительно влияют на оценивание. При практических применениях расходимость проявляет себя через обновление. В результате оценка больше не оптимальная, матрица t не является мерой дисперсии ошибок оценивания, и ошибка (mt mt ) систематически увеличивается с ростом t. Один из способов борьбы с расходимостью оценки состоит в модификации уравнений оценки таким образом, чтобы более свежие наблюдения имели большее влияние на оценки, а воздействие старых наблюдений постепенно уменьшалось. Этого можно достичь использованием весов i к наблюдениям yti, таких, что i монотонно уменьшается с ростом i. Наиболее удобными являются веса степенного вида i, 0 < < 1. В случае применения весов уравнения (4.91) и (4.92), определяющие коэффициент усиления и матрицу ковариации оценок фильтрации, заменяются на следующие:

KN = N HN (HN N HN + RN )1, (4.97) (4.98) Остальные уравнения остаются без изменения. Если в (4.97), (4.98) положить = 1, то эти формулы превращаются в (4.89), (4.91). Каких-либо конкретных указаний выбора сформулировать не удается, так как расходимость оценок зависит от соотношения параметров уравнений (4.82), (4.84), а также от тех неточностей, которые допущены при оценивании этих параметров. Лабораторная работа 19. Калмановская фильтрация и прогнозирование Цель работы. Освоить технику вычисления оценок фильтрации и оценок предсказания при помощи рекуррентных процедур Калмана. Изучить проблему устранения расходимости рекуррентных оценок Калмана. Порядок выполнения работы Задание 1. Выбрать какую-либо модель ПАРСС (p, d, q), желательно уже исследованную ранее при выполнении лабораторной работы 17. Построить для нее разностные векторно-матричные уравнения (4.82) (4.84). Задать ненулевой шум наблюдения в уравнении (4.84). При помощи моделирования в соответствии с этими уравнениями получить реализацию процесса xt. Сравнить эту реализацию с реализацией процесса из лабораторной работы 17. Изобразить обе реализации на графике. Установить, насколько сильно искажает шум наблюдения исследуемый процесс. По формулам (4.87) (4.94) построить оценки фильтрации и прогнозирования исследуемого процесса, имея в виду первую компоненту вектора mt. Вычислить точность предсказания процесса и сравнить эту точность с точностью предсказания, полученной при выполнении лабораторной работы 17. Объяснить различие в этих результатах. Задание 2. Выбрать произвольные матрицы Ft и Ht в уравнениях (4.82), (4.84). Задать положительно определенные матрицы Rt, Qt. (Для простоты исследования матрицы можно выбирать не зависящими от t.) Получить реализацию процессов. Построить оценки предсказания и фильтрации. Затем исказить одну из матриц F, H, R, Q и с использованием этой матрицы построить снова оценки предсказания и фильтрации процесса. (При искажении матриц R и Q необходимо это делать так, чтобы искаженные матрицы оставались положительно определенными.) Установить расходимость оценок. Исследовать, к какой расходимости приводит искажение той или иной матрицы. Использовать формулы (4.97), (4.98) с целью устранения расходимости. Исследовать влияние величины параметра в формулах (4.97), (4.98) на качество устранения расходимости и на качество оценивания и предсказания. Исследования иллюстрировать графиками. N = (I KN HN )N, Глава СПЕКТРАЛЬНЫЙ АНАЛИЗ ВРЕМЕННЫХ РЯДОВ 5.1. Спектральные представления СП и оценивание спектральных плотностей Для любого стационарного СП (ССП) {xt, t = 0, ±1, ±2,...} можно построить процесс {yt, t = 0, ±1, ±2,...}, определяемый представлением n yt = m + j= (Aj cos j t + Bj sin j t), t = 0, ±1,..., (5.1) где m = M{xt };

{Aj }, {Bj } СВ со свойствами M{Aj } = M{Bj } = 0;

2 2 M{A2 } = M{Bj } = j ;

M{Aj Bj } = 0 для любых j, 1 j n;

j принимаj ют значения на отрезке [0, ]. АКФ процесса {yt } при помощи соответствую2 щего выбора {j, 1 j N } может хорошо аппроксимировать АКФ процесса {xt }. Выбрав n достаточно большим, можно получить сколь угодно хорошую аппроксимацию исходного процесса и его АКФ. Такая декомпозиция ССП в сумму гармонических составляющих с некоррелированными случайными коэффициентами соответствует спектральному представлению ССП, рассматривавшемуся в гл.1. Декомпозиция ССП влечет за собой и декомпозицию АКФ этого ССП. Анализ ССП при помощи их спектральных представлений часто называется анализом в “частотной области”, поскольку вещественный параметр в (5.1) принято называть частотой (радианной, угловой и т.д.). Этот анализ является эквивалентом анализу во “временной области”, основанному на АКФ, но иногда обеспечивает способ рассмотрения процесса, который для некоторых применений более понятен. Такие примеры имеются в физике, электротехнике, акустике, геофизике и других разделах техники, а также в медицине, экономике, биологии, психологии и численном анализе. Учитывая свойства {yt }, определенного в (5.1) по отношению к ССП {xt } с нулевым средним, представим {xt } в виде n xt = j= aj eitj, (5.2) где < 1 < 2 <... < n ;

{aj } некоррелированные, вообще говоря, 2 комплексные СВ, такие, что M{aj } = 0, M{aj aj } = j, 1 j n. Здесь a комплексно-сопряженная СВ по отношению к a. В частном случае, когда {xt } вещественный СП, j = n+1j и aj = an+1j, 1 j n (интересно отметить, что, несмотря на последнее равенство, aj и an+1j некоррелированные СВ):

n M{xt xt+ } = r( ) = 2 j ei j. j= (5.3) Определим F () = j:j 2 j непрерывную справа неубывающую функцию, такую, что F () = 0, F () = r(0). Записывая (5.3) в виде интеграла Римана Стилтьеса, получаем r( ) = ei dF ().

(5.4) Функция F () называется спектральной функцией (спектральной мерой, функцией спектрального распределения). Более общим, чем представление (5.2), является спектральное представление ССП с нулевым средним xt = eit dz, (5.5) в котором z() случайный процесс с ортогональными приращениями, обычно называемый спектральным процессом. Соответственно АКФ r( ) процесса xt выражается в виде (5.4). Если в (5.4) F () абсолютно непрерывна, т.е.

F () = f () d,, (5.6) абсо то f () называется спектральной плотностью процесса xt. Если r( ) + лютно суммируемая функция, т.е. ние 1 f () = = + |r( )| <, то имеет место представле. (5.7) ei r(), = Отсюда, в частности, следует, что для вещественных xt f () является четной. Пусть {xt } процесс АРСС (p, q) (не обязательно каузальный и обратимый), определяемый разностным уравнением p q xt = i= ai xti + j= bj Wtj, (5.8) где Wt белый шум с дисперсией 2. Если полиномы a(z) = 1 a1 z... ap z p, b(z) = 1 + b1 z +... + bq z q не имеют общих корней и a(z) не имеет корней на окружности |z| = 1, то спектральная плотность процесса АРСС (p, q) выражается равенством 2 |b(ei )|2,, (5.9) f () = 2|a(ei )|2 т.е. является рациональной спектральной плотностью. Если f () непрерывная спектральная плотность некоторого вещественного ССП и > 0, то, во-первых, существует обратимый СС (q)-процесс xt = Wt + b1 Wt1 +... + bq Wtq, такой, что |fx () f ()| < для всех, где Wt белый шум с дисперсией 2, причем 2 = (1 + b2 +... + b2 )1 q f () d, во вторых, существует каузальный АР (p)-процесс xt = a1 xt1 +... + ap xtp + Wt, такой, что |fx () f ()| < для всех, где Wt белый шум с 2. дисперсией Рассмотрим произвольное множество наблюдений {x1, x2,..., xN }, сделанных в моменты t = 1, 2,..., N. Предположив выборку {xt, 1 t N } периодической с периодом N, представим ее элементы в виде декомпозиции по гармоникам j : 1 aj eitj, t = 1,..., N, (5.10) xt = N

[a] целая часть где JN = {j : < j = 2 числа a;

JN содержит N целых чисел. Разложение (5.11) обладает следующими свойствами: векторы {ej } образуют ортогональный базис, коэффициенты aj имеют вид N 1 aj = xt eitj. (5.12) N t=1 2j N Таким образом, {aj, j JN } это дискретное преобразование Фурье (ДПФ) выборки {xt, 1 t N }. Функция I(), определенная на множестве частот {j }, значения которой определяются по формуле 1 I(j ) = |aj | = N 2 N xt e t= itj, < j = 2j, N (5.13) называется периодограммой. Периодограмма представляет разложение ||x||2 на сумму компонент, связанных с частотами Фурье: ||x||2 = I(j ).

jJN (5.14) Если x вещественный ССП, то для всякого j JN всегда j [, ] и j [, ], поэтому aj = aj и I(j ) = I(j ). Тогда (5.10) приобретает вид x = a0 e0 + [(N 1)/2] j= (aj ej + aj ej ) + aN/2 eN/2, (5.15) где последнее слагаемое равно нулю, если N нечетное. Представим комплексные коэффициенты aj в виде j eij, тогда (5.15) перепишем следующим образом: x = a0 e0 + где e0 = = 1 (1 N [(N 1)/2] j= 2j (cj cos j sj sin j ) + aN/2 eN/2, (5.16) 1... 1) ;

cj = N 2/N (cos j, cos 2j,..., cos N j ) ;

sj = 2/N (sin j, sin 2j,..., sin N j ). 1 Пусть m = N xt и r( ) t= выборочная АКФ:

r( ) = 1 N N | | t= (xt+| | m)(xt m), 0 | | < N, (5.17) тогда I(j ), определенная формулой (5.13), может быть представлена в виде I(j ) = | |

M{IN ()} 2f (), = 0. (5.20) 1 Отсюда следует, что 2 IN () для = 0 является асимптотически несмещенной 1 оценкой спектральной плотности f (), а 2 (IN (0) N m2 ) асимптотически несмещенной оценкой f (0). Как уже отмечалось, многие случайные процессы, порождающие наблюдаемые временные ряды, могут быть представлены в виде + xt = j= j Wtj, + t = 0, ±1, ±2,..., |j | <. Тогда если f () > 0 для всех где Wt белый шум с дисперсией 2, а [, ] и если 0 < 1 < 2 <... < n <, то случайный вектор, составленный из значений периодограммы (5.19) (IN (1 ),..., IN (n )), сходится по распределению при N к вектору с независимыми и экспоненциально распределенными компонентами со средним значением (2f (1 ), 2f (2 ),..., 2f (n )).

+ При этом если j= |j||j | <, M{Wt4 } <, то где j = 2j/N частоты Фурье для выборки {x1, x2,..., xN }. Отсюда следует, что хотя периодограмма является асимптотически несмещенной оценкой 2f (), однако она не является состоятельной оценкой этой величины. Вместе с тем значения IN () для различных, принимающих значения из множества частот Фурье, являются асимптотически некоррелированными. Поэтому, рассматривая компоненты вектора (IN (1 ),..., IN ([N/2] )) как функции j, можно убедиться, что они образуют сильно флуктуирующий процесс со средним значением, аппроксимирующим 2f (). Представляется возможность использовать сглаживающий фильтр для этого процесса, причем его характеристики выбираются таким образом, чтобы образуемая им функция была не только асимптотически несмещенной, но и состоятельной оценкой спектральной плотности. Иначе говоря, введем оценку спектральной плотности (ОСП): 1 fg (j ) = 2 gN (k)IN (j+k ), |k|n 1 2(2)2 f 2 (j ) + 0( ), j = k = 0 или, N 1 cov(IN (j ), IN (k )) = (2)2 f 2 (j ) + 0( N ), 0 < j = k <, 0( ), 1 j = k, N (5.21) (5.22) где n некоторое целое число;

gN (k) последовательность некоторых весовых коэффициентов. В условиях справедливости (5.21) относительно свойств (5.22) можно записать: 2 (), fg ()) 2f (), = = 0 или, cov(fg 2 (), 0 < = <, lim =f (5.23) 2 N gN (k) 0, =.

|k|n Из (5.22) и (5.23) видно, что для асимптотической несмещенности и состоятельности необходимо и достаточно выполнение следующих условий, влияющих на характер изменения весовых коэффициентов. Для асимптотической несмещенности gN (k) = 1. (5.24) |k|n Для состоятельности N lim 2 gN (k) = 0. |k|n (5.25) Будем полагать также gN (k) = gN (k). В специальной литературе весовые коэффициенты gN (k) обычно называются сглаживающим фильтром. Часто используется иная оценка спектральной плотности, которая построена на модификации представления периодограммы в виде (5.18): 1 f () = 2 h | |n r( )ei, n (5.26) где h(t) четная кусочно-непрерывная функция, удовлетворяющая условиям h(0) = 1, |h(t)| 1 для всех t, h(t) = 0 для |t| > 1;

r( ) выборочная АКФ. Задав расширенную периодограмму соотношением IN () = | |N r( )ei, (5.27) совпадающим с (5.19) на множестве частот Фурье (см. также (5.18)), получим представление для выборочной АКФ 1 r( ) = ei IN () d, (5.28) при подстановке которого в (5.26) найдем еще одно представление оценки спектральной плотности 1 f () = H()IN ( + ) d, (5.29) где функция H() определяется соотношением H() = 1 2 h | |n i e n (5.30) и называется спектральным окном (частотным окном). Соответственно этому h(t), удовлетворяющая (5.26), называется корреляционным окном (временным окном). 2j Разбив интервал [, ] частотами Фурье j = N и заменив интеграл (5.29) интегральной суммой, получим еще одну ОСП 1 f () = [N/2] H(j )IN ( + j ) j=1[N/2] 2. N (5.31) Формулу (5.31) можно рассматривать как приближение оценки (5.26) при помощи взвешенного усреднения периодограммы IN () с весами Hj = 2H(j )/N, |j| [N/2]. Следует заметить, что весовые коэффициенты Hj не обязательно должны удовлетворять условиям типа (5.24), (5.25), которые требуются при построении ОСП (5.22) при помощи взвешенного усреднения периодограммы IN () с весами gN (k). В условиях справедливости (5.21) lim M{f ()} = f (), 0, и выN полняется предельное соотношение +1 2 2f () h2 (t)dt, = 0 или, N 1 lim D{f ()} = +1 2 N n f () h2 (t)dt, 0 < <.

Отсюда следует состоятельность и асимптотическая несмещенность оценки (5.26). В (5.26) корреляционное окно h(t) задается неоднозначно. Поэтому существует достаточно много вариантов определения этих окон. Приведем наиболее известные варианты вместе с сопутствующими им спектральными окнами H(). Окно Дирихле (прямоугольное, усеченное окно): h(t) = 1, H() = Dn () = 0 |t| 1;

, sin (n + 1/2), 2sin (5.32) 2nf 2 () Dn () ядро Дирихле. В этом случае D{f ()}. = N Окно Бартлетта (треугольное окно): h(t) = 1 |t|, 0 |t| 1, n 1 sin 2,. (5.33) H() = 2n sin 2 B этом случае спектральное окно имеет название ядро Фейера и отличается от ядра Дирихле тем, что принимает только неотрицательные значения. Дисперсия оценки спектральной плотности (ОСП) в этом случае приблизительно равна 2nf 2 ()/3N. Окно Даниэля: h(t) = (sin t)/t, H() = n/2, 0 || /n, 0, /n < ||. 0 |t| 1, (5.34) В этом случае имеем прямоугольное спектральное окно. Асимптотическая дис персия оценки принимает вид D{f ()} nf 2 ()/N. = Окно Блэкмена Тьюки: h(t) = 1 2a + 2acos t, H() = aDn 0 |t| 1, где Dn () ядро Дирихле. Асимптотическая дисперсия равна D{f ()} = 2n (1 4a + 6a2 )f 2 (). При a = 0,25 это окно известно как окно Тьюки =N Хэннинга, а при a = 0,23 (что уменьшает первые локальные максимумы спектрального окна) как окно Хемминга. Окно Парзена: 1 6t2 + 6|t|, 0 |t| 0,5, h(t) = 2(1 |t|)3, 0,5 |t| 1, 4 n 6 sin 4 H() = n3 sin4 + (1 2a)Dn () + aDn +, n n 0 ||, (5.35) 2 1 sin2 3,.

(5.36) Асимптотическая дисперсия ОСП D{f ()} 0,539nf 2 ()/N. = Трапецеидальное окно: 0 |t|, 1, h(t) = ( |t|)/( ), |t|, 0, |t| 1, H() = sin2 sin2 2 2 2( )sin2, 2 Это спектральное окно известно под названием “ядро Валле Окно Алексеева:

p. Пуссена”.

(5.37) H() = k=0 p ak 2k, [, ], (5.38) ak = 0, k= a0 > 0.

Окно Бохмана: h(t) = (1 |t|)cos t + 1 sin t, 0 |t| 1, Окно Пуассона:

H() = 2n(1 + cos n)/((n)2 2 )2, h(t) = |t|, H() = 0 |t| 1,.

(5.39) 0 < < 1,. (5.40) Окно Римана Ланцоша:

1 1 2/n, 2 1 21/n cos + 2/n h(t) = (sin t)/t, H() = 1 t 1, (5.41) Окно Гаусса Веерштрасса:

n/2, 0 || 1/n, 0, 1/n < ||. 1 t 1,,.

h(t) = exp{t2 /2}, n n 2 2 H() = exp 2 2 Окно Рисса Бохнера: h(t) = 1 t2, H() = Dn () + Окно Тьюки: h(t) = Окно Бартлетта h(t) = 1, 1 1 + cos (|t| ) 2 1 Пристли:

(5.42) 1 t 1,. (5.43) 1 d2 Dn (), n2 d 0 t <, 0 < < 1,, |t| 1.

(5.44) Наряду с перечисленными оценками можно пользоваться и выборочной спектральной плотностью со взвешенными слагаемыми, которую можно записать в виде 1 h() = h r( )ei. (5.46) 2 N | |

(5.48) Из оценок (5.48) обычно встречаются оценки с p = 2. Все перечисленные оценки состоятельны. Асимптотические свойства дисперсии оценивания выражаются соотношением J= lim N D{f ()} nf 2 () + N = h2 (t) dt, 0 < || <.

(5.49) а стенень гладкости спектральной плотности числом p, таким, что все производные спектральной плотности порядка не выше p ограничены и непрерывны. Тогда если q > p, то смещение ОСП является величиной порядка o(np ), где n число усечения в сумме (5.26). Если же q p, то смещение имеет порядок o(h0 nq ). Таким образом, если рассматривать класс процессов с вполне определенным значением p, то величину смещения можно сделать малой, выбирая окно h(t) с q > p. Если q p, то смещение уменьшают выбором окна h(t) с малым значением h0. Для удобства сопоставления оценок данные о характеристиках асимптотической несмещенности и состоятельности сведены в табл. 5.1 для некоторых из перечисленных оценок. Таблица 5. В точках = 0, = ± предел в два раза больше. Эти оценки являются, как уже сказано, также и асимптотически несмещенными. Характер асимптотического поведения смещения, к сожалению, не удается выяснить так просто, как это сделано для асимптотической дисперсии. Будем степень гладкости корреляционного окна h(t) характеризовать числом q, таким, что 1 h(t) lim = const = h0, (5.50) |t|q t Оценка Дирихле (5.32) Бартлетта (5.33) Даниэля (5.34) Блэкмена Тьюки (5.35) Тьюки Хэннинга (5.35) Хемминга (5.35) Парзена (5.36) Усеченная оценка (5.47) Парзена Бартлетта (5.48) p = 1 Парзена Бартлетта (5.48) p = q h0 из (5.50) J из (5.49) 2,0 0,6667 0,9028 0,75 0,7948 0,5393 2,0 0,6667 1, 2 2 2 2 2 /6 a 2 2 /4 0, 6 1 2(1 4a + 6a2 ) 1 Вариация ОСП выражается в виде V {f ()} = D{f ()} + (M{f ()} f ())2. (5.51) Как уже отмечалось, по крайней мере, для q p асимптотическое смещение пропорционально h0, определяемому (5.50). Из табл. 5.1 видно, что для рассмотренных оценок уменьшение асимптотической дисперсии (первое слагаемое в (5.51)) сопровождается увеличением асимптотического смещения (второе слагаемое в (5.51)). По-видимому, это является общим законом в данном случае и при выборе ОСП в каждой конкретной ситуации необходимо учитывать эти две противоположные тенденции. Надежность оценивания спектральной плотности можно определить при помощи построения доверительных интервалов. Рассмотрим их построение для одного из типов оценок, введенных выше. Из условий, приводящих к (5.21), следует, что случайные величины (IN (j + k )/f (j +k )), j < k < N/2j, асимптотически независимы и распределены в соответствии с экспоненциальным распределением (т.е. распределением 2 с двумя степенями свободы). Это наводит на мысль о том, что асимптотическое распределение оценки fg (j ), определенной в (5.22), оказывается распределением СВ, являющейся линейной комбинацией независимых и распределенных по 2 (2) СВ. Однако это распределение может быть, в свою очередь, аппроксимировано распределением СВ cY, где c константа, а Y СВ 2 (). Параметры c и находятся методом моментов, т.е. путем приравнивания среднего и дис персии СВ c к среднему и дисперсии ОСП fg (j ). Для определения c и эта процедура дает уравнения c = f (j ), 2c2 = c = 1 f (j ) 2 gN (k), = 2 2 gN (k) 1 |k|n 2 gN (k) f 2 (j ), откуда имеем. Число называется эквивалент ной степенью свободы ОСП fg (). Распределение f (j )/f (j ), таким образом, |k|n |k|n аппроксимируется распределением 2 () и интервал f (j ), 2 1/2 () f (j ) 2 () /2, 0 < j <, (5.52) является доверительным интервалом для f (j ) на уровне значимости. Удобнее пользоваться доверительным интервалом для ln f (j ), который получается логарифмированием доверительных границ в (5.52). Тогда вместо (5.52) имеем (ln f (j ) + ln ln 2 1/2 (), ln f (j ) + ln ln 2 ()), /2 (5.53) 0 < j <. Доверительный интервал (5.53) удобен тем, что его ширина одинакова для всех j (0, ). При достаточно больших построение доверительного интервала для f (j ) можно осуществить, применив нормальную аппроксимацию распределения 2 gN (k) = 0, поfg (j ). Из (5.25) получается предельное соотношение lim этому следует ожидать, что будет достаточно большим. Из свойств распределения 2 () видно, что при > 30 22 () практически не отличается от нормальной СВ со средним 2 1 и единичной дисперсией. Однако для достаточно больших N число слагаемых в (5.22) будет тоже велико и по теореме Линдеберга Феллера оценка fg (j ) должна сходиться к нормальной СВ. Из этих соображений вытекает, что для достаточно больших N fg (j ) будет близ2 gN (k)f 2 (j ). ка к нормальной СВ со средним значением f (j ) и дисперсией Используя это, получаем доверительный интервал для f (j ) на уровне значимости : 2 f (j ) ± 1 1 gN (k), 0 < j <. (5.54) f (j ) |k|n |k|n N |k|n Здесь 1 () квантиль нормального распределения на уровне. Вновь удобно вместо (5.54) использовать доверительный интервал для ln f (j ), длина которо го не зависит от j. Нормальная аппроксимация распределения f () подразу мевает, что ln f () при N распределен тоже по нормальному закону со 2 gN (k). Откуда на уровне значимости полусредним ln f (j ) и дисперсией чаем доверительный интервал для ln f (j ) вида ln f (j ) ± 1 1 длина которого не зависит от j. 134 2 gN (k), |k|n |k| 0 < j <, (5.55) Лабораторная работа 20. Оценивание спектральной плотности временного ряда Цель работы. Освоить методы построения спектральных плотностей по выборочным значениям случайных процессов. Сравнить анализ различных ОСП. Порядок выполнения работы Вначале необходимо получить временной ряд {x1, x2,..., xN }, являющийся реализацией некоторого ССП с нулевым средним и известной спектральной плотностью. Для получения такой реализации можно воспользоваться подходящей моделью АРСС (p, q), АР (p) или СС (q). После того, как выбраны коэффициенты модели и получена выборка, необходимо по формуле (5.9) построить спектральную плотность и, использовав методы гл. 3, построить АКФ для выбранной модели СП. Задание 1. По имеющейся выборке СП получить по формулам (5.17) m и r( ). Для заданного множества частот Фурье {j } построить периодограм му (5.18). Сравнить периодограмму с истинной спектральной плотностью СП. Исследовать изменение выборочных статистик (5.17) и (5.18) в зависимости от величины N по сравнению с истинными значениями характеристик, оценками которых являются эти статистики. Построить график периодограммы (5.18) и сравнить его с графиком спектральной плотности. Будет ли периодограмма сильно флуктуирующей? Задание 2. Выбрать весовые коэффициенты gN (k), удовлетворяющие условиям (5.24), (5.25), и построить ОСП в виде (5.22). При построении учесть, что число усечения n должно удовлетворять условиям при N, n, n/N 0. Выяснить поведение оценки (5.22) как функции N. Построить гра фик fg () на множестве частот Фурье. Сравнить его с графиком истинной спектральной плотности. Задание 3. Построить доверительные интервалы для спектральной плотности, оцениваемой при помощи (5.22). Рассмотреть различные аппроксимации распределения ОСП, приводящие к доверительным интервалам (5.52) (5.55). Задание 4. Построить ОСП с корреляционными окнами (5.26) и со спектральными окнами (5.31) для каждой пары h(t) и H(), определяемой формулами (5.32) (5.48). Провести сравнение как между ОСП во временной и частотной областях, так и между ОСП с различными типами окон.

5.2. Выделение скрытых периодичностей Как показывает практика, часто возникают задачи следующего характера. Наблюдаемый временной ряд может иметь периодическую составляющую, но может ее и не иметь. Поскольку выборочные значения представляют смесь случайной и, возможно, периодической компоненты, решение вопроса содержится ли периодическая компонента или отсутствует, является не тривиальным. Рассмотрим несколько конкретных постановок решения вопроса о наличии периодических составляющих во временном ряде {xt, 1 t N }. Выявление наличия гармоники. Значения процесса имеют следующую структуру: xt = m + acos t + bsin t + Wt, (5.56) не случайные постоянные;

заданная частота;

Wt где a, b гауссовский белый шум с дисперсией 2. Гипотеза H0 : |a|+|b| = 0 (гармоническое колебание отсутствует). Гипотеза H1 : |a| + |b| > 0 (гармоника имеется в наличии). Рассмотрим сначала простой случай, когда является частотой Фурье, т.е. = k = (2k/N ) (0, ). Выборка из наблюдений (5.56) может быть записана в виде (5.16) N N ack + bsk + W. (5.57) x = N me0 + 2 2 Гипотеза H0 отвергается в пользу H1, если значение периодограммы на частоте k достаточно велико. При справедливой гипотезе H0 (a = b = 0) величина 2I(k ) распределена как 2 2 (2) и является независимой от ( N t= x2 I(0) t 2I(k )), которая имеет распределение 2 2 (N 3). Отношение этих величин распределено в соответствии с F -распределением. Тогда получаем критерий: H0 отвергается в пользу H1 на уровне, если = N t= (N 3)I(k ) x2 t I(0) 2I(k ) > F1 (2, N 3), (5.58) где F1 (2, N 3) квантиль F -распределения (распределения Фишера) с 2 и (N 3) степенями свободы на уровне 1. Если не является частотой Фурье, анализ несколько усложняется, 2/N (cos, cos 2,..., cos N ), s = 2/N (sin, так как векторы c = и e не являются ортогональными. Однако тест остается анаsin 2,..., sin N ) 0 логичным. В отличие от (5.57) имеем N N ac + bs + W. 2 2 Вначале найдем оценки МНК для m, a, b из условия x= N me0 + d (m, a, b)d(m, a, b) min, m, a, b где d(m, a, b) = x N me0 136 N ac 2 N bs. Обозначим эти оценки m, a, Тогда статистика критерия (5.58) (левая часть b. неравенства) будет вычисляться следующим образом: (e0 x + d(m, a, (e0 x + d(m, a, x b)) x b)) (N 3), (m, a, d b)d(m, a, b) где x = N N (5.59), если > Выявление негармонической периодической составляющей. Пусть заданы целочисленный период p < N и q = [(p 1)/2]. Всякая функция ft, заданная на целочисленных t с периодом p, может быть представлена в виде q xt. И гипотеза t=1 F1 (2, N 3).

H0 отвергается в пользу H1 на уровне значимости ft = m + k (ak cos (2kt/p) + bk sin (2kt/p)) + ap/2 (1)t, (5.60) где ap/2 = 0, если p примем следующей:

нечетное. Модель данных в рассматриваемом случае xt = ft + Wt, 1 t N, q k= (5.61) где ft задана в (5.60);

Wt испытываемые гипотезы: 1) H0 : 2) H1 :

q k= гауссовский белый шум с дисперсией 2. Определим (|ak | + |bk |) = 0);

ak = bk = 0, 1 k q (т.е. (|ak | + |bk |) > 0).

Определим N -компонентные векторы-столбцы: x = (x1, x2,..., xN ), e0 = N 1/2 (1, 1,..., 1), gk = hk = 2/N (cos k, cos 2k,..., cos N k ), 2/N (sin k, sin 2k,..., sin N k ), где k = 2k/p, 1 k [p/2]. Пусть G (N p)-матрица G = (e0 g 1 h1 g 2 h2...). Последним столбцом в G будет qp/2, если p четное, или h(p1)/2, если p нечетное. Из (5.60), (5.61) следует, что x (I G(G G)1 G )x распределено как 2 2 (N p). Кроме того, при справедливой гипотезе H0 величина (x G(G G)1 G N xe )(G(G G)1 G x N xe0 ) распределена как 2 2 (p1) 0 и не зависит от x (I G(G G)1 G )x. Поэтому опять можно построить критерий типа (5.58). Гипотеза H0 отвергается в пользу H1 на уровне, если = (N p)(N ()2 + x G(G G)1 G x) x > F1 (p 1, N p). (p 1)x (I G(G G)1 G )x 137 (5.62) Здесь, как и прежде, x выборочное среднее наблюдений;

I единичная N N матрица. В случае, когда N = kp, где k целое число, вычисления существенно упрощаются в связи с тем, что p векторов e0, g 1, h1, g 2, h2,... становятся ортогональными. Поэтому x G(G G)1 G x = I(0) + 1j

p = 1, если p четное, и p = 0, если p нечетное. В связи с этим статистика критерия (5.62) сводится к виду (N p) 2 (p 1) N t= I(kj ) + p I() 1j

I(i ) i= Тогда функция распределения (ФР) СВ запишется в виде q P ( z) = (1)j j= q q1 (1 jz)t, j (5.64) где (u)t = max{0, u}. Эти результаты могут быть использованы для построения теста Фишера при проверке справедливости одной из альтернативных гипотез: 1) H0 : {xt } гауссовский белый шум;

2) H1 : {xt } содержит аддитивную детерминированную периодическую компоненту с нефиксированной частотой. Идея теста отвергать H0, если периодограмма (5.13) содержит значение, существенно превышающее ее среднюю величину, т.е. если статистика q = q ( max I(i )) 1iq i= I(i ) (5.65) принимает достаточно большое значение. Предположим, что выборка {xt } такова, что статистика (5.65) приняла значение z. Тогда на основе (5.64) имеем q P { > z} = (1)j j= q q1 (1 jz)t. j (5.66) Критерий состоит в том, что если эта вероятность меньше, чем, то H0 отвергается в пользу H1. К построению теста в рассматриваемом случае можно подойти иначе. Построим дискретную ФР с конечными разрывами величиной (q 1)1 в точках, определяемых СВ Yi, 1 i q 1. Эта ФР является выборочной для выборки объемом (q 1) из равномерного распределения на [0, 1]. Таким образом, проверка справедливости гипотезы H0 состоит в использовании теста Колмогорова Смирнова относительно того, совместима ли построенная ФР с равномерной ФР. Иначе говоря, не выходит ли построенная эмпирическая ФР из границ области, определяемой прямыми y = x + K (N )(q 1)1/2, 0 < x < 1, где K (N ) критические значения для наибольшего отклонения эмпирического распределения от теоретического на уровне значимости. Если эмпирическая ФР выходит за указанные границы, то H0 отвергается в пользу H1 на уровне. Заметим, что тесты Фишера и Колмогорова Смирнова могут быть при больших N применены и не для гауссовского белого шума Wt. Эти тесты могут быть использованы для проверки гипотезы H0 о том, имеет ли временной ряд {xt } спектральную плотность f () или нет. Для этого достаточно при определении СВ Yi и (в (5.65)) заменить I(k ) на I(k )/f (k ). Лабораторная работа 21. Выявление скрытых периодичностей Цель работы. Ознакомиться с методами выявления скрытых периодичностей и исследовать их эффективность. Порядок выполнения работы Задание 1. Получить реализацию временного ряда с элементами вида (5.56), содержащими смесь гармоники с белым гауссовским шумом. Рассмотреть два варианта, когда заданная частота гармоники либо является, либо не является частотой Фурье. Исследовать несколько случаев для различных значений параметров m, a, b. При использовании критериев (5.58) и Задание 2. Получить реализацию временного ряда с элементами вида (5.60), (5.61), содержащими негармоническую периодическую составляющую с известным целочисленным периодом. Рассмотреть два варианта, когда объем выборки кратен периоду неслучайной составляющей временного ряда и когда это не выполняется. Исследовать несколько различных функций (5.60). Задание 3. Рассмотреть применение тестов Фишера и Колмогорова Смирнова к реализациям, которые были получены при выполнении предыдущих заданий. Используя критерий Колмогорова Смирнова, нужно учитывать, что при N пределы имеют значения K0,01 (N ) 1,628, K0,02 (N ) 1,517, K0,05 (N ) 1,358, K0,1 (N ) 1,224, K0,2 (N ) 1,073. Задание 4. Получить реализацию временного ряда с известной спектральной плотностью f (), например, при помощи имитации процесса АРСС (p, q). Вычислить периодограмму временного ряда I(k ). Использовать тесты Фишера и Колмогорова Смирнова для решения вопроса о соответствии временного ряда спектральной плотности f (). При вычислении периодограммы применить алгоритм быстрого преобразования Фурье (БПФ).

Глава (5.59) удобно определять критические значения F1 (P, N ), учитывая, что lim F1 (P, N ) = F1 (P, ) = 2 (P )/P. N МНОГОМЕРНЫЕ ВРЕМЕННЫЕ РЯДЫ 6.1. Оценивание числовых характеристик многомерных числовых рядов Встречающиеся на практике временные ряды, как правило, могут (а в некоторых случаях и должны) изучаться как компоненты определенного многомерного СП. Так, например, количество осадков и урожайность сельскохозяйственных культур, рассматриваемые как функции времени, составляют двухмерную векторную функцию времени, компоненты которой изменяются случайным образом по соответствующей стохастической модели и стохастически зависимы между собой. В общем случае имеет смысл рассматривать временной ряд {xt, t T } с элементами, являющимися n-мерными векторами xt = (xt1, xt2,..., xtn ). Для многомерных временных рядов второго порядка требуется, 2 чтобы M{xti } < для всех t и i. Математическим ожиданием такого временного ряда является вектор mt = M{xt } = (M{xt1 }, M{xt2 },..., M{xtn }) = = (mt1, mt2,..., mtn ). (6.1) Корреляционные свойства многомерного временного ряда определяются матричной функцией, каждый элемент которой является взаимной корреляционной функцией соответствующих компонент временного ряда: R(t, t + ) = = M{xt x } = (M{xti xt+,j }) = (Rij (t, t + )), 1 i n, 1 j n. Чаще t+ пользуются ковариационными матрицами (КМ) временных рядов 0 R0 (t, t + ) = M{(xt mt )(xt+ mt+ ) } = (Rij (t, t + )).

(6.2) Если элементы временного ряда распределены по нормальному закону, то совокупность (mt, R0 (t, t + )) полностью характеризует статистические свойства временного ряда. Для стационарных временных рядов будем иметь вместо (6.1) и (6.2) равенства mt = m = (m1, m2,..., mn ), t = 1, 2,... ;

R0 (t, t + ) = r( ) = (rij ( )), t = 1, 2,..., (6.3) т.е. в этом случае вектор mt не зависит от временного параметра t и является постоянным, а матрица R0 (t, t + ) также не зависит от параметра t и определяется только временным сдвигом. Обычно удобнее пользоваться КМ, составленной из нормированных взаимных корреляционных функций компонент временного ряда ( ) = (ij ( )), 1 i n, 1 j n, (6.4) где элементы матрицы ( ) задаются соотношением ij ( ) = rij ( ) rii (0)rjj (0). (6.5) Свойства функций rij ( ) и ij ( ) рассматривались в гл. 4. Многомерный белый шум описывается как векторный процесс Wt, для которого M{Wt } = 0, M{Wt Wt } = Q, M{Wt Wt+ } = 0, > 0, t = 1, 2,....

(6.6) Как правило, временные ряды являются реализациями СП, представляемых в виде разложения + xt = mt + j= Cj Wtj, t = 1, 2,..., (6.7) где Cj последовательность матриц с абсолютно суммируемыми элементами. Это значит, что если Cj матрица с элементами Cj (k, l), то для любой пары + k, l выполняется неравенство j= |Cj (k, l)| <. При Cj = 0 для всех j < данное разложение известно под названием “разложение Волда”. Для процесса (6.7) имеем + M{xt } = mt, r( ) = j= Cj QCj+.

(6.8) Рассмотрим стационарный временной ряд {xt, 1 t N } с неизвестными m и r( ), где xt = (xt1, xt2,..., xtn ). Несмещенной оценкой m является выборочное среднее N 1 m= xt = (m1, m2,..., mn ), (6.9) N t= 1 xti, 1 i n. где mi = N t=1 Для стационарных временных рядов сходимость оценок (6.9) к истинным значениям характеризуется следующими результатами. Если rii ( ) 0 при, 1 i n, то N + N lim M{(m m) (m m)} = 0.

(6.10) Если = |rij ( )| <, 1 i, j n, то n + N lim N M{(m m) (m m)} = i=1 = rii ( ) = r.

(6.11) Оценка m в (6.10), (6.11) находится из формулы (6.9) и является асимптотически нормальной, если выполняются некоторые дополнительные предположения. Если xt представляется в виде (6.7), где Wt НОР СВ со свойствами (6.6), а Cj последовательность (n n)-матриц с абсолютно суммируемыми элемента ми, то m, вычисляемое по формуле (6.9), является асимптотически нормальным с параметрами M{m} = m, M{(m m) (m m)} = = 1 N + + Ck QCl = GN.

k= l= (6.12) Это свойство может быть использовано при построении доверительных областей для m. Например, если КМ GN в (6.12) является невырожденной и известной, то асимптотическая доверительная область для m на уровне значимости определяется как множество {m | (m m) G1 (m m) 2 (n)}, 1 N (6.13) где 2 (n) соответствующий квантиль 2 -распределения с n степенями сво1 боды. Такое построение доверительной области практически не используется, так как редко матрица GN оказывается известной в случае, когда m неизвестно. Если может быть найдена состоятельная оценка GN матрицы GN, то в (6.13) подставляют ее вместо GN и получают необходимую доверительную область. Однако в общем случае трудно находить состоятельную оценку матрицы GN. Более простой подход построение доверительных интервалов для каждой компоненты mi вектора m, основанное на выборках {x1i, x2i,..., xN i }, 1 i n. Комбинируя найденные таким образом доверительные интервалы, можно получить доверительную область для вектора m. Если условия справедливости (6.12) выполняются, то компонента mi выбо рочного среднего (6.9) является асимптотически нормальной с математическим ожиданием mi и дисперсией di = 1 N + rii ( ), = 1 i n.

(6.14) Пусть {N } последовательность чисел, удовлетворяющих условию (N /N ) 0 при N. Состоятельной оценкой является 1 di = N | |N | | N rii ( ), 1 i n, (6.15) где rii ( ) оценка автоковариационной функции i-й компоненты xti вектора xt. Состоятельной оценкой автоковариационной функции rii ( ) является следу ющая выборочная ковариационная функция: 1 rii ( ) = N N t= (xti mi )(xt+,i mi ), 1 i n.

(6.16) Таким образом, на уровне значимости доверительный интервал для i-й компоненты вектора m при достаточно больших N задается соотношением |mi mi | 1 1 2 di, 1 i n, (6.17) где 1 () квантиль нормального распределения на уровне ;

di вычисляется по формулам (6.15), (6.16). Так как n P {|mi mi | () di, 1 i n} i= P {|mi mi | 1 () di }, то доверительная область для вектора m, в которой он находится с вероятностью, не меньшей чем (1 ), определяется следующим образом: m |mi mi | 1 1 2n di, 1in. (6.18) Для больших значений n эта доверительная область будет значительно шире области, в которую попадает m с вероятностью (1 ). Тем не менее, поскольку (6.18) строить немного легче, чем (6.13), для небольших n удобнее применять доверительную область (6.18). В качестве оценки КМ r( ) естественно пользоваться выборочной КМ (ВКМ), которая задается соотношением 1 r( ) = (ij ( )) = r N N t= (xt+ m)(xt m), 0 N 1.

(6.19) Через элементы матрицы определим оценки элементов КМ, составленной из нормированных взаимных ковариационных функций ij ( ) = rij ( )/ rii (0)jj(0), r 1 i, j n. (6.20) В условиях справедливости формул (6.12) оценки (6.19) и (6.20) для двухмерных временных рядов являются состоятельными по вероятности, т.е. при N для всякого фиксированного 0 rij ( ) rij ( ), ij ( ) ij ( ), 1 i, j 2. (6.21) Скорость сходимости в этом случае характеризуется следующими соотношениями. Если матрица Q в (6.6) является диагональной (т.е. компоненты Wt независимы между собой), то для всякого 0 распределение 12 ( ) асимпто тически нормально с нулевым средним и дисперсией d12 = 1 N + 11 (j)22 (j).

j= (6.22) Если 1 = 2, то вектор (12 (1 ), 12 (2 )) асимптотически нормален с нулевым средним компонент, дисперсиями компонент, определяемыми (6.22), и ковариацией компонент, вычисляемой по формуле 1 N + j= 11 (j)22 (j + 1 ).

(6.23) Это дает возможность конструировать различные тесты относительно компонент при анализе их корреляционных свойств. Например, если одна из компонент является белым шумом, то 12 ( ) имеет дисперсию d12 = N 1, какими бы свойствами ни обладала другая компонента. Рассмотрим задачу проверки на независимость двух стационарных компонент временного ряда. Как следует из (6.22), асимптотическое распределение 12 ( ) зависит как от 11 (·), так и от 22 (·). Поэтому тест независимости двух компонент ряда не может быть основан только на оценивании значений 12 ( ) без учета других свойств компонент ряда. Эту трудность можно преодолеть путем декорреляции рассматриваемых компонент перед тем, как оценивать выборочную взаимную ковариацию 12 ( ). В данном случае декорреляция достигается соответствующим линейным преобразованием. В частности, если {xt1 } и {xt2 } обратимые процессы АРСС (p, q), таким преобразованием является zti = (i) j xtj,i, (i) i = 1, 2, (6.24) j= где коэффициенты j определяются из разложения j= j uj = a(i) (u)/b(i) (u), (i) |u| < 1, i = 1, 2, в котором a(i) (u) и b(i) (u) полиномы, задающие АР и СС соответственно. Так как на практике истинная модель обычно неизвестна и наблюдений {xt, t 0} не имеется в наличии, удобно заменить последовательности {zti }, i = 1, 2, остатками {Wti, 1 t N }, которые рассматривались в § 4.3. Если подобранная модель АРСС (p, q) является истинной, то последовательности остатков будут последовательностями белого шума, а с учетом асимптотической нормальности последовательностями НОР СВ. Таким образом, при справедливой гипотезе о независимости компонент временного ряда выборочные автокорреляции 12 (1 ) и (2 ), 1 = 2, последовательностей {zt1 } и {zt2 } асимптотически нормальны, независимы, имеют нулевые средние и дисперсии, равные N 1. Поэтому тест на независимость компонент на уровне значимости заключается в проверке неравенства N 1/2, = 0, 1, 2,..., (6.25) |12 ( )| 1 1 2 где 1 () квантиль стандартного нормального распределения на уровне. Если декоррелировать только одну из двух исходных компонент (например, {xt1 }), то при справедливой гипотезе о независимости компонент из (6.23) следует, что выборочные автокорреляции 12 (1 ) и 12 (2 ), 1 = 2, последователь ностей {zt1 } и {xt2 } асимптотически нормальны с нулевым средним, дисперсией N 1 и ковариацией N 1 22 (2 1 ), где 22 (·) АКФ последовательности {xt2 }. Следовательно, и в этом случае тест на независимость компонент на уровне значимости заключается в проверке выполнения неравенства (6.25) для любого значения. При получении (6.22) и (6.23), на которых основан описанный тест, предполагалось, что компоненты временного ряда удовлетворяют условиям разложения (6.6). Для нормальных временных рядов этого можно и не требовать, поскольку для них справедлива формула Бартлетта. Если {xt } двухмерный гауссовский процесс и его АКФ удовлетворяет неравенству + = | rij ( )| <, 1 j, i 2, то N + lim N cov(12 (1 ), 12 (2 )) = j= 11 (j)22 (j + 1 2 )+ +12 (j + 1 )21 (j 2 ) 12 (2 ) 11 (j)21 (j + 1 ) + 22 (j)21 (j 1 ) 12 (j) 11 (j)21 (j + 2 ) + 22 (j)21 (j 1 ) + 1 12 (6.26) 11 (j) + 2 (j) + 2 (j). 12 2 2 22 Отсюда, в частности, следует, что если компонентами {xt } являются белые шумы и 12 ( ) = 0, [a, b], то + 12 (1 )12 (2 ) N lim N D{12 ( )} = 1, [a, b], (6.27) т.е. асимптотическая дисперсия 12 ( ) в этом случае тоже равна N 1. Среди многомерных СП своей практической распространенностью выделяются процессы АРСС, которые в многомерном варианте определяются как процессы {xt }, удовлетворяющие многомерному разностному уравнению p q xt = i= Ai xti + Wt + j= Bj Wtj, t = 1, 2,...

.

(6.28) Здесь xt = (xt1, xt2,..., xtn ) n-вектор;

A1,A2,..., Ap, B1,..., Bq (n n)-матрицы;

{Wt } случайные векторы с компонентами: Wt = (Wt1, Wt2,..., Wtn ), для которых выполняются условия (6.6). Последовательность векторов xt, заданных уравнением (6.28), называется многомерным (при n > 1) процесом АРСС (p, q). Для рассмотрения свойства многомерного процесса АРСС (p, q) определим матричные полиномы A(z) = I A1 z... Ap z p, B(z) = I + B1 z +... + Bq z q, (6.29) где I единичная (n n)-матрица. Критерий каузальности процесса xt. Если detA(z) = 0 для всех |z| 1, то (6.28) имеет единственное стационарное решение xt = j= j Wtj, где (n n) матрицы j удовлетворяют равенствам j= j z j = (z) = A1 (z)B(z), |z| 1.

(6.30) и {xt } Критерий обратимости процесса xt. Если detB(z) = 0 для всех |z| 1 стационарное решение (6.28), то Wt = 146 j xtj, где матрицы j j= определяются равенством j= j z j = (z) = B 1 (z)A(z), |z| 1.

(6.31) Матрицы j и j находятся из следующих рекуррентных соотношений:

j 0 = I, j = i=1 j Ai ji + Bj, j = 1, 2,... ;

(6.32) 0 = I, j = i= Bi ji Aj, j = 1, 2,..., (6.33) где j = 0 для j < 0;

Aj = 0 для j > p;

Bj = 0 для j > q. Ковариационная матричная функция каузального процесса АРСС (p, q) определяется равенством r( ) = (rij ( )) = M{xt x } = t+ k= k Q, k+ 0, (6.34) где Q КМ белого шума Wt со свойствами (6.6). Существует (0, 1) и константа K, такие, что элементы матрицы r( ) удовлетворяют неравенствам |rij ( )| < K | |, p 1 i, j n, q = 0, ±1, ±2,...

. Уолкера.

(6.35) КМ r( ) может быть также определена из уравнения Юла r( ) Ai r( i) = Bi Q, i i= = 0, 1, 2,...

Pages:     | 1 || 3 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.