WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 48 | 49 || 51 | 52 |   ...   | 82 |

zt = jyt-j, j т.е. zt получается применением к yt линейного фильтра (L) = jLj.

j Пределы суммирования не указываем, поскольку они могут быть произвольными3.

y Пусть k — автоковариации процесса yt, а py(f) — его спектральная плотность. Найдем те же величины для zt. Автоковариации zt равны z k = E(ztzt-k) =E jyt-j syt-k-s = s j y = jsE(yt-jyt-k-s) = jsk+s-j.

s s j j Спектральную плотность zt можно записать в виде z pz(f) =2 kei2fk.

k=В том числе, при соответствующих предположениях, пределы суммирования могут быть бесконечными. Кроме того, zt здесь может зависеть от опережающих значений yt.

430 Глава 14. Линейные стохастические модели ARIMA Подставим сюда формулы для ковариаций:

y pz(f) = 2 jsk+s-jei2fk = s k=- j y = 2 js k+s-jei2fk.

s j k=Произведем здесь замену k = k + s - j:

y pz(f) = 2 js k ei2f(k +j-s) = s j k = y = 2 k ei2fk · jei2fjse-i2fs = s k =- j = 2 k ei2fk · jei2fj · se-i2fs.

s k =- j Первый множитель — это спектральная плотность yt. Два последних множителя представляют собой сопряженные комплексные числа, поэтому их произведение равно квадрату их модуля. Окончательно получим pz(f) =py(f) je-i2fj (14.4) j или 2 pz(f) =py(f) j cos 2fj + j sin 2fj. (14.5) j j Данную теорию несложно применить к модели линейного фильтра (14.1). Для этого заменяем zt на xt, а yt на t. Автоковариации xt равны k = ijk+j-i.

i=0 j= Поскольку 0 =, и k =0 при k =0, то k = ii+k, i=14.3. Процессы авторегрессии что совпадает с полученной ранее формулой (14.3).

Для спектральной плотности из (14.4) получаем p(f) =2 je-i2fj 2. (14.6) j=Поскольку |e-i2fj| =1, то ряд здесь сходится и | p(f)| <.

14.3. Процессы авторегрессии В модели авторегрессии текущее значение процесса xt представляется в виде линейной комбинации конечного числа предыдущих значений процесса и белого шума t:

xt = 1xt-1 + 2xt-2 + · · · + pxt-p + t, (14.7) при этом предполагается, что текущее значение t не коррелировано с лагами xt.

Такая модель называется авторегрессией p-го порядка и обозначается AR(p) (от английского autoregression).

Используя лаговый оператор L, представим уравнение авторегрессии в виде:

(1 - 1L - 2L2 -... - pLp)xt = t, или кратко, через лаговый многочлен (L) =1 - 1L - 2L2 -... - pLp:

(L)xt = t.

Нетрудно показать, что модель авторегрессии является частным случаем модели линейного фильтра:

xt = (L)t, где (L) =-1(L), т.е. (L) — оператор, обратный оператору (L).

Удобным и полезным инструментом для изучения процессов авторегрессии является характеристический многочлен (характеристический полином) p (z) =1 - 1z - 2z2 -... - pzp =1 - jzj j=и связанное с ним характеристическое уравнение 1 - 1z - 2z2 -... - pzp =0.

432 Глава 14. Линейные стохастические модели ARIMA Как мы увидим в дальнейшем, от того, какие корни имеет характеристическое уравнение, зависят свойства процесса авторегрессии, в частности, является ли процесс стационарным или нет.

Рассмотрим наиболее часто использующиеся частные случаи авторегрессионных процессов.

Процесс Маркова Процессом Маркова (марковским процессом) называется авторегрессионный процесс первого порядка, AR(1):

xt = xt-1 + t, (14.8) где t представляет собой белый шум, который не коррелирует с xt-1. Зд есь мы упростили обозначения, обозначив = 1.

Найдем необходимые условия стационарности марковского процесса. Предположим, что процесс {xt} слабо стационарен. Тогда его первые и вторые моменты неизменны. Находя дисперсии от обеих частей (14.8), получим, учитывая, что cov(xt-1, t) =0:

var(xt) =2var(xt-1) +var(t) или 2 2 x = 2x +.

Ясно, что при || 1, с учетом > 0, правая часть этого равенства должна быть больше левой, что невозможно. Получаем, что у стационарного марковского процесса || < 1.

Пусть, с другой стороны, || < 1. Представим xt через белый шум { t }. Это можно осуществить с помощью последовательных подстановок по формуле (14.8):

xt = xt-1 + t = (xt-2 + t-1) +t = 2xt-2 + t-1 + t, потом xt = 2(xt-3 + t-3) +t-1 + t = 3xt-3 + 2t-3 + t-1 + t, ит.д.

В пределе, поскольку множитель при лаге xt стремится к нулю, получим следующее представление xt в виде модели линейного фильтра:

xt = t + t-1 + 2t-2 +....

14.3. Процессы авторегрессии Это же представление можно получить с использованием оператора лага. Уравнение (14.8) запишется в виде (1 - L)xt = t.

Применив к обеим частям уравнения (1 - L)-1, получим xt =(1 - L)-1t =(1 +L + 2L2 +... )t = t + t-1 + 2t-2 +....

В терминах модели линейного фильтра (14.1) для марковского процесса i = i. Поэтому |i| = ||i = <, (14.9) 1 -|| i=0 i=т.е. условие стационарности модели линейного фильтра (14.2) выполняется при || < 1.

Можно сделать вывод, что условие стационарности процесса Маркова имеет следующий вид:

|| < 1.

Свойства стационарного процесса AR(1):

1) Если процесс xt слабо стационарен, то его математическое ожидание неизменно, поэтому, беря математическое ожидание от обеих частей (14.8), получим E(xt) =E(xt), откуда E(xt) =0.

Если добавить в уравнение (14.8) константу:

xt = µ + xt-1 + t, то E(xt) =µ + E(xt) и µ E(xt) =.

1 - 2) Найдем дисперсию процесса Маркова, используя полученное выше уравне2 2 ние x = 2x + :

var(xt) =0 = x =. (14.10) 1 - 434 Глава 14. Линейные стохастические модели ARIMA Можно также применить общую формулу для автоковариаций в модели линейного фильтра (14.3) с k =0:

2 2 2 0 = x = i = (1 + 2 + 4 +... ) =.

1 - i=При || 1 дисперсия процесса {xt}, вычисляемая по этой формуле, неограниченно растет.

3) Коэффициент автоковариации k-го порядка по формуле (14.3) равен 2 k = ii+k = ii+k = i=0 i= 2 = 2i+k = k 2i = k.

1 - i=0 i=Можно вывести ту же формулу иным способом. Ошибка t некоррелирована не только с xt-1, но и с xt-2, xt-3 и т.д. Поэтому, умножая уравнение процесса (14.8) на xt-k при k > 0 и беря математическое ожидание от обеих частей, получим E(xtxt-k) =E(xt-1xt-k) или k = k-1, k > 0.

Таким образом, учитывая (14.10), получим k = 0k = k. (14.11) 1 - 4) Коэффициент автокорреляции, исходя из (14.11), равен:

k k = = k.

При 0 < <1 автокорреляционная функция имеет форму затухающей экспоненты (рис. 14.1а), при -1 < <0 — форму затухающей знакопеременной экспоненты (рис. 14.1б).

Если >1, процесс Маркова превращается во «взрывной» процесс.

В случае =1 имеет место так называемый процесс случайного блуждания, который относится к разряду нестационарных.

14.3. Процессы авторегрессии а) б) k k 1 k k 0 < 1 < -1 < 1 < –Рис. 14.Процесс Юла Процессом Юла называют авторегрессию второго порядка AR(2):

xt = 1xt-1 + 2xt-2 + t, (14.12) или, через лаговый оператор:

(1 - 1L - 2L2)xt = t.

Для стационарности процесса авторегрессии AR(2) необходимо, чтобы корни 1, 2 характеристического уравнения 1 - 1z - 2z2 =0, которые, вообще говоря, могут быть комплексными, находились вне единичного круга на комплексной плоскости, т.е. |1| > 1, |2| > 1.

Неформально обоснуем условия стационарности AR(2), разложив характеристиче ский полином (z) на множители (по теореме Виета 12 = -):

z z (z) =-2(1 - z)(2 - z) = 1 - 1 - =(1 - G1z)(1 - G2z), 1 1 где мы ввели обозначения G1 = и G2 =.

1 Такое разложение позволяет представить уравнение AR(2) ввид е:

(1 - G1L)(1 - G2L)xt = t. (14.13) 436 Глава 14. Линейные стохастические модели ARIMA Введем новую переменную:

vt =(1 - G2L)xt, (14.14) тогда уравнение (14.13) примет вид:

(1 - G1L)vt = t.

Видим, что ряд vt является процессом Маркова:

vt = G1vt-1 + t.

Для того чтобы процесс vt был стационарным, коэффициент G1 по модулю должен быть меньше единицы, т.е. |1| > 1.

С другой стороны, из (14.14) следует, что xt имеет вид процесса Маркова с ошибкой vt:

xt = G2xt-1 + vt.

Условие стационарности такого процесса имеет аналогичный вид: |2| > 1.

Приведенные рассуждения не вполне корректны, поскольку vt не является белым шумом. (Укажем без доказательства, что из стационарности vt следует стационарность xt.) Кроме того, корни 1, 2 могут быть, вообще говоря, комплексными, что требует изучения свойств комплексного марковского процесса. Более корректное обоснование приведенного условия стационарности будет получено ниже для общего случая AR(p).

Условия стационарности процесса AR(2), |1| > 1, |2| > 1, можно переписать в эквивалентном виде как ограничения на параметры уравнения авторегрессии:

2 + 1 < 1, 2 - 1 < 1, (14.15) - 1 <2 < 1.

Проверим эти условия. Для этого рассмотрим два случая.

1) Пусть корни характеристического уравнения вещественные, то есть 2 +42 0. Тогда для выполнения условий |1| > 1, |2| > 1 необходимым - требованием является |12| > 1 или > 1. В таком случае один из корней обязательно лежит вне отрезка [-1, 1]. Для того чтобы и второй корень не попал в этот отрезок, необходимо и достаточно, чтобы значения характеристического полинома (L) =1 - 1L - 2L2 вточках -1 и 1 были одного знака. Это условие можно описать неравенством:

(-1) · (1) > 0, или (1 + 1 - 2)(1 - 1 - 2) > 0.

14.3. Процессы авторегрессии a) 2 б) 1 –1 –1 1 –1 –Рис. 14.Таким образом, случай вещественных корней описывается системой:

2 +42 0, |2| < 1, (1 + 1 - 2)(1 - 1 - 2) > 0.

Если связать 1 и 2 с координатными осями, то область, соответствующую данной системе, можно изобразить на рисунке (см. рис. 14.2а).

2) Если корни комплексные, то они имеют одинаковую абсолютную величину:

|1| = |2| = -.

И тогда вместе с отрицательностью дискриминанта достаточно условия:

|2| < 1 (область решений см. на рис. 14.2б).

Если объединить случаи 1) и 2), то общее решение как раз описывается системой неравенств (14.15) и соответствующая область на координатной плоскости представляет собой треугольник, ограниченный прямыми:

2 = 1 +1, 2 = -1 +1, 2 = -1.

Автокорреляционная и автоковариационная функция AR(p) Для стационарного процесса авторегрессии:

xt = 1xt-1 + 2xt-2 + · · · + pxt-p + t (14.16) 438 Глава 14. Линейные стохастические модели ARIMA можно вывести формулу автокорреляционной функции. Умножив обе части уравнения на xt-k:

xt-kxt = 1xt-kxt-1 + 2xt-kxt-2 +... + pxt-kxt-p + xt-kt, и перейдя к математическим ожиданиям, получим уравнение, связывающее коэффициенты автоковариации различного порядка:

k = 1k-1 + 2k-2 +... + pk-p, k > 0. (14.17) Это выражение является следствием того, что соответствующие кроссковариации между процессом и ошибкой равны нулю: E(xt-kt) =0 при k >0, т.к. xt-k может включать лишь ошибки j для j t - k.

Делением уравнения (14.17) на 0 получаем важное рекуррентное соотношение для автокорреляционной функции:

k = 1k-1 + 2k-2 +... + pk-p, k > 0. (14.18) Подставляя в выражение (14.18) k =1,..., p, получаем, с учетом симметричности автокорреляционной функции, так называемые уравнения Юла—Уокера (Yule—Walker) для AR(p):

1 = 1 + 21 +... + pp-1, 2 = 11 + 2 +... + pp-2, (14.19) · · · p = 1p-1 + 2p-2 +... + p.

Мы имеем здесь p линейных уравнений, связывающих p автокорреляций, 1,..., p. Из этой системы при данных параметрах можно найти автокорреляции.

С другой стороны, при данных автокорреляциях из уравнений Юла—Уокера можно найти параметры 1,..., p. Замена теоретических автокорреляций выборочными дает метод оценивания параметров процесса AR(p).

В частности, для процесса Юла получим из (14.19) 1 1 =, 2 = + 2.

1 - 2 1 - Зная 1,..., p, все последующие автокорреляции k ( k >p) можем найти по рекуррентной формуле (14.18).

Для нахождения автоковариационной функции требуется знать 0, дисперсию процесса xt. Если умножить обе части (14.16) на t и взять математические ожидания, получим, что E(txt) = E(2) =. Далее, умножая обе части (14.16) t на xt и беря математические ожидания, получим 0 = 11 + 22 +... + pp +.

14.3. Процессы авторегрессии Значит, если известны автокорреляции, то дисперсию xt можно вычислять по формуле:

0 = x =. (14.20) 1 - 11 - 22 -... - pp Автоковариации затем можно вычислить как j = jx.

С учетом полученного дополнительного уравнения можно записать вариант уравнений Юла—Уокера для автоковариаций:

0 = 11 + 22 +... + pp +, 1 = 10 + 21 +... + pp-1, 2 = 11 + 20 +... + pp-2, (14.21) · · · p = 1p-1 + 2p-2 +... + p0.

В этой системе имеется p+1 уравнений, связывающих p+1 автоковариацию, что позволяет непосредственно вычислять автоковариации при данных параметрах.

Заметим, что 14.17 и 14.18 имеют вид линейных однородных конечноразностных уравнений, а для подобных уравнений существует общий метод нахождения решения. Решив уравнение 14.18, можно получить общий вид автокорреляционной функции процесса авторегрессии. Проведем это рассуждение более подробно для процесса Юла, а затем рассмотрим общий случай AR(p).

Вывод формулы автокорреляционной функции процесса Юла Из соотношения (14.18) для p =2 получаем:

k = 1k-1 + 2k-2, k > 0. (14.22) или, используя лаговый оператор, который в данном случае действует на k, (L)k =0, гд е (z) = 1 - 1z - 2z2 — характеристический полином процесса Юла. Как мы видели, этот характеристический полином можно представить ввид е:

(z) =(1 - G1z)(1 - G2z), 1 где G1 = и G2 =, а 1, 2 — корни характеристического уравнения.

1 Таким образом, k удовлетворяет уравнению:

(1 - G1L)(1 - G2L)k =0. (14.23) 440 Глава 14. Линейные стохастические модели ARIMA Найдем общее решение этого уравнения. Введем обозначение:

k =(1 - G2L)k. (14.24) Для k имеем (1 - G1L)k =0 или k = G1k-1. Поэтому k = G1k-1 = · · · = Gk-11.

В свою очередь, из (14.24), с учетом того, что 0 =1 и 1 = 1(1 - 2), следует, что 1 = 1 - G20 = - G2.

1 - Поскольку, по теореме Виета, G1 + G2 = 1, G1G2 = -2, получаем выражение для 1 через корни характеристического уравнения:

G1 + G2 G1(1 - G2) 1 = - G2 =. (14.25) 1+G1G2 1+G1GВозвращаясь к формуле (14.24), имеем, исходя из рекуррентности соотношения:

k = G2k-1 + k = G2(G2k-2 + k-1) +k =... = k- = Gk + Gk-11 + Gk-22 +... + G2k-1 + k = Gk + Gk-1-ss+1.

2 2 2 2 s=Подставляя сюда k = Gk-11, получим s k- G1 (G1/G2)k - k = Gk + 1Gk-1 = Gk + 1Gk-1 = 2 2 2 G2 (G1/G2) - s= Gk - Gk 1 = Gk + 1 1 2 = Gk + 1 - Gk.

G1 - G2 G1 - G2 1 G1 - G2 Таким образом, общее решение уравнения (14.22) имеет вид:

k = A1Gk + A2Gk, (14.26) 1 где коэффициенты A1 и A2 вычисляются по формулам:

G1(1 - G2) G2(1 - G2) 2 A1 =, A2 = -, (14.27) (G1 - G2)(1 + G1G2) (G1 - G2)(1 + G1G2) причем A1 + A2 =1.

Pages:     | 1 |   ...   | 48 | 49 || 51 | 52 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.