WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 49 | 50 || 52 | 53 |   ...   | 82 |

14.3. Процессы авторегрессии 2 k k k k 3 k k Рис. 14.В стационарных процессах корни характеристического уравнения лежат вне единичного круга. Следовательно, |G1| < 1 и |G2| < 1, и автокорреляционная функция состоит из совокупности затухающих экспонент, что на рисунке 14.соответствует областям 1, 2, 3 и 4, лежащим выше параболической границы 2 +42 0.

При этом, если оба корня положительны или доминирует по модулю отрицательный корень (соответственно, положительное G), автокорреляционная функция затухает, асимптотически приближаясь к экспоненте (области 1 и 4 на рис. 14.3). Когда же оба корня отрицательны или доминирует по модулю положительный корень (или отрицательное G), автокорреляционная функция затухает по экспоненте знакопеременно (области 2 и 3 на рис. 14.3).

Если корни разного знака и совпадают по модулю, то затухание k происходит в области положительных значений, но имеет колебательный характер:

G1 = -G2, следовательно A1 = A2 =0.5 и 0, если k — нечетное, k = Gk, если k — четное.

Рассмотрим случай, когда корни 1 = G-1 и 2 = G-1 —комплексные.

1 Тогда автокорреляционная функция процесса авторегрессии второго порядка будет представлять собой затухающую синусоиду:

dk· sin(k + ) k =, sin 442 Глава 14. Линейные стохастические модели ARIMA 1 1+dгде d = -2, =arccos, =arctg tg.

2 -2 1 - dПодтвердим справедливость формулы. Поскольку коэффициенты характеристического многочлена — действительные числа, то 1 и 2 — комплексносопряженные, поэтому G1 и G2 тоже являются комплексно-сопряженными. Далее, G1, как и любое комплексное число, можно представить в виде:

G1 = dei = d cos + i d sin, где d = |G1| ( = |G2|) —мод уль, а — аргумент комплексного числа G1. Соответственно, для G2 как для сопряженного числа верно представление:

G2 = de-i = d cos - i d sin.

Для нахождения d воспользуемся тем, что -2 = G1· G2 = dei· de-i = d2.

ei + e-i G1 + GЗначит, d = -2. Кроме того, cos = =, поэтому, учиты2 2d вая, что G1 + G2 = 1, получаем:

cos =.

2 -Подставим теперь G1 = dei и G2 = de-i в выражения (14.27) для A1 и A2:

dei(1 - d2e-2i) ei - d2e-i A1 = = = (dei - de-i)(1 + d2eie-i) (ei - e-i)(1 + d2) 1+d1+i tg (1 - d2)cos + i(1 + d2)sin 1 - d= =.

2i(1 + d2)sin 2i Пусть — такой угол, что 1+dtg = tg.

1 - dТогда 1+i tg cos + i sin ei A1 = = =.

2i 2i sin ei - e-i Отсюда найдем A2:

e-i A2 =1 - A1 = -.

ei - e-i 14.3. Процессы авторегрессии Несложно увидеть, что A1 и A2 являются комплексно-сопряженными.

Подставим найденные A1 и A2 в(14.26):

ei e-i k = A1Gk + A2Gk = · dkeik - · dke-ik = 1 ei - e-i ei - e-i ei(k+) - e-i(k+) = dk.

ei - e-i Таким образом, подтверждается, что автокорреляционную функцию можно записать вформе dk sin(k + ) k =.

sin Нахождение автокорреляционной функции AR(p) с помощью решения конечно-разностного уравнения Аналогичным образом можно изучать автокорреляционную функцию процесса AR(p) при произвольном p. Запишем уравнение (14.18) с помощью лагового оператора, действующего на k:

(L)k =0, k > 0, (14.28) где (L) =1 - 1L - 2L2 -... - pLp.

Рассмотрим характеристическое уравнение:

(z) =1 - 1z - 2z2 -... - pzp =0.

Пусть i (i =1,..., p) — корни этого уравнения. Мы будем предполагать, что все они различны. Характеристический многочлен (z) можно разложить следующим образом:

p (z) =-p (i - z).

i=Обозначим через Gi значения, обратные корням характеристического урав нения: Gi =. Тогда, учитывая, что 1· 2·... · p = -и соответственно p i G1· G2·... · Gp = -p, имеем:

p (1 - Giz) p p (z) =-p - z = -p i=1 = (1 - Giz).

p Gi i=Gi i=i=444 Глава 14. Линейные стохастические модели ARIMA Исходя из этого, перепишем уравнение (14.28) в виде:

(1 - G1L)(1 - G2L)·... · (1 - GpL)k =0. (14.29) Из теории конечно-разностных уравнений известно, что если все корни i различны, то общее решение уравнения (14.18) имеет вид:

k = A1Gk + A2Gk +... + ApGk, k > -p, (14.30) 1 2 p где Ai — некоторые константы, в общем случае комплексные. (Обсуждение решений линейных конечно-разностных уравнений см. в Приложении A.4.) Проверим, что это действительно решение. Подставим k в (14.29):

p p (1 - GiL)k = (1 - GiL)(A1Gk + A2Gk +... + ApGk) = 1 2 p i=1 i=p p p = (1 - GiL)A1Gk + (1 - GiL)A2Gk +... + (1 - GiL)ApGk =0.

1 2 p i=1 i=1 i=Для доказательства использовался тот факт, что LGk = Gk-1 и поэтому j j p (1 - GiL)Gk = (1 - GiL)(1 - GjL)Gk =0.

j j i=1 i =j Формулы для коэффициентов A1,..., Ap можно получить из условий:

0 =1, k = -k, откуда p p p Ai Ai =1 и AiGk =, k =1,..., p- 1.

i Gk i i=1 i=1 i=Другой способ состоит в том, чтобы вычислить 1,..., p-1 из уравнений Юла— Уокера (14.19), а затем составить на основе (14.30) при k =0,..., p- 1 систему линейных уравнений, откуда и найти A1,..., Ap.

Если все корни характеристического уравнения удовлетворяют условию |i| > 1, то |Gi| < 1 i и все слагаемые в (14.30) затухают с ростом k. Если же для какого-то корня выполнено |i| < 1, то (при условии, что Ai =0) соответ ствующее слагаемое «уходит на бесконечность». Если |i| =1, то соответствующее слагаемое не затухает. Из этих рассуждений следует условие стационарности AR(p) — все корни соответствующего характеристического уравнения по модулю должны быть больше единицы.

14.3. Процессы авторегрессии Если корень i = G-1 действителен, элемент AiGk в (14.30) убывает с роi i стом k экспоненциально, коль скоро |i| > 1. Если же есть пара комплексносопряженных корней i = G-1, j = G-1, то соответствующие коэффициенi j ты Ai, Aj также будут сопряженными и в составе автокорреляционной функции появится экспоненциально затухающая синусоида (см. вывод автокорреляционной функции процесса Юла).

Таким образом, из соотношения (14.30) следует, что в общем случае автокорреляционная функция стационарного процесса авторегрессии является комбинацией затухающих экспонент и затухающих синусоид.

Итак, мы вывели общий вид автокорреляционной функции стационарного процесса авторегрессии. Теоретически выборочная автокорреляционная функция может служить инструментом для распознавания авторегрессионого процесса.

На практике же для коротких рядов различительная сила автокорреляционной функции не очень высока. Однако часто изучение автокорреляционной функции является хорошим заделом исследования системы.

Кроме автокорреляционной функции важным инструментом для распознавания типа процесса является его спектр.

Спектр стационарного процесса авторегрессии В главе 13 мы определили спектральную плотность стационарного процесса как косинус-преобразование Фурье автоковариационной функции (13.29):

p(f) =2 0 +2 k cos 2fk. (14.31) k=Из этой общей формулы найдем спектральную плотность для стационарного процесса Маркова ( |1| < 1). Автоковариационная функция этого процесса имеет вид:

k k =.

1 - Подставляя эти автоковариации в формулу (14.31), получим p(f) = 1+2 k cos 2fk.

1 - k=Воспользовавшись представлением косинуса через комплексную экспоненту (формулами Эйлера) — 2cos2fk = ei2fk + e-i2fk, после несложных преобра446 Глава 14. Линейные стохастические модели ARIMA зований получим:

2 k 2 k p(f) = 1ei2f + 1e-i2f - 1, 1 - k=0 k=т.е.

p(f) = (1z)k + (1z-1)k - 1, 1 - k=0 k=где мы ввели обозначение z = ei2f.

По формуле бесконечной геометрической прогрессии 2 1 p(f) = + - 1.

1 - 2 1 - 1z 1 - 1z-Произведение знаменателей двух дробей можно записать в разных формах:

(1 - 1z)(1 - 1z-1) =1 - 1(z + z-1) +2 = =1 - 21 cos 2f + 2 = 1 - 1e-i2f.

Приведя к общему знаменателю, получим 2 1 - 1z-1 +1- 1z - 1+1(z + z-1) - p(f) = = 1 - 2 (1 - 1z)(1 - 1z-1) 2 1 - =.

1 - 2 (1 - 1z)(1 - 1z-1) Таким образом, спектральная плотность марковского процесса равна p(f) =, 1 - 21 cos 2f + или, в другой форме, p(f) =.

1 - 1e-i2f Ошибку t авторегрессии произвольного порядка AR(p) можно выразить в виде линейного фильтра от yt:

p t = xt - jxt-j, j=14.3. Процессы авторегрессии поэтому для вычисления спектра авторегрессионного процесса можно воспользоваться общей формулой (14.4), характеризующей изменение спектра при применении линейного фильтра.

Спектральная плотность белого шума t равна 2. Применение формулы (14.4) дает p 2 = p(f) 1 - je-i2fj, j=откуда p(f) =.

1 - 1e-i2f - 2e-i4f -· · · -pe-i2pf В частном случае процесса Юла формула спектральной плотности имеет вид:

p(f) = = 1 - 1e-i2f - 2e-i4f =.

1+2 + 2 - 21(1 - 2)cos2f - 22 cos 4f 1 Разложение Вольда и условия стационарности процессов авторегрессии Как уже говорилось, модель AR(p) можно записать в виде модели линейного фильтра:

xt = it-i = (L)t, i=где (L) =-1(L). Если процесс авторегрессии стационарен, то это разложение Вольда такого процесса.

Найдем коэффициенты модели линейного фильтра i процесса авторегрессии.

Для этого в уравнении p (L)(L) = iLi 1 - jLj =i=0 j=448 Глава 14. Линейные стохастические модели ARIMA приравняем коэффициенты при одинаковых степенях L. Получим следующие уравнения:

0 = 1, 1 - 01 = 0, 2 - 11 - 02 = 0,...

p - p-11 -... - 1p-1 - 0p = 0, p+1 - p1 -... - 2p-1 - 1p = 0,...

Общая рекуррентная формула имеет следующий вид:

p i = ji-j, i > 0, (14.32) j=где 0 =1 и i =0 при i <0.

Это разностное уравнение, которое фактически совпадает с уравнением для автокорреляций (14.18). Соответственно, если все корни характеристического уравнения различны, то общее решение такого уравнения такое же, как указано в (14.30), т.е.

i = B1Gi + B2Gi +... + BpGi, i > -p, 1 2 p где Bi — некоторые константы. Коэффициенты Bi можно вычислить, исходя из известных значений i при i 0.

Очевидно, что если |Gj| < 1 j, то все слагаемые здесь экспоненциально затухают, и поэтому ряд, составленный из коэффициентов i сходится абсолютно:

|i| <.

i=Таким образом, указанное условие гарантирует, что процесс авторегрессии является стационарным. Это дополняет вывод, полученный при анализе автокорреляционной функции.

Итак, условием стационарности процесса AR(p) является то, что корни i характеристического уравнения лежат вне единичного круга на комплексной плоскости.

Для процесса AR(2) имеем два уравнения для коэффициентов B1, B2:

B1 B+ = -1 =0, G1 GB1 + B2 = 0 =1, 14.3. Процессы авторегрессии G1 Gоткуда B1 = и B2 = -. Таким образом, в случае процесса Юла G1-G2 G1-Gимеем Gi+1 - Gi+1 i =, i > -1, G1 - Gи xt = (Gi+1 - Gi+1)t-i.

G1 - G2 i=0 1 Оценивание авторегрессий Термин авторегрессия для обозначения модели (14.7) используется потому, что она фактически представляет собой модель регрессии, в которой регрессорами служат лаги изучаемого ряда xt. По определению авторегрессии ошибки t являются белым шумом и некоррелированы с лагами xt. Таким образом, выполнены все основные предположения регрессионного анализа: ошибки имеют нулевое математическое ожидание, некоррелированы с регрессорами, не автокоррелированы и гомоскедастичны. Следовательно, модель (14.7) можно оценивать с помощью обычного метода наименьших квадратов.

Отметим, что при таком оценивании p начальных наблюдений теряются. Пусть имеется ряд x1,..., xT. Тогда регрессия в матричной записи будет иметь следующий вид:

xp+1 xp · · · x1 p+ xp+2 xp+1 · · · x2 p+.

.

= +.

.

....

....

....

p xT xT -1 · · · xT -p T Как видим, здесь используется T - p наблюдений.

Оценки МНК параметров авторегрессии равны = M-1m, где = =(1, 2,..., p), аматрицы M и m, как нетрудно увидеть, фактически состоят из выборочных автоковариаций ряда xt. Отличие от стандартных выборочных автоковариаций состоит в том, что используются не все наблюдения.

Можно рассматривать данную регрессию как решение уравнений Юла— Уокера для автоковариаций (14.21) (или, что эквивалентно, уравнений для автокорреляций (14.19)), где теоретические автоковариации заменяются выборочными.

450 Глава 14. Линейные стохастические модели ARIMA Действительно, уравнения Юла—Уокера (14.21) без первой строки записываются ввид е =, где 1 1 1 2 · · · p- 2 1 1 1 · · · p- =, =,.....

.

......

.

.....

p p-1 p-2 p-3 · · · откуда =-1.

Замена теоретических значений автоковариаций k выборочными автоковариациями ck позволяет найти параметры процесса авторегрессии. Ясно, что при этом можно использовать и стандартные формулы выборочных автоковариаций. Тем самым, мы получаем еще один из возможных методов оценивания авторегрессий — метод моментов.

Частная автокорреляционная функция Как мы видели, автокорреляционная функция процесса авторегрессии состоит из экспоненциально затухающих компонент. Такая характеристика не очень наглядна, поскольку соседние автокорреляции сильно связаны друг с другом, и, кроме того, для полного описания свойств ряда используется бесконечная последовательность автокорреляций.

Более наглядными характеристиками авторегрессии являются частные автокорреляции. Частная автокорреляция измеряет «чистую» корреляцию между уровнями временного ряда xt и xt-k при исключении опосредованного влияния промежуточных уровней ряда. Такой показатель корреляции между элементами ряда более информативен.

Пусть {xt} — произвольный стационарный ряд (не обязательно авторегрессия) и j — его автокорреляции. Применим к нему уравнения Юла—Уокера (14.19), как если бы процесс представлял собой авторегрессию k-го порядка, и найдем по автокорреляциям коэффициенты. Если обозначить j-й коэффициент уравнения авторегрессии порядка k через kj, то уравнения Юла—Уокера 14.3. Процессы авторегрессии принимают вид:

1 1 2... k-1 k1 1 1 1... k-2 k2 2 1 1... k-3 k3 = 3.

......

.

.......

.

......

k-1 k-2 k-3... 1 kk k Частная автокорреляция k-го порядка определяется как величина kk, полученная из этих уравнений.

Решение этих уравнений соответственно для k = 1, 2, 3 дает следующие результаты (здесь используется правило Крамера):

1 1 1 1 1 1 2 2 - 2 1 11 = 1, 22 = =, 33 =.

- 1 1 1 1 1 1 2 1 Частная автокорреляционная функция рассматривается как функция частной автокорреляции от задержки k, гд е k =1, 2,....

Для процесса авторегрессии порядка p частная автокорреляционная функция {kk} будет ненулевой для k p и равна нулю для k >p, то есть обрывается на задержке p.

Значение выборочного частного коэффициента автокорреляции kk вычисляется как МНК-оценка последнего коэффициента в уравнении авторегрессии AR(k).

Pages:     | 1 |   ...   | 49 | 50 || 52 | 53 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.