WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 60 | 61 || 63 | 64 |   ...   | 82 |

1.1. Оцените модель ARCH(4). Сравните оценки с истинными параметрами модели. Сравните динамику оценки условной дисперсии и ее истинных значений.

1.2. Проделайте то же самое для модели GARCH(1, 1).

1.3. Рассчитайте описательные статистики ряда: среднее, дисперсию, автокорреляцию первого порядка, асимметрию и эксцесс. Соответствуют ли полученные статистики теории Упражнение В Таблице 16.1 дана цена pt акций IBM за периодc 25 июня 2002 г. по 9 апреля 2003 г.

2.1. Получите ряд логарифмических доходностей акций по формуле yt = 100 ln(pt/pt-1).

2.2. Постройте график ряда yt, график автокорреляционной функции yt, график автокорреляционной функции квадратов доходностей yt. Сделайте выводы об автокоррелированности самих доходностей и их квадратов. Наблюдается ли авторегрессионная условная гетероскедастичность 2.3. Оцените для доходностей модель GARCH(1, 1) на основе первых 180 наблюдений. Значимы ли параметры модели Постройте график условной дисперсии и укажите периоды высокой и низкой волатильности.

2.4. Найдите эксцесс изучаемого ряда доходностей yt и эксцесс нормированных остатков из модели GARCH. Сравните и сделайте выводы.

2.5. Постройте прогноз условной дисперсии для 19 оставшихся наблюдений. Постройте интервальный прогноз изучаемого ряда для тех же 19 наблюдений.

Какая доля наблюдений попадает в прогнозные интервалы Таблица 16.25.06.02 68.19 6.08.02 67.49 17.09.02 71.48 28.10.02 76.27 9.12.02 79.44 22.01.03 79.55 5.03.03 77.26.06.02 69.63 7.08.02 68.91 18.09.02 69.29 29.10.02 76.45 10.12.02 80.64 23.01.03 80.89 6.03.03 77.27.06.02 71.47 8.08.02 71.34 19.09.02 64.56 30.10.02 78.37 11.12.02 81.28 24.01.03 78.84 7.03.03 77.28.06.02 71.57 9.08.02 71.56 20.09.02 63.68 31.10.02 78.64 12.12.02 80.01 27.01.03 78.27 10.03.03 75.1.07.02 67.20 12.08.02 71.50 23.09.02 63.13 1.11.02 80.10 13.12.02 79.84 28.01.03 79.95 11.03.03 75.2.07.02 68.17 13.08.02 71.63 24.09.02 59.52 4.11.02 82.19 16.12.02 81.46 29.01.03 80.16 12.03.03 75.3.07.02 70.09 14.08.02 74.64 25.09.02 62.77 5.11.02 81.37 17.12.02 80.15 30.01.03 78.15 13.03.03 78.5.07.02 73.06 15.08.02 76.21 26.09.02 61.79 6.11.02 81.38 18.12.02 78.98 31.01.03 78.05 14.03.03 79.8.07.02 70.87 16.08.02 79.05 27.09.02 60.13 7.11.02 78.80 19.12.02 78.51 3.02.03 78.03 17.03.03 82.9.07.02 69.25 19.08.02 82.18 30.09.02 58.09 8.11.02 77.44 20.12.02 79.64 4.02.03 76.94 18.03.03 82.10.07.02 68.35 20.08.02 80.96 1.10.02 60.94 11.11.02 77.14 23.12.02 80.10 5.02.03 77.11 19.03.03 82.11.07.02 69.00 21.08.02 80.69 2.10.02 59.40 12.11.02 79.00 24.12.02 79.61 6.02.03 77.51 20.03.03 82.12.07.02 68.80 22.08.02 81.68 3.10.02 59.77 13.11.02 79.20 26.12.02 78.35 7.02.03 77.10 21.03.03 84.15.07.02 70.58 23.08.02 80.10 4.10.02 56.39 14.11.02 80.56 27.12.02 77.21 10.02.03 77.91 24.03.03 82.16.07.02 68.60 26.08.02 79.12 7.10.02 56.65 15.11.02 79.85 30.12.02 76.10 11.02.03 77.39 25.03.03 83.17.07.02 70.27 27.08.02 77.67 8.10.02 56.83 18.11.02 79.03 31.12.02 77.35 12.02.03 76.50 26.03.03 81.18.07.02 71.62 28.08.02 75.77 9.10.02 54.86 19.11.02 78.22 2.01.03 80.41 13.02.03 75.86 27.03.03 81.19.07.02 71.57 29.08.02 76.33 10.10.02 57.36 20.11.02 81.45 3.01.03 81.49 14.02.03 77.45 28.03.03 80.22.07.02 68.09 30.08.02 75.10 11.10.02 63.68 21.11.02 84.74 6.01.03 83.43 18.02.03 79.33 31.03.03 78.23.07.02 66.65 3.09.02 72.08 14.10.02 63.18 22.11.02 84.27 7.01.03 85.83 19.02.03 79.51 1.04.03 78.24.07.02 69.12 4.09.02 73.45 15.10.02 68.22 25.11.02 86.03 8.01.03 84.03 20.02.03 79.15 2.04.03 81.25.07.02 68.94 5.09.02 71.91 16.10.02 64.65 26.11.02 84.89 9.01.03 86.83 21.02.03 79.95 3.04.03 81.26.07.02 66.00 6.09.02 72.92 17.10.02 71.93 27.11.02 87.53 10.01.03 87.51 24.02.03 78.56 4.04.03 80.29.07.02 70.75 9.09.02 74.22 18.10.02 73.97 29.11.02 86.75 13.01.03 87.34 25.02.03 79.07 7.04.03 80.30.07.02 71.36 10.09.02 75.31 21.10.02 75.26 2.12.02 87.13 14.01.03 88.41 26.02.03 77.40 8.04.03 80.31.07.02 69.98 11.09.02 73.92 22.10.02 74.21 3.12.02 85.04 15.01.03 87.42 27.02.03 77.28 9.04.03 78.1.08.02 67.84 12.09.02 71.60 23.10.02 74.32 4.12.02 83.53 16.01.03 85.88 28.02.03 77.2.08.02 67.47 13.09.02 72.23 24.10.02 71.83 5.12.02 82.90 17.01.03 81.14 3.03.03 77.5.08.02 65.60 16.09.02 72.05 25.10.02 74.28 6.12.02 82.16 21.01.03 80.38 4.03.03 76.16.5 Упражнения и задачи 542 Модели с авторегрессионной условной...

Задачи 1. Объясните значение термина «волатильность».

2. Рассмотрите следующие два утверждения:

а) «GARCH является слабо стационарным процессом»;

б) «GARCH является процессом с изменяющейся во времени дисперсией».

Поясните смысл каждого из них. Объясните, почему между ними нет противоречия.

3. Почему процесс GARCH представляет особый интерес для финансовой эконометрии 4. В каком отношении находятся между собой модели ARCH и GARCH 5. Коэффициент процесса ARCH(1) равен = 0.8, безусловная дисперсия равна 2. Запишите уравнение процесса.

6. Приведите конкретный пример процесса ARCH(1), который имел бы конечную безусловную дисперсию. Ответ обоснуйте.

7. Приведите конкретный пример процесса ARCH(1), куртозис которого не определен («бесконечен»). Ответ обоснуйте.

8. Вычислите безусловную дисперсию следующего процесса GARCH:

2 t =0.4+0.1t-1 +0.72.

t Докажите формально, что ваш ответ верен.

9. Докажите, что следующий процесс GARCH не может иметь конечную безусловную дисперсию:

2 t =1 +0.6t-1 +0.62.

t-(Подсказка: можно использовать доказательство от противного.) 2 10. Процесс GARCH(1, 1) задан уравнением t =1+0.8t-1 +0.12. Известt-но, что T =9, T = -2. Чему равен прогноз на следующий период Чему равна дисперсия этого прогноза 11. Покажите, что модель GARCH(1, 1) можно записать в виде модели ARCH бесконечного порядка.

16.5 Упражнения и задачи 12. Утверждается, что «модель GARCH более компактна, чем модель ARCH».

Что при этом имеется в виду Почему важна «компактность» модели 13. Докажите, что процесс GARCH(p, q) не автокоррелирован.

14. Докажите, что процесс GARCH(p, q) является белым шумом, если существует его безусловная дисперсия.

15. Пользуясь представлением квадратов процесса GARCH(1, 1) в виде ARMA(1, 1) выведите их автокорреляционную функцию.

16. Запишите автокорреляционную функцию квадратов процесса GARCH(1, 1).

Покажите, что при значении суммы коэффициентов 1 + 1, приближающемся к 1 (но меньшем 1) автокорреляционная функция затухает медленно. Покажите, что при фиксированном значении суммы коэффициентов 1 + 1 = (0 <<1), автокорреляция тем слабее, чем меньше 1, и стремится к нулю при 1 0.

17. Рассмотрите следующую модель с авторегрессионной условной гетероскедастичностью:

2 t = + t-1 + [f(t-1)]2, где f(z) =|z| -z.

а) Укажите значения параметров, при которых эта модель сводится к обычной модели GARCH.

б) Утверждается, что в этой модели имеет место асимметричность влияния «шоков» t на условную дисперсию. Что при этом имеется в виду При каких значениях параметров влияние будет симметричным 18. Запишите модель GARCH(1, 1)-M с квадратным корнем условной дисперсии в уравнении регрессии (с расшифровкой обозначений).

19. Рассмотрите модель AR(1) с независимыми одинаково распределенными ошибками и модель AR(1) с ошибками, подчиняющимися процессу GARCH.

а) Объясните, почему точечные прогнозы по этим двум моделям не будут отличаться.

б) Как будут отличаться интервальные прогнозы 20. Пусть имеется некоторый процесс с авторегрессионной условной гетероскедастичностью t, задаваемый моделью 2 2 t = var(t|t-1) =h(t-1,..., t-p, 2,..., 2 ), t-1 t-q 544 Модели с авторегрессионной условной...

где t-1 — предыстория процесса, h(·) — некоторая функция и t = tt.

Предполагается, что инновации t имеют стандартное нормальное распределение и не зависят от предыстории t-1. Найдите куртозис t, если известно, 2 что E(t ) =5, E(t ) = 100. О чем говорит величина куртозиса 21. Докажите, что эксцесс распределения отдельного наблюдения t процесса ARCH(1) t = tt, t = + 2, t NID(0, 1) t-равен.

1 - 22. Какие сложности возникают при построении прогнозных интервалов процесса GARCH с заданным уровнем доверия (например, 95%) Каким способом можно обойти эту проблему 23. Почему модель GARCH не подходит для прогнозирования автокоррелированных временных рядов Рекомендуемая литература 1. Магнус Я.Р., Катышев П.К., Пересецкий А.А. Эконометрика — начальный курс. — М.: «Дело», 2000. (Гл. 12).

2. Предтеченский А.Г. Построение моделей авторегрессионной условной гетероскедастичности (ARCH) некоторых индикаторов российского финансового рынка (дипломная работа), ЭФ НГУ, 2000.

( ).

3. Шепард Н. Статистические аспекты моделей типа ARCH и стохастическая волатильность. Обозрение прикладной и промышленной математики. Т. 3, вып. 6. — 1996.

4. Baillie Richard T. and Tim Bollerslev. Prediction in Dynamic Models with Time Dependent Conditional Variances // Journal of Econometrics, No. 52, 1992.

5. Bera A.K. and Higgins M.L. ARCH Models: Properties, Estimation and Testing // Journal of Economic Surveys, No. 7, 1993.

6. Bollerslev T., Engle R.F. and Nelson D.B. ARCH Models // Handbook of Econometrics. Vol. IV. Ch. 49. — Elsevier Science, 1994.

16.5 Упражнения и задачи 7. Bollerslev Tim. Generalized Autoregressive Conditional Heteroskedasticity // Journal of Econometrics, No. 31, 1993.

8. Bollerslev Tim, Ray Y. Chou and Kenneth F. Kroner. ARCH Modeling in Finance: A Review of the Theory and Empirical Evidence // Journal of Econometrics, No. 52, 1992.

9. Campbell John Y., Lo Andrew W., MacKinlay A. Craig. The Econometrics of Financial Markets. — Princeton University Press, 1997. (Ch. 12).

10. Diebold, Francis X. and Jose A. Lopez Modeling Volatility Dynamics, Macroeconometrics: Developments, Tensions and Prospects. — Kluwer Academic Press, 1995.

11. Engle, Robert F. Autoregressive Conditional Heteroskedasticity with Estimates of the Variance of U.K. Inflation // Econometrica, No. 50, 1982.

12. Greene W.H. Econometric Analysis. — Prentice-Hall, 2000. (Ch. 18).

13. Hamilton James D. Time Series Analysis. Ch. 21. — Princeton University Press, 1994.

14. Mills Terence C. The Econometric Financial Modelling Time Series. — Cambridge University Press, 1999. (Ch. 4).

Глава Интегрированные процессы, ложная регрессия и коинтеграция 17.1. Стационарность и интегрированные процессы Для иллюстрации различия между стационарными и нестационарными случайными процессами рассмотрим марковский процесс, т.е. авторегрессию первого порядка:

xt = µ + xt-1 + t, или (1 - L)xt = µ + t.

В данной модели xt — не центрированы.

Будем предполагать, что ошибки t — независимые одинаково распределенные случайные величины с нулевым математическим ожиданием и дисперсией.

Как известно, при || < 1 процесс авторегрессии первого порядка слабо стационарен и его можно представить в виде бесконечного скользящего среднего:

µ + t µ xt = = + it-i.

1 - L 1 - i=17.1. Стационарность и интегрированные процессы Условие || < 1 гарантирует, что коэффициенты ряда затухают. Математичеµ ское ожидание переменной xt постоянно: E(xt) =. Дисперсия равна 1 - var(xt) = 2ivar(t-i) =.

1 - i=Найдем также автоковариации процесса:

k 2 2 k = cov(xt, xt-k) = i+ki = k 2i =.

1 - i=0 i=Таким образом, рассматриваемый процесс слабо стационарен, поскольку слабое определение стационарности требует, чтобы математическое ожидание xt было постоянным, а ковариации не зависели от времени, но только от лага. На самом деле, поскольку ошибки t одинаково распределены, то он стационарен и в строгом смысле.

При || > 1 это будет взрывной процесс. Такие процессы рассматриваться не будут.

Как известно (см. гл. 14), авторегрессионный процесс первого порядка при = 1 называют случайным блужданием. Если µ = 0, то это просто случайное блуждание, а при µ =0 это случайное блуждание с дрейфом.

У процесса случайного блуждания, начавшегося бесконечно давно, не существует безусловного математического ожидания и дисперсии. За бесконечное время процесс «уходит в бесконечность», его дисперсия становится бесконечной. В связи с этим будем рассматривать все моменты процесса случайного блуждания как условные, т.е. будем действовать так, как если бы x0 была детерминированной величиной. Выразим xt через x0:

t xt = x0 + µt + i.

i=Таким образом, константа (дрейф) в авторегрессионной записи процесса приводит к появлению линейного тренда в xt. Мы получили разложение процесса xt на две составляющие: детерминированный линейный тренд µt и случайное блуж t дание = x0 + i, такое что ошибка t представляет собой его приросты:

t i=t =. Вторую составляющую, как мы помним, называют стохастическим тренt дом, поскольку влияние каждой ошибки не исчезает со временем.

548 Интегрированные процессы...

= 0.1 = 0. 4 20 40 60 80 100 20 40 60 80 = 1 = 1. 50 10 20 40 60 80 100 20 40 60 80 Рис. 17.1. Поведение процесса AR(1) в зависимости от значения Используя данное представление, найдем математическое ожидание и дисперсию:

E(xt|x0) =x0 + µt.

t t var(xt|x0) =var i = var (i) =t. (17.1) i=1 i=Дисперсия со временем растет линейно до бесконечности.

Случайное блуждание является примером авторегрессионого процесса с единичным корнем. Это название следует из того, что при =1 корень характеристического многочлена 1 - L, соответствующего процессу AR(1), равен единице.

Рисунок 17.1 иллюстрирует поведение марковских процессов при различных коэффициентах авторегрессии. На каждом из графиков изображены 20 рядов длиной T = 100, случайно сгенерированных по формуле xt =0.3+xt-1 + t сразными значениями : 1) =0.1; 2) =0.9; 3) =1; 4) =1.02. Во всех случаях использовалось стандартное нормальное распределение для t и x0 =0.

Добавим к стационарному процессу AR(1) детерминированный тренд µ1t:

xt = µ0 + µ1t + xt-1 + t.

17.1. Стационарность и интегрированные процессы Тогда µ0 + µ1t + t µxt = = + µ1 i(t - i) + it-i = 1 - L 1 - i=0 i= µ0 µ= - µ1 ii + t + it-i.

1 - 1 - i=0 i= Ряд ii сходится, поскольку i возрастает линейно, а i убывает экспоi= ненциально при || < 1, т.е. значительно быстрее. Его сумма равна.

(1 - )Используя это, получаем µ0 µ1 µxt = - + t + it-i = 0 + 1t + it-i, (17.2) 1 - (1 - )2 1 - i=0 i=где µ0 µ1 µ0 = - и 1 =.

1 - (1 - )2 1 - Можно также записать уравнение процесса в виде:

(xt - 0 - 1t) =(xt-1 - 0 - 1(t - 1)) + t.

Ясно, что если вычесть из xt тренд 1t, то получится стационарный процесс.

Подобного рода процессы называют стационарными относительно тренда.

Рассмотрим теперь процесс ARMA(p, q):

p q xt = ixt-i + t - it-i.

Pages:     | 1 |   ...   | 60 | 61 || 63 | 64 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.