WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 14 | 15 || 17 | 18 |   ...   | 82 |

Theorem 4. Under assumption that any element from has the continuous second-order derivation, an RFT-FN is feasible to be constructively optimized by gradient methods respectively matrixes С.

Conclusion Special kind of the “functional nets”: so called RFT – FN, generalizing classical functional nets, namely, artificial neural nets, has been proposed and investigated in the report. The RFT – FN permit multilevel optimization. First level optimization is the optimization in the primary functional element and the pseudo inverse is principally in this stage. Another principal level of the optimization is the optimization due to optimization in the beam dynamics.

Bibliography [Amit, 2002] Y. Amit., 2D Object Detection and Recognution: models, algorithms and networks.–The MIT Press, Cambridge, Massachusetts.– 2002.–306 p.

[Veelenturf,1995] L.P.J.Veelenturf, Analysis and applications of artificial Neural Networks.–Prentice Hall (UK).– 1995.–259 p.

[Donchenko, Kirichenko, Serbaev,2004] V.S. Donchenko, N.F.Kirichenko,D.P.Serbaev. Recursive regression transformations and dynamical systems.// Proceedings of the Seventh International Conference “Computer Data Analysis and modelling:

robustness and computer intensive methods”.– V.1.–September 6-10, 2004. – Minsk (Belarus).– p.147-151.

XII-th International Conference "Knowledge - Dialogue - Solution" [Колмогоров,1956] А.Н.Колмогоров О представлении непрерывных функций нескольких переменных суперпозициями непрерывных функций меньшего числа переменных.// Доклады АН СССР. – 1956. – Т. 108. – № 2. – С. 179- 182.

[Арнольд,1957.] В.И. Арнольд О функциях трех переменных.// Докл. АН СССР. – 1957. – Т. 114. – № 4. – С. 953- 956.

[Алберт,1977] А.Алберт Регрессия, псевдоинверсия, рекуррентное оценивание.– Пер.с англ.– М.: Наука.–1977.–305с.

[Кириченко,Лепеха,2002] Н.Ф. Кириченко, Н.П.Лепеха Применение псевдообратных и проекционных матриц к исследованию задач управления, наблюдения и идентификации.// Кибернетика и системный анализ. – 2002. – № 4. – с. 107-124.

[Кириченко, Крак, Полищук,2004] Н.Ф.Кириченко, Ю.В. Крак.А.А. Полищук Псевдообратные и проекционные матрицы в задачах синтеза функциональных преобразователей.// Кибернетика и системный анализ –2004.–№3.

[Donchenko, Kirichenko,2005.] V.S Donchenko, N.F. Kirichenko Generalized Inverse in Control with the constraints.// Cybernetics and System Analysis.– v.39 (6) November-December– 2003.–p.854-861(USA).

[Линник,1962] Ю.В.Линник Метод наименьших квадратов и основы математико-статистической теории обработки наблюдений. Изд. 2-е. – М.:Физматгиз.– 1962.– 349 c.

[Вапник,1979] В.Н. Вапник. Восстановление зависимостей по эмпирическим данным. – М.: Наука. – 1979. – 447 с.

[Ивахненко,1969] А.Г. Ивахненко Самоорганизующиеся системы распознавания и автоматического управления. – К.:

Техника. – 1969. – 395 с.

Authors’ Information Volodymyr Donchenko – Kyiv National Taras Shevchenko University (Ukraine), Professor, e-mail: voldon@unicyb.kiev.ua Mykola Kirichenko – Institute of the Cybernetics, National Academy of Sciences (Ukraine), Professor Yuriy Krivonos – Institute of the Cybernetics, National Academy of Sciences (Ukraine), Member Correspondent of the National Academy of Sciences.

СРАВНИТЕЛЬНЫЙ АНАЛИЗ НЕЧЕТКИХ НЕЙРОННЫХ СЕТЕЙ С РАЗЛИЧНЫМИ АЛГОРИТМАМИ ВЫВОДА В ЗАДАЧАХ ПРОГНОЗИРОВАНИЯ КУРСОВ АКЦИЙ Юрий Зайченко, Юрий Келестин, Севаее Фатма Abstract: The fuzzy neural networks (FNN) with different inference algorithms of Mamdani, Tsukamoto and Sugeno are considered in this paper. The learning algorithm of gradient type for Mamdani and Tsukamoto FNN is described and investigated. The application of FNN with different inference algorithms and membership functions for stocks prices forecasting was carried out and presented and their efficiency estimated.

Keywords: fuzzy neural networks, learning algorithms, stock prices, forecasting Введение В последние годы появилось достаточно большое число публикаций, посвященных исследованиям систем с нечеткой логикой и нечетких нейронных сетей (ННС) в задачах управления, классификации и распознавания образов [1,2,3,7,8]. Их основными достоинствами по сравнению с обыкновенными ННС являются возможность работы с неполными и неопределенными данными, возможность учета знаний экспертов в виде нечетких предикатных правил вывода, «если-то». Появились также работы, посвященные исследованию ННС в задачах прогнозирования в экономике. Так, в работе [4] проведено исследование нечетких контроллеров с выводом Мамдани и Цукамото, в задачах макроєкономического прогнозирования, с треугольными функциями принадлежности. В работах [5,6] проведено исследование ННС ANFIS с выводом Сугено в задачах прогнозирования. Цель настоящей работы состоит в проведении сравнительного анализа ННС с различными алгоритмами нечеткого вывода и функциями принадлежности в задачах прогнозирования финансовых рынков с целью определения наиболее адекватного метода для класса задач прогнозирования состояния финансовых рынков, в частности, курсов акций..

Neural and Growing Networks Алгоритмы нечеткого логического вывода Рассмотрим следующие наиболее употребительные алгоритмы нечеткого вывода, считая, для простоты, что базу знаний организуют два нечетких правила вида:

1: если x есть A1 и y есть B1, то z есть C2 : если x есть A2 и y есть B2, то z есть Cгде x и y – имена входных переменных, z – имя переменной вывода, A1, B1,C1, A2, B2,C2 – некоторые заданные функции принадлежности. При этом четкое значение z0 необходимо определить на основе приведенной информации и четких значений x0 и y0.

Алгоритм Мамдани В рассматриваемой ситуации он математически может быть описан следующим образом:

1)Введение нечеткости. Находятся степени истинности для предпосылок каждого правила:

A1(x0), A2(x0), B1(x0), B2(x0).

2) Логический вывод. Находятся уровни “отсечения” для предпосылок каждого из правил (с использованием операции МИНИМУМ):

1 = A1(x0 ) B1(y0 );

2 = A2 (x0 ) B2( y0 );

где через “ ” обозначена операция логического минимума (min). Затем находятся “усеченные” функции принадлежности:

C1 = (1 C1(z));

C2 = (2 C2 (z)).

3) Композиция. Производится объединение найденных усеченных функций с использованием операции МАКСИМУМ (мах, обозначенные далее как “ ”), что приводит к получению итогового нечеткого подмножества для переменной выхода с функцией принадлежности:

(z) = C(z) = C1(z) C2(z) = (1 C1(z)) (2 C2(z)) (1) 4) Приведение к четкости. Проводится для нахождения z0, например, центроидным методом.

Алгоритм Цукамото Исходные посылки – как у предыдущего алгоритма, но здесь предполагается, что функции C1(z),C2(z) монотонными.

1) Введение нечеткости (как в алгоритме Мамдани).

2) Нечеткий вывод. Сначала находятся уровни “отсечения” 1 и 2 (как в алгоритме Мамдани), а затем решениями уравнений:

1 = C1(z1) и 2 = C2 (z2 ) определяются четкие значения ( z1 и z2 ) для каждого исходного правила.

3) Определяется четкое значение переменной вывода (как взвешенное среднее z1 и z2 ):

1z1 + 2zz0 = (2) 1 + XII-th International Conference "Knowledge - Dialogue - Solution" Алгоритм Sugeno Sugeno и Takagi использовали набор правил в следующей форме (как и ранее, приведем пример двух правил):

1: если x есть A1 и y есть B1 то z1 = a1x + b1y 2 : если x есть A2 и y есть B2 то z2 = a2x + b2 y Описание алгоритма 1) Введение нечеткости (как в алгоритме Mamdani).

2) Нечеткий вывод. Находятся 1 = A1(x0 ) B1( y0 ) 2 = A2(x0) B2(y0), и индивидуальные выходы правил:

z1 = a1x0 + b1y z2 = a2x0 + b2 y3) Определяется четкое значение переменной вывода 1z1 + 2zz0 = (3) 1 + Градиентный алгоритм обучения ННС с гауссовскими функциями принадлежностями.

Используемый в работе [3] алгоритм обучения НК Мамдани носит эмпирический характер, формулы для настройки параметров функций принадлежности теоретически необоснованны. Это связано с тем, что в НК Мамдани и Цукамото традиционно используются треугольные ФП, а пересечение условий правил берется в форме min. В результате получаемые ФП оказываются недифференцируемыми.

В связи с этим авторами разработан аналитический алгоритм обучения, сходимость которого строго доказано. С этой целью необходимо перейти к гауссовским ФП, для условий и правил.

Итак, пусть ФП і-го - модуля связанного с правилом R описывается следующим выражением:

k 1 (xi - aik )ik (xi ) = (4) exp - * 2, 2 ik k - модуля имеют где аik, - параметры подлежащие настройки в процессе обучения и ФП ik следующий аналогичный вид:

1 (yi - ak )k (yi ) = exp *, - k при этом пересечение условий правил задается в виде произведения.

n 1 (xi - aik )ik (xi ) = k = exp *.

(5) - 2 ik i= Допустим, что дефаззификация происходит по центроидному методу, тогда общий выход:

k zk k Z = k k Neural and Growing Networks Пусть для определения следствия правила используется монотонные ФП и z определяется путём k решения следующего уравнения (контроллер Цукамото).

k (6) Ск(zk)= 1 (zk - ak )Где С (z )= exp *, к k - k 1 (zk - ak )k Тогда решая уравнение вида: exp * =, - k ± 2 ln *k.

находим два корня: Z = a k k Первый корень Z = a – на монотонно возрастающем участке кривой z (a ), а второй 1k k - 2 ln * r k k z – на участке монотонно убывающем участке.

2k Пусть критерий Е(z)= (z min, где z* - фактический выход; а z – выход НК, тогда находим 0-z*)производные E E z0 zk k = = +(z0 - z*), K ak z0 zk ak (7) k k =(8) E E z z * 0 0 k k = = -(z - z ) 2 ln K z z k 0 k k a k k =на монотонно возрастающем участке кривой ФП µ ;

к E k = +(z0 - z*) 2ln K (9) ak ak k=на монотонно убывающем участке кривой.

Для входных µ-модулей K zk k - zkk E E z0 k (xi - aik ) = = (z0 - z*)k k =1 k 2 z0 k aik ik ik k k (10) K zk k - zkk E E z0 k (xi - aik ) = = (z0 - z*)k k=1 k 2 ik z0 k ik ik k k и тогда градиентный алгоритм обучения ННС Мамдани выглядит следующим образом для выходных модулей:

E * k ak (n + 1) = ak (n) - = ak (n) - ( z0 - z ) (11) n n ak k XII-th International Conference "Knowledge - Dialogue - Solution" E k ' ' k(n+1) =k(n)-n =k(n)-n(z0 -z*) 2ln (12) k k k Экспериментальные исследования нечетких нейронных сетей в задачах прогнозирования в финасовой сфере С целью оценки эффективности различных алгоритмов нечеткого вывода были проведены экспериментальные исследования различных классов нечетких нейросетей в задачах прогнозирования финансового рынка. Для прогнозирования был выбран рынок акций ОАО «Лукойл», допущенных к торгам на НП «фондовая биржа Российская торговая систем» (НПРТС). Были проведены эксперименты по прогнозированию курсов акций на РТС, используя разработанный программный продукт для трех алгоритмов. Для обучения использовалась выборка из 267 ежедневных значений пользователей курсов акций ОАО «Лукойл» за период с 1.04.2005 по 30.12.2005.

В ходе тестирования экспериментально было установлено, что наиболее оптимальным является использование трех термов и пяти правил обучения, так как при таких параметрах мы имеем самую минимальную СКО и наименьшее время обучение. Обучение параметров ФП производилось градиентным методом с шагом обучения 0,4.

1.Использование НК Мамдани при прогнозировании курсов акций.

Используя НК Мамдани с треугольными и гауссовскими ФП были получены следующие результаты прогнозирования курса акций ОАО «Лукойл». Они приведены в таблице 1.

Таблица 1. Результаты прогноза с использованием НК Мамдани для ФП Гаусса.

Реальное Прогнозируемое Квадрат Дата значение значение Отклонение отклонения 01.12.2005 58,1 58,23 0,13 0,02.12.2005 58,7 58,54 0,16 0,05.12.2005 59,4 59,14 0,26 0,06.12.2005 59 59,11 0,11 0,07.12.2005 59,85 59,97 0,12 0,08.12.2005 59,6 59,416 0,184 0,09.12.2005 59,9 60,12 0,22 0,12.12.2005 60,65 60,5 0,15 0,13.12.2005 60,65 60,54 0,11 0,14.12.2005 61,15 61,32 0,17 0,15.12.2005 60,25 60,1 0,15 0,16.12.2005 61 61,2 0,2 0,19.12.2005 61,01 61,24 0,23 0,20.12.2005 60,7 60,54 0,16 0,0,168142857 СКО=0,Далее было проведено прогнозирование при использовании НК Мамдани для треугольной ФП. Как показал первый эксперимент лучшим оказался контроллер Мамдани с гауссовскими ФП (СКО на проверочной выборке из 14 точек составляет всего 0,03024, относительная средняя ошибка 3,02%).

2. Далее проведены эксперименты по прогнозированию с использованием НК Цукамото с треугольными и гауссовскими ФП. Результаты прогноза НК Цукамото для ФП Гаусса приведены в табл.2, а для треугольной ФП в табл.Neural and Growing Networks Таблица 2. Результаты прогноза НК Цукамото для ФП Гаусса.

Реальное Прогнозируемое Квадрат Дата значение значение Отклонение отклонения 01.12.2005 58,1 58,37 0,27 0,02.12.2005 58,7 58,47 0,23 0,05.12.2005 59,4 59,1 0,3 0,06.12.2005 59 59,25 0,25 0,07.12.2005 59,85 60,19 0,34 0,08.12.2005 59,6 59,37 0,23 0,09.12.2005 59,9 60,27 0,37 0,12.12.2005 60,65 60,48 0,17 0,13.12.2005 60,65 60,42 0,23 0,14.12.2005 61,15 61,4 0,25 0,15.12.2005 60,25 60,06 0,19 0,16.12.2005 61 61,22 0,22 0,19.12.2005 61,01 61,28 0,27 0,20.12.2005 60,7 60,48 0,22 0,0,252857143 СКО=0,Таблица 3. Результаты прогноза НК Цукамото для треугольной ФП.

Реальное Прогнозируемое Квадрат Дата значение значение Отклонение отклонения 01.12.2005 58,1 58,48 0,38 0,02.12.2005 58,7 58,37 0,33 0,05.12.2005 59,4 59,05 0,35 0,06.12.2005 59 59,27 0,27 0,07.12.2005 59,85 60,23 0,38 0,08.12.2005 59,6 59,23 0,37 0,09.12.2005 59,9 60,32 0,42 0,12.12.2005 60,65 60,4 0,25 0,13.12.2005 60,65 60,28 0,37 0,14.12.2005 61,15 61,42 0,27 0,15.12.2005 60,25 59,97 0,28 0,16.12.2005 61 61,27 0,27 0,19.12.2005 61,01 61,34 0,33 0,20.12.2005 60,7 60,38 0,32 0,0,327857143 СКО=0,Как показал второй эксперимент, лучшим оказался контроллер Цукамото с гауссовской ФП (СКО на проверочную выборку из 14 точек составляет всего 0,0667, а средняя относительная ошибка прогноза 6,67%) 3.Далее были проведены сравнительные исследования эффективности прогнозирования с использованием следующих методов:

• контроллер Мамдани с гауссовскими ФП;

• контроллер Цукамото с гауссовскими ФП;

• контроллер Сугено с гауссовскими ФП;

• контроллер Мамдани с треугольными ФП;

• контроллер Цукамото с треугольными ФП;

• контроллер Сугено с треугольными ФП;

• нечеткая нейронная сеть ANFIS;

XII-th International Conference "Knowledge - Dialogue - Solution" В табл.4 и табл.5 приведены сравнительные результаты прогнозирования курса акций ОАО «Лукойл», полученные разными методами нечеткого логического вывода (размер проверочной выборки 10 точек).

.

Pages:     | 1 |   ...   | 14 | 15 || 17 | 18 |   ...   | 82 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.