WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 ||

В таблице 3 показаны шесть лучших моделей, полученных в результате работы алгоритма. Таблица 4 содержит результаты настройки параметров выбранных алгоритмом моделей. Значения ошибок сравнимы со значениями, показанными в таблице 2. Из этих таблиц видно, что среднеквадратичная ошибка моделей со свободной структурой меньше или сравнима с ошибкой моделей с фиксированной структурой.

Отношение зависимости сложности модели и ее ошибки не является монотонной функцией, как на рис. 3.

№модели Число парам. µ(1) µ(2) µ(3) 1 20 0.0025 0.0051 0.2 16 0.0037 0.0053 0.3 15 0.0032 0.0053 0.4 16 0.0035 0.0055 0.5 16 0.0034 0.0061 0.6 21 0.0030 0.0063 0.Таблица 4. Оценка качества моделей различной сложности На рис. 4 показана кривая, полученная моделью № 2.

Модель позволяет адекватно приблизить двойной максимум кривой, в отличие от модели представленной рисунком 1.

Развернутый вид полученной модели i (x - i)y = (ax + b)-1 x + exp -.

2i 2i i=2. Задача о выборе непараметрических преобразований Организация эксперимента при поиске производных описаний в рассмотренной ниже задачи предполагает участие measure data regression 0.0.0.0.0.0.0.0.0.-0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 x Рис. 4. Восстановленная выборка, полученная моделью № эксперта. Экспертом задается список G непараметрических преобразований, допустимых значений длин окон этих преобразований и задается одна из наиболее адекватных многопараметрических регрессионных моделей f.

На рис. 2. показана схема организации вычислительного эксперимента. Состояние системы, изменяющееся со временем, измеряется в моменты времени и представляется в временных рядов. Одновременно с состоянием измеряется и некоторое значение отклика системы. Для построения функции, которая с заданной точностью восстанавливает значение отклика, по результатам измерения состояния предлагается следующий подход. После проведения измерений описания состояний системы отображаются в производные описания. Множество отображений вместе их суперпозициями, которые также являются отображениями, задается экспертами на этапе планирования экспери y Рис. 5. Схема организации вычислительного эксперимента мента. На рисунке это множество называется библиотекой непараметрических преобразований.

Результатом заданных отображений является расширенное описание состояния системы. Из этого множества посредством генетического оптимизационного алгоритма производится выбор подмножества из наиболее информативных описаний, т.е. тех описаний, по которым можно восстановить отклик с наименьшей ошибкой. Эти описания являются регрессорами независимыми переменными некоторой регрессионной модели из множества моделей, заданных экспертами. На рисунке это множество называется библиотекой моделей. Построенная для решения рассматриваемой задачи библиотека ядер состоит из девяти функций, которые производят сотни новых описаний; библиотека моделей состоит из нескольких несложных многопараметрических моделей.

После выбора модели выполняется настройка и регуляризация ее параметров. По отображению контрольной выборки, в данном случае контрольного временного ряда, оценивается точность модели и оценивается качество данных. При неудовлетворительной точности модели, выбор подмножества производных описаний повторяется.

Таким образом, предлагаемый метод поиска регрессионной функции заключается в нахождении композиции двух функций: функции, которая отображает векторное пространство исходных описаний в пространство расширенного набора описаний, и функции, которая отображает пространство расширенного набора описаний в пространство откликов. Первая функция отыскивается в заданном множестве непараметрических преобразований, вторая функция отыскивается в заданном семействе регрессионных мо делей. Для нахождения функций используются методы стохастической оптимизации.

Рассмотрим задачу восстановления регрессии с помощью фиксированной многопараметрической модели f (в частности, с помощью одной из нейросетевых моделей) и множества непараметрических преобразований G = {g1,..., gl}.

Заданы временные ряды x1,..., xn, y множество последовательных элементов x = x(t), y = y(t), t = 1,..., m.

Временные ряды разделены, как и в задаче (2), на обучающую и тестовую выборки. Задано конечное множество G = {g|g : x - z}, x, z Rm функций g, выполняющих непараметрическое преобразование временных рядов.

Кроме временного ряда x, аргументом функции gi является длина скользящего окна i.

Требуется из декартова произведения X G временных рядов и преобразующих функций выбрать такое подмножество заданной мощности r, которое бы удовлетворяло условию min (y, f[b, g1(1, x),..., gr(r, x)]), (4) · · g,x где b, = arg min (y, f[(b, g1(1, x·),..., gr(r, x·)]).

Другими словами, требуется выбрать такие функции и ряды gi(xj), которые бы доставляли минимальную ошибку на фиксированной модели f.

Фиксированная модель f является сложной многопараметрической моделью, для настройки параметров b которой требуется большое время (порядка минут, в зависимости от количества параметров и длины временных рядов).

В начале вычислительного эксперимента модель выбирается из таблицы 5 заданных моделей класса нейронных сетей.

Модели подробно описаны в [10]. Параметр b модели получается присоединением элементов. Например, для первой модели b = [b, w1,..., wr]T. Переменные аргументы s1,..., sr есть элементы временных рядов z1,..., zr в момент времени t. Константа N число нейронов в нейросетевых моделях. Функция sigm назначаемая монотонная функция активации нейрона.

Непараметрические преобразования g приведены в таблице 6. Все преобразования, кроме g1 и g8 выполнялись следующим образом (подробное описание непараметрических методов см. в [11]). Назначалась длина окна, внутри окна проводилось преобразование и результат помещался в центральный элемент окна. Затем окно смещалось на один элемент временного ряда и операция повторялась. Первые и последние элементы временного ряда, преобразование для которых было выполнить невозможно, вычислялись при уменьшенном значении.

В качестве преобразования g1 использовался метод “гусеница” (Singular Structure Analysis), описанный в [12]. Параметр задавал длину окна свертки. Преобразование gявлялось кольцевым сдвигом влево элементов временного ряда на величину.

Алгоритм нахождения непараметрических преобразований работает по следующей схеме.

1. Генетический алгоритм указывает номера r преобразований из G и номера их аргументов x. Создаются производные временные ряды z1,..., zr. При этом длины окон берутся заданными и корректируются позднее.

2. Настраиваются параметры регрессионной модели f.

Название Описание Параметры Линейная моr дель (LS) f = b + wisi b, w i=Квадратичная поверхность r r (QS) f = b + visi + wijsizj b, v, w i=1 i,j=Функции радиального баN r 2 a, b, c, w зиса (RBF) j i=f = wje-a (si-cij)2 + bj j=Многослойный перцептрон N r a, b, v, w (MLP) f = vjsigm (wijsi + bij) + aj j=1 i=Таблица 5. Назначаемые многопараметрические модели f № Название Описание g1 ssa восстановленные значения [13] первой главной компоненты матрицы свертки [12] последовательных элементов временного ряда g2 variance дисперсия значений элементов внутри окна g3 mean среднее значение элементов внутри окна g4, g5 min (max) минимальное (максимальное) значение внутри окна g6 max-min разница максимального и минимального значений внутри окна g7 nomean вычет среднего значения из последовательных элементов временного ряда g8 shift сдвиг по времени значений одного ряда относительно всех остальных Таблица 6. Множество G непараметрических преобразований Вычисляется ошибка на обучающей выборке.

3. Корректируются значения 1,..., r по заданной схеме. При проведении нижеописанного вычислительного эксперимента эти значения выбирались из множества назначенных. Уточняются параметры регрессионной модели f, происходит дообучение нейронной сети.

4. В популяции, элементами которой являются модели f, происходит обмен подструктурами с целью получения наиболее оптимального подмножества преобразований (см. описание в предыдущем разделе).

Рассмотрим результаты вычислительного эксперимента.

Исходные данные 18 временных рядов, из них одна переменная время, шестнадцать независимые переменные x1,..., x16 и одна зависимая переменная y. Каждый временной ряд содержит 1800 значений. Временной ряд по условиям эксперимента был разбит на блоки по 200 отсчетов, причем в качестве тестовой выборки использовалось 2 из блоков.

В качестве параметрической регрессионной модели была назначена модель MLP из таблицы 5.

Генетический алгоритм, выбирающий наиболее информативные преобразования использовал для селекции хромосомы, несущие номера производных описаний. Каждое поле хромосомы соответствует одному производному описанию, входящему в модель f. Поле содержит номер (i, j) описания gi(i, xj). После выполнении операций скрещивания и мутации полученные хромосомы проверяются на отсутствие повторного вхождения одного и того же производного описания.

Нижеприведенные результаты получены для r = 5 производных описаний. Остальные переменные не оказали существенного влияния на качество модели, т.е. при включении дополнительной переменной ошибка уменьшалась незначительно.

На рисунке 6 показаны временные ряды выбранных переменных, измеренных при проведении эксперимента. По оси абсцисс отложено время.

Рис. 6. Выбранные переменные и зависимая переменная Таблица 7 содержит список выбранных непараметрических преобразований, которые применялись к исходным временным рядам. Значения длин окон настраивались простым перебором наиболее вероятных для данного эксперимента значений.

В качестве примера настройки величины сдвига 8 производного описания g8(x) приведем рисунок 7. При изменении значения 8 от 1 до 14 значение ошибки измерялось более чем в два раза. Наименьшая ошибка достигается при значении сдвига равном 6.

Переменная Преобразование Длина окна x1 ssa x2 variance x3 mean x4 min x5 variance y shift Таблица 7. Выбранные переменные и их преобразования Рис. 7. Зависимость ошибки модели от параметра преобразования Заключение Сложные регрессионные модели, например, нейронные сети при обработке результатов измерений часто имеют большое число параметров и получаются переобученными. Для достижения результатов в построении несложных и достаточно точных моделей была поставлена задача о выборе композиции функций. Эта задача была проиллюстрирована для параметрических и непараметрических функций двумя примерами. Широкий выбор моделей, которые можно использовать в регрессионном анализе, а также множество методов оптимизации позволяют надеяться на плодотворность описанного метода.

При восстановлении регрессии большую роль играет предварительная обработка данных, так как существующие методы восстановления регрессии восстанавливают регрессию неудовлетворительно в связи с тем, что искомые алгоритмы преобразования входных данных не вполне соответствуют моделям регрессии. Была поставлена и решена задача генерации и выбора алгоритмов, создающих набор производных описаний, которые являются входными для процедур восстановления нелинейной регрессии.

Предлагаемый метод заключается в нахождении композиции двух операторов: оператора, отображающего пространство исходных временных рядов в пространство расширенного набора описаний и оператора, отображающего пространство расширенного набора описаний в пространство откликов. Первый оператор отыскивается в заданном семействе эвристических алгоритмов, второй оператор отыскивается в заданном семействе регрессионных моделей. Для нахождения операторов используются методы стохастической оптимизации.

Список литературы [1] Levenberg, K. A Method for the Solution of Certain Problems in Last Squares. Quart. Appl. Math. Vol. 2, pp.

164–168, 1944.

[2] Malada, H.R., Ivakhnenko, A. G. Inductive Learning Algorithms for Complex Systems Modeling. CRC Press, 1994.

[3] Bishop, C.M., Tipping, M.E. Bayesian regression and classification. In J. Suykens, G. Horvath, S. Basu, C.

Micchelli, and J. Vandewalle (Eds.), Advances in Learning Theory: Methods, Models and Applications, Volume 190, pp. 267–285. IOS Press, NATO Science Series III:

Computer and Systems Sciences.

[4] Group Method of Data Handling, http://www.gmdh.net/.

[5] Nikolaev, N. Iba, H. Accelerated Genetic Programming of Polynomials, Genetic Programmimg and Evolvable Machines. Kluwer Academic Publ., vol.2(3), pp.231–257.

[6] Branch, M.A., Coleman, T.F., Li, Y. A Subspace, Interior, and Conjugate Gradient Method for Large-Scale BoundConstrained Minimization Problems. SIAM Journal on Scientific Computing, vol. 21(1), pp. 1–23, 1999.

[7] Coleman, T.F., Y. Li, An Interior, Trust Region Approach for Nonlinear Minimization Subject to Bounds. SIAM Journal on Optimization, vol. 6, pp. 418–445, 1996.

[8] Goldberg, D. Genetic Algorithms in Search, Optimization, and Machine Learning. Addison-Wesley Professional, 1989.

[9] Chipperfield, A., Fleming, P., Pohlheim, H., Fonesca, C.

Genetic Algorithm Toolbox. User’s guide. University of Sheffield, 1994.

[10] Demuth, H., Beale, M. Neural Network Toolbox User’s Guide. The MathWorks, Inc., 2000.

[11] Хардле, В. Прикладная непараметрическая регрессия.

М: Мир, 1993.

[12] Golyandina, N., Nekrutkin, V., Zhigljavsky, A. Analysis of Time Series Structure SSA and Related Techniques.

CHAPMAN & HALL/CRC, 2001.

[13] Рао, С.Р. Линейные статистические методы и их применения. М: Наука, 1968. С. 530–533.

Pages:     | 1 ||



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.