WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     || 2 |
-- [ Страница 1 ] --

Московский государственный институт стали и сплавов (технологический университет)

На правах рукописи

Щипин Константин Сергеевич СИСТЕМА ПРОГНОЗИРОВАНИЯ НА ОСНОВЕ МНОГОКРИТЕРИАЛЬНОГО АНАЛИЗА ВРЕМЕННЫХ

РЯДОВ Специальность 05.13.10 «Управление в социальных и экономических системах» Диссертация на соискание ученой степени кандидата технических наук

Научный консультант: д.т.н., проф. А.С. Рыков Москва 2004 СОДЕРЖАНИЕ Введение............................................................................................................................................. 4 1. Модели и методы прогнозирования на основе временных рядов............................................ 8 1.1. Временные ряды..................................................................................................................... 8 1.1.1. Определение временного ряда....................................................................................... 8 1.1.2. Генезис наблюдений, образующих временной ряд..................................................... 9 1.1.3. Основные задачи анализа временных рядов.............................................................. 10 1.1.4. Стационарные временные ряды и их основные характеристики............................. 10 1.2. Обзор, математических моделей, применяемых при анализе временных рядов........... 11 1.2.1. Регрессионные модели.................................................................................................. 11 1.2.2. Модель авторегрессии (АР).......................................................................................... 27 1.2.3. Модель скользящего среднего (СС)............................................................................ 29 1.2.4. Смешанные модели авторегрессии – скользящего среднего (АРСС)...................... 30 1.2.5. Описание периодических процессов рядами Фурье.................................................. 31 1.3. Модели и методы принятия решений................................................................................. 41 1.3.1. Постановки многокритериальных задач принятия решений.................................... 42 1.3.2. Характеристики приоритета критериев. Нормализация критериев......................... 46 1.3.3. Принципы оптимальности в задачах принятия решений.......................................... 48 1.3.4. Метод аналитической иерархии................................................................................... 55 1.3.5. Методы порогов несравнимости ЭЛЕКТРА............................................................... 56 1.3.6. Диалоговые методы. Метод ограничений................................................................... 57 1.4. Выводы к главе 1.................................................................................................................. 59 2. Модели и метды многокритериального прогнозирования...................................................... 60 2.1. Постановка задачи прогнозирования................................................................................. 60 2.2. Критерии оценки качества прогнозирования.................................................................... 63 2.3. Решение задачи прогнозирования как задачи оптимизации............................................ 64 2.4. Алгоритм построения множества конкурирующих прогнозов....................................... 66 2.5. Прогнозирование в диалоговом режиме с ЛПР................................................................ 2.5.1. Особенности диалоговых методов принятия решений............................................. 70 2.5.2. Диалоговый алгоритм решения задачи прогнозирования......................................... 73 2.6. Аддитивные модели прогнозирования............................................................................... 79 2.6.1. Определение наличия неслучайной составляющей во временном ряду................. 79 2.6.2. Анализ тренда................................................................................................................ 81 2.6.3. Анализ сезонной компоненты...................................................................................... 83 2.6.4. Анализ случайной компоненты................................................................................... 83 2.7. Выводы к главе 2.................................................................................................................. 84 3. Программная реализация системы прогнозирования.............................................................. 85 3.1. Структура информационной системы «Эпиднадзор»...................................................... 85 3.2. Объектная модель системы прогнозирования................................................................... 86 3.2.1. Диаграммы классов....................................................................................................... 86 3.2.2. Описание классов подсистемы прогнозирования...................................................... 89 3.3. Пользовательский интерфейс системы прогнозирования................................................ 98 3.3.1. Назначение основных элементов интерфейса пользователя.................................... 98 3.3.2. Настройка параметров прогнозирования.................................................................... 99 3.3.3. Настройка параметров отображения результатов прогнозирования..................... 101 3.3.4. Выбор рационального прогноза в диалоговом режиме........................................... 103 3.4. Выводы к главе 3................................................................................................................ 104 4. Примеры построения прогнозов с помощью системы прогнозирования............................ 105 4.1. Использование диалогового алгоритма решения задачи прогнозирования при построении прогноза................................................................................................................. 106 4.2. Влияние выбора формальной постановки задачи прогнозирования на результаты прогнозирования................................................................................................... 115 4.3. Выводы к главе 4................................................................................................................ 126 Основные результаты работы...................................................................................................... 127 Список использованной литературы........................................................................................... 128 Приложение 1. Акты о внедрении............................................................................................... ВВЕДЕНИЕ В 2001 году постановлением Правительства Российской Федерации утверждена Федеральная целевая программа «Предупреждение и борьба с заболеваниями социального характера (2002–2006 годы)». В подпрограмме «Вакцинопрофилактика» этой программы говорится о необходимости проведения работ по совершенствованию эпидемиологического надзора за инфекциями, управляемыми средствами специфической профилактики, и государственного контроля за проведением профилактических и противоэпидемических мероприятий. В рамках решения задач подпрограммы «Вакцинопрофилактика» создана и постоянно совершенствуется «Компьютерная система эпидемиологического надзора за инфекционными заболеваниями (федеральный уровень)» (далее информационная система «Эпиднадзор»), предназначенная для автоматизации процедур сбора, хранения и обработки информации по мониторингу за инфекционными заболеваниями. Основу системы составляет интегрированная база данных, содержащая информацию, собираемую по формам федерального государственного и отраслевого статистического наблюдения /33, 49/. Актуальность обуславливается необходимостью решения задач, возникающих перед государственной санитарно-эпидемиологической службой при осуществлении эпидемиологического надзора за инфекционными заболеваниями и связанных с обработкой и анализом поступающих статистических данных. Это задачи регламентированной обработки статистической отчетности, постоянного наблюдения за эпидемическим процессом во времени, оперативные ситуационные задачи, связанные с принятием управленческих решений, задачи анализа причинно-следственных связей в складывающейся обстановке, прогнозирования развития эпидемической ситуации /5/. В работе содержатся теоретические положения, которые были положены в основу подсистемы «Прогноз» информационной системы «Эпиднадзор», предназначенной для поддержки принятия управленческих решений при эпидемиологическом надзоре за инфекционными заболеваниями, а также примеры использования и результаты внедрения этой системы в деятельность Департамента государственного санитарноэпидемиологического надзора Минздрава России и Федерального центра государственного санитарно-эпидемиологического надзора Минздрава России. В диссертационной работе предлагается методика решения задачи прогнозирования на основе временных рядов с использованием стандартных методов, их комбинаций и модификаций следующем: • известных методов.

Особенности предлагаемого подхода состоят в реализованы многокритериальное описание качества прогнозов, описание понятий «хороший» или «оптимальный» прогноз;

• для разных ситуаций содержательно описаны требования к качеству прогнозов, которые трансформированы в множество формальных постановок задач прогнозирования;

• сформировано множество прогнозных моделей, на основе ретроспективного анализа осуществляется выбор вида и параметров моделей;

• используются прогнозные модели аддитивной структуры, позволяющие проводить покомпонентный анализ составляющих временного ряда;

• система прогнозирования реализуется в диалоговом варианте.

Целью диссертационной работы являются разработка алгоритмов построения прогнозов на основе анализа временных рядов, разработка методов формализации оценки их качества, создание на основе этих методов и алгоритмов системы прогнозирования и ее последующая интеграция в информационную систему эпидемиологического надзора за инфекционными заболеваниями «Эпиднадзор». Для достижения поставленной цели в работе поставлены и решены следующие задачи. 1. Анализ существующих методов прогнозирования на основе временных рядов. 2. Формулировка постановок многокритериальных задач прогнозирования. 3. Разработка методики оценки качества прогнозирования, учитывающей предпочтения эксперта. 4. Разработка диалогового алгоритма рационального выбора «лучших» прогнозов. 5. Решение задач построения прогнозов как задач оптимизации. 6. Реализация подсистемы прогнозирования для информационной системы «Эпиднадзор». 7. Оценка работоспособности системы при прогнозировании инфекционной заболеваемости.

Для решения поставленных задач исследования были использованы методы многокритериальной оптимизации, системного анализа и исследования операций, математической статистики, эконометрики, теории реляционных баз данных, объектноориентированного проектирования и программирования.

На защиту выносятся. 1. Многокритериальный подход при формализации постановки задачи прогнозирования, включающий построение критериев оценки качества прогноза, постановку оптимизационных задач для настройки прогнозных моделей. 2. Диалоговый алгоритм решения задачи прогнозирования как многокритериальной задачи оптимизации на основе предложенных критериев оценки качества прогноза. 3. Предложенные в работе прогнозные модели, их структура и параметры. 4. Разработанная система прогнозирования на основе многокритериального анализа временных рядов Научная новизна диссертации заключается в предложении многокритериального подхода при формализации постановки задачи прогнозирования. Множество предложенных критериев оценки качества прогнозов трансформировано в формальные постановки задач многокритериальной оптимизации, которые решаются на множестве конкурирующих прогнозов. Для решения поставленных задач построено множество прогнозных моделей. Разработан диалоговый алгоритм рационального выбора лучших прогнозов. Практическая значимость работы состоит в том, что применение разработанной системы прогнозирования в деятельности госсанэпидслужбы с последующим принятием управленческих решений, направленных на профилактику и снижение инфекционной заболеваемости, позволяет повысить качество и эффективность эпидемиологического надзора за инфекционными заболеваниями в России. Разработанная система прогнозирования на основе многокритериального анализа временных рядов реализована как подсистема прогнозирования в информационной системе эпидемиологического надзора за инфекционными заболеваниями «Эпиднадзор». Информационная система «Эпиднадзор» находится в промышленной эксплуатации в Департаменте государственного санитарно-эпидемиологического надзора Минздрава России и Федеральном центре государственного санитарно-эпидемиологического надзора Минздрава России.

Результаты диссертационной работы докладывались и обсуждались на: • международной конференции «Идентификация систем и задачи управления» (SICPRO), Москва, 2004 г.;

• международном форуме «Информатизация процессов охраны здоровья населения – 2001», Кемер, Турция, 2001 г.;

• совещаниях в Департаменте государственного санитарно-эпидемиологического надзора Минздрава России и Федеральном центре госсанэпиднадзора Минздрава России;

• семинарах на кафедре автоматизированных систем управления Московского государственного института стали и сплавов (технологического университета).

1. МОДЕЛИ И МЕТОДЫ ПРОГНОЗИРОВАНИЯ НА ОСНОВЕ ВРЕМЕННЫХ РЯДОВ В главе рассмотрены известные методы и модели, применяемые при анализе временных рядов. Описаны временные ряды, рассматривается генезис наблюдений его образующих. Приводится обзор основных задач, решаемых при анализе временных рядов. Рассматриваются стационарные временные ряды и их основные характеристики. Описываются методы регрессионного анализа, применявшиеся в работе, модели стационарных временных рядов. Также приведены методика аппроксимации рядами Фурье временных рядов. Изложены основные методы многокритериальной оптимизации.

1.1. Временные ряды 1.1.1. Определение временного ряда Ряд наблюдений x (t1 ), x (t2 ),..., x (t N ) анализируемой случайной величины (t ), произведенных в последовательные моменты времени t1, t2,..., t N, называется временным рядом /56/. В работе рассматриваются временные ряды с равноотстоящими моментами наблюдений. Это позволяет представлять их в форме x (1), x ( 2),..., x ( N ). Определение, приведенное выше, опирается на понятие случайной величины, зависящей от параметра t, интерпретируемого как время. То есть, по существу, речь идет об однопараметрическом семействе случайных величин { (t )}.

Это значит, что закон распределения вероятностей этих случайных величин, и в частности, их первые и вторые моменты, также, вообще говоря, могут зависеть от времени t. Принципиальное отличие временного ряда от последовательности наблюдений x1, x2,..., xn, образующих случайную выборку /56/ заключается в том, что, вопервых, в отличие от элементов случайной выборки члены временного ряда не являются статистически независимыми, а во-вторых, члены временного ряда не являются одинаково распределенными, т.е. P{x (t1 ) < x} P{x (t2 ) < x} при t1 t2. С одной стороны, это означает, что распространять свойства и правила статистического анализа случайной выборки на временные ряды нельзя. С другой стороны, взаимозависимость членов временного ряда создает базу для построения прогнозных ) значений анализируемого показателя (т.е. для построения оценок x ( N + k ) для неизвестных значений x ( N + k ) по наблюденным значениям x (1), x ( 2),..., x ( N ) ).

1.1.2. Генезис наблюдений, образующих временной ряд Целесообразно выделить следующие 4 типа факторов, под воздействием которых формируются значения элементов временного ряда /56/. 1. Долговременные, формирующие общую (в длительной перспективе) тенденцию в изменении анализируемого признака x (t ). Обычно эта тенденция описывается с помощью той или иной неслучайной функции f тр (t ), как правило, монотонной. Эту функцию называют функцией тренда (трендом). 2. Сезонные, формирующие периодически повторяющиеся в определенное время года колебания анализируемого признака. Условимся обозначать результат действия сезонных факторов с помощью неслучайной функции (t ). Поскольку эта функция должна быть периодической (с периодами, кратными «сезонам»), в ее аналитическом выражении участвуют гармоники, периодичность которых, как правило, обусловлена содержательной сущностью задачи. 3. Циклические, формирующие изменения анализируемого признака, обусловленные действием долговременных циклов экономической, демографической или астрофизической природы (волны Кондратьева, демографические «ямы», циклы солнечной активности и т.п.). Результат действия циклических факторов будем обозначать с по мощью неслучайной функции (t ). 4. Случайные, не поддающиеся учету и регистрации. Их воздействие на формирование значений временного ряда как раз и обусловливает стохастическую природу элементов x (t ), а, следовательно, и необходимость интерпретации наблюдений, произведенных над случайными x (1), x ( 2),..., x ( N ) как величинами, соответственно, (1), ( 2),..., ( N ). Будем обозначать результат воздействия случайных факторов с помощью случайных величин («остатков», «ошибок») (t ). Конечно, вовсе не обязательно, чтобы в процессе формирования значений всякого временного ряда участвовали одновременно факторы всех четырех типов. Однако во всех случаях предполагается непременное участие случайных факторов. Кроме того, примем (в качестве гипотезы) для определенности аддитивную структурную схему влияния факторов на формирование значений x (t ), которая означает правомерность представления значений членов временного ряда в виде разложения:

x (t ) = f тр (t ) + (t ) + (t ) + (t ), где,, (1.1) принимают значение 0 или 1, в зависимости от того, участвуют ли в значений x (t ) долговременные, сезонные, циклические факторы формировании соответственно /56/. Выводы о том, участвуют или нет факторы данного типа в формировании значений x (t ), могут базироваться как на анализе содержательной сущности задачи (т.е. быть априорно-экспертными по своей природе), так и на специальном статистическом анализе исследуемого временного ряда.

1.1.3. Основные задачи

анализа временных рядов Отправляясь от приведенного выше аддитивного разложения (1.1) временного ряда x (t ), можно дать общую формулировку базисной цели его статистического анализа: по имеющейся траектории x (t1 ), x (t2 ),..., x (t N ) анализируемого временного ряда x(t ) требуется: 1. определить, какие из неслучайных функций f тр (t ), (t ) и (t ) присутствуют в разложении (1.1), т. е. определить значения индикаторов,, ;

2. построить «хорошие» оценки для тех неслучайных функций, которые присутствуют в разложении (1.1);

3. подобрать модель, адекватно описывающую поведение «случайных остатков» (t ), и статистически оценить параметры этой модели. Успешное решение задач 1 –3, обусловленных базисной целью статистического анализа временного ряда, является основой для достижения конечных прикладных целей исследования и, в первую очередь, для решения задачи кратко- и среднесрочного прогноза значений временного ряда /56/.

1.1.4. Стационарные временные ряды и их основные характеристики Поиск модели, адекватно описывающей поведение случайных остатков (t ) анализируемого временного ряда x(t ), производят, как правило, в рамках некоторого специального класса случайных временных последовательностей – класса стационарных временных рядов, особенности которых рассматриваются в работах /6, 44, 56, 70/.

Ряд x(t ) называется строго стационарным, если совместное распределение вероятностей m наблюдений x (t1 ), x (t2 ),..., x (tm ) такое же, как и для m наблюдений x (t1 + ), x (t2 + ),..., x (tm + ), при любых m, t1, t2,..., tm и /56/. Другими словами, свойства строго стационарного временного ряда не меняются при изменении начала отсчета времени. В частности, при m = 1 из предположения о строгой стационарности временного ряда x(t ) следует, что закон распределения вероятностей случайной величины x(t ) не зависит от t, а значит, не зависят от t и все его основные числовые характеристики, в том числе: среднее значение Dx (t ) = E( x (t ) a ) 2 = 2. Ex (t ) = a и дисперсия Очевидно, значение a определяет постоянный уровень, относительно которого флуктуирует анализируемый временной ряд x(t ), а постоянная величина характеризует размах этой флуктуации. Поскольку закон распределения вероятностей случайной величины x(t ) одинаков при всех t, то он сам и его основные числовые характеристики могут быть оценены по наблюдениям x(1), x ( 2),..., x ( N ) /29/. В частности оценки среднего значения и дисперсии:

a= 1 N x (t ), t = N (1.2) 2 = 1 N ( x (t ) a ) t = N.

(1.3) 1.2. Обзор, математических моделей, применяемых при анализе временных рядов 1.2.1. Регрессионные модели 1.2.1.1. Результирующая и объясняющие переменные Результирующей называется переменная (или признак) y, характеризующая результат или эффективность функционирования анализируемой системы /56/. Ее значения формируются в процессе и внутри функционирования этой системы под воздействием ряда других переменных и факторов, часть из которых поддается регистрации и, в определенной степени, управлению и планированию. В регрессионном анализе результирующая переменная выступает в роли функции, значения которой определяются (с некоторой случайной погрешностью) значениями упомянутых выше объясняющих переменных, выступающих в роли аргументов. Поэтому по природе своей результирующая переменная y всегда стохастична. Объясняющие – переменные (или признаки) X = ( x (1), x ( 2),..., x ( p ) ), поддающиеся регистрации, описывающие условия функционирования изучаемой системы и в существенной мере определяющие процесс формирования значений результирующих переменных /56/. Как правило, часть из них поддается хотя бы частичному регулированию и управлению. Значения ряда объясняющих переменных могут задаваться как бы «извне» анализируемой системы. В этом случае их принято называть экзогенными. В регрессионном анализе они играют роль аргументов той функции, в качестве которой рассматривается анализируемый результирующий показатель y. По своей природе объясняющие переменные могут быть как случайными, так и неслучайными.

1.2.1.2. Функция регрессии y по X = ( x (1), x ( 2 ),..., x ( p ) ) Функция F ( X * ) называется функцией регрессии y по X, если она описывает изменение условного среднего значения результирующей переменной y (при условии, что значения объясняющих переменных X зафиксированы на уровнях X* ) в зависимости от изменения значений X* объясняющих переменных /56/. Математически это определение может быть записано в виде:

f ( X * ) = E( y | X = X * ).

(1.4) В дальнейшем в целях упрощения обозначений правую часть (1.4) будем записывать просто E( y | X). Поэтому сокращенно функция регрессии может быть определена также соотношением f ( X ) = E( y | X ).

(1.5) Объясняющие переменные X могут быть как случайными величинами, так и неслучайными параметрами, от значений которых зависит закон распределения вероятностей случайной результирующей переменной y.

1.2.1.3. Уравнения регрессионной связи между y и X Выше было отмечено, что в регрессионном анализе результирующая переменная y выступает в роли функции, значения которой определяются (с некоторой случайной погрешностью) значениями объясняющих переменных X = ( x (1), x ( 2 ),..., x ( p ) ), выступающих в роли аргументов этой функции. Это может быть выражено в виде уравнений регрессионной связи: y ( X ) = f ( x ) + ( X ). E( X ) 0 (1.6) Присутствие случайной «остаточной» составляющей («регрессионных остатков» ( X ) в первом соотношении уравнений (1.6) обусловлено причинами двоякой природы: вопервых, она отражает влияние на формирование значений y факторов, не учтенных в перечне объясняющих переменных X ;

во-вторых, она может включать в себя случайную погрешность в измерении значения результирующего показателя y (даже в «идеальной» ситуации, когда по значениям объясняющих переменных X в принципе можно было бы однозначно восстановить значение анализируемой результирующей переменной). Второе соотношение в уравнениях (1.6) непосредственно следует из смысла функции регрессии f ( X ) = E( y | X ), поскольку усреднение (вычисление математического ожидания) левых и правых частей первого из соотношений (1.6) при любом фиксированном значении X дает E( y ( X) | X) = E( f ( X)) + E(( X)).

(1.7) А так как E( y ( X ) | X ) = f ( X ) по определению и E( f ( X )) = f ( X ) (поскольку величина f (X ) при фиксированных значениях X не является случайной), то E(( X)) = 0 при любом фиксированном значении X. Спецификация и способ статистического анализа моделей типа (1.6) зависят от конкретизации требований к виду функции f (X ), природе объясняющих переменных X и стохастических регрессионных остатков (X).

1.2.1.4. Исходные статистические данные Все выводы в регрессионном анализе строятся на основании имеющихся исходных статистических данных. Будем полагать в дальнейшем, что мы располагаем результатами регистрации значений анализируемых объясняющих ( x (1), x ( 2 ),..., x ( p ) ) и результирующей ( y ) переменных на n статистически обследованных объектах. Так что, если i — номер обследованного объекта, то имеющиеся исходные статистические данные состоят из n строк вида: ( x (1), x ( 2 ),..., x ( p ) ;

yi ), i = 1,2,..., n, (1.8) где xi( j ) и yi — значения соответственно j -й объясняющей переменной ( j = 1,2,..., p ) и результирующего показателя, зарегистрированные на i -м обследованном объекте. Из чисто технических соображений данные (1.8) в регрессионном анализе обычно представляют в виде двух матриц вида:

1 x1(1) ( 1 x21) X =...... 1 x (1) n... x1( p ) (... x2 p ) –...... (... xn p ) (1.9) матрица размера переменных, и n ( p + 1), составленная из наблюденных значений объясняющих Y = ( y1, y 2,..., y n ) – T (1.10) вектор-столбец высоты n, составленный из наблюденных значений результирующей переменной. Возможны ситуации, когда данные регистрируются на одном и том же объекте, но в разные периоды («такты») времени. Тогда i будет означать номер периода времени, к которому «привязаны» соответствующие данные, a n – общее число тактов времени, в течение которых собирались исходные данные (случай «временной» выборки в отличие от предыдущей — «пространственной»). Наконец, возможна ситуация;

когда «отслеживается» каждый из объектов в течение N тактов времени («пространственно-временная» выборка, или «панельные данные»). В любой из упомянутых ситуаций исходные данные могут быть представлены в конечном счете в форме (1.9) – (1.10), которую мы примем за базовую.

1.2.1.5. Основные задачи прикладного регрессионного анализа Анализ регрессионных зависимостей вида (2.3), базирующийся на исходных статистических данных (1.9) – (1.10), нацелен на решение следующих основных задач /56/. 1. Для любых заданных значений объясняющих переменных построить наилучшие в определенном смысле точечные X = ( x (1), x ( 2 ),..., x ( p ) ) и интервальные [ f (X )]p (с для f ( X) и доверительной вероятностью P ) оценки соответственно неизвестной функции регрессии f (X).

2. По заданным значениям объясняющих переменных X = ( x (1), x ( 2),..., x ( p ) ) построить наилучший в определенном смысле точечный и интервальный (с доверительной вероятностью P ) прогноз соответственно y ( X) и [ y (X )]p для неизвестного значения результирующей переменной y ( X ). 3. Пусть известно, что искомая функция регрессии принадлежит некоторому параметрическому семейству функций { f ( X;

)}, где = ( 0, 1,..., k ) – векторный параметр, все или некоторые компоненты которого допускают определенную экономическую интерпретацию. Требуется построить наилучшие в определенном смысле точечные и интервальные оценки для неизвестных значений этих параметров. 4. Оценить удельный вес влияния каждой из объясняющих переменных x (1), x ( 2),..., x ( p ) на результирующий показатель y (X) и, в частности, определить, какие из объясняющих переменных можно исключить из модели (1.6) как практически не влияющие на процесс формирования значений результирующего показателя.

Итак, собственно регрессионный анализ начинается с решения задачи 1 и, в частности, с конструирования по исходным данным вида (1.9) – (1.10) оценки f ( X) для неизвестной функция регрессии f ( X) = E( y | X). Исходным этапом в решении этой задачи следует признать выбор параметрического семейства функций F = { f ( X;

)} – класса допустимых решений, в рамках которого предполагается вести поиск наилучшей (в определенном смысле) аппроксимации f ( X) для f (X). Существует тезис о том, что «не следует гнаться за чрезмерной сложностью функции, описывающей поведение искомой функции регрессии». Следуя этой логике, при подборе общего вида функции регрессии, как правило, идут от простого к сложному, т.е. начинают с анализа возможности использовать простейшую линейную модель.

1.2.1.6. Классическая линейная модель множественной регрессии (КЛММР) Классическая линейная модель множественной регрессии (КЛММР) представляет собой простейшую версию конкретизации требований к общему виду функции регрессии X), природе объясняющих переменных X и статистических регрессионных остатков (X) в общих уравнениях регрессионной связи (1.6). В рамках КЛММР эти требования формулируются следующим образом /56/:

yi = i + i xi(1) +... + p xi( p ) + i i = 1,2,..., n;

E i = 0 i = 1,2,..., n;

2 при i = j E( ) = ij при i j;

0 (1) ( 2 ) ( p) неслучайные переменные;

x, x,..., x ранг матрицы X = p + 1 < n (матрица X определена соотношением (2.6) ) (1.11) ( ) Из (1.11) следует, что в рамках КЛММР рассматриваются только линейные функции регрессии, т. е.

f (X ) = E( y | X ) = 0 + 1 x (1) +... + p x ( p ), (1.12) где объясняющие переменные x (1), x ( 2),..., x ( p ) играют роль неслучайных параметров, от которых зависит закон распределения вероятностей результирующей переменной y. Это, в частности, означает, что в повторяющихся выборочных наблюдениях ( xi(1), xi( 2 ),..., xi( p ) ) единственным источником случайных возмущений значений y, являются случайные возмущения регрессионных остатков i. Кроме того, постулируется взаимная некоррелированность случайных регрессионных остатков ( E ( i j ) = 0 для i j ). Это требование к регрессионным остаткам 1, 2,..., n относится к основным предположениям классической модели и оказывается вполне естественным в широком классе реальных ситуаций, особенно, если речь идет о пространственных выборках (1.9) – (1.10), т.е. о ситуациях, когда значения анализируемых переменных регистрируются на различных объектах (индивидуумах, семьях, предприятиях, банках, регионах и т. п.). В этом случае данное предположение означает, что «возмущения» (регрессионные остатки), получающиеся при наблюдении одного какого-либо обследуемого объекта, не влияют на «возмущения», характеризующие наблюдения над другими объектами, и наоборот. Тот факт, что для всех остатков 1, 2,..., n выполняется соотношение Ei2 = 2, где величина 2 от номера наблюдения i не зависит, означает неизменность дисперсий регрессионных остатков. Последнее свойство принято называть гомоскедастичностью регрессионных остатков. Наконец, требуется, чтобы ранг матрицы X, составленной из наблюденных значений объясняющих переменных, был бы максимальным, т.е. равнялся бы числу столбцов этой матрицы, которое в свою очередь должно быть меньше числа ее строк. Случаи p +1 n не рассматриваются, поскольку при этом число n имеющихся в нашем распоряжении исходных статистических данных оказывается меньшим или равным числу оцениваемых параметров модели ( p + 1 ), что исключает принципиальную возможность получения сколько-нибудь надежных статистических выводов. Что касается требования к рангу матрицы X, то оно означает, что не должно существовать строгой линейной зависимости между объясняющими переменными. Так, если, например, одна объясняющая переменная может быть линейно выражена через какое-то количество других, то ранг матрицы X окажется меньше p + 1, а следовательно, и ранг матрицы X T X будет тоже меньше p + 1. А это означает вырождение симметрической матрицы X T X (т.е. det( XT X) = 0 ), что исключает существование матрицы ( XT X) 1, которая играет важную роль в процедуре оценивания параметров анализируемой модели. В дальнейшем нам удобнее будет оперировать с матричной записью модели (1.11). При этом кроме обозначений (1.9) – (1.10) введем также матрицы (векторы): 0 1 1 In = – O 0 1 единичная матрица размерности n n ;

= (0, 1,..., p ) – (1.13) (1.14) вектор-столбец неизвестных значений параметров;

= (1, 2,..., n ) – (1.15) вектор-столбец регрессионных остатков;

0 n = (0,0,...,0 ) – (1.16) вектор-столбец высоты n, состоящий из одних нулей;

2 E 1 E(1 2 ) E( 2 1 ) E 2 2 = E =...... E( ) E( ) n1 n () () ()... E(1 n )... E( 2 n ) –......... E 2 n (1.17) () ковариационная матрица размерности n n вектора остатков;

= 0, 1,..., p ( ) – (1.18) вектор-столбец оценок неизвестных значений параметров;

= E = lj ( )( ) ( ( )) l, j = 0,1,2,..., p, – (1.19) ковариационная матрица размерности ( p + 1) ( p + 1) вектора несмещенных оценок неизвестных параметров (в соотношении (1.19) lj ( ) = E ( l l )( j j ) Тогда матричная форма записи КЛММР имеет вид:

[ ] Y = X +, E = 0 n, 2 = I n, (1) ( 2 ) ( p) неслучайные переменные;

x, x,..., x ранг матрицы X = p + 1 < n ( ) (1.20) Когда дополнительно к условиям (1.11) или (1.20) постулируют нормальный характер распределения регрессионных остатков = (1, 2,..., n ) (что записывается в виде N n (0;

2 I n ) ), то говорят, что y и X связаны нормальной КЛММР.

1.2.1.7. Оценивание неизвестных параметров КЛММР: метод наименьших квадратов и метод максимального правдоподобия Соотношения статистической (1.11) и (1.20) определяют между специфицированные уравнения связи, существующей результирующей переменной y и объясняющими переменными X. Однако значения участвующих в этих уравнениях параметров = (0, 1,..., p ) и 2 не известны;

их требуется статистически оценить по имеющимся исходным статистическим данным вида (1.9) – (1.10). Опишем способы статистического оценивания параметров и 2 в рамках КЛММР (метод наименьших квадратов) и в рамках нормальной КЛММР (метод максимального правдоподобия).

1.2.1.8. Метод наименьших квадратов (МНК) В основе логики метода наименьших квадратов лежит стремление исследователя подобрать такие оценки 0, 1,..., p для неизвестных значений параметров функции регрессии соответственно 0, 1,..., p, при которых сглаженные (регрессионные) значения 0 + 1 xi(1) +... + p xi( p ) результирующего показателя как можно меньше отличались бы от соответствующих наблюдаемых значений y. Сформулируем математически этот принцип. Введем в качестве меры расхождения сглаженного и наблюденного (в i -м наблюдении) значений результирующего показателя разность /56/: i = yi 0 1 xi(1)... p xi( p ) (1.21) (будем в дальнейшем называть i «невязками»). Очевидно, значения следует подбирать таким образом, чтобы минимизировать некоторую интегральную по всем имеющимся наблюдениям характеристику невязок. Примем за такую интегральную характеристику подгонки значений y, с помощью линейной функции от xi(1), xi( 2),..., xi( p ) ( i = 1,2,..., n ) величину Q(0, 1,..., p ) = ( yi 0 1 xi(1)... p xi( p ) ) 2 = i i =1 i = n n (1.22) Очевидно, величина Q будет определяться при заданной системе наблюдений (1.9) – (1.10) конкретным выбором значений оценок параметров 0, 1,..., p. Оценки по методу наименьших квадратов (МНК-оценки) 0. мнк, 1. мнк,..., p. мнк как раз и подбираются таким образом, чтобы минимизировать величину Q, определенную соотношением (2.15), т.е. Q(0. мнк, 1. мнк,..., p. мнк ) = min Q(1, 2,..., p ) 1,2,..., p (1.23) или мнк = arg min Q() (1.24) Опишем процедуру решения оптимизационной задачи (1.24). Начнем с простейшего частного случая, когда рассматривается зависимость y от единственной объясняющей переменной x (т.е. p = 1 ). Этот случай обычно называют моделью парной линейной регрессии. Первое из уравнений связи (1.11) в данном случае имеет вид: yi = 0 + 1 xi + i, i = 1,2,..., n Критерий Q метода наименьших квадратов: Q(0, 1 ) = ( yi 0 1 xi ) 2.

i =1 n (1.25) (1.26) Необходимые условия экстремума по 0 и 1 функции Q(0, 1 ) :

n Q = 2 ( yi 0 1 xi ) = 0 0 i =1, n Q = 2 x ( y x ) = 0 i i 0 1i 1 i = (1.27) или, после раскрытия скобок и очевидных тождественных преобразований:

n n n 0 + 1 xi = yi i =1 i =1 n n n ( x ) + x 2 = x y ii 0 1i i i =1 i =1 i = (1.28) Система (1.28) из двух линейных уравнений относительно 0 и 1 представляет так называемую стандартную форму нормальных уравнений (для случая p = 1 ). Ее решения легко выписываются в явном виде:

1. мнк = ni =1 xi yi (i =1 xi )(i =1 yi ) n n n ni =1 xi2 (i =1 xi ) n n = n i = ( xi x )( yi y ) ( xi x ) 2 i = n (1.29) 0. мнк = y 1. мнк x, (1.30) где x = i = n ny xi, y = i =1 i. n n Перейдем к случаю многих объясняющих переменных (р > 1). В этом случае более удобной оказывается матричная форма записи всех необходимых в данной задаче условий и ( соотношений: = Y X = ( y1 0 1 x1(1)... p x1p,..., yn 0 1 xn1)... p xnp ) – векторстолбец невязок;

Q() = ( yi 0 1 xi(1)... p xi( p ) ) 2 = (Y X) (Y X), – (1.31) i =1 n оптимизируемый (по ) критерий метода наименьших квадратов.

Перед тем как выписать необходимые условия экстремума функции Q() по, преобразуем правую часть (1.31): Q() = Y Y 2 X Y + X (1.32) В этом преобразовании мы воспользовались правилом транспонирования произведения матриц, а также тем, что X Y — число, а потому оно совпадает со своим транспонированным выражением Y X.

Необходимые условия, которым удовлетворяют решения оптимизационной задачи (1.24), получаются дифференцированием правой части (1.32) по 0, 1,..., p. При выписывании получающейся при этом системы уравнений относительно 0, 1,..., p воспользуемся матричным обозначением производной Q() Q() = 0 Q() Q(),... 1 p (1.33) В результате дифференцирования получим:

Q() = 2 X Y + 2 X X = 0 p + (1.34) В (1.34) 0 p +1 — это вектор-столбец размерности p + 1, состоящий из одних нулей.

Разрешая систему уравнений (1.34) относительно, получаем: X X = X Y (1.35) и следовательно:

мнк = ( X X) 1 X Y (1.36) В основной формуле метода наименьших квадратов (1.36) мы воспользовались невырожденностью матрицы X X, которая следует из требования максимального ранга для матрицы X, входящего в описание КЛММР.

1.2.1.9. Метод максимального правдоподобия (ММП) Метод максимального правдоподобия (ММП) может быть применен в тех случаях, когда с точностью до неизвестных значений параметров известен общий вид закона распределения вероятностей имеющихся выборочных данных. Поэтому, если регрессионный анализ проводится в рамках нормальной КЛММР, т.е. если дополнительно к условиям (1.11) постулируется нормальность регрессионных остатков 1, 2,..., n, то, учитывая их взаимную некоррелированность (которая в нормальном случае влечет за собой их взаимную статистическую независимость), можно выписать функцию правдоподобия в терминах остатков (1.21) /56/:

L( 1, 2,..., n | ;

2 ) = i = n 1 2 e 1 2 ( yi 0 1xi(1)... p xi( p ) ) = 1 (2 ) n 1 exp (Y X) T (Y X) 2 (1.37) Оценки и 2 максимального правдоподобия определяются как такие значения и 2, при которых функция правдоподобия L (или, что то же, логарифмическая функция правдоподобия l = Ln L ) достигает своей максимальной величины. Соответствующие уравнения ММП получаются приравниванием к нулю производных функции l по и 2 :

n n 1 l ( 1, 2,..., n | ;

2 ) = ln(2 ) ln( 2 ) (Y X)T (Y X);

2 2 2 1 l (Y X )T (Y X) = 0 p+1 = 2 2 l 2 = n 12 + 12 2 (Y X )T (Y X ) = 0 2 2( ) [ ] (1.38) Первая строка (1.38) после сокращения левой и правой частей на 1 / 2 повторяет систему уравнений (1.34) метода наименьших квадратов. Следовательно:

) ) ММП = МНК = ( X T X ) 1 X T Y (1.39) Вторая строка системы (1.38) позволяет вычислить ММП-оценку для 2 :

ММП ) ) ) (1) ) ( p) 2 )T ) 1 1n = (Y X) (Y X) = ( y i 0 1 x1... p xi ), n n i = (1.40) )) ) ) где = { 0,1,..., n } – оценки по методу наименьших квадратов (они же — оценки по методу максимального правдоподобия) неизвестных коэффициентов регрессии.

1.2.1.10. Обобщенная линейная модель множественной регрессии (ОЛММР) Формальная запись ОЛММР отличается о КЛММР только отказом от требования некоррелированности и гомоскедастичности регрессионных остатков. Пусть 0 – некоторая симметричная, положительно определенная матрица порядка n n, где n, число исходных статистических данных (1.9) – (1.10) (т.е. объем имеющейся в нашем распоряжении выборки). И пусть ковариационная матрица регрессионных остатков = ( 1, 2,..., n )T выражается через 0 соотношением = 2 0. Будем предполагать, что в этом соотношении число 2 неизвестно, а матрица 0 известна. С точки зрения практической, прикладной последнее предположение в большинстве случаев нереалистично;

однако в дальнейшем для некоторых частных случаев мы сможем отказаться от условия априорного знания матрицы 0. Обобщенная линейная модель множественной регрессии описывается системой следующих соотношений и условий /56/: Y = X +, E = 0 n, 2, = 0, (x (1), x ( 2 ),..., x ( p ) ) неслучайные переменные;

ранг матрицы X = p + 1 < n (1.41) где участвующие в (1.41) векторы и матрицы определены ранее соотношениями (1.9) – (1.10), (1.13) – (1.18). Сравнение (1.41) с (1.20) показывает, что ОЛММР отличается от КЛММР только видом ковариационной матрицы ошибок : в КЛММР предполагалось, что матрица X, с точностью до неизвестной положительной константы 2 равна единичной матрице I n (что обеспечивало некоррелированность и гомоскедастичность остатков ), в то время как в ОЛММР допускается, что ковариации (а следовательно, дисперсии и корреляции) остатков могут быть произвольными при сохранении, правда, условия невырожденности матрицы.

1.2.1.11. Обобщенный метод наименьших квадратов (ОМНК) Итак, нам предстоит провести статистический анализ зависимости, описываемой ОЛММР (1.41). Это значит, что на основании исходных статистических данных вида (1.9) – (1.10) мы должны уметь решать задачи 1 – 3, описанные в п. 2.1.3, и, в частности, в первую очередь, построить наилучшие (в определенном смысле) точечные оценки неизвестных значений параметров и 2. Выясним сначала, нельзя ли воспользоваться уже известными ) ) нам МНК-оценками МНК и 2, определяемыми соответственно соотношениями (1.36) и (1.40)?

Можно показать, что определенные соотношениями (1.36) обычные МНК-оценки ) МНК, остаются и в рамках ОЛММР состоятельными (при тех же требованиях к матрице наблюдений X ) и несмещенными. В частности, доказательство несмещенности оценок ) МНК в задаче оценивания параметров ОЛММР в точности повторяет доказательство этого факта в условиях КЛММР /56/.

) Однако можно показать, что в условиях ОЛММР оценки МНК теряют свои оптимальные свойства и что можно предложить другие оценки — так называемые оценки ) обобщенного метода наименьших квадратов ОМНК, которые будут наиболее эффективными в смысле теоремы Гаусса-Маркова /56/. Оценки соотношениями по обобщенному методу наименьших квадратов определяются ) ОМНК = ( X T 0 1 X ) 1 X T 0 1Y.

(1.42) Можно доказать, что в классе линейных несмещенных оценок параметров модели ) (1.41) оценки ОМНК, определенные соотношениями (1.42), являются оптимальными в смысле теоремы Гаусса-Маркова /77/.

1.2.1.12. ОЛММР с автокоррелированными остатками Один из частных случаев обобщенной линейной модели множественной регрессии – регрессионная модель с автокоррелированными остатками. Необходимость рассмотрения такого рода моделей возникает, в первую очередь, в случае анализа с временных рядов, т.е. когда исходные статистические данные модели регистрируются во времени. Рассмотрим подробно один из вариантов математической формализации идеи зависимости корреляционной связи между остатками, неограниченно ослабевающей по мере удаления остатков друг от друга по времени – модель линейной регрессии, в которой регрессионные остатки = (1, 2,..., n )T связаны автокорреляционной зависимостью 1-го порядка. Подобного рода зависимость между остатками описывается соотношениями /56/ i = i 1 + i (1.43) где – некоторое число, по абсолютной величине меньшее единицы (т.е. < 1 ), а случайные величины i удовлетворяют требованиям, предъявляемым к регрессионным остаткам классической модели, т.е. E i 0, 2 при i = j. E ( i, j ) = 0 0 при i j (1.44) (1.45) При этом полагается, что соотношения (1.43) справедливы для любого «момента времени» i, сколь угодно удаленного в прошлое или будущее, т.е. i может «пробегать» все целочисленные значения от до +. Отправляясь от (1.43), (1.44) и (1.45), определим основные числовые характеристики (средние значения E i и ковариационную матрицу = E ( T ) ) вектора регрессионных остатков. Из (1.43) следует:

i = i 1 + i = ( i 2 + i 1 ) + i = 2 i 2 + i 1 + i = = 2 ( i 3 + i 2 ) + i 1 + i = 3 i 3 + 2 i 2 + i 1 + i =... = = i + i 1 + 2 i 2 +... = k i k.

k = (1.46) Из (1.46) с учетом (1.44) и (1.45) непосредственно следует: E i 0, 2 = D i = i2 = E i2 + 2 E i2 1 + E i4 2 +... = 02. = (1 + + +...) = 1 2 0 2 (1.47) ( i = 1,2,..., n ;

k = 1,2,..., i 1 ) представим Для вычисления ковариаций E ( i i k ) произведение i i k с учетом соотношения (1.46) в виде:

i i k = [( i + i 1 +... + k 1 i ( k 1 ) ) + k ( i k + i k 1 +...)] ( i k + i k 1 +...).

Тогда, поскольку из взаимной некоррелированности (1.48) i следует взаимная некоррелированность случайных величин ( i + i 1 +... + k 1 i ( k 1) ) и ( i k + i k 1 +...) получаем: cov( i, i k ) = E ( i i k ) = E [ k ( i k + i k 1 +...) 2 ] = k E i2k = 2 k (1.49) где дисперсия 2 определена соотношением (1.47). Таким образом, мы пришли к тому, что автокорреляционная зависимость 1-го порядка (1.43), связывающая между собой регрессионные остатки ОЛМНР, в терминах ковариаций этих остатков эквивалентна соотношениям (1.47) – (1.49). Это позволяет записать линейную модель множественной регрессии с автокоррелированными остатками в виде:

Y = X +, E = 0 n, 1 2... n 2 2... n 3 1 0 T = = E ( ) = 1 2............... n 1 n 2 n 3... (1) (2) ( p) (x, x,..., x ) неслучайные переменные;

ранг матрицы X = p + 1 < n n1 n 2 = 0,... (1.50) Таким образом, матрица размерности n n значением единственного параметра по формуле 1 0 =... n 0 определяется в данной модели 1...

...

... n 2... n3......

n1 n... (1.51) n n 3...

Во всех основных формулах ОМНК требуется матрица 0 1, поэтому приведем здесь ее вид:

0 1 2 1+ 0 1+ 2 1 01 =...... 1 2... 0 0 0 0 0 0 0... 0... 0 0... 0 0... 0 0............ 1 + 2... 0 0 0. (1.52)... Становится понятным теперь и вероятностный смысл формально введенного в (1.43) параметра. Действительно, из определения коэффициента корреляции и соотношений (1.47) и (1.49) следует, что коэффициент корреляции r ( i, i ±k ) между регрессионными остатками, отстоящими друг от друга по времени на k единиц, равен:

r ( i, i ±k ) = k, k = 0,1,2...

(1.53) Именно в такой математической форме реализуется в модели (1.50) идея ослабления корреляционных связей между регрессионными остатками по мере их взаимного удаления во времени.

1.2.2. Модель авторегрессии (АР) Следующие три модели предназначены для описания поведения случайных остатков временного ряда. Обозначим моделируемый временной ряд с помощью (t ), и будем считать, что его среднее значение при всех t тождественно равно нулю: E(t ) 0. Обозначим «белый шум» как (t ) /6, 56/, что означает: E(t ) 0, 2 0 при = 0, E ((t )(t ± )) = 0 при 0 2 причем величина дисперсии 0 не зависит от t.

(1.54) (1.55) Описание рассматриваемых ниже моделей формулируется в терминах общего линейного процесса /6/, рассматриваемого в виде взвешенной суммы настоящего и прошлого значений белого шума, а именно:

(t ) = (t ) + 1(t 1) + 2 (t 2) +... = j (t j ), j = (1.56) где 0 = 1 и j = 2 j <.

Существует эквивалентная форма записи этого процесса, при которой временной ряд (t ) рассматривается как взвешенная сумма предшествующих значений этого ряда:

(t ) = 1(t 1) + 2 (t 2) +... + (t ) = k (t k ) + (t ), k = (1.57) при этом коэффициенты k связаны определенными соотношениями, обеспечивающими стационарность ряда (t ). Введем в рассмотрение процесс смешанного типа /56/ в представлении которого присутствуют как авторегрессионные члены самого процесса, так и скользящее суммирование элементов белого шума: (t ) = k (t k ) + (t ) + j (t j ).

k =1 j = p q (1.58) При этом подразумевается, что p и q могут принимать и бесконечные значения, а также то, что в частных случаях некоторые коэффициенты или равны нулю. Модели авторегрессии p -го порядка – AR( p ) – составляют достаточно широкий класс моделей авторегрессии, включающий в себя в качестве частных случаев модели AR(1) – марковский процесс – и AR( 2) – процессы Юла. Авторегрессионной моделью порядка p называется модель вида:

(t ) = j (t j ) + (t ) j = p (1.59) Условия стационарности процесса, генерируемого моделью (1.59), формулируются в терминах корней его характеристического уравнения 1 1 z 2 z 2... p z p = 0, (1.60) Для стационарности процесса (1.59) необходимо и достаточно, чтобы все корни уравнения (1.60) лежали бы вне единичного круга, т. е. превосходили бы по модулю единицу. Автокорреляционная функция процесса (1.59) может быть вычислена с помощью рекуррентного соотношения по первым p ее значениям r (1), r ( 2),..., r ( p ). Это рекуррентное соотношение выводится следующим образом. Умножим все члены соотношения (1.59) на (t ) ( > p ).

Получим (t ) (t ) = 1 (t ) (t 1) + 2 (t ) (t 2) +... + к математическим ожиданиям величин, + p (t ) (t p ) + (t ) (t ).

Переходя участвующих в этом соотношении, получаем:

( ) = 1 ( 1) + 2 ( 2) +... + p ( p ), где ( ) = E ( (t ) (t )).

(1.61) Отметим, что E ( (t k ) (t )) 0 при k > 0, т. к. (t k ), выраженное через, может включать лишь импульсы ( j ) для j t k (т.е. (t ) не зависит от будущих, по отношению к t, значений ). Поделив все члены (1.61) на (0), находим искомое рекуррентное соотношение, позволяющее последовательно вычислять любой элемент автокорреляционной функции процесса (t ) по первым p ее элементам r (1), r ( 2),..., r ( p ) :

r ( ) = 1r ( 1) + 2 r ( 2) +... + p r ( p ), r = p + 1, p + 2,...

(1.62) Идентификация модели авторегрессии p -го порядка основана на соотношениях, связывающих между собой неизвестные параметры модели и автокорреляции анализируемого ряда. Для вывода этих соотношений последовательно подставим в (1.62) значения = 1,2,..., p. Получим систему линейных уравнений относительно 1, 2,..., p :

r (1) = 1 + 2 r (1) +... + p r ( p 1) r ( 2) = 1r (1) + 2 +... + p r ( p 2)..................................................... r ( p ) = 1r ( p 1) + 2 r ( p 2) +... + p (1.63) Они обычно называются уравнениями Юла-Уокера /84, 85/. Оценки k для параметров k получим, заменив теоретические значения автокорреляций r (k ) их оценками r ( k ) ( k = 1,2,..., p ). Для того, чтобы выписать решение в явном виде, перейдем к матричным обозначениям:

1 r (1) 2 r ( 2), =, r =...... r( p) p (1.64) r (1) r ( 2) 1 1 r (1) r (1) R=......... r ( p 1) r ( p 2) r ( p 3)... r ( p 1)... r ( p 2).......... (1.65) Тогда система (1.63) может быть представлена в форме R = r, а ее решение, соответственно, будет иметь вид:

(1.66) = R 1r, 1.2.3. Модель скользящего среднего (СС) (1.67) Пусть (t ) линейно зависит от конечного числа q предыдущих элементов (t ). Тогда процесс (t ) = (t ) 1(t 1) 2 (t 2) K q (t q ), (1.68) где через 1, 2, K, q обозначается конечный набор параметров j, участвующих в (1.56), называется процессом скользящего среднего порядка q – СС( q ). Идентификация параметров модели СС( q ) 1, 2, K, q выполняется следующим образом /56/.

1. По значениям (t ) с помощью формулы 1 N ((t ) )((t + ) ) N t =1 r (t ) = 1N ((t ) ) 2 N t =1 при = 1,2,...q рассчитываются значения r (1), r (2),..., r (q ) ;

2. В соотношения (1.69) + 1 +1 + 2 + 2 +... + q q при = 1,2,..., q 2 1 + 1 + 2 +... + 2 r () = 2 q 0 при > q (1.70) последовательно подставляются значения = 1,2,...q с одновременной заменой величин r () в левой части полученными оценками r () 3. Полученная система из q уравнений решается относительно 1, 2, K, q. Решение системы и дает оценки неизвестных параметров 1, 2, K, q.

Отметим, что полученные уравнения, за исключением случая q = 1 нелинейны и их приходится решать при помощи итерационных процедур, описанных, например в /6/.

1.2.4. Смешанные модели авторегрессии – скользящего среднего (АРСС) Для достижения большей гибкости в подгонке моделей к наблюдаемым временным рядам иногда целесообразно объединить в одной модели авторегрессию и скользящее среднее. Это приводит к комбинированной модели авторегрессии – скользящего среднего (АРСС) порядка ( p, q) /56/ (t ) = 1(t 1) +... + p (t p ) + (t ) 1(t 1)... q (t q ). (1.71) Эта модель может интерпретироваться как линейная модель множественной регрессии, в которой в качестве объясняющих переменных выступают прошлые значения самой зависимой переменной, а в качестве регрессионного остатка – скользящее среднее из элементов белого шума. Поэтому правильнее эти модель называть авторегрессионными моделями со скользящими средними в остатках.

1.2.5. Описание периодических процессов рядами Фурье 1.2.5.1. Аппроксимация рядами Фурье Рассмотрим функцию f (x) вещественной переменной x, определенную в каждой точке промежутка [, + 2 ]. Предположим, что в этом промежутке функция удовлетворяет следующим условиям (так называемым условиям Дирихле): 1. всюду однозначна, конечна и кусочно-непрерывна;

2. имеет ограниченное число максимумов и минимумов. В таком случае можно представить функцию f (x) в рассматриваемом промежутке в виде ряда /4/: b0 + a n sin nx + bn cos nx.

n =1 n = f (x) (1.72) Здесь b0, a n и bn — независимые от x коэффициенты. Этот ряд называется рядом Фурье функции f (x). Он сходится к f (x) во всех точках непрерывности функции и к значению f (a 0) + f (a + 0) (1.73) в точках разрыва функции x = a. Это среднее арифметическое значение двух предельных ординат, и его естественно принять за значение функции в точке разрыва. Для вычисления коэффициентов исходными будут следующие соотношения:

+ 0 для т m, sin nx sin mx dx = для n = m (1.74) + 0 для т m, cos nx cos mx dx = для n = m (1.75) + sin nx cos mx dx = 0.

(1.76) Действительно, 1 1 sin nx sin mx = cos(n m) x cos(n + m) x. 2 2 Отсюда для первого интеграла при n m найдем:

1 sin( n m) x 2 n m + (1.77) 1 sin( n + m) x 2 n + m + = 0.

(1.78) При n = m имеем:

+ 1 sin nx dx = + 1 dx + cos 2nx dx =.

(1.79) Подобными же элементарными расчетами легко убедиться в справедливости соотношений (1.75) и (1.76). Умножим обе части формулы для ряда Фурье на sin mx и проинтегрируем от до + 2. Тогда:

+ + f ( x) sin mx dx = sin mx(b0 + a n sin nx + bn cos nx) dx. (1.80) n =1 n = Согласно соотношениям (1.74), (1.75) и (1.76) все интегралы справа равны нулю, кроме + a m sin mx sin mx dx = 0, (1.81) который равен a m. Поэтому am = + f ( x) sin mx dx.

(1.82) Аналогичный расчет дает:

bm = + f ( x) cos mx dx, f ( x)dx.

(1.83) 1 b0 = + (1.84) Способ вычисления коэффициентов, описанный выше, может быть применен и в случае разложения в более общие ряды — в ряды по произвольной системе ортогональных функций. Рассмотрим совокупность функций вещественной переменной: u1 ( x), u 2 ( x),..., u n ( x),.... Если эти функции таковы, что (1.85) u a b m ( x)u n ( x) ( x)dx = 0, (1.86) при m n, то принято говорить, что функции u n (x) образуют в промежутке [a, b] ортогональную систему с весовой функцией (x). Пусть дана функция f (x), удовлетворяющая условиям Дирихле. Она может быть представлена в виде бесконечной суммы ортогональных функций, т. е. ортогональным рядом вида: f ( x) = c1u1 ( x) + c2 u 2 ( x) + c3u3 ( x) +... + cn u n ( x) +.... (1.87) Чтобы вычислить коэффициент cm, умножим обе части последнего равенства на u m ( x) ( x) и проинтегрируем в промежутке [a, b]. Согласно формуле (1.86) все интегралы справа исчезают, кроме 2 cm u m ( x) ( x)dx, a b (1.88) откуда:

cm = u a b m ( x) ( x) f ( x)dx.

2 m u a b (1.89) ( x) ( x)dx Например, для полиномов Чебышева промежуток равен (-1, +1), а весовая функция будет (1 x ). В некоторых случаях весовая функция равна единице, например для 2 1 полиномов Лежандра. Если кроме равенства (1.86) функции u n (x) удовлетворяют условию u a b 2 m ( x) ( x)dx = 1, (1.90) то система называется ортонормированной. Основная тригонометрическая система функций 1, cos x, sin x, cos 2 x, sin 2 x,..., (1.91) как следует из формул (1.74) — (1.76), ортогональна с весовой функцией, равной единице, но не ортонормированна. Рассмотрим случай, когда разложение в ряд Фурье ограничено первыми n членами /4, 35/. Пусть дана функция f (x), определенная в промежутке [, + 2 ], и тригонометрический ряд, который оборван на первых n членах. Коэффициенты ряда произвольны. Мы можем спросить себя, какими должны быть эти коэффициенты, чтобы сумма первых n членов тригонометрического ряда представляла наилучшим образом функцию f (x) в рассмотренном промежутке. Пусть сумма первых n членов тригонометрического ряда равна: S n ( x) = b0 + ak sin kx + bk cos kx.

k =1 k =1 n n (1.92) Определим выражение для коэффициентов ряда a k, bk так, чтобы величина 1 E= + [ f ( x) S n ( x)] dx – (1.93) средняя квадратичная ошибка, которую мы делаем, заменяя f (x) на S n (x) в интервале от [, + 2 ], — была минимальной. Для этого нужно коэффициенты a k, bk выбрать так, чтобы E E E E E E = =... = = = =... = = 0. a1 a2 a n b0 b1 bn Обратимся к коэффициенту a m. Он определяется из уравнения:

E 1 = a m E 1 = a m + (1.94) [ f ( x) S n ( x)] S n dx = 0. a m (1.95) + n n f ( x) b0 a k sin kx bk cos kx sin mx dx = 0. (1.96) k =1 k = Это дает нам + [ f ( x) a m sin mx ]sin mx dx = 0, (1.97) откуда получаем:

am = + f ( x) sin mx dx.

(1.98) Следовательно, разложение в ряд Фурье не только точно представляет функцию f (x) при неограниченном числе членов, но и обеспечивает наименьшую среднюю квадратичную ошибку по сравнению с любым тригонометрическим рядом по sin kx и cos kx, если эти ряды обрывать на произвольном конечном числе слагаемых. Замечательно, что при увеличении числа членов в конечной тригонометрической сумме S n (x) все прежние коэффициенты сохраняют свой вид. Замечание. Рассуждения остаются точно такими же, если речь идет о разложении в ряд по произвольной системе ортогональных функций u (z ). Это означает, что мы получим наилучшее представление функции f (x) в виде отрезка ряда по ортогональным функциям, если коэффициенты разложения определим по формуле (1.89). И здесь при увеличении числа членов в конечной сумме прежние коэффициенты сохраняют свой вид. Выше рассматривались функции с периодом 2. В случае, если период функции f (t ) равен не 2, а T, то ее следует рассматривать в промежутке не от до + 2, а от до + T. Тогда:

f (t ) = b0 + an sin n t + bn cos n t, = n =1 n = 2. T (1.99) Коэффициенты равны:

bn = 2 T 2 T +T f (t ) cos n t dt, (1.100) +T an = f (t ) sin n t dt, (1.101) 1 b0 = T +T f (t ) dt.

(1.102) Эти формулы совпадают с (1.82) — (1.84), если заменить там x на 2t / T. Рассмотрим ряды с комплексными членами /4/. Пусть f (t ) = b0 + an sin n t + bn cos n t.

n =1 n = (1.103) Имеем: f (t ) = a n jnt b e e jnt + n e jnt e jnt + b0 = n =1 2 j n =1 ( ) ( ) b ja n jnt bn + ja n jnt e e = b0 + n +, 2 2 n = (1.104) где на основании формул (1.100) — (1.102):

+T bn ja n 1 +T 1 = f (t )(cos n t j sin n t )dt = f (t )e jnt dt, T T (1.105) bn + ja n 1 +T = f (t )e jnt dt. T (1.106) Здесь отметим два обстоятельства: Из формулы для (bn ja n ) / 2 можно получить выражение для (bn + ja n ) / 2, изменив n на n. Если первый коэффициент обозначить через cn, то второй должен быть обозначен как cn.

1 Постоянный член можно написать в таком виде: b0 = T +T f (t )e dt.

Он получится из общей формулы, дающей c± n, если положить в ней n = 0. Следовательно, f (t ) = где 1 cn = T +T n = n = c e n jnt, (1.107) f (t )e jnt dt.

(1.108) Выражение (1.107) представляет собой разложение в ряд Фурье с комплексными членами, а (1.108) — формулу для коэффициентов, которые участвуют в этом разложении. Мы получаем, таким образом, внешне более простой ряд, чем разложение с вещественными членами. Он имеет то преимущество, что коэффициенты разложения определяются одной общей формулой. В разложении с вещественными членами это не имеет места. Обратимся к графическому представлению гармоник. Если положить a n = s n sin n и bn = s n cos n, то ряд (1.99) функции f (t ) получает вид: f (t ) = b0 + s n cos(n t n ).

n = (1.109) Функция f (t ) разложена в сумму гармонических компонент;

s n и n представляют собой соответственно амплитуду и фазу отдельных гармоник. Эти гармоники можно представить в векторной форме. Если расположить разные векторы, соответствующие каждой круговой частоте, вдоль некоторой оси, то мы получим трехмерное представление гармоник разложения в ряд Фурье. На рис. 1.1 оно дано для момента t = 0 /4/.

Рис. 1.1. Трехмерное представление гармоник разложения в ряд Фурье Такое представление, однако, не очень удобно. Поэтому его обычно заменяют двумя (рис. 1.2), которые являются проекциями совокупности предыдущих векторов соответственно на плоскости фаз / 2 и нуля, иначе говоря, представлением величин a n и bn вдоль оси круговой частоты /4/. Можно даже ограничиться представлением одних только длин s n или их квадратов, опуская фазовые соотношения отдельных компонент. Такое представление называют спектром функции f (t ) или, чаще, линейным спектром функции.

Рис. 1.2. Проекции гармоник разложения в ряд Фурье на плоскости фаз / 2 и нуля Что касается трехмерного представления на рис. 1.1, то здесь уместно сделать следующее замечание: если принять за новое начало отсчета времени момент t 0, то картина, изображенная на рис. 1.2, изменится, но длина векторов на рис. 1.1 останется неизменной. Каждый вектор повернется только на угол n t 0, а вся совокупность векторов претерпит нечто вроде винтообразного скручивания. Поэтому представление, состоящее в том, чтобы изображать только модули s n или их квадраты s n, удобнее, так как оно инвариантно по отношению к изменению начала отсчета времени. Возьмем ряд функции f (t ) с комплексными членами (1.107). Совокупность комплексных величин cn может быть точно так же изображена в трехмерной векторной форме. Вещественная и мнимая части векторов cn играют ту же роль, что и коэффициенты an и bn, со следующим различием. Рис. 1.1 должен быть продолжен в сторону отрицательных круговых частот. Формулы 1 1 cn = (bn ja n ), cn = (bn + ja n ) 2 2 дают 1 1 1 1 R (cn ) = bn, R(cn ) = bn, I (cn ) = a n, I (cn ) = an, 2 2 2 2 (1.111) (1.110) что приводит к очевидной симметрии картины. Аналогично представлениям рис. 1.2 проекции на плоскости фаз / 2 и нуля образуют удобные для работы представления (рис. 1.3). Приведенные выше замечания относительно влияния смещения начала отсчета времени действительны и в случае разложения с комплексными членами /4/.

Рис. 1.3. Удобные для работы проекции гармоник разложения в ряд Фурье на плоскости фаз / 2 и нуля Ряд Фурье распространяется также и на почти периодические функции. Рассмотрим функцию f (x), представляющую собой сумму периодических функций f1 ( x), f 2 ( x),..., f n ( x) с периодами 1, 2,..., n соответственно. Если периоды соизмеримы между собой или, иначе говоря, они являются целыми кратными некоторого числа T, то это T и будет периодом функции f (x). В противном случае функция f (x) не периодична.

Однако если разложить функции f1 ( x), f 2 ( x),..., f n ( x) ряды Фурье и просуммировать эти ряды, то мы получим разложение вида f ( x) = 0 + ( m cos m x + m sin m x).

m = (1.112) Оно внешне походит на разложение в ряд Фурье, но это не ряд Фурье, потому что множители m — коэффициенты при x — нецелые кратные одного числа. Попробуем вычислить коэффициенты 0, m, m. Рассмотрим ряд Фурье некоторой периодической функции (x) :

( x) = b0 + (bm cos m x + a m sin m x) m = (1.113) Согласно формуле (1.102) коэффициент b0 равен среднему значению функции (x) по периоду, но он равен также среднему значению функции (x) по бесконечному интервалу: b0 = lim 1 ( x)dx. S S S (1.114) Мы можем, следовательно, вычислить b0, не зная периода функции (x). Точно так же, заметив, что соотношения (1.100) и (1.101) являются не чем иным, как средними значениями по периоду функций ( x) sin m x и ( x) cos m x, мы получим коэффициенты a m, bm из соотношений 2 a m = lim ( x) sin m xdx, S S 0 2 bm = lim ( x) cos m xdx. S S S S (1.115) (1.116) Таким образом, коэффициенты разложения в ряд Фурье функции (x) можно вычислить и не зная периода этой функции. Это наводит на мысль, что коэффициенты 0, m, m получаются из соотношений 1 0 = lim f ( x)dx, S S 0 2 m = lim f ( x) sin m x dx, S S S S (1.117) (1.118) m = lim 2 f ( x) cos m x dx. S S S (1.119) Можно, впрочем, определить эти коэффициенты и не зная значений Действительно, коэффициенты определяются как те числа, для которых интегралы 2 f ( x) cosx dx, S S 0 lim 2 lim f ( x) sin x dx S S S S m.

(1.120) (1.121) отличны от нуля, когда изменяется от нуля до бесконечности. Если рассматривать сумму f ( x) = f1 ( x) + f 2 ( x) +... + f n ( x) +... (1.122) как равномерно сходящийся ряд периодических функций, то функция f (x) будет называться почти периодической. Она может быть разложена в ряд, очень похожий на ряд Фурье. 1.3. Модели и методы принятия решений Управление в любой системе выступает, прежде всего, как процесс взаимодействия между управляющей и управляемой подсистемами (субъектом и объектом управления и внешней средой). Управляющая подсистема выдает определенные команды, которые принимает к исполнению управляемый объект. Тем самым управляющая подсистема представляет собой совокупность устройств и лиц, которые осуществляют целенаправленное воздействие с учетом информации о внешней среде, а управляемая подсистема является тем объектом, на который направлены определенные управленческие воздействия с целью получения желаемого поведения в интересах достижения намеченного результата /67/. Управление имеет место в разнообразных сферах. Хотя оно и носит различный характер в зависимости от объектов, органов, средств и методов управления, тем не менее, его организация строится на некотором базисе, определяемом общностью используемых методов и приемов управления, общностью функций и содержанием управленческого цикла, способов принятия решений и т. д. Применение системного подхода к управлению позволяет сформулировать ряд общих положений, которые должны быть реализованы при эффективном управлении /9, 16, 47/. Для каждой системы управления должна быть сформулирована цель, к которой она стремится, определено конечное состояние, которого она должна достигнуть. Без определения конечной цели движение системы превращается в бесцельное блуждание. У каждой системы управления должна быть свобода выбора траектории движения, т. е. выбора совокупности промежуточных состояний или траектории из некоторого множества возможных траекторий или состояний, через которые она движется к цели. Где нет выбора, там нет и не может быть управления. Для того чтобы осуществить выбор наилучшей из возможных траекторий движения, система должна обладать возможностью сравнения траекторий и способами и критериями их оценки. Без критериев невозможно говорить об эффективности управления. Система управления должна располагать ресурсами, обеспечивающими реализацию управляющих воздействий. Отсутствие реальных возможностей движения по выбранной траектории равносильно отсутствию свободы выбора. Управление без ресурсов, обеспечивающих реализацию управляющих воздействий, невозможно. Для того чтобы осуществить выбор управляющих воздействий, мало знать цель и критерии оценки. Нужно также иметь сведения о возможных траекториях движения, о состоянии управляемой системы и внешней среды, т. е. об ограничениях на функционирование – получить информацию, необходимую для принятия решения. Без информации нет управления /57/.

1.3.1. Постановки многокритериальных задач принятия решений Задачи принятия решений, возникающие при управлении системами, при решении задач проектирования, оценки свойств систем, как правило, являются многокритериальными, т. к. системы обычно описываются несколькими свойствами – локальными критериями /15, 30, 59, 61/. Рассмотрим задачи принятия решений при определенности. Проблемная ситуация многокритериального принятия решений при определенности формально описывается следующей моделью: • существуют альтернативы x, которые обладают m свойствами (характеристиками) v1,..., v m ;

• каждому i -му ( i = 1,..., m ) свойству vi альтернативы x соответствует критериальная оценка vi = f i (x) – локальный критерий;

• каждой альтернативе x соответствует в m -мерном критериальном пространстве Z решение (точка) v = (v1,..., v m ) = ( f1 ( x),..., f m ( x)) R m ;

• альтернативы x принадлежат исходному множеству альтернатив X, образованному ограничениями и условиями ( x X );

• отображение множества X в критериальное пространство V порождает в этом пространстве множество решений V X, являющееся образом множества X : • • f1 ( X (x ),...,(V X Z = R m ;

f m x )) на множество решений в критериальном пространстве наложены критериальные ограничения, образующие подмножество Vv ;

• допустимое множество решений V D в критериальном пространстве V пересечением множеств V X и VZ ( V D = V X VZ ).

образовано Особенностью задачи является то, что альтернативе x соответствует однозначное описание в пространстве критериев v = (v1,..., v m ) = ( f 1 ( x),..., f m ( x)). Требуется решить одну из следующих задач. 1. Задачу упорядочения альтернатив по совокупности m свойств. 2. Задачу классификации – распределить альтернативы по классам решений. 3. Задачу выбора – выделить лучшую альтернативу. Требуется предложить формализованную постановку детерминированной задачи выбора, сведя ее к задаче оптимизации и предложить алгоритмы решения поставленных задач. По признаку непрерывности задачи принятия решений делятся на дискретные, непрерывные и смешанные. В дальнейшем будем, в основном, рассматривать дискретные задачи принятия решений разных типов, обозначая альтернативы как xk, k = 1,..., n. Множество альтернатив X в этом случае состоит из n альтернатив: X = {x1,..., xn }. Решая задачу выбора, требуется выбрать номер k, которому соответствует лучшая альтернатива. Отметим, что для производственной системы, состоящей из производственных подсистем (агрегаты, установки, цеха, отделы, участки и т. д.), вектор входных параметров x = ( x1,..., xn ) может описывать режимные параметры, управляющие воздействия, вектор выходных параметров (критериев) f ( x) = ( f1 ( x),..., f m ( x)) – результаты функционирования системы. Каждый локальный критерий f i связан со значением входных воздействий x = ( x1,..., xn ), эти зависимости, в частности, может описывать система моделей объекта. С учетом приведенной информации задачу принятия решений при управлении производственными и иными системами в общем виде можно формализовать следующим образом /57/. Требуется найти альтернативу (решение) x * (для непрерывной задачи вектор управления * * x * = ( x1,..., x n ) ), обеспечивающую такие значения локальных критериев, которые удовлетворяют ЛПР, и для которой:

max f i ( x), i = 1,..., m, X = {x : x, g j ( x) b j, j = 1,..., L}, (1.123) x X где f i (x) – локальные критерии, значения которых либо вычисляются по моделям, либо получены в результате измерений или с помощью экспертных оценок;

g j (x), j = 1,..., L, – функции ограничений, определяющих допустимую область X многокритериальной задачи;

– исходное множество альтернатив.

Поставленная задача является, вообще говоря, некорректной, поскольку она имеет решение только в том редком случае, когда минимум всех m критериев достигается в одной точке. Обычно критерии являются противоречивыми, и улучшение (увеличение) значений по одному из критериев приводит к ухудшению (уменьшению) значений по другим критериям. В этой ситуации нужно искать компромисс. Для преодоления неопределенности, связанной с многокритериальностью, нужно обычно решить ряд следующих проблем /86/:

• • необходимо введение понятия лучших решений;

необходимо использование принципов оптимальности, которые обеспечивают способы сравнения решений в пространстве критериев;

• необходимы методы для поиска компромиссных решений. Отметим, что в данном разделе рассматривается задача максимизации. Такой выбор связан с тем, что мы имеем дело с функцией качества, значения которой, естественно, желательно увеличить. При наличии различного характера локальных критериев необходимы предварительное преобразование и нормализация этих критериев. Если в качестве критериев выбраны затраты, потери и др., которые надо минимизировать, то задача минимизации преобразуется в задачу максимизации изменением знака локальных критериев: « f i (x) ». Приведем основные этапы решения задач принятия решений при управлении производственной системой, характеризующихся многокритериальностью: 1. Выявить условия работы (функционирования) системы и описать производственную ситуацию. 2. Определить взаимосвязи между элементами системы. 3. Осуществить информации. 4. Выбрать локальные критерии качества, т. е. показатели работы системы и подсистемы, которые надо свести к желаемым значениям. 5. Определить управляющие параметры, изменяя которые можно добиться экстремальных значений критериев. 6. Сформулировать задачи управления (принятия решений, многокритериальной оптимизации) системой. 44 сбор и обработку доступной (количественной и качественной) 7. Разработать пакет моделей системы, описывающий связь управляющих параметров со значениями локальных критериев качества. 8. Скорректировать постановку задачи управления. 9. Разработать алгоритмы управления (решение задач многокритериальной оптимизации, принятия решений) системой.

Такой подход к решению задач управления сложной системой эффективно реализуется при решении задач типа оперативного планирования и прогнозирования /80/. Принятие решений заключается в выборе ЛПР последовательности действий (альтернатив) для перевода объекта из состояния в текущий момент времени в желаемое состояние. Реализация той или иной альтернативы обычно приводит к различным исходам, состояниям объекта. Для сравнения между собой качеств различных альтернатив нужно иметь возможность оценивать соответствующие исходы (результаты) выбора. Исход операции выбора оценивается с помощью некоторых критериев качества (критериев оптимальности), которые являются математическим выражением цели принятия решений, позволяющим оценить степень достижения этой цели. Процедура принятия решений включает следующие общие операции:

• • • • • • описание ситуации и оценку ресурсов;

формирование множества критериев, ограничений, альтернатив;

оценку критериев и альтернатив;

формирование правил выбора;

упорядочение альтернатив по многомерным признакам;

выбор и принятие решений.

Методы выполнения перечисленных действий образуют основы теории принятия решений, они позволяют ЛПР успешно решать многие сложные задачи эффективного выбора, систематизируя и формализуя его действия при принятии решений /1/.

1.3.2. Характеристики приоритета критериев. Нормализация критериев Задачи принятия решений в условиях определенности характеризуются однозначной детерминированной связью между альтернативами x X и результатом выбора f i (x), i = 1,..., m. Отметим, что мы рассматриваем только статические свойства, которые не зависят от времени или являются установившимися величинами после переходного процесса. Дополнительно к критериям свойства системы могут быть описаны множеством ограничений типа равенств и неравенств, которые мы пока не рассматриваем для упрощения изложения. Различные критерии могут иметь различную важность с точки зрения ЛПР. Рассмотрим некоторые способы описания относительной важности критериев /57, 66/. Ряд приоритета. Ряд приоритета I = {1,..., m} отражает упорядочение критериев по важности v1 f v 2 f... f v m и выражает существование более важных, менее важных и равноважных (эквивалентных по важности) критериев. Вектор приоритета. В векторе приоритета = (1,..., m )T i показывает для упорядоченных по важности критериев, во сколько раз критерий vi более важен, чем критерий vi +1. Алгоритм получения i состоит в следующем: последовательно при i = 1,..., i 1 рассматриваются приращения критериев, берется единичное приращение критерия vi и находят такое приращение критерия vi +1, которое равно единичному изменению качества по критерию vi. Полученная величина обозначается i. Весовой вектор. В весовом векторе = ( 1,..., m )T i представляет относительную важность i -го критерия vi по отношению ко всем остальным критериям. Из данного определения следует связь между элементами весового вектора и вектора приоритета :

i = i i +1, i = 1,..., m 1.

(1.124) Мы рассматриваем нормализованный весовой вектор: для i, i = 1,..., m, выполняются следующие условия:

i 0, i = m i =1.

(1.125) Приведенные описания важности критериев (если возможно их построить) допустимы только в тех диапазонах изменения критериев, для которых можно пренебречь взаимной зависимостью значений критериев. Для нелинейной зависимости критериев в общем случае i зависит от величин всех критериев и изменяется при их изменении: i = i ( z1,..., z m ).

Если у весового вектора все i равны, то задача называется задачей без приоритета. Нормализация критериев. Часто критерии измеряются в разных единицах, шкалах, для одних критериев лучшие значения, которые больше, а для других, наоборот, меньше. Для того чтобы сравнивать значения разных критериев, необходимо перейти к однонаправленным шкалам, выразить их значения в одинаковых абсолютных единицах, либо перейти к безразмерным шкалам. Для таких преобразований значений критериев используют следующие операции, называемые нормализацией критериев. 1. Смена направленности цели (замена «max» на «min» или «min» на «max»): vi = vi, где vi – нормализованная, а vi – исходная величины критерия. Предполагается, что критерии описывают достижение некоторой цели. Данный способ применяют для перехода к однонаправленным критериям. 2. Нормализация по заданному значению: vi = vi, где viI – заданная или идеальная viI величина критерия. Здесь осуществляется переход к безразмерной шкале. Обычно предполагается, что все исходные значения критериев либо неотрицательны, либо неположительны. В последнем случае происходит смена направлений цели. 3. Относительная нормализация: vi = значению. 4. Сравнительная нормализация: vi. Частный случай нормализации по заданному max vi x vi = vi min vi.

x Данная нормализация совмещает наименьшее значение критерия с нулем и все значения критериев становятся неотрицательными. 5. Естественная нормализация: vi = vi. Обычно предполагается, что исходные max vi min vi x x значения критериев неотрицательны. Если это не так, то с помощью сравнительной нормализации переходят к неотрицательным значениям критериев. 6. Нормализация Севиджа: vi = max vi vi. Данная нормализация совмещает наибольшее x значение критерия с нулем, все значения критериев становятся неотрицательными и происходит изменение направленности критерия, т. е. лучшими значениями критерия становятся меньшие. 7. Полная нормализация: vi = vi min vi x max vi min vi x x. Данная нормализация является объединением сравнительной и естественной нормализации и отображает исходные значения критериев на отрезок от нуля до единицы. Лучшее значение нормализованного критерия равно единице, а худшее – нулю.

1.3.3. Принципы оптимальности в задачах принятия решений Рассмотрим подход к проблеме многокритериальности, основанный на введении понятия лучших решений, опирающийся на постулируемые принципы оптимальности. Принцип оптимальности по Парето может быть использован на начальной стадии решения задачи с целью уменьшения исходного множества решений V X. Решение (альтернативу) называют оптимальным по Парето, если невозможно улучшить решение ни по одному из критериев без ухудшения решения хотя бы по одному из критериев. Паретооптимальные решения составляют множество Парето /40, 41, 57, 81/. Пусть X P является множеством Парето в пространстве независимых переменных (параметров) и V P – множество Парето в пространстве критериев, тогда эти множества могут быть описаны следующими моделями /57/: X P = {x : arg max i vi, i 0, i = 1}, x X i =1 i =1 m m V P = {v = (v1,..., v m ) : max i vi, x X i = m i 0, i = 1}.

i = m (1.126) Данное описание корректно для выпуклого множества V X. Альтернатива x1 доминирует по Парето альтернативу x2 ( x1 f x2, альтернатива x лучше по Парето альтернативы x2 ), если f i ( x1 ) f i ( x2 ), i = 1,..., m, и хотя бы для одного i такое неравенство является строгим. Те альтернативы, для которых не существует доминирующих их допустимых альтернатив x X, называются оптимальными по Парето. Множество альтернатив (векторных оценок) в пространстве критериев, доминирующих по Парето альтернативу x (векторную оценку v = f (x) ), совпадает с положительным ортантом (конусом) C (x), вершина которого перенесена в точку f (x). Для любой точки (альтернативы) v = (v1,..., v m ) T C ( x) выполняются неравенства vi f i (x), i = 1,..., m. Если v f (x), то хотя бы одно из неравенств будет строгим. Если пересечение положительного ортанта C (x) с множеством векторных оценок V X содержит какие-либо точки, кроме f (x), то каждая из этих точек доминирует x по Парето. Альтернатива x * оптимальна, если пересечение конуса C ( x * ) с множеством векторных оценок V X состоит из единственной точки v * = f ( x * ). Одним из достоинств паретовского принципа оптимальности является его инвариантность к масштабу, единицам измерения критериев и взаимной важности критериев. Один из недостатков принципа заключается в отсутствии ответа на вопрос: какое из решений лучшее? Следующие принципы дают ответ на этот вопрос. Далее при изложении принципов оптимальности будем предполагать выполнение предположения о том, что множество векторных оценок VX ограничено, замкнуто и целиком лежит во внутренности 1i m x X неотрицательного ортанта пространства критериев R m. Это означает, что min min f i ( x) > 0. Ограниченность и замкнутость множества V X гарантирует существование -оптимальных альтернатив. Условие того, что V X целиком лежит во внутренности неотрицательного ортанта пространства критериев, введено для удобства. Любое ограниченное множество в R m можно сдвинуть в положительный ортант, например, используя сравнительную нормализацию, и отношение доминирования по Парето между точками не изменится.

1.3.3.1. Принцип идеальной точки Согласно принципу идеальной точки /57/ лучшим считается решение, расположенное в пространстве параметров ближе всего (в смысле некоторой нормы) к «идеальной точке» vI :

x = min D(v I v( x), ), x X I где v I = (v1I,..., v q ) T – идеальная точка, D(.,.) – норма, – весовой вектор.

(1.127) Идеальная точка может быть выбрана ЛПР решений интуитивно или взята формально как вектор максимальных значений каждого из критериев в отдельности:

I v I = (v1I,..., v m ) = max f 1 ( x),..., max f m ( x). xX x X (1.128) Этот принцип выражает желание найти решение, ближайшее к идеальной точке. Изменяя норму D(.,.) и весовой вектор, можно по-разному описывать понятие «близости» к идеальной точке.

1.3.3.2. Принцип антиидеальной точки В соответствии с этим принципом лучшим считается наиболее удаленное решение от антиидеальной точки v AI /57/:

x = max D(v AI v( x), ), x X AI где v AI = (v1AI,..., v m ) T – антиидеальная точка.

(1.129) Например, она может быть выбрана следующим образом:

AI v AI = (v1AI,..., v m ) = min f 1 ( x),..., min f m ( x). x X x X ( ) (1.130) Данный принцип выражает желание найти решение, наиболее удаленное от антиидеальной точки. Следующие пять принципов выражают желание равномерно увеличивать величины всех локальных критериев при определении наилучшего решения.

1.3.3.3. Принцип равенства Согласно этому принципу наилучшим будет следующее решение /57/: x = arg max U ( x) = arg max v1 = max f1 ( x), x X x X 1 x X (1.131) где X 1 = {x : arg( 1 v1 =... = m v m )}. Здесь решение ищется на прямой в пространстве критериев. Возможны случаи, когда найденное решение не будет паретовским.

1.3.3.4. Принцип квазиравенства Это смягченная версия слишком «жесткого» принципа равенства. По данному принципу наилучшее решение ищется как точка /57/: x = arg max U ( x) = arg max v1 = max f1 ( x), x X x X 2 x X (1.132) где X 2 = {x : arg( i vi j v j i j ), i j = const, i, j = 1,..., m}, и i j – заранее выбранная константа или величина, изменяемая ЛПР, которая позволяет значениям критериев отклоняться друг от друга.

1.3.3.5. Принцип максимина По данному принципу каждое решение описывается наименьшей взвешенной величиной из m критериев /57/. Затем выбирается наибольшая величина среди этих наименьших значений и соответствующее ему решение принимается за наилучшее:

x = arg max U ( x) = arg max min ( i vi ), x X x X iI (1.133) где I = {1,..., m} – множество номеров критериев, ряд приоритета. Иногда данный принцип называют принципом гарантированного результата или принципом наибольшей осторожности.

1.3.3.6. Принцип последовательного максимина Если принцип максимина не приводит к единственному решению, то он может быть последовательно применен до m раз /57/: x = arg max U ( x) = arg max min... (max min (max min ( i vi )))...), x X x X iI m 1 x iI1 x iI (1.134) где I1 – множество номеров критериев, полученное из множества I, из которого исключена единица (номер критерия с минимальным значением), I 2 – множество номеров критериев, полученное из множества I1, из которого исключена двойка, и т.д. Множество I m1 содержит только число m (состоит из номера одного критерия).

1.3.3.7. Квазиоптимальный принцип последовательного максимина Это смягченная версия принципа последовательного максимина /57/. Принцип последовательного максимина может быть последовательно применен до m раз. Каждое максиминное i -е решение ослабляется на величину i, такое ослабление производят до m раз. По данному принципу наилучшее решение ищется как точка: x = arg max U ( x) = arg max v1 = max f1 ( x), x X x X 3 x X (1.135) где X 3 = { x : arg max min (... (max min (max min ( i vi ) 1 ) 2 )... m ) }, x X iI m 1 x iI1 x iI и j, j = 1,..., m – заранее выбранные константа или величины, изменяемые ЛПР, которые позволяют расширить множество допустимых значений. Критерий для максимизации может быть выбран ЛПР. Стремление увеличивать величины всех критериев одновременно является привлекательным. Однако отклонение от приведенных принципов иногда может дать значительный выигрыш, например, если позволить ухудшать значения части критериев для достижения улучшения значений по другим критериям. Следующие два принципа носят название принципов справедливой уступки /57/. Понятие «справедливости» может быть описано разными способами. До сих пор не установлено простого и очевидного «справедливого» принципа. Да он и не может существовать, поскольку разные ситуации требуют разной «справедливости». Компромисс и справедливость всегда привязаны к конкретной ситуации или к классу ситуаций. Рассмотрим подход к «справедливости», основанный на сравнении оценок увеличения и уменьшения значений локальных критериев при сравнении различных решений. Данный подход приводит к двум принципам: принципу абсолютной и относительной уступки.

1.3.3.8. Принцип абсолютной уступки Пусть сравниваются два любых решения и пусть мы переходим от первого ко второму решению. Пусть величины одной части критериев уменьшаются, а второй части критериев увеличиваются при этом переходе. Согласно рассматриваемому принципу второе решение лучше первого, если сумма взвешенных значений увеличившихся критериев больше суммы взвешенных значений уменьшившихся критериев. Данное длинное определение и сам принцип абсолютной уступки могут быть выражены в простой математической форме: x = arg max U ( x) = arg max i f i ( x) = arg max i v i.

x X x X i =1 x X i =1 m m (1.136) Описанный принцип позволяет улучшать качество решения за счет компенсации (уступки) уменьшения значений по одним критериям большим увеличением значений по другим критериям. Запись, приведенная выше, называется сверткой значений критериев или просто сверткой. Взвешенная сумма величин критериев может рассматриваться как целевая функция или функция качества.

1.3.3.9. Принцип относительной уступки Пусть, как и ранее, сравниваются два любых решения и пусть мы переходим от первого ко второму решению. Пусть относительные величины одной части критериев уменьшаются, а относительные величины второй части критериев увеличиваются при этом переходе. Согласно принципу относительной уступки второе решение лучше первого, если суммарное относительное увеличение взвешенных значений увеличившихся критериев больше суммарного относительного уменьшения взвешенных значений уменьшившихся критериев. Принцип относительной уступки (и данное длинное определение) может быть выражен в простой математической форме: x = arg max U ( x) = arg max [ f i ( x)] x X x X i =1 m i = arg max v x X i = m i (1.137) или x = arg max U ( x) = arg max i log f i ( x) = arg max i log vi. (1.138) x X x X i =1 x X i =1 m m Этот принцип учитывает значения критериев, и самый простой путь улучшения решения заключается в уменьшении значений критериев с большими значениями. Принцип абсолютной уступки не учитывает значений локальных критериев. Его лучше использовать в комбинации с другими принципами. Принцип относительной уступки довольно чувствителен к величинам критериев, и относительная уступка ведет к учету интересов, прежде всего, критериев с наибольшими значениями за счет критериев с меньшими значениями. Важным достоинством принципа относительной уступки является его инвариантность к единицам, в которых измеряются значения критериев. Все описанные принципы оптимальности используют весовой вектор. Приводимые далее принцип главного критерия и лексикографический принцип используют меньше информации о взаимной важности критериев.

1.3.3.10. Принцип главного критерия Это наиболее широко используемый принцип при постановке задач оптимизации /57/. Один из критериев (обычно самый важный) принимается за главный, для остальных критериев назначают пороговые величины. Величины этих критериев должны превышать пороговые значения. Наилучшим решением является точка: x = arg max U ( x) = arg max v1 = arg max f 1 ( x), x X x X 0 x X X 0 = {x : x X, arg(vi vi ), vi = const, i = 2,..., m}.

(1.139) Выбор величин пороговых значений vi очень важен. Изменяя их, можно получать различные решения. Кроме того, можно порекомендовать при применении данного принципа исследовать то, как влияет выбор главного критерия на результирующее оптимальное решение.

1.3.3.11. Лексикографический принцип В этом случае используется ряд приоритета и решается последовательность задач. Сначала максимизируется самый важный критерий. Полученное в результате множество решений является допустимым множеством для максимизации следующего по важности критерия и т. д. /57/: 1. X 1 = {x : arg max v1 }, x X 2. X 2 = {x : arg max v 2 }, x X...

m. X m = {x : arg max v q }.

x X m Данный принцип довольно жесткий.

Часто после решения первой задачи максимизации получают единственное решение, а остальные критерии не участвуют в решении, и тем самым их «интересы» не учитываются. Следующий принцип более гибкий.

1.3.3.12. Лексикографический принцип квазиоптимальности Решается последовательность задач максимизации с введенными отклонениями от оптимума (уступками). Данные отклонения увеличивают допустимое множество, на котором решаются последующие задачи минимизации /57/: 1.

2.

X 1 = {x : arg(max v1 1 )}, x X X 2 = {x : arg(max v 2 2 )}, x X.

.

.

x X m m 1. X m 1 = {x : arg max v m 1 m 1 )}, m. X m = {x : arg max v m }.

x X m Принцип позволяет ЛПР выбирать величины i, i = 1,..., m 1, и влиять на решение и «интересы» последующих критериев. Рассмотренные принципы оптимальности, которые могут быть использованы при постановке задач оптимизации для перехода от множества критериев к единому критерию и получению в результате такого перехода традиционной однокритериальной задачи для оптимизации. Правильное и гибкое использование данных принципов не означает их обязательного прямого использования на стадии постановки задачи оптимизации. Предполагается их последовательное или комбинированное применение, исследование того, как изменяется при этом решение и как они согласуются с целями ЛПР. Нужно также отметить, что многие из принципов требуют от ЛПР дополнительной информации, которую ему обычно трудно предоставить априори. Зачастую ЛПР понимает то, чего можно достигнуть только в процессе решения задачи. Фактически выбор того или другого принципа оптимальности не является математической проблемой, а выбор или построение принципа оптимальности должен вести к решению, удовлетворяющему требованиям ЛПР, и отражать представление его о качестве решения. Чем больше вариантов постановок задач оптимизации и их решений рассматривается ЛПР, тем больше шансов найти решение, полностью удовлетворяющее ЛПР. Таким образом, важной рекомендацией по использованию принципов оптимальность может быть их комбинирование и разумное сочетание их применения в диалоге с ЛПР.

1.3.4. Метод аналитической иерархии Метод аналитической иерархии /83/ использует дерево критериев, в котором более общие критерии разделяются на критерии частного характера. Для каждой группы критериев определяются коэффициенты важности. Альтернативы сравниваются между собой по отдельным критериям с целью определения критериальной ценности каждой из них. Средством определения коэффициентов важности критериев либо критериальной ценности альтернатив является попарное сравнение. Результат сравнения оценивается по балльной шкале (обычно от 1 до 10). На основе таких сравнений вычисляются коэффициенты важности критериев, оценки альтернатив и находится общая оценка как взвешенная сумма оценок критериев. Применение метода достаточно просто и наглядно, что и определяет его популярность. Метод не имеет строгого теоретического обоснования и относится к эвристическим. Постановка задачи, решаемой с помощью метода аналитической иерархии, заключается в следующем. Дано: общая цель (или цели) решения задачи;

критерии оценки альтернатив v1,..., v m ;

множество альтернатив X = {x1,..., xn }. Требуется: выбрать наилучшую альтернативу. Метод аналитической иерархии складывается из выполнения следующих этапов. 1. Провести структуризацию задачи принятия решений в виде иерархической структуры с несколькими уровнями: цели-критерии-альтернативы. 2. ЛПР выполнить попарные сравнения элементов каждого уровня. Результаты сравнений представить в виде чисел. 3. Вычислить весовые коэффициенты для элементов каждого уровня ( i – весовой коэффициент i -го критерия, i ( x k ) – весовой коэффициент альтернативы xk по i -му критерию). 4. Вычислить количественную оценку качества каждой из альтернатив по формуле U ( x k ) = i i ( x k ) и определить наилучшую альтернативу x * = arg maxU ( xk ).

i =1 xk X m 1.3.5. Методы порогов несравнимости ЭЛЕКТРА Существует подход к решению задачи многокритериального выбора на основе попарного сравнения альтернатив. Данный подход реализован в виде методов ЭЛЕКТРА (ELECTRE – Elimination Et Choix Traduisant la Realite – исключение и выбор, отражающие реальность) /11, 37, 38, 41, 82/. Постановка задачи обычно имеет следующий вид. Дано: множество, состоящее из m критериев v1,..., v m с количественными шкалами оценок, I = {1,..., m} – множество номеров критериев, веса критериев 1,..., m, множество альтернатив X = {x1,..., xn } с оценками по критериям v1 = f1 ( x k ),..., v m = f m ( x k ), k = 1,..., n. Требуется: выделить группу лучших альтернатив. Структура метода ЭЛЕКТРА 1. Проводится полное попарное сравнение всех альтернатив. Для каждой пары альтернатив xa, xb X по критериальным оценкам f1 ( xa ),..., f m ( xa ) и f1 ( xb ),..., f m ( xb ) вычисляются значения двух специальных индексов: согласия и несогласия. Эти индексы определяют согласие и несогласие с гипотезой, что альтернатива xa X превосходит альтернативу xb X.

2. Задаются уровни согласия и несогласия, с которыми сравниваются значения вычисленных индексов для каждой пары альтернатив. Если индекс согласия выше заданного уровня, а индекс несогласия – ниже, то одна из альтернатив превосходит другую. В противном случае альтернативы несравнимы. 3. Из множества альтернатив удаляются доминируемые. Оставшиеся альтернативы образуют ядро. Альтернативы, входящие в ядро, могут быть либо эквивалентными, либо несравнимыми. 4. Вводятся последовательно более «слабые» значения уровней согласия и несогласия (меньший по значению уровень согласия и больший уровень несогласия), при которых выделяются ядра с меньшим количеством альтернатив. 5. Процесс поиска лучших альтернатив прекращают, когда число альтернатив в ядре становится приемлемым для ЛПР или их число меньше заранее заданного количества. В последнее ядро входят наилучшие альтернативы. Последовательность ядер определяет упорядоченность альтернатив по качеству.

В различных методах семейства ЭЛЕКТРА индексы согласия и несогласия строятся по-разному. Важно подчеркнуть, что уровни индексов согласия и несогласия, при которых альтернативы сравнимы, представляют собой инструмент анализа в руках ЛПР. Задавая эти уровни, меняя пороговые значения, постепенно понижая требуемый уровень индекса согласия и повышая требуемый уровень индекса несогласия, ЛПР исследует имеющееся множество альтернатив.

1.3.6. Диалоговые методы. Метод ограничений Диалоговый подход, использующий интерактивные человеко-машинные процедуры, для поиска лучших альтернатив ориентирован на преодоление многокритериальности и нечисловой природы оптимизируемых функций, основан на использовании информации о предпочтениях ЛПР. При этом подходе ЛПР обычно взаимодействует с ЭВМ, определяя соотношения между критериями, проясняет характерные черты задачи, выявляет и уточняет свои предпочтения и в результате диалога с ЭВМ вырабатывает все более совершенные решения. Так осуществляется самообучение на реальном материале задачи, что способствует выработке разумного компромисса в требованиях ЛПР к значениям, достигаемым по разным критериям. Это объясняет потенциальную эффективность подобных методов принятия решений. Процесс заканчивается, когда ЭВМ выдает приемлемое решение либо когда ЛПР убедится в нецелесообразности дальнейших попыток получить разумный компромисс при данной модели /68/. Достоинством диалоговых методов является сочетание возможностей ЭВМ по быстрому проведению больших, сложных расчетов и способностей человека к восприятию альтернатив в целом. Методы этой группы применяются в том случае, когда модель проблемы известна частично /32, 69/. Диалоговые, или человеко-машинные процедуры, структурно состоят из совокупности шагов, каждый из которых включает в себя фазу анализа, выполняемого ЛПР, и фазу расчетов, выполняемых компьютером /38/. Компьютерная фаза расчетов:

• компьютер, используя полученную от ЛПР на предыдущем шаге информацию, проводит дополнительные расчеты;

• • компьютер вычисляет решение, соответствующее последней информации ЛПР;

компьютер вырабатывает вспомогательную информацию для ЛПР. Фаза анализа, проводимая ЛПР:

• ЛПР определяет, оценивая предъявленное решение (или множество решений), является ли решение приемлемым;

если да, то процедура поиска решения окончена;

в противном случае ЛПР анализирует вспомогательную информацию;

• ЛПР сообщает дополнительную информацию, с помощью которой компьютер вычисляет новое решение. Существует большое количество диалоговых методов. Рассмотренные ранее методы в той или иной форме требуют участия ЛПР и компьютера, отличаясь друг от друга содержанием и способом выполнения каждой из фаз. Диалоговые методы можно разделить по характеру информации, получаемой от ЛПР на фазе анализа, на методы сравнения многокритериальных решений и методы наложения ограничений на значения критериев и на область допустимых значений. Методы второй группы иногда называют методами называются человеко-машинными методами поиска удовлетворительных решений. Примером такого метода служит метод ограничений (STEM) /37/. Рассмотрим общую структуру метода ограничений, которую в общем виде можно представить в виде следующих действий: 1. Исследование области допустимых значений. Оптимизация по каждому из критериев, определение вектора, объединяющего оптимальные значения для каждого критерия Z max. 2. Определение весов критериев. Оптимизация свертки критериев, получение вектора Z opt. 3. Диалог с ЛПР (по Vmax и Vopt определяются «хорошие» и «плохие» компоненты Vopt ). 4. Выбор vi с наименее удовлетворительным значением. Назначение ЛПР удовлетворительного значения для vi. 5. Максимизация ограничения). 6. ЛПР выбирает ограничение на vi. Переход к новой области допустимых значений. 7. Если ЛПР удовлетворен решением, то останов поиска, иначе переход к п. 1. критериев при ряде ограничений на критерий (критериальные 1.4. Выводы к главе 1. Описаны временные ряды, рассмотрен генезис наблюдений образующих временные ряды. 2. Рассмотрены известные методы и модели, применяемые при анализе временных рядов. 3. Рассмотрены модели и методы принятия решений в условиях многокритериальности 2. МОДЕЛИ И МЕТДЫ МНОГОКРИТЕРИАЛЬНОГО ПРОГНОЗИРОВАНИЯ В настоящей главе изложены теоретические положения, являющиеся базисом системы прогнозирования на основе временных рядов. Сформулирована постановка задачи прогнозирования, которая сводится к выбору рационального прогноза из множества конкурирующих прогнозов, построенных с использованием различных и/или по-разному настроенных прогнозных моделей. В ходе решения задачи прогнозирования сконструировано многокритериальное описание качества прогнозов с применением методики ретроспективного анализа, предложены различные формальные постановки задачи прогнозирования, в зависимости от цели построения прогноза;

выполняется построение множества конкурирующих прогнозов и выбор наиболее рационального из них с применением диалогового алгоритма, учитывающего предпочтения эксперта. Приведено описание прогнозных моделей с аддитивной структурой, которые используются при построении множества конкурирующих прогнозов. Данные модели позволяют проводить покомпонентный анализ составляющих временного ряда: тренда, сезонной и случайной компоненты.

2.1. Постановка задачи прогнозирования Пусть заданы значения временного ряда X = {x(1), x(2),..., x( N )}, где x(t ) – значение анализируемого показателя, зарегистрированного в t -м такте времени ( t = 1,2,..., N ). Требуется построить «хорошие» оценки будущих значений ряда X = {x( N + 1), x( N + 2),..., x( N + )}, где 1 < N – горизонт прогнозирования. Что же такое «хорошие» оценки будущих значений ряда? Выделим постановки задач прогнозирования и сформулируем критерии оценки качества прогнозирования для формализации этого понятия. Выделим из исходного временного ряда обучающую выборку X об = {x(1), x(2),..., x( N )}, на основании наблюдений которой построим оценки значений временного ряда на тактах с 1 по N, и прогнозные значения на тактах с N + 1 по N X всп = {x (1), x ( 2),..., x ( N ), x ( N + 1), x ( N + 2),..., x ( N )}. Затем, выбрав k произвольных точек исходного временного ряда, составим из них экзаменационную выборку X экз = {x(t1 ), x (t2 ),..., x(t j ),..., x (tk )}, где 1 t j N. Из полученного вспомогательного прогноза временного ряда на временных тактах, X всп выберем оценки значений экзаменационную выборку вошедших в X экз = {x (t1 ), x(t2 ),..., x (t j ),..., x (tk )}, 1 t j N. Сопоставляя полученные оценки значений временного ряда X экз, со значениями экзаменационной выборки X экз, оценим его качество, используя различные критерии оценки качества прогнозирования. Таким образом, вспомогательный прогноз будет проверен на имеющихся данных. Построим прогноз X, на основании всех имеющихся наблюдений временного ряда X, используя при этом тот же метод прогнозирования, что и при построении вспомогательного прогноза. В связи с тем, что оценить качество прогноза X на реальных данных не представляется возможным, будем предполагать, что его качество такое же, как и качество вспомогательного прогноза. Данный подход оценки качества прогнозирования имеет три наиболее распространенных случая вида экзаменационной выборки. 1. Экзаменационная выборка приходится на прогнозные такты вспомогательного прогноза (рис. 2.1). Такой вид оценки качества является единственно возможным для прогнозов, построенных при помощи прогнозных моделей, которые не позволяют строить оценки известных значений временного ряда, а строят лишь прогнозы.

Обучающая выборка Экзаменационная выборка Будущие значения t x(1) x(2) x(N-) x(N-+1) x(N) ^ x(N+1) ^ x(N+) Рис. 2.1. Обучающая и экзаменационная выборки (случай № 1) 2. Экзаменационная выборка охватывает весь исходный временной ряд (рис. 2.2). В этом случае проверяется качество описания всех точек временного ряда. Этот вид оценки оправдывает себя в некоторых случаях при использовании прогнозных моделей, которые позволяют строить оценки известных значений временного ряда.

Экзаменационная выборка Обучающая выборка Будущие значения t x(1) x(2) x(N-) x(N-+1) x(N) ^ x(N+1) ^ x(N+) Рис. 2.2. Обучающая и экзаменационная выборки (случай № 2) 3. Точки, входящие в экзаменационную выборку указываются экспертом-прогнозистом (рис. 2.3). В этом случае можно добиться как совмещения первых двух подходов, так и использования их частных случаев. Например, эксперту может быть важно, чтобы модель хорошо описывала не только прогнозные такты, но и хорошо «вылавливала» точки локальных экстремумов временного ряда. Такая задача может возникнуть при прогнозировании будущего уровня всплеска или спада временного ряда.

Обучающая выборка Будущие значения t x(1) x(2) x(N-) x(N-+1) x(N) ^ x(N+1) ^ x(N+) Точки экзаменационной выборки Рис. 2.3. Обучающая и экзаменационная выборки (случай № 3) Построение вспомогательного прогноза необходимо, по двум основным причинам. 1. Хорошее описание известных точек временного ряда еще не гарантирует того, что та же самая прогнозная модель хорошо справится с задачей прогнозирования. 2. Некоторые прогнозные модели вовсе позволяют строить оценки известных значений временного ряда, а строят только прогнозные значения. В этом случае проверка прогноза на имеющихся данных возможна только при построении вспомогательного прогноза.

2.2. Критерии оценки качества прогнозирования Для оценки качества прогноза введем вспомогательные критерии для разных видов требований к качеству прогноза вида V = V ( X экз, X экз ) /63/. Для удобства описания процедуры оценки качества прогноза введем величину y (t ) = x(t ) x(t ), где t = t1, t 2,..., t k абсолютную величину отклонения прогнозного значения от наблюденного на временном такте 1 t N (невязка). 1. Точечный прогноз Качество построения прогноза с наилучшим совпадением значения на m -м такте будем оценивать критерием: V0 = y ( m ), 1 m < N. 2. Траекторный прогноз Для оценки качества построения прогноза на тактов ( 1 < N ) с наилучшим совпадением прогнозных значений на всех тактах, используем один из следующих критериев:

V1 = t j y (t j ), j =1 k (2.1) (2.2) 1 V2 = k j = k tj y (t j ) 2, (2.3) (2.4) V3 = max t y (t ), t{ t1,...,t k } V4 = y (t ) 1k t j x(t j ), k j =1 j (2.5) где t j - весовые коэффициенты, отражающие степень важности совпадения прогнозного и реального значения на такте t j, задаваемые экспертным путем. 3. Прогноз максимума Требуется построить траекторный прогноз на тактов с наилучшим совпадением величины максимума прогноза:

V5 = max { x(t1 ),..., x(t k )} max { x(t1 ),..., x(t k )} (2.6) и величины прогноза значения такта m * с максимальным прогнозным значением:

V6 = arg max { x (t1 ),..., x (tk )} arg max {x (t1 ),..., x (tk )}.

(2.7) Наиболее распространенный критерий оценки качества прогноза (2.3), состоящий из суммы квадратов отклонений реальных данных от результатов расчета по прогнозной модели, не всегда точно описывает представления прогнозиста о хорошем прогнозе. Например, данный критерий может допускать заметные отклонения прогноза от реальных значений на отдельных тактах. Ясно, что такая оценка качества прогноза не достаточно точно описывает представления о хорошем прогнозе. На наш взгляд, надежный критерий качества прогноза должен описывать представления прогнозиста о «хорошем» и «плохом» прогнозе, «большом» и «малом» отклонении реального процесса от прогноза. По этой причине предлагается множество критериев оценки качества прогноза и постановок задач оптимизации для описания и выбора лучшего прогноза. В основе конструкций критериев и постановок задач оптимизации лежит использование многокритериального описания и принципы оптимальности /57/.

2.3. Решение задачи прогнозирования как задачи оптимизации Сформулируем задачу оценки качества прогноза как задачу оптимизации /8, 12, 50, 54, 58, 60, 71, 75/. При постановке оптимизационных задач возможно использование оценок как по одному из вспомогательных критериев (2.1) – (2.7), так и по нескольким критериям одновременно /62/. Второй подход позволяет более гибко подстроиться под требования эксперта к качеству прогноза за счет выбора соответствующей постановки задачи.

Пусть было построено L различных прогнозов X 1, X 2,..., X i,... X L, i = 1,.., L, которым соответствуют L наборов оценок X экз i = {xi (t1 ), xi (t 2 ),..., xi (t j ),..., xi (t k )} значений временного ряда на тактах экзаменационной выборки X экз = {x(t1 ), x(t 2 ),..., x(t j ),..., x(t k )}, где 1 t j N с использованием различных (или по-разному настроенных) прогнозных моделей M p. Тогда абсолютная величина отклонения значения i -го прогноза на временном такте 1 t j N от наблюденного значения составит yi (t j ) = xi (t j ) x(t j ).

Опишем однокритериальные постановки задач оптимизации (оценки качества прогноза). 1. Лучшим считается прогноз c минимальным отклонением прогнозных значений от реальных на m -ом такте:

X * = arg min V0 ( X экз, X i ) = arg min ( xi (m) x(m) ).

i{1, L} i{1, L} (2.8) 2. Лучшим считается прогноз с наименьшим суммарным отклонением прогнозных значений от реальных:

X * = arg min V1 ( X экз, X i ) = arg min t j yi (t j ).

i{1, L} i{1, L} j =1 k (2.9) отклонением 3. Лучшим считается прогноз с наименьшим среднеквадратическим прогнозных значений от реальных: 1 X * = arg min V2 ( X экз, X i ) = arg min i{1, L} i{1, L} k j = k tj yi2 (t j ).

(2.10) 4. Лучшим считается прогноз с наименьшим максимальным отклонением прогнозных значений от реальных, то есть гарантируется, что отклонения прогноза будут не больше найденного минимального значения на всех тактах:

X * = arg min V3 ( X экз, X i ) = arg min max t j yi (t j ).

i{1, L} i{1, L} j{1, k } (2.11) 5. Лучшим считается прогноз с минимальной величиной средней ошибки отклонения прогнозных значений от реальных: y (t ) 1k X * = arg min V4 ( X экз, X i ) = arg min t j i j. i{1, L} i{1, L} k x (t j ) j =1 (2.12) 6. Лучшим считается прогноз с наименьшим отклонением максимального значения ряда:

X * = arg min V5 ( X экз, X i ) = arg min ( max { x(t1 ),..., x(t k )} max { xi (t1 ),..., xi (t k )} ) i{1, L} i{1, L}.

(2.13) 7. Лучшим считается прогноз, в котором наиболее точно вычисляется такт с максимальным значением ряда: X * = arg min V6 ( X экз, X i ) = arg min ( arg max { x(t1 ),..., x(t k )} i{1, L} i{1, L} arg max {xi (t1 ),..., xi (t k )} ).

(2.14) Опишем многокритериальные постановки задач. 8. Лучшим считается прогноз с минимальными взвешенными среднеквадратическим отклонением, отклонением прогнозного максимального значения от реального и наиболее точным предсказанием такта с максимальным значением ряда: X * = arg min 2 V2 ( X экз, X i ) + 5 V5 ( X экз, X i ) + 6 V6 ( X экз, X i ) = i{1, L} ( ) arg min( i{1, L} 1 k j = k t j yi ( t j ) 2 +, (2.15) 5 max { x (t1 ),..., x (tk )} max { xi (t1 ),..., xi (tk )} + 6 arg max { x(t1 ),..., x (tk )} arg max {xi (t1 ),..., xi (tk )} ) где весовые коэффициенты 2, 5, 6 определяются прогнозистом. За счет применения весов можно менять требования к качеству прогноза. 9. Лучшим считается прогноз с минимальными взвешенными среднеквадратическим отклонением, суммарным отклонением и максимальным отклонением прогнозных значений от реальных:

X * = arg min 1 V1 ( X экз, X i ) + 2 V2 ( X экз, X i ) + 3 V3 ( X экз, X i ) = i{1, L} k 1 arg min 1 t j yi (t j ) + 2 k 1 i{1, L} j = ( ) t yi2 (t j ) + 3 max t yi (t j ) j = j k j{ 1,k } j, (2.16) где весовые коэффициенты 1, 2, 3 определяются прогнозистом. За счет применения весов можно менять требования к качеству прогноза. Отметим, что, применяя различные принципы оптимальности и методику их использования, изложенные в /57/, можно расширить множество формальных постановок задач. Однако, для рассматриваемых ниже задач прогнозирования приведенного множества постановок вполне достаточно, так как оно покрывает основные требования экспертов к качеству прогнозов.

2.4. Алгоритм построения множества конкурирующих прогнозов Рассмотрим задачу построения множества прогнозов с использованием различных прогнозных моделей, параметры которых находятся в заданных интервалах. Решение этой задачи позволит сформировать множество конкурирующих прогнозов для дальнейшей оценки их качества, и выбора наилучшего из них.

Особенность поставленной задачи заключается в том, что указаны не конкретные значения параметров прогнозных моделей, а диапазоны их возможных значений. Такой способ задания значений параметров актуален в силу того, что эксперт, априори не зная, при каких значениях параметров прогнозной модели будет построен лучший прогноз, избавляется от необходимости вручную перебирать интересующие его варианты значений параметров прогнозных моделей. Пусть дано k различных прогнозных моделей X = M p ( p, X, ), где p = 1,2,..., k, X – 2 исходный временной ряд, – горизонт прогнозирования, p = 1 p... pj p (... p p C ) T – вектор-столбец, определяющий параметры p -ой прогнозной модели ( C p – количество параметров прогнозной модели M p ). И пусть экспертом для построения прогнозов выбрано n различных прогнозных моделей mi = M i ( i, X, ), i = 1,2,..., n.

Для каждой прогнозной модели mi зададим матрицу диапазонов значений ее параметров min1 i 2 mini... i Rp = minij... min C p i max1 i 2 max i... minij...

max i Cp..., minij... C sti p sti1 sti (2.17) в которой укажем минимальные minij и максимальные max ij значения параметров модели, а также и шаг их изменения sti j > 0 ( minij < max ij ). Таким образом, j -я переменная в i -ой прогнозной модели может принимать max ij minij + 1 различных значений. vi j = sti j Построим морфологический ящик /57/, который позволит сформировать все возможные комбинации значений параметров прогнозной модели. Для этого выявим полный перечень возможных значений, которые могут принимать параметры прогнозной модели mi :

min1, min1 + sti1,..., min1 + (vi1 1) sti1 i i i mini2, mini2 + sti2,..., mini2 + (vi2 1) sti.................................................................... (2.18) minij, minij + sti j,..., minij + (vij 1) sti j...................................................................

minC, minC + stiC,..., minC + ( viC 1) stiC i i i i i i i i i Отметим, что число значений vij, принимаемых различными параметрами моделей, может быть различным. Для построения множества возможных параметров прогнозной модели выявим все возможные альтернативы в виде векторов-столбцов вида i, получаемых из сочетания различных значений параметров прогнозной модели, беря из каждой строки по одному значению. Решим эту задачу, используя следующий алгоритм. Возьмем минимально возможные значения всех параметров и получим альтернативу 1 = min1 mini2... minij i i i (... minCi. Последовательно задавая значения параметра i i i i i i i ) iC из списка возможных значений minC, minC + stiC,..., minC + ( viC 1) stiC, не меняя i i i значений остальных параметров, получим следующие viCi 1 альтернатив i2, i3,..., ivi, где ivi = min1 mini2... minij i Ci Ci (... minCi + ( viCi 1) stiCi. i ) В дальнейшем, последовательно перебирая все возможные значения параметра iCi 1, снова будем изменять значения параметра iCi для каждого из них. И так далее до получения полного множества альтернатив, мощность которого составит Li = vij.

j =1 j Ci Построим Li прогнозов X il = mi ( il, X, ), последовательно используя в качестве параметров прогнозной модели mi элементы сформированного множества альтернатив 1, i2,..., il,..., iLi. i Проведя вышеописанную процедуру для каждой из прогнозных моделей m1, m2,..., mn, получим множество из L = Li i =1 n конкурирующих прогнозов. Структура алгоритма построения набора конкурирующих прогнозов приведена на рис. 2.4.

Рис. 2.4. Структура алгоритма построения набора конкурирующих прогнозов 2.5. Прогнозирование в диалоговом режиме с ЛПР 2.5.1. Особенности диалоговых методов принятия решений К слабоструктурированным относятся задачи принятия решений, основные характеристики которых носят качественный характер. Примерами таких задач являются многие задачи принятия решений экономического характера, планирования научных исследований, конкурсного отбора проектов /39/. В данных задачах обычно отсутствуют надежные количественные модели и методы измерения. Можно выделить общие черты слабоструктурированных задач принятия решений /39/. 1. Задачи являются проблемами уникального выбора, т. е. задача либо новая для ЛПР, либо обладает новыми особенностями по сравнению со встречавшимися ранее. 2. Задачи связаны с неопределенностью в оценках альтернатив, которая обусловлена нехваткой информации на момент ее решения. 3. Оценки альтернатив имеют качественный характер, например сформулированы в словесном виде. 4. Общая оценка альтернатив может быть получена лишь на основе субъективных предпочтений ЛПР (индивидуального или коллективного). Интуиция ЛПР, его вера в те или иные варианты развития событий являются основой решающего правила, позволяющего перейти от оценок по отдельным критериям к общей оценке альтернатив. 5. Оценки альтернатив по отдельным критериям могут быть получены только от экспертов. Обычно отсутствует объективная шкала измерения оценок по отдельным критериям. Более того, в ряде случаев эксперты могут достаточно надежно дать лишь относительные оценки альтернатив по критериям, т. е. оценить альтернативы в шкале порядка.

ЛПР является главным субъектом в процессах принятия решений. Методы принятия решений должны учитывать субъективный взгляд и его предпочтения. Кроме того, методы должны учитывать возможности и ограничения человека при восприятии и переработке информации. Особо важную роль задач, играют когда особенности приходится иметь человека дело с при решении слабоструктурированных качественными, недостаточно определенными зависимостями между основными переменными и факторами при дефиците информации. Данные особенности можно учесть, рассматривая качественную модель человека (ЛПР) как переработчика информации. Выделим основные черты и особенности деятельности человека при переработке информации /38/. 1. Человек имеет ограниченный объем кратковременной памяти;

он не может уделять одновременно внимание многим аспектам, влияющим на принимаемое решение. Особенно ярко это ограничение проявляется при принятии новых решений (в отличие от повторяющихся), когда человек не может путем постоянных тренировок расширить возможности своей памяти, выработать определенную внутреннюю структуру хранения информации. Следствием этого ограничения являются известные случаи, когда ЛПР сознательно упрощает ситуацию, превращает часть критериев в ограничения, уменьшает число возможных оценок, группирует альтернативы и т. д. 2. Человек не является точным измерительным устройством;

он не может совершать точные количественные измерения. Поэтому, рассматривая экспертную деятельность ЛПР, индивидуальную или коллективную, нельзя для обработки экспертной информации без учета особенностей информации применять методы математической статистики. 3. В процессе анализа проблем, подлежащих решению, человек время от времени совершает ошибки, противоречит сам себе. Эти ошибки могут быть объяснены различными причинами: невнимательностью, ограниченным объемом кратковременной памяти, экономией усилий, но сам факт наличия таких ошибок бесспорен. 4. Человек обычно не имеет готового решающего правила. Он вырабатывает это решающее правило, обучаясь, используя метод проб и ошибок. 5. Из-за ограниченного объема кратковременной памяти человек в каждый момент времени уделяет внимание ограниченному подмножеству объектов. При рассмотрении большого количества альтернатив человек первоначально применяет простые стратегии, упрощая задачу, пытаясь уменьшить число альтернатив до приемлемого. В дальнейшем опытный ЛПР использует более сложные методы сравнения и анализа альтернатив. 6. Часто человек ищет удовлетворительное решение, устойчивое к изменению внешних условий, а не «лучшее» решение. 7. Человек минимизирует свои усилия при поиске решения. Он меняет свои стратегии по ходу решения задач, выбирая те из них, которые требуют меньше интеллектуальных усилий. Человек стремится использовать простые операции (например, сложение), простые сравнения малого числа переменных и т. д.

Знание особенностей поведения ЛПР в процессах принятия решений должно существенно влиять на выбор и построение методов анализа слабоструктурированных задач. При разработке методов анализа слабоструктурированных задач существенное внимание должно уделяться следующему: • • • способам измерения качественных переменных;

способам построения решающего правила;

проверке на непротиворечивость информации, получаемой от ЛПР. Большинство методов многокритериальной оценки альтернатив и систем поддержки принятия решений ориентировано на использование количественных оценок. С другой стороны, компьютеры могут работать как с числами, так и с символами, в том числе с символами, представляющими качественные переменные. Переход от качественных переменных к количественным путем произвольного присваивания чисел либо использования нечетких множеств не является единственно возможным. Такой переход иногда связан с внесением существенных искажений в формальное описание решаемой задачи. Компьютер может непосредственно использовать качественные переменные, оперируя с их символами. Можно построить многокритериальные методы принятия решений, использующие непосредственно результаты качественных измерений. Аккуратное применение методов экспертных измерений позволяет получить информацию в виде, подходящем для ее применения в процедурах принятия решений. Перечисленные выше особенности человека при переработке информации необходимо учитывать при построении методов получения и обработки информации, получаемой от человека. При качественном измерении оценок альтернатив по критериям эти измерения не очень точны, но они создают основу для использования порядковой шкалы с дискретными оценками. Измерение часто сводится к классификации, в которой свойства альтернативы относят либо к одной из оценок, либо к интервалу между оценками. Порядковая шкала в этих случаях не может иметь много градаций, т. к. они станут плохо различимыми для экспертов. Обычно выделяют всем понятные, одинаково ощущаемые точки на этой шкале и подробно объясняют их значение. На таких шкалах используют детальные словесные формулировки оценок – градаций качества. Итак, оценки на порядковой шкале определяются как потребностями ЛПР в оценках, так и различимостью оценок, возможностью построения вербального описания их смысла в понятном для всех экспертов и ЛПР виде.

Когда неопределенность велика, эксперты могут с достаточной уверенностью осуществлять лишь качественные сравнения альтернатив по отдельным критериям. От вербальных шкал с развернутыми словесными оценками эксперты переходят к словесным сравнениям типа: «лучше – хуже»;

«примерно одинаково». Решающие правила представляют собой правила перехода от измерений к ранжированию альтернатив, их классификации, выбору наилучшей из них. Любые операции с качественными переменными должны соответствовать возможностям переработки информации человеком. Наиболее приемлемыми для человека при качественных переменных являются следующие операции: • • • сравнение двух оценок на вербальных шкалах двух критериев;

отнесение многокритериальных альтернатив к классам решений;

сравнительные словесные оценки качества альтернатив по отдельным критериям. При анализе методов принятия решений следует оценивать методы на устойчивость к ошибкам в информации, получаемой от людей. При передаче информации, при ее обработке люди ошибаются. Ошибки могут быть вызваны отвлечением внимания человека, его усталостью, другими причинами. Следовательно, для повышения эффективности методов принятия решений информацию, получаемую от человека, надо подвергать проверке. В методах должны присутствовать специальные процедуры, позволяющие людям исправлять свои ошибки. Процедуры должны позволять человеку усомниться в своих решениях и вернуться на более ранние стадии процесса принятия решений для корректировки своей информации и решений.

2.5.2. Диалоговый алгоритм решения задачи прогнозирования Диалоговый алгоритм решения задачи прогнозирования описывает последовательность действий, которой эксперту следует придерживаться при построении прогнозов с помощью системы. В алгоритме описываются как действия эксперта, строящего прогноз, так и связанные с ними операции, выполняемые системой прогнозирования. Структура диалогового алгоритма приведена на рис. 2.5. Примечанием и зеленым цветом на рисунке отмечен шаг «Настройка набора прогнозных моделей», который дополнительно расшифровываются на рис. 2.6. Шаг алгоритма «Построение множества конкурирующих прогнозов» был рассмотрен в разделе 2.4. Подробное описание шагов диалогового алгоритма построения прогноза приведено в табл. 2.1.

Рис. 2.5. Структура диалогового алгоритма решения задачи прогнозирования Таблица 2.1 Описание шагов диалогового алгоритма решения задачи прогнозирования Номер шага 1 Шаг алгоритма Выбор временного ряда для прогнозирования Исполнитель шага Эксперт Описание шага алгоритма В начале работы эксперту необходимо определиться, на основании какого временного ряда необходимо провести прогнозирование. После выбора временного ряда он передается в систему прогнозирования. Переданный в систему прогнозирования временной ряд, отображается в виде графика, на котором по оси абсцисс откладывается временные такты, а по оси ординат – значения временного ряда. В ходе визуального анализа временного ряда эксперт принимает решение о том, стоит ли учитывать все данные ряда при построении прогноза и, при необходимости, исключает необходимое количество последовательных тактов слева. Таким образом, игнорируются «старые» данные. В случае, если эксперту хочется сопоставить прогноз с реальными данными, он может исключить из рассмотрения несколько последовательных тактов справа (игнорируются «новые» данные). Эксперт указывает, какое количество тактов справа и слева следует исключить из рассмотрения, после чего эти такты игнорируются системой при построении прогноза. На этом этапе эксперт принимает решение, на какое количество тактов вперед необходимо построить прогноз, учитывая при этом количество наблюденных значений в исходном временном ряду. Чем больше это число, тем, как правило, более достоверным получается прогноз. Эксперт определяет, какие прогнозные модели и с каким диапазоном параметров следует использовать при построении прогноза. Структура алгоритма настройки прогнозных моделей приведена на рис. 2.6.

Pages:     || 2 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.