WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 4 | 5 || 7 | 8 |   ...   | 20 |

Первые попытки формального определения понятия «слож ность» предпринял А.Н. Колмогоров (Колмогоров, 1965). Модель статистической системы – совместная функция распределения вероятностей случайного вектора, индуцированного системой, – строится по результатам наблюдений за состояниями системы (по реализациям соответствующей случайной величины). Одной из важных задач теории статистических систем является оценка сложности описания таких систем (Юдин, 1982).

Естественно под сложностью оценивания или описания NA (n,, ) класса n мерных статистических систем A понимать минималь ное число независимых одинаково распределенных (в соответст вии с истинным распределением вероятностей) реализаций моде лирующего систему n мерного случайного вектора, необходимое для того, чтобы с надежностью не менее восстановить его со вместную функцию распределения вероятностей p(x) с погрешно стью, не превосходящей.

При традиционной постановке статистических задач сначала по накопленному статистическому материалу определяются искомые параметры, а уж затем оценивается их качество. (См., например, (Айвазян, Мхитарян, 1998).) Рассматриваемый здесь подход, обычный в работах по теории сложности (см., например, (Д. Юдин, А. Юдин, 1985)), представляется особенно важным для задач ис следования социально экономических систем, в которых наиболее дорогостоящим этапом исследования является обращение к ис точнику информации. В то же время необходимо заранее пред ставлять возможный ущерб от недостатка информации для сопос тавления его с затратами на получение дополнительных данных.

При немалых размерностях современных реальных статистиче ских систем их сложность оценивания астрономически велика. По этому представляется крайне важным выделение классов и уста новление свойств систем большой размерности, моделирование которых не требует чрезмерно большого объема наблюдений. Ап проксимация модели исследуемой системы моделями подобного типа (естественно, лишь в тех ситуациях, когда это оправдывается содержательными соображениями) – экономный путь статистиче ского анализа и определения характеристик системы.

В качестве целевого функционала качества аппроксимации многомерных распределений вероятностей рассматривалась мера различающей информации. В связи с этим представляет интерес получение оценок сложности идентификации статистических сис тем по информативной невязке истинного и приближенного рас пределений вероятностей случайного вектора, моделирующего систему.

Под информативной сложностью KA (, ) класса статистических систем A (или соответственно класса случайных векторов A) пони мается минимальное число K независимых одинаково распреде ленных наблюдений xK = (x1,…, xK), при которых еще существует ме тод B, позволяющий построить приближенное распределение ве роятностей p(xxK), аппроксимирующее истинное распределение вероятностей p(x) с информативной невязкой, не превышающей, и с надежностью не менее. Другими словами, K (,) = min{K B : P{I(p(x): p(x | xK )) } }.

A Справедливо следующее утверждение (Юдин, 1982).

Теорема 2. Информативная сложность класса статистических систем (распределений вероятностей) Pn при > 0 и 1 - e не превышает 2M KP(,) ln, (2.25) - где – решение уравнения 2 = 2(1 – ). (2. 26) Выше было введено понятие n мерной статистической системы существенной размерности k. Рассмотрим для произвольного n мерного распределения вероятностей p(x) величину ~ I(p : Pk,n)= min{I(p : p)~ Pk,n}, где, как и ранее, Pk,n – множество n p мерных распределений существенной размерности k, определен ных на множестве X. Если распределение вероятностей p(x) Pk,n, то I(p : Pk,n) = 0. Назовем n мерные статистические системы, моде лируемые случайными векторами с совместными распределения ми вероятностей p(x) такими, что I(p : Pk,n), системами сущест венной размерности k с дефектом информативности. Будем обозначать класс таких систем (соответственно случайных векто ров и их совместных распределений вероятностей) Pkn, т.е.

, Pkn = {p(x) Pn I(p : Pk,n) }.

, Для класса статистических систем Pkn справедливо следующее, утверждение (Юдин, 1982).

Теорема 3. При > 0 и 1- e 1 для распределений ве роятностей p(x) Pkn справедлива оценка информативной слож, ности идентификации 2M k KP (,) ln, (2.27) k,n k - где k – решение уравнения k (n - k + 1) = 2( - )(1 - ). (2.28) k Здесь M = max i A k ; mi – число градаций i й компо k m iA ненты случайного вектора с совместным распределением веро ятностей p(x); A {1,…, n}; A – количество элементов множества A.

Иерархические системы с относительно небольшим числом не посредственных связей между элементами представляют собой, как правило, системы из класса Pkn с k << n и малым. Аппрокси, мация сложных статистических систем системами из класса Pkn, радикально снижает требования к объему статистического мате риала, необходимого для построения модели системы с заданной информативной невязкой и требуемой надежностью.

Нужно отметить, что оценки сложности ориентированы на са мый плохой случай. Поэтому для решения практических задач фак тически требуется гораздо меньшее количество наблюдений за исследуемой системой. Другими словами, при практическом ис пользовании предлагаемого инструментария необходимо прово дить апостериорную проверку полученных результатов, применяя традиционные статистические подходы, основанные на получен ных соотношениях.

2.1.4. Принципы прогнозирования статистических систем Построенная модель порождения данных может использоваться (cм., например, (Ллойд, Ледерман, 1990)) для: предсказания наи более вероятных значений (или интервалов значений) объясняе мых переменных для заданных значений объясняющих; оценки от носительного влияния одних переменных на другие; определения комбинаций значений объясняющих переменных, которые дают фиксированное изменение объясняемых переменных; сравнения отношения между объясняемыми переменными и некоторым под множеством объясняющих переменных с отношением для другого подмножества объясняющих переменных. Полученную модель ме ханизма порождения данных можно также использовать для «ти ражирования наблюдений» аналогично бутстреп методу (см., на пример, (Эфрон, 1988)).

Мы будем рассматривать первую задачу – предсказание ожи даемых значений анализируемых показателей. Однако при по строении модели будет решаться и вторая задача – выявление влияния одних переменных на другие в предположении, что анали зируемая система имеет фиксированную существенную размер ность k.

На самом деле здесь нужно говорить не столько о прогнозиро вании, сколько об имитации. Это связано в первую очередь с тем, что мы строим модель механизма порождения данных по имею щейся статистической информации о прошлом. Поэтому все вы воды, которые можно получить из анализа построенной модели, могут быть справедливыми только лишь в предположении о неиз менности механизма порождения данных в будущем.

Рассмотрим сначала статическую ситуацию. Будем рассматри вать статистическую систему как систему, состоящую из трех под систем: X = {x = (x1,… xn)} – подсистема, содержащая набор прогно зируемых показателей; подсистема Y = {y = (y1,…, ym)}, содержащая набор параметров управления; Z = {z = (z1,…, zr)} – подсистема, в которую входят характеристики среды.

Информативная структура такой системы позволяет определить наличие зависимостей показателей прогнозируемой подсистемы друг от друга (А. Юдин, Е. Юдина, 1984), от характеристик среды и от параметров управления, а также характеристик среды – от па раметров управления. В результате построения информативной структуры k го порядка получается рекурсивная система, в кото рой каждый из показателей анализируемой подсистемы зависит только от характеристик среды, параметров управления и опреде ленных ранее результирующих показателей, т.е.

x, j ( ) {,..., };

ji 1 i - y, j ( ); ( ) + ( ) + ( ) k - 1 x, i = 1,...n ji i ii i z, j ( );

ji Условное математическое ожидание по условному распределе нию вероятностей случайного вектора – механизма порождения данных анализируемой системы показателей – представляет со бой прогностическую функцию элементов этой системы:

x = (x x( ), y( ), z( ))dx,i = 1,..., n. (2.29) i i i i xp Xi Таким образом, в рассматриваемом случае последовательность действий для построения прогноза следующая.

Необходимо:

1) построить информативную структуру k го порядка Г{X, Y, Z} системы x, i = 1,..., n, i w y = {W} = = (w,..., w ) w =, i = n + 1,..., n + m, {X, Y, Z} 1 n + m + r i i -n z, i = n + m + 1,..., n + m + r i - n - m 2) для каждого i {1,…, n} сформировать множества (i), (i), (i) следующим образом:

(i) = {j | j Г{X, Y, Z} (i), j {1,…, n}}, (i) = {j | j Г{X, Y, Z} (i), j {n + 1,…, n + m}}, (i) = {j | j Г{X, Y, Z} (i), j {n + m + 1,…, n + m + r}};

3) по множествам (i), (i), (i) для каждого i {1,…, n} строят ся условные распределения вероятностей p(xi | x(i), y(i), z(i));

4) проводится имитация по известным значениям параметров управления и характеристик среды в соответствии с построенными распределениями по соотношению (2.29);

5) если результаты имитации удовлетворительные, т.е. если средняя относительная ошибка имитации не превышает заданного n 1 xi - xi порога ( ), то по предполагаемым значениям пара n xi i=метров управления и характеристик среды строятся прогнозные значения элементов прогнозируемой системы.

Теперь рассмотрим построение прогноза во времени. Здесь, в свою очередь, возможны два случая: скалярный и векторный про гнозы.

Будем рассматривать скалярный временной ряд как реализа цию некоторого случайного процесса. При этом рассмотрим ус ловную информативную структуру k го порядка Г(t) случайного процесса X(t | t–1, t–2,...) (Энтов и др., 2002). Этот граф задает ла говую структуру рассматриваемого случайного процесса, т.е. по казывает, от каких (k - 1) х лаговых значений зависит наиболее информативным образом анализируемый показатель. Таким обра зом, условное распределение вероятностей p(xt | xГ(t)) позволяет построить прогностическую функцию – условное математическое ожидание:

x (t +1) = (x x(t +1))dx. (2.30) xp X Заметим, что в этом случае построение информативной струк туры существенно упрощается. Для нахождения информативной лаговой структуры достаточно определить набор лагов (содержа щий не более (k - 1) го элемента), в котором содержится макси мальное количество информации об анализируемом показателе.

Таким образом, в рассматриваемом случае последовательность действий для построения прогноза следующая. Необходимо:

1) задать глубину модели n, т.е. максимальный лаг, подлежа щий рассмотрению;

2) построить информативную структуру k го порядка Г(t) слу чайного процесса X(t | t–1, t–2,..., t - n), для чего определить коли чество информации о значении анализируемого показателя в мо мент времени t, содержащееся в каждом из наборов значений по казателя в моменты времени t - 1,…, t - k-1;

3) построить условное распределение вероятностей p(xt | x(t));

4) провести имитацию по известным значениям анализируе мого показателя в предыдущие моменты времени в соответствии с построенным распределением по соотношению (2.30);

5) если результаты имитации удовлетворительные, т.е. если средняя относительная ошибка имитации не превышает заданного T -n 1 xt - xt порога ( ), то построить прогнозные значения T - n xt i=анализируемого показателя на заданный горизонт прогнозирования.

Задача построения векторного прогноза объединяет две рас смотренные задачи.

2.2. Прогнозирование временных рядов с использованием информативных структур Выше был рассмотрен подход к построению моделей прогнози рования с использованием информативных структур статистиче ских систем. В данной статье рассматривается задача построения прогноза временных рядов с использованием информативных структур третьего порядка. Предположение о том, что структура лагов имеет существенную размерность, равную трем, связано в первую очередь с тем, что пока мы не располагаем программным обеспечением для построения информативных структур более вы соких порядков. Кроме того, как следует из оценок информативной сложности, для получения информативной аппроксимации рас пределения вероятностей (k+1) го порядка n мерного распреде ления вероятностей с теми же точностью и надежностью, что и ин формативная аппроксимация k го порядка, требуется примерно в n - k + раз больше исходной информации. Таким образом, для n - k + временных рядов (при рассмотрении показателя и его 12 лагов) переход от информативных структур 3 го порядка к информатив ным структурам 4 го порядка требует примерно в 1,16 раза больше исходных данных.

Здесь изложены основные результаты построения скалярного прогноза по 29 временным рядам с использованием информатив ных структур третьего порядка, т.е. для каждого ряда выявлены два лага, которые в совокупности наиболее полно (в информативном смысле) влияют на текущее значение соответствующего времен ного ряда. Полные результаты расчетов приведены в Приложении.

2.2.1. Результаты расчетов В табл. 2.1 приведена информация об исходных данных, ис пользованных для построения моделей порождения данных для временных рядов.

Для каждого показателя было построено 10 лаговых структур по данным, заканчивающимся в сентябре, октябре, ноябре и декабре 2003 г., январе, феврале, марте, апреле, мае и июне 2004 г. соответ ственно. В табл. 2.2 приведены результаты построения информатив ных структур третьего порядка по всем 29 временным рядам. Коэф фициенты информативности находятся как отношение количества информации, содержащейся в определяющих показателях об опре деляемом показателе, к его неопределенности. Они показывают до лю снижения неопределенности исследуемого показателя от знания двух выявленных лаговых значений этого показателя.

Pages:     | 1 |   ...   | 4 | 5 || 7 | 8 |   ...   | 20 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.