WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 7 | 8 || 10 | 11 |   ...   | 19 |

n -Под смещением будем понимать величину b(a), зависящую от a, такую, что ~ E(a) = a + b(a) [62, с.518]. Говоря об эффективности оценок, следует отметить, что справедлива следующая теорема: при некоторых общих условиях среднее квадратичное ~ отклонение E(a - a)2 ограничено снизу некоторым положительным числом, зависящим только от функции распределения F(x, a), объема выборки n и смещения b(a). В ~ частном случае, когда a является несмещенной оценкой, каково бы ни было истинное ~ значение a, смещение b(a) тождественно равно нулю, и дисперсия D(a) ограничена снизу некоторым числом, зависящим только от F и a (доказательство см. [62, с.518]).

Эта теорема верна как для непрерывного, так и для дискретного распределения.

Применим данный результат для биномиального распределения Bi(n, p). Пусть l P(x = l) = pl = Cn plqn-l. Тогда, используя результаты приведенной выше теоремы, получим:

2 i i i n n n d log pi d logCn piqn-i Cnipi-1(1- p)n-i - Cn pi (n - i)(1- p)n-i-1 pi = pi = dp pi i i=o dp i=o dp i=o dp Cn pi (1- p)n-i 2 2 2 n n n n d log pi i(1- p) - p(n - i) - p(n - i) - i n iq i n pi = pi = pi = - pi = i=o dp i=o p(1 - p) i=o pq i=o p q pq ~ Следовательно, дисперсия любой несмещенной регулярной оценки a, pq вычисляемой по выборке из k значений, будет равна, по меньшей мере, [62, с.529]. В nk k x 1 pq ~ ~ ~ частности, для оценки a = = xi получим: Ea = a и Da =. Таким образом, n nk i=0 nk рассматриваемая оценка является эффективной [62, с.529].

Рассмотрим связь эффективности и метода максимального правдоподобия [62, с.541]. Определим функцию правдоподобия как L(x1, x2,K, xn;a) = pi (a)K pi (a). Если 1 n выборочные значения фиксированы, то функция правдоподобия является функцией от единственного переменного аргумента a. Метод максимального правдоподобия заключается в том, что в качестве оценки для неизвестного параметра совокупности a принимается такое значение a, при котором L достигает наибольшего значения. Для d log L этого решается уравнение правдоподобия: = 0 [62, с.542]. Решения этого da уравнения называются оценками максимального правдоподобия. Отметим также, что в ~ случае выполнения условия эффективности (т.е. оценка a параметра a является ~ эффективной), уравнение правдоподобия имеет единственное решение a [62, с.542].

Рассмотрев частотный метод оценивания вероятностей альтернатив развития, можно сказать, что при достаточно большом числе наблюдений (по теореме Чебышева), мы можем получить достаточно точные оценки, для которых соблюдаются условия эффективности (для биномиального распределения), состоятельности и несмещенности.

Однако, у данного метода есть и также и серьезные недостатки – в частности, мы должны проводить наблюдения в одинаковых условиях, число наблюдений должно быть большим, результаты должны быть строго арифметизируемы. Очевидно, что необходимость обладания полной информацией о системе значительно сужает сферу его применения, в частности – для сложных социальных и финансово-экономических систем.

§ 2.2. Метод рандомизированных вероятностей 2.2.1. Общая схема метода Ранее в данной работе (§2.1) нами были рассмотрены три метода, используемые для анализа альтернатив развития сложных систем – метод вычислимых моделей, метод прямых экспертных оценок и частотный метод. Наряду с достоинствами, свойственными этим методам, следует отметить ряд недостатков, среди которых одним из основных является необходимость обладания значительным объемом информации, что, очевидно, не всегда достижимо на практике [54]. Решение данной проблемы предлагается в методе, описываемом в настоящей главе [103].

При оценке вероятностей альтернатив поведения сложных финансовоэкономических систем становится все более актуальной проблема роста дефицита информации [58], связанная c усложнением компонент мировой экономики во второй половине XX в. При этом часто приходится оценивать указанные вероятности, основываясь на экспертных оценках, которые, в основном, содержат неточную, неполную и нечисловую информацию (ННН-информацию) [55]. В данной работе предлагается решать задачу оценки вероятностей альтернатив в условиях дефицита числовой информации при помощи метода рандомизированных вероятностей (МРВ) [131], который позволяет утилизировать всю имеющуюся у исследователя ННН-информацию [120].

При оценивании сложных систем вероятности того, что в будущем система перейдет в то или иное состояние, в большинстве случаев не могут быть определены при помощи использования обычных статистических методов (см. 2.1.3 Частотный метод) по имеющимся у исследователя историческим данным [72]. В связи с этим исследователю приходится привлекать к оценке вероятностей экспертов, которые, в свою очередь, обычно не могут дать точных числовых оценок вероятностей наступления рассматриваемых событий (см. 2.1.2 Метод прямых экспертных оценок) и выражают свои суждения путем сравнения отдельных возможных исходов (заявляя, что один из них вероятнее другого, оба примерно равновероятны и т.п.). Опять же, как говорилось ранее, различные эксперты могут упорядочивать альтернативы по-разному, даже обладая одной и той же информацией [57].

Метод рандомизированных вероятностей позволяет создавать довольно простые стохастические модели неопределенности для определения вероятностей, что позволяет использовать все имеющиеся у исследователя неточные, нечисловые и неполные данные (собственно ННН-информацию), причем как о вероятностях исследуемых альтернатив, так и о сравнительной значимости и надежности используемых источников информации.

Предположим, что рассматриваемая финансово-экономическая система в определенный момент времени может, к моменту времени t1 = t0 +, перейти в одно и tтолько одно из состояний (альтернатив, вариантов), образующих полную A, A,...A 1 2 n группу попарно несовместных событий, т.е., Ai Aj =, i j [72].

A1 A2... An = Положим, что исследователь обладает информацией I двух типов - ординальной (нечисловой) информацией OI, выражаемой соотношениями вида pi > p, pl = pk, и j интервальная (неточная) информация II, определяемая диапазонами [ai,bi], 0 ai bi 1, i = 1, n, в которых могут находиться вероятности pi, i = 1, n рассматриваемых альтернатив [58]. Таким образом, нечисловая и неполная A, A,...A 1 2 n информация I = OI II, задает систему равенств и неравенств для вероятностей pi, i = 1, n, альтернатив. Информация неполна, если имеющихся данных A, A,...A 1 2 n недостаточно для однозначного определения вероятностей. В этом случае мы будем говорить, что исследователь оперирует с ННН-информацией (неточной, неполной, нечисловой) [56].

В случае, если имеется несколько источников информации I1,...Im, можно считать, что из каждого источника I исследователь получает ННН-информацию о вероятностях j pi, i = 1, n, альтернатив. Следовательно, можно говорить о том, что A, A,...A 1 2 n исследователь обладает совокупной информацией I, являющейся кортежем I = (I1,...Im ), состоящим из систем соответствующих равенств и неравенств, получаемых из всех доступных источников информации I1,...Im.

Предположим дополнительно, что в распоряжении исследователя имеется НННинформация J, характеризующая сравнительную значимость мнений экспертов и различных источников информации (что часто также является довольно проблематичным – см. §1.1 Метод прямых экспертных оценок). Поскольку сравнительная значимость считается известной, то ННН-информация J может быть описана системой равенств и неравенств для весовых коэффициентов w1,...,wm, wi 0, w1 +...+ wm = 1 [134].

Следовательно, всю доступную исследователю ННН-информацию можно выразить в виде следующего кортежа: (I; J ) = ((I1,...Im ); J ), где I - информация о вероятностях pi, j i = 1, n вариантов (альтернатив) Ai, i = 1, n, получаемых из источника j, J - НННинформация, характеризующая сравнительную значимость мнений отдельных экспертов для оценки вероятностей возможных вариантов развития исследуемой сложной финансово-экономической системы [106].

Учет ННН-информации ограничивает множество P(r) всех возможных векторов p = ( p1,K.pn ) вероятностей альтернатив Ai, i = 1, n, до множества всех допустимых (с точки зрения рассматриваемого источника информации) векторов вероятностей P(r, I ) j [100]. В результате, имеем, что информация I, которую исследователь получает из j источника j, определяет вектор вероятностей p = ( p1,K.pn ) с точностью до множества P(r, I ). Рандомизируя выбор вектора вероятностей p = ( p1,K.pn ) из множества P(r, I ), j j получим случайный равномерно распределенный на P(r, I ) вектор j ~(I ) = (~1(I ),...~n (I )) [61].

p p p j j j ~ ~(I Отметим, что компонента pi (I ) случайного вектора p ) является j j рандомизированной оценкой вероятности альтернативы Ai, соответствующая ~ информации I, полученной из источника j. Для случайных величин pi (I ), i = 1, n, j j можно рассчитать математическое ожидание pi (I) = E~i (I ) и дисперсию D~i (I) p p (стандартное отклонение (I ) = D~i (I ) ) [59]. Величину математического ожидания p i ~ pi (I) рандомизированной вероятности pi (I ) можно считать оценкой вероятности pi j альтернативы Ai, полученной с помощью информации I. Точность оценки pi (I) j определяется с помощью стандартного отклонения (I) [53].

i ~(I p Из совокупности случайных векторов p ) = (~1(I ),...~n (I )), j = 1, m, получим p j j j ~ вектор p(i) = (~i (I1),...~i (Im )) - рандомизированную многокритериальную оценку p p вероятности pi альтернативы Ai. Следует отметить, что рандомизацию нужно проводить ~ таким образом, чтобы для случайных величин pi (Il ), l = 1, m, соблюдалось условие независимости в совокупности. Для свертки получаемой таким образом многокритериальной оценки в единую оценку вероятности альтернативы Ai будем использовать информацию J [54].

Учитывая информацию J для весовых коэффициентов (о сравнительной значимости источников информации), получим множество W (m; J ), состоящее из весовых векторов, допустимых с точки зрения ННН-информации J. Следовательно, НННинформация J, характеризующая сравнительную значимость экспертов I1,...Im, определяет вектор весов (весовых коэффициентов) w = (w1,..., wm ) с точностью до множества W (m; J ). Рандомизируя неопределенность выбора вектора весовых коэффициентов из множества W (m; J ) получим случайный вектор ~ ~ ~ w(J ) = (w1(J ),..., wm (J )), равномерно распределенный на множестве W (m; J ) допустимых ~ векторов. Здесь элемент wh (J ) полученного выше вектора следует рассматривать как рандомизированную оценку веса (значимости) информации I, получаемой из источника h h [104].

Следовательно, для каждой альтернативы Ai исследователь имеет рандомизированную многокритериальную оценку, которая представляет собой случайный ~ вектор p(i) с независимыми компонентами. Более того, исследователю известен ~ рандомизированный вектор весовых коэффициентов w(J ), с компонентами, представляющими собой рандомизированные оценки относительной значимости отдельных источников информации [102].

Используя полученные данные можно построить дважды рандомизированную ~ ~ ~ ~ ~ ~ сводную оценку pi (I, J ) = pi (I1) w1(J ) +... + pi (Im ) wm (J ) вероятности pi альтернативы Ai, учитывающую всю имеющуюся у исследователя ННН-информацию (I; J ) = ((I1,...Im ); J ). Для этой оценки, учитывая независимость случайных величин ~ ~ ~ pi (I ), wj (J ), можно вычислить математическое ожидание pi (I, J ) = E~i (I, J ) и p j ~ стандартное отклонение i (I, J ) = D~i (I, J ) [59].

p Результаты, описанные выше, могут быть описаны в виде следующего алгоритма оценки вероятностей вариантов (альтернатив) по ННН-информации, получаемой из различных источников, характеризующихся разными степенями значимости. Сначала исследователь учитывает ННН-информацию I1,...Im, которая поступает из m различных источников и позволяет построить матрицу (pi (I )), i = 1, n, j = 1, m, усредненных оценок j вероятностей альтернатив. Строки данной матрицы – вектора p(I ), компонентами j которых являются усредненные оценки вероятностей альтернатив, соответствующие ННН-информации, получаемой из одного из источников. Транспонированным столбцом данной матрицы является вектор, элементы которого – усредненные оценки вероятности pi альтернативы Ai. На следующем шаге полученные оценки pi (I1),K, pi (Im ) вероятности pi альтернативы Ai синтезируются в сводную оценку pi (I, J ), ~ характеризующейся стандартным отклонением (I, J ) = D~i (I, J ). Конечные p i результаты оценивания вероятностей альтернатив можно представить в виде соотношений pi (I, J ) ± i (I, J ) [132].

Описанный алгоритм оценивания вероятностей альтернатив развития сложных систем (в том числе финансово-экономических) с использованием ННН–информации реализуется в виде одной из схем применения системы поддержки принятия решений (СППР) АСПИД-3W [121].

2.2.2. Применение дерева событий Опираясь на описанную в предыдущих параграфах методику (2.2.1 Общая схема метода), можно ввести понятие дерева событий, как инструмента оценки вероятностей альтернатив развития сложных финансово-экономических систем [61].

Рассмотрим дерево событий, которое можно представить в виде ориентированного графа, состоящего из начальной вершины A(0) и последующих вершин (1) (1) A(1)[1],K A(1)[i1],K, A(1)[r ], соединенных с вершиной A(0) r дугами вида (A(0), A(1)[i1]), i1 = 1,K, r(1), в которых вершина A(0) - начало дуги, A(1)[i1] - ее конец [133]. Это простейшее дерево, описываемое выражением вида (0,1) T = {A(0) : A(1)[i1],i1 = 1,K, r(1) }, может интерпретироваться по-разному. В частности, вершина A(0) может рассматриваться в качестве начального события (например, превышение выплат инвесторам по ГКО над доходами от их продажи), вершины (1) A(1)[1],K A(1)[i1],K, A(1)[r ] в таком случае представляются в качестве последующих событий (например, - действия правительства в ответ на рост кризисных тенденций на рынке ГКО). Будем считать, что эти вершины образуют полную группу попарно (1) несовместных событий, т.е., A(1)[i] A(1)[ j] =, при i, j = 1,K, r(l ), A(1)[1]... A1[r ] = i j [104].

Pages:     | 1 |   ...   | 7 | 8 || 10 | 11 |   ...   | 19 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.