WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 11 | 12 || 14 | 15 |   ...   | 19 |

Итак, при попытке определения множества решений игры в модели ОС РК, в которой агент имеет векторные предпочтения, мы сталкиваемся с традиционной для многокритериальной оптимизации и теории принятия решений при нескольких критериях проблемой – проблемой определения рационального выбора [16, 113].

Единственное требование, относительно необходимости удовлетворения которому согласны подавляющее большинство исследователей, это - аксиома Парето. Таким образом, помимо описанной выше игры центров, в ОС РК существует еще одна характерная особенность - многокритериальность предпочтений агентов, порождающая (как и наличие нескольких центров) необходимость корректного доопределения рационального выбора. Подробно эта лежащий множеству равновесий Нэша EN(u ), в ОС РК единственный агент выбирает вектор действий принадлежащий множеству Парето (14). Если интерпретировать критерий агента в ОС РК как самостоятельного агента, то получим многоэлементную ОС УК, причем множества Парето и Нэша могут не совпадать. Если же EN(u ) Par( u ), то можно считать, что модели в определенном смысле эквивалентны.

Отметим, что в скалярном случае (nf = 1) множества (14) и (15) оптимальных по Парето и по Слейтеру действий агента совпадают с множеством максимумов его целевой функции:

Par(A, u, f) = Sl(A, u, f) = P(u) = Arg max f(u, y).

yA проблема обсуждается в [3, 104, 113]. Там же приводится обзор известных подходов.

Будем считать, что выполнено следующее предположение:

А.4. n = n ; f = f (u, y), i N, f u i i i f то есть каждая компонента управления соответствует одному и только одному критерию оценки агентом своих действий.

С содержательной точки зрения можно считать, что каждому критерию (отражающему определенный аспект деятельности агента) соответствует некоторое управление и только оно.

Пусть ограничения на управление имеют следующий вид.

А.5. u U, i N = {1, 2, …, n }.

i i u u Введем следующие обозначения. Стратегия наказания u агента нi центром соответствует минимизации соответствующей компоненты целевой функции агента по стратегии центра:

(16) f (u (y), y) = min f (u, y), i N.

i нi i i u uiUi Абсолютно оптимальная стратегия центра u0 соответствует максимизации его целевой функции по собственной стратегии:

(17) (u0, y) = max ( u, y), uU где u = (u, u, …, unu ) U. В рамках предположения А.5 U =.

1 U i iN u Обозначим L - максимальное гарантированное значение i-ой компоi ненты целевой функции агента:

(18) Li = max fi( н (y), y), i Nf;

i yA Ei - множество действий агента, обеспечивающих ему получение по соответствующему критерию выигрыша Li:

(19) E = {y A | f ( н (y), y) = L }, i N ;

i i i i f E = Ei - множество действий агента, обеспечивающих ему полуiN f чение по каждому из критериев выигрыша (18);

Di - множество пар стратегий центра и агента, при которых значение соответствующей компоненты целевой функции агента строго превышает максимальное гарантированное значение:

(20) D = {( u, y) U A | f (u, y) > L }, i N ;

i i i i f D = Di - множество пар стратегий центра и агента, при которых iN f значения всех компонент целевой функции агента строго превышают соответствующие максимальные гарантированные значения;

K - максимальное на множестве D значение целевой функции центра:

sup (u, y)D (u, y), D ;

(21) K = -, D = K - максимальное на множестве E значение целевой функции центра:

(22) K2 = min max ( u, y);

yE uU ( u, y ) D - пара -оптимальных стратегий центра и агента, > 0:

(23) (u, y ) K -.

Теорема 2.8.4. [104]. Пусть для каждой из компонент целевой функции агента и для целевой функции центра выполнено предположение А.1, а также выполнены предположения А.4 и А.5. Тогда гарантированная эффек* тивность управления есть K = max {K, K }-, > 0, а стратегия g 1 u, если y = y, K1 > K (24) u * = u0, если y E, K1 K uн, в остальных случаях является гарантированно -оптимальной стратегией центра.

Содержательно в соответствии с результатом теоремы 2.8.центр фиксирует действие, которое он хочет реализовать, и наказывает агента (независимо по каждому критерию!) при выборе других действий (при этом агент получает выигрыши {Li}), поощряя за выбор реализуемого действия (выигрыши агента при этом строго превышают {Li}). В результате множество Парето состоит из единственной точки - реализуемого действия1.

Введем в рассмотрение множество D - множество пар стратегий центра и агента, при которых значение каждой из компонент целевой функции агента не меньше соответствующего максимального гарантированного значения:

Еще раз отметим, что возможность независимого поощрения и наказания агента обусловлена предположениями А.4 и А.5.

(25) D0 = {(u, y) U A | fi(ui, y) Li, i Nf}.

Теорема 2.8.5. [104]. Пусть для каждой из компонент целевой функции агента и для целевой функции центра выполнено предположение А.1, а также выполнены предположения А.4, А.5 и ГБ.

Тогда (26) K* = max (u, x), (u, x)Dа стратегия ~ u*, если y = x* (27) u* =,, если y x* uн где ~ (28) ( u*, x*) = arg max ( u, y) (u, y)Dявляется оптимальной стратегией центра1.

Перейдем к рассмотрению задачи стимулирования, в которой целевая функция агента имеет вид:

(29) w (, y) = (y) - c (y), i N, i i i i f где c ( ) - i-я компонента затрат агента, а целевая функция центра в рамках i предположения А.4 имеет вид:

(30) W(, y) = H(y) - ( y).

i iN f Рассмотрим два случая.

Случай 1. В первом случае (для которого справедливы теоремы 2.8.и 2.8.5) выполнено предположение А.5, следовательно стимулирование агента за каждую компоненту деятельности может выбираться независимо от стимулирования других компонент, то есть U, i N. Если для i i f каждой из компонент целевой функции агента выполнено предположение А.2, то возможна декомпозиция стимулирования (по аналогии с принципом декомпозиции игры агентов выше), которая реализуется следующим образом.

Из теорем 2.8.4 и 2.8.5 вытекают соответственно два следующих утверждения [104].

Отметим, что в теоремах 2.8.4 и 2.8.5 не требуется скалярности множества допустимых действий агента.

Следствие 2.8.6. Система стимулирования ci ( y) + i, y = y* (31) ( y*, y) =, y* A, i N f Ki y y* 0, реализует действие y* и является -оптимальной, где =.

i iN f При использовании центром системы стимулирования (31) действие y* A является единственной Парето-оптимальной точкой.

Следствие 2.8.7. В рамках ГБ система стимулирования (31) с = реализует действие y* и является оптимальной.

Случай 2. Во втором случае предположение А.5 не выполнено, следовательно стимулирование агента за каждую компоненту деятельности не может выбираться независимо от стимулирования по другим компонентам, то есть ограничение на стимулирование имеет вид: M. Тем не менее, в отличие от общего результата теоремы 2.8.5, задача стимулирования за счет своей специфики допускает простое решение и в этом случае.

Введем следующее предположение относительно множества допустимых управлений M.

А.6. Если M, то [0; 1], i N выполнено:

i f (,, …, ) M.

1 1 2 n n f f Содержательно, предположение А.6 означает, что множество допустимых управлений (имеющее вид конусного отрезка с вершиной в нуле) обладает следующим свойством: если допустимо некоторое управление (некоторый вектор выплат агенту), то допустимо любое другое управление, при котором вознаграждение агента за каждую из компонент его деятельности не ниже исходного.

Определим множество (32) P (M) = {y A | (c (y), c (y), …, cn f ( y) ) M}, K 1 то есть множество действий агента, реализуемых в рамках ГБ1 системами стимулирования типа (38) с = 0, принадлежащими множеству M.

При отказе от ГБ множество гарантированно реализуемых действий агента (являющееся внутренностью множества PK(M)) будет незамкнутым, что приведет к "техническим" проблемам при постановке и решении соответствующих оптимизационных задач (см. также раздел 2.1).

Обозначим P(M) = Par(A,, {f }) - множество действий, которые i M могут быть реализованы (то есть сделаны эффективными по Парето) при использовании центром функций стимулирования из множества M.

Покажем, что класс систем стимулирования (31) (с параметром y* A) характеризуется максимальным множеством реализуемых действий.

Лемма 2.8.8. [104]. Пусть выполнены предположения А.1-А.4 и А.6. Тогда P (M) = P(M).

K Следствие 2.8.9. [104]. Пусть выполнены предположения А.1-А.4 и А.6.

Тогда в рамках гипотезы благожелательности система стимулирования (31) с = 0 является оптимальной в классе M.

Оптимальное реализуемое действие в обоих случаях определяется из условия максимума целевой функции центра:

(33) y* = arg max {H(y) - ( y) }.

c i yPK (M ) iN f Отметим, что одним из преимуществ систем стимулирования вида (31) с > 0, i Nf, является то, что при их использовании i центром множество Парето оптимальных стратегий агента состоит из единственной точки.

В результате рассмотрения задачи стимулирования в ОС с агентом, имеющим векторные предпочтения, можно сделать следующий общий качественный вывод: в силу аддитивности каждой из компонент целевой функции агента по стимулированию, а также в силу аддитивности целевой функции центра по стимулированию, набор целевых функций, отражающий предпочтения агента, может с точки зрения центра быть заменен единственной целевой функцией, являющейся их суммой (c(y) = ( y), (y) = ( y) = c i i iN iN f f = (y)). При этом один агент с векторными предпочтениями может рассматриваться как nf агентов, имеющих скалярные предпочтения и выбирающие одно и то же действие.

Таким образом, в модели ОС, в которой имеется агент с векторными предпочтениями, на каждую из компонент которых влияет соответствующая компонента вектора управлений) возможно аналитическое решение задачи управления.

Рассмотрим, наконец, наиболее общую модель ОС РК, в которой наиболее ярко проявляются все характерные для распределенного контроля признаки - и игра центров, и векторные предпочтения агентов при векторных управлениях.

Введем следующее предположение.

А.7. Функции c (y), i N ; Hi(y), i K, удовлетворяют предположению i f А.2.

Целевая функция i-го центра в рассматриваемой модели стимулирования имеет вид:

i (34) Wi(, y) = Hi(y) - ( y), i K i j jN f i i i i где = (,, …, ) - вектор стимулирований, выбранный i-ым 1 2 n f центром.

Предпочтения агента в общем случае описываются вектор-функцией с компонентами1:

(35) w (, y) = ( y) - c (y), i N.

i i f ij jK В соответствии с результатами приведенных выше утверждений, минимальные суммарные затраты центров на стимулирование по реализации действия y A равны:

(36) (y) = ( y).

c i iN f Введем в рассмотрение систему стимулирования ij, y = y* j (37) (, y) =, i N, j K, f i i 0, y y* 1 2 k где = (,, …, ), i N. Величины f i i i i i (38) =, i K, i j jN f (39) =, j N, j f i j iK Напомним, что в соответствии с принятой системой обозначений центры нумеруются верхними индексами, а компоненты целевой функции агента - нижними индексами.

определяют соответственно сумму затрат на стимулирование, выплачиваемых по всем компонентам i-ым центром, и выплачиваемых всеми центрами по j-ой компоненте целевой функции агента.

Из описанных выше результатов следует, что в рамках гипотезы благожелательности система стимулирования (37), для которой выполнено (40) = c (y*), j N, j j f является минимальной системой стимулирования, реализующей действие y* A.

Рассмотрим теперь условие того, что система стимулирования, опиj сываемая матрицей = || ||, i N, j K, является равновесием Нэша в f i игре центров. Определим максимальный выигрыш i-го центра при условии, что он самостоятельно побуждает агента выбирать те или иные действия:

i (41) Wmax = max {Hi(y) - ( y) }, i K.

c i yA iN f Наиболее выгодное для i-го центра действие агента в этом случае есть i (42) ymax = arg max {Hi(y) - ( y) }, i K.

c i yA iN f Условие выгодности для i-го центра использования системы стимулирования (37) имеет вид i i (43) Hi(y*) - Wmax, i K.

Лемма 2.8.10. [104]. Пусть выполнены предположения А.3 и А.7. Тогда множество равновесий Нэша в игре центров имеет вид:

j (44) = {, y* | 0, y* A, (40), (43)}.

i Следовательно, если множество, определяемое выражением (44) не пусто, то при использовании минимальных систем стимулирования (37) существует равновесие Нэша в игре центров, определяемое выражениями (40) и (43).

i Упорядочим центры в порядке убывания величин Wmax, i K, и введем следующее предположение относительно рационального выбора агента.

А.8. При заданной системе стимулирования агент выбирает из недоминируемых по Парето действий то действие, которое обеспечивает максимум суммарного стимулирования.

Лемма 2.8.11. [104]. Пусть выполнены предположения А.3, А.7 и А.8.

Тогда, если множество пусто, то равновесные1 стратегии центров определяются следующими выражениями:

ij, y = y*i * j (45) (, y) =, i N, j K, f i 0, y y*i (46) y* = y*1 = y1, max 1 (47) 0, = ( y1 ) + Wmax +, i max j а y*i, и - любые, удовлетворяющие следующим условиям:

i 1 i (48) y*i A, [0; Hi(y*i)], i = 2, k, (0; Wmax - Wmax ].

Содержательно диктатор обеспечивает агенту максимальное стимулирование, определяемое выражением (47).

Предположение А.8 нужно для доопределения рационального выбора агента, иначе при фиксированном суммарном выигрыше агента, равном Wmax +, может оказаться, что множество Парето содержит точки, отличные от y1.

max Теорема 2.8.12. [104]. Пусть выполнены предположения А.3, А.7 и А.8.

Тогда, если множество, определяемое выражением (44), не пусто, то решение задачи стимулирования определяется выражениями (40) и (43), если =, то решение задачи стимулирования определяется выражениями (45)-(48).

В предельных случаях теорема 2.8.12 переходит в приведенные выше для частных случаев результаты.

Таким образом, в настоящем разделе приведено решение задачи стимулирования в АС векторными действиями и предпочтениями участников и распределенным контролем.

Напомним, что выше мы условились в случае отсутствия равновесия Нэша считать равновесными те стратегии центров, которые устойчивы в смысле "условия угроз" (см. [17, 19, 27, 103, 120]).

Pages:     | 1 |   ...   | 11 | 12 || 14 | 15 |   ...   | 19 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.