WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 || 3 | 4 |   ...   | 6 |

предположения о свойствах функции затрат в задачах стимулирования ниже).

Введенные предположения позволяют получить ряд результатов, характеризующих свойства оптимальных управлений в рассматриваемой модели АС.

Лемма 1. Пусть выполнены предположения А.1-А.5.

Фиксируем (u, x) U A’: x E(u). Определим u, y = x (4) u’ = uн, y x, н н н где uн = ( u1, u2, …, un ) U, uiн Uiн, i I. Тогда x E(u’).

Доказательство леммы 1. Так как x E(u), то в соответствии с (1) получаем: i I ¬ yi Ai: j Mi fij(ui, yi, x) fij(ui, xi, x-i) и l Mi: fil(ui, yi, x-i) > fil(ui, xi, x-i). Пусть i i I и yi Ai: j Mi fij(u’i, yi, x-i) fij(u’i, xi, x-i) и l Mi: fil(u’i, yi, x-i) > fil(u’i, xi, x-i). Если yi xi, то последнее неравенство противоречит (2), если yi = xi, то оно должно выполняться как равенство. • Содержательно лемма 1 означает, что если некоторый вектор действий АЭ является решением игры АЭ, то, изменение управление таким образом, чтобы оно было отлично от стратегии наказания только в случае выбора равновесных стратегий, не изменяет равновесия. Аналогичные результаты (соответствующие частным случаям леммы 1) приведены в [12, 14, 24, 26, 29]. Отметим, что, во-первых, при переходе от управления u к управлению u’, определяемому в соответствии с (4), выигрыши центров не изменяются, а, во-вторых, предположение А.6 пока не использовалось. Оно становится существенным для доказательства следующего результата.

Лемма 2. Пусть выполнены предположения А.1-А.6.

Фиксируем (u, x) U A’: x E(u). Определим ui' ( yi, x-i ), yi = xi * (5) ui =, uiн yi xi где u’ определяется (4). Тогда x E(u*). Более того, x A’ – равновесие в доминантных стратегиях (РДС) игры АЭ.

Доказательство леммы 2. Первое утверждение леммы очевидно, поэтому докажем, что x – РДС, то есть, что имеет место (6) i I y-i A-i ¬ yi Ai: j Mi * * fij(ui, yi, y-i) fij(ui, xi, y-i) * * и l Mi: fil(ui, yi, y-i) > fil( ui, xi, y-i).

Предположим, что i I, y-i A-i и yi xi: j Mi * * * fij(ui, yi, y-i) fij(ui, xi, y-i) и l Mi: fil(ui, yi, y* ) > fil(ui, xi, y-i). Подставляя (5), получаем в силу предполоi * жений А.4 и А.5, что j Mi Lij(y-i) fij(ui, xi, y-i) и l Mi:

* Lil(y-i) > fil(ui, xi, y-i). В силу А.6 последняя система неравенств противоречит определению (2) стратегии наказания.

• Основной результат леммы 2 заключается в том, что, используя управление (5), центры декомпозируют игру АЭ, то есть делают выгодным (в смысле Парето-эффективности соответствующих выигрышей по компонентам функции полезности) для каждого из них выбор действия xi, независимо от обстановки игры, то есть независимо от выбора других АЭ. Аналогичные результаты (соответствующие частным случаям леммы 2) приведены в [28]. Отметим, что при переходе от управления u к управлению u*, определяемому в соответствии с (5), выигрыши центров не изменяются.

Совместное использование лемм 1 и 2 позволяет сформулировать следующее утверждение.

Теорема 1. Пусть выполнены предположения А.1-А.6.

Тогда в классе управлений вида (5) найдется оптимальное.

Доказательство теоремы 1. Оптимальным называется допустимое управление, максимизирующее критерий эффективности и являющееся равновесием игры центров (см.

предположение А.3), при условии, что АЭ выбирают при этом управлении равновесные стратегии (см. предположение А.2). Пусть u U - оптимальное управление. Оно обеспечивает центрам в равновесии некоторые полезности и побуждает АЭ выбрать равновесные действия. Последовательно пользуясь результатами лемм 1 и 2, построим в соответствии с выражениями (4) и (5) по управлению u управление u*. Решение игры АЭ не изменится, выигрыши центров (а, следовательно, и решение их игры) тоже не изменятся.

Следовательно, u* - оптимальное управление. • Отметим, что теорема 1 обобщает теорему 13 работы [29] на случай многоэлементных АС, а теорему 4.4.1 работы [28] - на случай векторных предпочтений АЭ.

Определим, что будет пониматься под равновесием игры центров. Пусть известна зависимость y(u): U A’, где y(u) E(u). Эта зависимость может определяться введением соответствия отбора равновесий (E(u)): 2A’ A’ [14, 15, 24], которая каждому множеству равновесий ставит в соответствие единственный вектор действий, являющийся равновесным при данном управлении. Другими словами, будем считать, что известно какие действия выбирают АЭ в зависимости от управлений (эти действия называются реализуемыми данными управлениями).

Определим в соответствии с предположением А.3 равновесие E U игры центров:

(7) E = {u* U | i K ¬ ui Ui: j Qi ij ij (ui, u*-i, y(ui, u*-i)) (u*, y(u*)) il il и l Qi: (ui, u*-i, y(ui, u*-i)) > (u*, y(u*))}.

Выражение (7) описывает равновесие игры центров, то есть позволяет анализировать свойства этого равновесия – его существование и т.д. Задача синтеза – конструктивного определения условий непустоты этого множества и др. – решается ниже.

Эффективность РСПР K0 может быть введена следую0 щим образом. Пусть задан функционал (y): A’, отражающий эффективность состояния управляемой системы с точки зрения метацентра (управляющего органа, находящегося на более высоком уровне иерархии, нежели чем центры, осуществляющие непосредственное управление АЭ). Содержательно, ( ) отражает предпочтения метацентра относительно действий АЭ. Следовательно, эффективность РСПР определяется значением этого функционала на множестве реализуемых равновесными управлениями действий АЭ.

Так как множества E(u) и E могут содержать более одного элемента, то необходимо доопределить состояние АС.

Введем следующее предположение, отражающее благожелательное отношение АЭ и центров к метацентру (при прочих равных они выберут стратегии, наиболее благоприятные с точки зрения метацентра, то есть стратегии, максимизирующие функционал ( )).

А.7. Эффективность РСПР равна (8) K0 = max max (y).

uE yE(u) Отметим, что (8) определяет не эффективность управления активными элементами со стороны центров, а эффективность именно РСПР, то есть совокупности центров как системы принятия решений. Если бы мы захотели определить эффективность управления, то следовало бы вычислять максимум некоторой комбинации целевых функций центров на множестве решений игры АЭ и максимизировать эту комбинацию по множеству допустимых или равновесных управлений. Сказанное вовсе не означает, то функционал ( ) «не имеет отношения» к рассматриваемой АС: в случае единственного центра он может совпадать с его целевой функцией, тогда (8) перейдет в критерий эффективности управления [24, 28]. Кроме того, этот функционал может определяться таким образом, чтобы максимизировать комбинацию функций полезности АЭ (отметим, что (1) вовсе не гарантирует достижения АЭ Парето-эффективного (в смысле компонент целевых функций всех АЭ, или совокупности компонент, рассматриваемых отдельно для каждого АЭ) состояния).

Рассмотрим частный случай описываемой модели, а именно - задачу стимулирования, которая определяется как игра Г2 [12], в которой имеются побочные платежи [11] и целевая функция первого игрока не зависит явным образом от управления [29].

4. ЗАДАЧА СТИМУЛИРОВАНИЯ Задаче стимулирования соответствуют следующие содержательные интерпретации. Каждый АЭ несет определенные затраты, выполняя те или иные действия. Эти затраты в общем случае зависят от действий всех АЭ.

Управлением со стороны центров, обозначаемом в частном случае задачи управления – задаче стимулирования – символом ( ), является поощрение или наказание АЭ за выбор тех или иных действий, то есть центр (или центры в АС РК) выплачивает АЭ компенсации, зависящие от выбранных ими действий. Зависимость вознаграждения от действий называется функцией стимулирования (механизмом стимулирования, системой стимулирования), которая входит аддитивно в целевые функции участников АС - АЭ получает в точности ту сумму, которую выплачивает ему центр и ценит ее также, как и центр (различие функций полезности становится существенным в АС с неопределенностью [7, 26]).

Таким образом, характерным свойством модели стимулирования является то, что вознаграждение аддитивно входит в целевые функции участников АС (с различными знаками – у центров с минусом, а у АЭ – с плюсом), что позволяет говорить о единообразии определения структуры целевых функций: если существует трансферабельный товар («деньги») [15], то и остальные слагаемые, входящие в целевые функции, должны измеряться в тех же шкалах и, следовательно, быть сравнимыми (см. также ниже определение суммарных затрат центра на стимулирование).

Задача центра заключается в том, чтобы выбором системы стимулирования побудить АЭ выбрать наиболее благоприятные для него действия. Многочисленные примеры постановок и решения задач стимулирования приведены в [11, 14, 26, 27, 28, 29]. Опишем формальную модель стимулирования в рассматриваемой в настоящей работе многоэлементной АС с РК.

Предположим, что предпочтения центров – скалярные, и что каждый центр осуществляет стимулирование каждого АЭ по каждой компоненте целевой функции последнего.

l Обозначим { ( y) }j Mi – совокупность вознаграждений i-го ij l АЭ со стороны l-го центра, (y) = l ( y) - суммарное ij iI jMi вознаграждение, выплачиваемое l-ым центром всем АЭ, l (y) = ( y) - суммарное вознаграждение, получаемое l i ij jMi i-ым АЭ от l-го центра, (y) = ( y) - суммарное вознаi l i lK граждение, получаемое i-ым АЭ от всех центров, (y) = ij l ( y) - суммарное по всем центрам вознаграждение i-го ij lK АЭ по j-ой компоненте его целевой функции, j Mi, i I, l K. Обозначим cij(y) – j-тую компоненту затрат i-го АЭ, ci(y) = ( y) - суммарные затраты i-го АЭ, i I, Hl(y) – c ij jMi доход l-го центра, l K.

В задаче стимулирования целевые функции участников системы имеют вид:

i i i (9) (y, ) = Hi(y) - (y), i K, (10) fij(y, ) = (y) - cij(y), i I.

i ij Приведем содержательные интерпретации. Каждый АЭ выбирает определенные действия, которые в терминах ПРР могут интерпретироваться как усилия, направленные на реализацию определенного проекта и приводящие к соответствующим результатам деятельности. Сам АЭ оценивает свою деятельность и деятельность других АЭ по mi критериям, причем достижение результата y A’ с точки зрения j-го критерия требует от i-го АЭ затрат cij(y). Центр с номером l K от достижения результата y A’ получает доход l Hl(y) и выплачивает вознаграждения { (y) }j Mi, i I. Приij меры применения такого описания к управлению ПРР приведены ниже.

Задача центров заключается в том, чтобы выбрать такие системы стимулирования, которые побуждали бы АЭ предпринимать наиболее предпочтительные с точки зрения центров действия. Системообразующим фактором в данной модели является то, что вектор результатов деятельности (действий) АЭ является общим для всех центров, что вовлекает их в игру, и вынуждает согласовывать свои интересы и приходить к компромиссам (процесс согласования интересов и свойства компромиссных решений исследуются ниже при описании игры центров).

Введем следующие предположения относительно целевых функций и допустимых множеств участников АС в рассматриваемой модели стимулирования.

А.8. Допустимые множества Ai mi ограничены и + включают ноль, i I.

А.9. 1) функция cij( ) непрерывна по всем переменным;

2) yi Ai cij(y) не убывает по yi; 3) y A’ ci(y) 0; 4) y A-i cij(0, y-i) = 0, j Mi, i I.

i А.10. Функции стимулирования кусочно-непрерывны и принимают неотрицательные значения.

А.11. Функции дохода центров непрерывны по всем переменным и достигают максимума при ненулевых действиях АЭ.

Лемма 3. Если выполнены предположения А.8-А.11, то выполнены предположения А.1, А.4-А.6.

Доказательство леммы 3. Справедливость предположения А.1 следует из А.8, А.9 и А.11. Из (2) и (3) следует, что с н учетом А.9 и А.10 стратегию наказания uij ( y) можно выбрать тождественно равной нулю, независимо от обстановки, откуда следует справедливость А.4 и А.5. Из А.8-А.10 и (3) следует, что независимо от обстановки (11) Lij = 0, j Mi, i I, значит справедливо предположение А.6. • Таким образом, введенная модель стимулирования является частным случаем описанной выше общей модели управления в многоэлементных АС РК. Следовательно для задачи стимулирования справедливы леммы 1 и 2, а также – теорема 1, которая содержательно означает, что каждый АЭ получает вознаграждения только в случае выбора требуемых действий, независимо от выборов других АЭ. Более того, для задачи стимулирования справедлив следующий результат.

l Обозначим = { ( y) }j Mi, i I, l K. Минимальными ij суммарными затратами центров (x) на стимулирование min по реализации вектора действий x A’ назовем решение следующей задачи:

(12) (x) min.

l l { }: xE( ) ij lK Теорема 2. Пусть выполнены предположения А.2, А.3, А.8-А.11. Фиксируем произвольный вектор действий АЭ x A’. Система стимулирования, обладающая следующим свойством:

cij ( y) +, yi = xi ij (13) (y) =, ij 0, yi xi где > 0 – произвольные сколь угодно малые строго полоij жительные константы, j Mi, i I, реализует вектор действий x A’ как единственное РДС с -минимальными суммарными затратами центров на стимулирование, равными:

(14) (x) = min (с (x) + ), ij ij iI jMi где =.

ij iI jMi Доказательство теоремы 2. То, что x A’ – РДС игры АЭ следует из лемм 1-3. То, что величина (14) не может быть уменьшена обосновывается следующим образом. При использовании системы стимулирования, обладающей свойством (13), в равновесии значение j-го критерия i-го АЭ равно. Величина может быть сделана сколь угодно ij малой. В то же время, в силу предположений А.8-А.10, любой АЭ всегда (то есть, независимо от управлений) имеет возможность получить строго нулевую полезность, выбрав нулевые действия.

Наличие строго положительных констант { } обусловij лено необходимостью обеспечения единственности РДС. В рамках гипотезы благожелательности они могут быть выбраны равными нулю; при этом вектор действий x A’ как будет реализован как РДС с минимальными (а не минимальными) суммарными затратами центров на стимулирование (см. задачу (12)). • Следствие из теоремы 2. Системы стимулирования, удовлетворяющие (13) -оптимальны с точки зрения суммарных затрат центров на стимулирование.

В частном случае, когда имеется один центр, характеризуемый скалярными предпочтениями, теорема 2 переходит в теорему 7 работы [29], которая гласит, что оптимальным реализуемым действием будет действие, доставляющее максимум разности между функцией дохода центра и функцией затрат АЭ.

Содержательно теорема 2 гласит, что «оптимальным» является стимулирование, которое в точности и независимо от обстановки компенсирует каждому АЭ затраты в случае выбора им требуемого действия и равно нулю в случае выбора любого другого действия. Данное утверждение качественно можно рассматривать как синтез принципов:

компенсации, декомпозиции и кооперации [31] для многоэлементных АС РК.

Pages:     | 1 || 3 | 4 |   ...   | 6 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.