WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 | 2 || 4 | 5 |   ...   | 10 |

Модель 1. Рассмотрим модель ОС – многоэлементную детерминированную двухуровневую активную систему (АС), состоящую из центра и n активных элементов (АЭ). Стратегией АЭ является выбор действий, стратегией центра – выбор функции стимулирования, то есть зависимости вознаграждения каждого АЭ от его действий и, быть может, действий других АЭ или других агрегированных показателей их совместной деятельности.

Обозначим yi Ai – действие i-го АЭ, i I = {1, 2, …, n} – n Ai множество АЭ, y = (y1, y2,..., yn) A' = – вектор действий i=АЭ, y-i = (y1, y2, …, yi-1, yi+1, …, yn) A-i = Aj – обстановка игры ji для i-го АЭ.

Предположим, что i-ый АЭ характеризуется параметром ri, называемым его типом и отражающим эффективность i деятельности АЭ, i I. Вектор типов всех АЭ обозначим r = (r1, r2, …, rn).

Пусть результат деятельности z A0 = Q(A’, ) АС, 0, состоящей из n АЭ, является функцией (называемой функцией агрегирования) их действий: z = Q(y, ), где – параметр, отражающий «технологию» деятельности и характеризующий центр. Интересы и предпочтения участников АС – центра и АЭ – выражены их целевыми функциями. Целевая функция центра является функционалом (, z) и представляет собой разность между его доходом z, где может интерпретироваться как рыночная цена, и суммарным вознаграждением (z, r), выплачиваемым АЭ:

n (z, r) = (z, r), i i=где (z, r) – стимулирование i-го АЭ, i (z, r) = ( (z, r), (z, r), …, (z, r)), то есть 1 2 n n (1) ( ( ), z,, r) = z – (z,r).

i i=Целевая функция i-го АЭ является функционалом fi(, yi, ri) и i представляет собой разность между стимулированием, получаемым им от центра, и затратами ci(yi, ri), где ri 1 – тип АЭ, то i + есть:

(2) fi( ( ), z, y, r) = (z, r) – ci(y, ri), i I.

i i Отметим, что индивидуальное вознаграждение i-го АЭ в общем случае явным или неявным образом зависит от действий и типов всех АЭ (случай сильно связанных АЭ [90]).

Примем следующий порядок функционирования АС. Центру и АЭ на момент принятия решения о выбираемых стратегиях (соответственно – функциях стимулирования и действиях) известны целевые функции и допустимые множества всех участников АС, а также функция агрегирования. Центр, обладая правом первого хода, выбирает функции стимулирования и сообщает их АЭ, после чего АЭ при известных функциях стимулирования выбирают действия, максимизирующие их целевые функции.

Рассмотрим случай, когда центр наблюдает только результат деятельности АС, от которого зависит его доход, но не знает и не может восстановить индивидуальных действий АЭ, то есть, имеет место агрегирование информации – центр имеет не всю информацию о действиях АЭ, а ему известен лишь некоторый их агрегат.

Обозначим P( ) – множество реализуемых (выбираемых АЭ при данной системе стимулирования) действий. Минимальными затратами центра на стимулирование по реализации действий АЭ y’ A’ будем называть минимальное значение суммарных выплат элементам, при которых данный вектор действий является равновесием Нэша в игре АЭ, то есть решение следующей задачи:

(Q( y', ), r) miny'), где (y’) = { () | y’ P( )}. Как и в i ()( iI одноэлементной АС [86], гарантированной эффективностью (далее просто "эффективностью") стимулирования является минимальное значение целевой функции центра на соответствующем множестве решений игры (всюду, где встречаются минимумы и максимумы, будем предполагать, что они достигаются):

(3) K( ( ),,, r) = min ( ( ), Q(y, ),, r).

yP( ()) Задача синтеза оптимальной функции стимулирования заклю* чается в поиске допустимой системы стимулирования, имеющей максимальную эффективность:

* (4) (,, r) = arg max K( ( ),,, r).

() В [90] доказано, что в частном случае, когда действия АЭ наблюдаются центром, и типы АЭ также достоверно известны центру, n оптимальной (точнее – -оптимальной, где = ) является i i=^ квазикомпенсаторная система стимулирования, зависящая от K наблюдаемых действий АЭ:

^ ci ( y*, ri ) +, yi = yi* i (5) =, i I, i K 0, yi yi* где – сколь угодно малые строго положительные константы, i I, i а оптимальное действие y*, реализуемое системой стимулирования (5) как единственное равновесие в доминантных стратегиях (РДС) [48], является решением следующей задачи оптимального согласованного планирования [27]:

^ y*(r) = arg max { H (y) – ( y, ri ) }, ci yA iI ^ где H () – функция дохода центра, зависящая от наблюдаемых действий АЭ.

Определим множество векторов действий АЭ, приводящих к заданному результату деятельности АС:

Y(z, ) = {y A’ | Q(y, ) = z} A’, z A0.

В [90] доказано, что в случае наблюдаемых действий и типов АЭ минимальные затраты центра на стимулирование по реализации вектора действий y A’ равны суммарным затратам АЭ ( y, ri ). По аналогии вычислим: минимальные суммарные ci iI затраты АЭ по достижению результата деятельности z An * (z,, r) = min ) ci(y, ri), а также множество действий yY ( z, i=n Y*(z,, r) = Arg min ) ci(y, ri), на котором достигается соот yY ( z, i=ветствующий минимум.

Введем относительно параметров АС следующие предположения, которые, если не оговорено особо, будем считать выполненными в ходе всего последующего изложения материала настоящего раздела:

А.1. i I Ai – отрезок 1 с левым концом в нуле.

+ А.2. i I 1) функция ci( ) непрерывна по всем переменным;

2) yi Ai, ri ci(yi, ri) неотрицательна и не убывает по yi и не i возрастает по ri, i I; 3) ri ci(0, ri) = 0, i I.

i А.3. Функции стимулирования принимают неотрицательные значения.

m А.4. Q: A’ 1 A0 – однозначное непрерывное ото+ бражение, где 1 m n.

А.5. x A0, 0 y’ Y(x, ), i I, yi Proji Y(x, ) cj(yi, y’-i) не убывает по yi, j I.

Фиксируем произвольный результат деятельности x A0 и произвольный вектор y*(x,, r) Y*(x,, r) Y(x, ).

Утверждение 1. При использовании центром следующей оптимальной системы стимулирования ci ( y*(x,, r), ri ) +, z = x * i (6) (z,, r) =, i I, ix z x 0, вектор действий АЭ y*(x,, r) реализуется как единственное РДС с минимальными затратами центра на стимулирование равными * (x,, r).

Доказательство утверждения 1 практически повторяет доказательство теоремы 4.5.1 в [90] и опускается.

На втором шаге решения задачи стимулирования ищется наиболее выгодный для центра результат деятельности АС x*(,, r) A0 как решение задачи оптимального согласованного планирования:

* (7) x*(,, r) = arg max [ x – (x,, r)].

xAВ [90] доказана «теорема об идеальном агрегировании в моделях стимулирования», которая утверждает, что в случае, когда функция дохода центра зависит только от результата деятельности АС, эффективности стимулирования одинаковы как при использовании стимулирования АЭ за наблюдаемые действия, так и при стимулировании за агрегированный результат деятельности. Этот результат справедлив и в рассматриваемой модели при условии, что центру известны: цена, функции затрат агентов (то есть, параметры {ri}) и технология производства.

* Подставляя (7) и (x*(,, r),, r) в (1) получаем зависимость целевой функции центра (которую можно рассматривать как его прибыль) от параметров, и r:

* (8) F(,, r) = x*(,, r) – (x*(,, r),, r).

Если параметр интерпретируется как внешняя (экзогенно заданная) стоимость единицы результата деятельности АС, то, варьируя два оставшихся параметра – и r, центр может оптимизировать свою «прибыль», то есть, максимизировать выражение (8).

Таким образом, мы осуществили переход от «микромодели» (задачи синтеза оптимальной функции стимулирования), в которой описывалось взаимодействие центра с подчиненными ему АЭ, к «макромодели», отражающей эффективность технологии деятельности сотрудников заданной квалификации в зависимости от внешних условий (см. выражение (8)). Другими словами, получена возможность рассматривать оптимизационные задачи, не акцентируя внимания на аспектах активности участника и задачах управления АЭ (отражаемыми в теоретико-игровых моделях стимулирования с агрегированием информации).

Понятно, что, как изменение технологии, так и квалификации r (эффективности деятельности) сотрудников – АЭ – требует определенных затрат, которые будем описывать функциями c (, ) и сr(r1, r2), которые отражают затраты центра соответст1 венно на изменение технологии с 0 на 0 и изменение 1 типов с r1 на r2.

Относительно функций затрат предположим следующее: если, то c (, ) 0, если, то c (, ) 0, если r2 r1, 2 1 1 2 2 1 1 то cr(r1, r2) 0. Обозначим (, r0) – начальное состояние (до реализации ОП) АС.

Возникают следующие три (две частных и одна общая) задачи:

1. Задача развития персонала. При заданных, и r0 определить r, максимизирующее целевую функцию центра (8) с учетом затрат на изменение квалификации персонала:

(9) F(,, r) – cr(r0, r) max.

r Решение этой задачи имеет вид r*(,, r0);

2. Задача развития центра (совершенствования технологии деятельности). При заданных, r и определить 0, максимизирующее целевую функцию центра (8) с учетом затрат на изменение технологии:

(10) F(,, r) – c (, ) max.

* Решение этой задачи имеет вид (,, r);

3. Задача комплексного развития. При заданном начальном состоянии (, r0) определить конечное состояние ( 0, r ), максимизирующее целевую функцию центра (8) с учетом затрат на изменение технологии и квалификации персонала:

(11) F(,, r) – c (, ) – cr(r0, r) max0.

r, * Решение этой задачи имеет вид (r*(,, r0), (,, r0)).

0 При известных зависимостях F( ), c ( ), cr( ) задачи (9)-(11) являются стандартными оптимизационными задачами. Приведем пример их решения.

Пример 1. Пусть агенты имеют квадратичные функции затрат типа Кобба-Дугласа: ci(yi, ri) = yi2 /2ri, i I, а оператор агрегирования Q(y, ) = yi.

iI * Тогда yi (x,, r) = x ri / R, где R =, r i iI * 2 2 2 (z,, r) = x2 / 2 R, x*(,, r) = R, F(,, r) = R / (отметим, что в рассматриваемом примере имеет место идеальное агрегирование).

Если c (, ) = exp { – }, cr(r0, r) = exp {r – r0}, то 0 2 2 * R* = R0 + ln ( / 2 ), а определяется из решения следующего трансцендентного уравнения (если условие второго порядка не выполнено, то на максимальную величину необходимо наклады2 2 вать ограничения): [R0 + ln ( / 2 )] = exp { – }. •До сих пор мы рассматривали, фактически, статический случай, в котором решалась задача выбора конечного состояния при известном начальном (см. задачу комплексного развития выше), то есть процесс перехода от начального состояния к конечному не детализировался. В ОП во многих случаях существенным оказывается процесс перехода, поэтому сформулируем динамическую задачу комплексного развития.

Пусть имеются T периодов времени: t = 1, T, для которых известна (точно или в виде прогноза) последовательность цен { }t =. Известно также начальное состояние ОС (, r0). Требуt 1, T ется определить допустимые траектории развития персонала {rt }t = и изменения технологии { 0}t =, которые t 1, T t 1, T максимизируют суммарную дисконтированную (с коэффициентом ) полезность центра:

T (12) {F(,, rt) – c (, ) – cr(rt-1, rt)} max}.

t t t-1 t {rtt, t t =1,T t=Для решения задачи (12) может быть использован метод динамического программирования.

Модель 2. Рассмотрим АС с распределенным контролем (РК), включающую один АЭ, характеризуемый функцией затрат c(y, s), y A, s S, и k центрами, характеризуемыми функциями дохода Hi(y, ri), где ri, i K = {1, 2, …, k} – множеству центров. Целеi вая функция i-го центра имеет вид Символ « » здесь и далее обозначает окончание примера, доказательства и т.д.

(13) ( ( ), y, ri) = Hi(y, ri) – (y), i K, i i i а целевая функция АЭ:

(14) f( ( ), y, s) = ( y) – c(y, s), i iK где ( ) = ( ( ),.., ( )).

1 n Порядок функционирования таков – сначала центры одновременно и независимо выбирают свои стратегии – функции стимулирования, а затем при известных функциях стимулирования АЭ выбирает действие, максимизирующее его целевую функцию (14).

В [91] доказано, что при использовании центрами компенсаторных систем стимулирования существуют два режима взаимодействия центров (два типа равновесий их игры) – режим сотрудничества и режим конкуренции, причем последний неэффективен для системы в целом. Поэтому одной из основных задач управления АС РК является обеспечение режима сотрудничества центром.

Введем следующие величины:

(15) Wi(s, ri) = max {Hi(y, ri) – c(y, s)}, i K, yA (16) x*(s, r) = arg max { Hi(y, ri) – c(y, s)}, yA iK где r = (r1, r2, …, rn) =, i iK (17) W*(s, r) = max { Hi(y, ri) – c(y, s)}.

yA iK По аналогии с [44, 47, 91] запишем область компромисса * (18) (r, s) = { 0 | Hi(x*(s, r), ri) – Wi(s, ri), i K;

i i = c(x*(s, r), s)}.

i iK В соответствии с результатами, полученными в [44], режим сотрудничества имеет место тогда и только тогда, когда множество (18) не пусто. Обозначим * * (19) S* = {(r, s) S | (r, s) }.

Пусть s0 S и r0 – начальные параметры АС и известны затраты cs,r(s0, r0, s, r) по их изменению до значений s S и r, соответственно. Тогда возможны две постановки задачи.

Первая задача, которую условно можно назвать задачей выбора направления развития, заключается в определении таких значений параметров участников АС из множества (19), при которых затраты на изменения минимальны:

(20) cs,r(s0, r0, s, r) min.

(s, r ) *S* Второй задачей является задача оптимального развития, которая заключается в выборе таких значений параметров участников АС, при которых выигрыш АС в целом (с учетом затрат на изменения) максимален:

(21) W*(s, r) – cs,r(s0, r0, s, r) maxS.

(s, r ) Задачи (20) и (21) являются стандартными задачами условной оптимизации. Термины «саморазвитие» и «самоорганизация» применимы к ним, так как они должны решаться центрами или метацентром, то есть участниками рассматриваемой АС.

В заключение рассмотрения настоящей модели отметим, что все полученные результаты по аналогии с тем, как это делалось в [44], могут быть обобщены на случаи: нескольких агентов с векторными предпочтениями, векторных предпочтений центров, многоуровневых АС.

Pages:     | 1 | 2 || 4 | 5 |   ...   | 10 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.