WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 4 | 5 || 7 | 8 |   ...   | 23 |

Использованная идея декомпозиции игры активных элементов позволяет найти систему стимулирования, оптимальную в модели S3. В частности, из индивидуальной рациональности АЭ (напомним, что свойство индивидуальной рациональности гласит, что выбираемое АЭ действие должно приводить к неотрицательным PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory значениями его функции полезности1) и свойств минимальных затрат на стимулирование, следует справедливость следующего утверждения.

Теорема 4.3.2. Класс систем стимулирования2 (с параметром y*) * * ci ( yi ) + i, yi = yi (12) (y) = i * yi yi 0, реализует вектор действий y* A’ как РДС и -оптимален в модели S3. Более того, если > 0, i I, то y* - единственное РДС.

i Единственность соответствующего РДС доказывается по аналогии с доказательством пункта в) теоремы 4.2.1.

Наличие единственного равновесия при использовании центром системы стимулирования (12) чрезвычайно привлекательно, так как при использовании исходной системы коллективного стимулирования в модели S3, множество равновесий может оказаться достаточно «большим», что требует от центра введения дополнительных гипотез о рациональном поведении АЭ.

Отметим, что (12) является не единственной оптимальной системой стимулирования – для оптимальности некоторой системы стимулирования в рассматриваемой модели достаточно, чтобы стимулирование при yi y* «убывало быстрее», чем затраты АЭ i (см. теорему 4.4.2 ниже).

Теорема 4.3.2 определяет параметрический класс оптимальных систем стимулирования. Оптимальное значение параметра ищется, как и ранее, как результат решения задачи оптимального согласованного планирования.

Пример 5. Рассмотрим АС с двумя АЭ, имеющими функции затрат ci(yi) = yi2 / 2ri. Пусть центр использует систему стимулироCi, y1 + y2 x вания (y1, y2) = i 0, y1 + y2 < x, i = 1, 2.

В противном случае АЭ всегда имеет возможность выбрать нулевое действие, требующее нулевых затрат.

Отметим, что (12) с учетом (10) является системой индивидуального стимулирования, оптимальной в модели S1.

PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory Содержательно, центр выплачивает каждому АЭ фиксированное вознаграждение при условии, что сумма их действий оказывается не меньше, чем некоторое плановое значение x. Обозначим yi+ = 2riCi, i = 1, 2, Y = {(y1, y2) | yi yi+, i = 1, 2, y1 + y2 x} – множество индивидуально-рациональных действий АЭ. Рассмотрим четыре возможных комбинации переменных (см. рисунки 3а – 3г).

В первом случае (см. Рис.3 a) yмножество равновесий Нэша + y2 составляет отрезок:

EN( ) = [N1; N2]. Фиксируем x Nпроизвольное равновесие * * y* = ( y1, y2 ) EN( ). Нали* yчие «большого» равновесия Y y1 Нэша (отрезка, содержащего Nконтинуум точек) имеет не* + y1 yx сколько минусов с точки зрения эффективности стимуРис.3 a лирования.

Так как все точки отрезка [N1 N2] эффективны по Парето с точки зрения АЭ, то при определении эффективности системы стимулирования центр вынужден либо использовать гарантированный результат (вычислять минимум по этому отрезку), либо доплачивать АЭ за выбор конкретных действий из этого отрезка.

Построим систему индивидуального стимулирования в соответствии с выражением (10):

* * C1, y1 y1 * C2, y2 y* * * ~ (y1)= (y1, y2 )=, ~2 (y2)= ( y1,y2)=.

* * 0, y1 < y1 0, y2 < yПри использовании этой системы стимулирования точка y* = * * ( y1, y2 ) оказывается единственным равновесием Нэша, то есть, переходя в соответствии с выражением (10) от системы стимулирования каждого АЭ, зависящей от действий всех АЭ, к системе стимулирования, зависящей только от его собственных действий, центр «декомпозирует» игру элементов, реализуя при этом единственное действие. При этом эффективность стимулирования, очеPDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory видно, не только не понижается, а может оказаться более высокой, чем при использовании исходной системы стимулирования (см.

теорему 4.3.2).

y2 y+ yx Nx N+ * yy* NyN2 yy* + + * y1 y1 x x yyРис.3 c Рис.3 b Во втором и третьем случаях (см. Рис.3 b и Рис.3 c) равновесием Нэша являются отрезки [N1 N2], изображенные на соответствующих рисунках выше.

И, наконец, в четвертом yслучае (см. Рис.3 d) множество x равновесий Нэша состоит из N+ точки (0; 0) и отрезка [N1 N2], то yесть EN( ) = (0;0) [N1 N2], * yпричем точки интервала (N1 N2) являются недоминируемыми по NПарето другими равновесиями, yто есть:

* yy1 + x (N1; N2) = Par (EN( ), {fi}). • Рис.3 d Итак, мы доказали, что модель S3 эквивалентна гораздо более простой с точки зрения анализа и хорошо изученной модели S1.

Частными, но широко распространенными на практике, случаями модели S3 являются ранговые системы стимулирования, обозначенные выше S3R, в том числе нормативные и соревновательные. Эти системы стимулирования подробно рассматриваются ниже в пятом разделе настоящей работы.

PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory 4.4. МОДЕЛЬ S4: СТИМУЛИРОВАНИЕ АЭ ЗАВИСИТ ОТ ДЕЙСТВИЙ ВСЕХ АЭ, ЗАТРАТЫ НЕ СЕПАРАБЕЛЬНЫ Запишем определение равновесия Нэша для рассматриваемой модели:

N N EN( ) = {yN A | i I, yi Ai (yN)–ci(yN) ( y-i, yi)–ci( y-i, yi)}.

i i По аналогии с теоремой 4.3.1 можно доказать, что для любой системы коллективного стимулирования ( ), реализующей вектор действий y* A’ как равновесие Нэша, в модели S4 существует система индивидуального стимулирования ~ ( ), определяемая следующим образом:

* i ( y*), yi = yi (1а) ~i (y*, yi) =, * 0, yi yi которая обладает не меньшей эффективностью, чем исходная.

Поэтому перейдем сразу к построению оптимальной системы стимулирования.

Фиксируем y* A’ и рассмотрим следующий класс систем стимулирования (с параметром y*):

* * ci ( yi, y-i ) + i, yi = yi (1б) (y*, y) =, i I.

i * yi yi 0, Теорема 4.4.1. При использовании центром системы стимулирования (1б) с 0 y* Ed( ). Если > 0, i I, то y* - единственi i ное РДС. Более того, система стимулирования (1б) -оптимальна.

Доказательство. Теорема 4.4.1 доказывается по аналогии с теоремой 4.2.1а, поэтому ее доказательство приводится здесь, в основном, в методических целях.

То, что y* EN( ) следует из приведенного выше определения равновесия Нэша для модели S4 и (1б). Поэтому докажем более сильное свойство, а именно, что y* - равновесие в доминантных стратегиях (РДС).

Запишем определение равновесия yd A’ в доминантных стратегиях для рассматриваемой модели: i I yi Ai y-i A-i (2) ( yid, y-i) – ci( yid, y-i) (yi, y-i) – ci(yi, y-i).

i i PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory Подставим в (2) систему стимулирования (1б), а вместо стра* тегии yid - стратегию yi. В силу неотрицательности затрат АЭ получаем, что y* - РДС.

Предположим, что y’ A’ y’ y*: y’ Ed( ). Тогда i I:

* yi' yi. Так как yi' - доминантная стратегия i-го АЭ, то y-i A-i, yi Ai ( yi', y-i) - ci( yi', y-i) (yi, y-i) - ci(yi, y-i). Подставляя i i * систему стимулирования (1б) и yi = yi, получим: ci( yi', y-i) -, i что противоречит предположению А.3.

Система стимулирования (1б) в рамках гипотезы благожелательности при = 0, i I, имеет не большие затраты на стимулиi рование по реализации действия y*, чем любая другая система стимулирования, реализующая это же действие, следовательно она оптимальна (по теореме о минимальных затратах на стимулирование [42]). Если > 0, то система стимулирования (1б) гарантироi ванно -оптимальна (см. доказательство теоремы 4.2.2 и раздел n 4.1), где: =. • i i=Система индивидуального стимулирования (1а), соответствующая системе коллективного стимулирования (1б), имеет вид:

* * * ci ( yi, y-i ) + i, yi = yi ~ (y*, yi) =, i I.

i * yi yi 0, Если в модели S4 центр использует систему индивидуального стимулирования ~i (y*, yi), то получаем модель S2, поэтому в соответствии с теоремой 4.2.1б, эта система стимулирования будет реализовывать вектор действий y* A’ как равновесие Нэша. Для реализации этого вектора действий как единственного равновесия Нэша (РДС, единственного РДС, соответственно) нужно потребовать выполнения дополнительных условий (см. условия (2) и (3) в теореме 4.2.1б).

Алгоритм решения задач стимулирования первого и второго рода для модели S4 совпадает с соответствующими алгоритмами для модели S2 и не приводится.

PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory Во всех рассмотренных до сих пор задачах стимулирования (см. модели S1, S2, S3 и S4) оптимальными оказывались разрывные («квазикомпенсаторные» – см. [15, 16, 44]) функции стимулирования: активному элементу компенсировались затраты при выборе им определенного действия (при тех или иных предположениях об обстановке игры), в остальных случаях вознаграждение равнялось нулю. Рассмотрим, насколько изменятся полученные результаты, если потребовать, чтобы функции стимулирования были непрерывными. Интуитивно понятно, что если стимулирование будет в окрестности реализуемого действия изменяться быстрее, чем затраты, то все результаты останутся в силе. Приведем формальный результат для одного из возможных случаев.

Пусть в модели S4 функции затрат АЭ непрерывны по всем переменным, а множества возможных действий АЭ компактны.

Рассмотрим непрерывные функции стимулирования следующего вида (3) (y) = ci(y) qi(yi*, y), i где qi(yi*, y) – непрерывная функция своих переменных, удовлетворяющая следующему условию:

(4) i I yi Ai y-i A-i qi(yi*, y) 1, qi(yi*, yi*, y-i) = 1.

Теорема 4.4.2. Если выполнена гипотеза благожелательности, то при использовании в модели S4 центром системы стимулирования (3)-(4) y* Ed( ).

Доказательство. Выбирая действие yi*, независимо от обстановки игры, i-ый АЭ получает нулевой выигрыш. Выбирая любое другое действие, он при любой обстановке (в силу условия (4) выполнено: yi Ai y-i A-i (qi(yi*, y) – 1)c(y) 0) получает неположительный выигрыш. • Отметим, что функция-«индикатор» qi( ) может зависеть от * действий i-го АЭ, например – qi(yi*, yi) = e( yi - yi )2 и т.д.

Содержательные интерпретации конструкций типа (3)-(4) очевидны. Аналогичным образом строятся непрерывные оптимальные системы стимулирования и в других моделях.

Рассмотрим пример, иллюстрирующий результат теоремы 4.4.1.

PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory Пример 6. Пусть в условиях примера 5, рассмотренном в разделе 4.3, функции затрат АЭ несепарабельны и имеют вид:

( yi + y-i )ci(y)=. Определим множество Y индивидуально2ri рациональных действий: Y = {(y1, y2) | ci(y) Ci, i =1, 2}. Для того, чтобы не рассматривать все возможные комбинации значений параметров {r1, r2, C1, C2, x} возьмем случай, представленный на рисунке 4.

y2r1C1 / x 2r2CN* yNy* x y1 2r1C2r2C2 / Рис. 4. Множество равновесий Нэша в примере 6.

В рассматриваемом случае множество равновесий Нэша включает отрезок [N1 N2]. Система стимулирования * * * * c1( y1, y2 ), y1 = y1 ~* c2( y1, y2 ), y2 = y* ~ (y) = (y) = 1 * * 0, y1 y1 0, y2 y реализует действие y* [N1 N2] как единственное равновесие в доминантных стратегиях.

Система стимулирования ~* имеет эффективность не меньшую, чем исходная система стимулирования с теми же параметрами C1 и C2 (см. пример 5). Она в точности компенсирует затраты АЭ, а исходная «переплачивала» следующую величину: C = C1 – c1(y*) + C2 – c2(y*), которая неотрицательна в силу индивидуальной рациональности активных элементов. • PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory 4.5. МОДЕЛЬ S5: СТИМУЛИРОВАНИЕ АЭ ЗАВИСИТ ОТ РЕЗУЛЬТАТА ДЕЯТЕЛЬНОСТИ АС, ЗАТРАТЫ СЕПАРАБЕЛЬНЫ Пусть результат деятельности1 z A0 = A активной системы, состоящей из n АЭ, является функцией их действий: z = Q(y).

Предположим, что стимулирование i-го АЭ есть : A0 1, i I.

i + Равновесный по Нэшу вектор действий АЭ yN определяется следующим образом:

N i I yi Ai (Q(yN)) – ci( yiN ) (Q(yi, y-i )) – ci(yi).

i i В случае, когда индивидуальные действия АЭ наблюдаемы для центра (или когда центр может однозначно восстановить их по наблюдаемому результату деятельности), последний может использовать систему стимулирования, зависящую непосредственно от действий АЭ: i I ~i (y) = (Q(y)), то есть получаем модель i S3, для которой выше было доказано, что она эквивалентна модели S1 (напомним, что переход от S3 к S1 осуществляется следующим * i образом: i I (yi) = ~i ( y-i, yi)), методы исследования которой хорошо известны и описаны выше и в [15, 44]. Поэтому рассмотрим случай, когда центр наблюдает только результат деятельности коллектива элементов, от которого зависит его доход, то есть H: A0, но не знает и не может восстановить их индивидуальных действий.

Отметим, что в рассмотренных выше моделях S1-S4 декомпозиция игры активных элементов основывалась на возможности центра поощрять АЭ за выбор определенного (и наблюдаемого центром) действия. Если действия АЭ ненаблюдаемы, то непосредственное применение идеи декомпозиции невозможно, поэтому при решении задач стимулирования, в которых вознаграждение АЭ Все результаты настоящего и следующего разделов останутся в силе, m если предположить, что Q: A’ – однозначное непрерывное отображение, где 1 m n (при m > n смысл агрегирования теряется – см.

также обобщения в разделе 4.7).

PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory зависит от агрегированного1 результата деятельности АС, следует использовать следующий подход – найти множество действий, приводящих к заданному результату деятельности, выделить среди них подмножество, характеризуемое минимальными суммарными затратами АЭ (и, следовательно, минимальными затратами центра на стимулирование при использовании компенсаторных функций стимулирования), построить систему стимулирования, реализующую это подмножество действий, а затем определить - реализация какого из результатов деятельности наиболее выгодна для центра.

Функция дохода центра может зависеть как от действий АЭ, так и от результата деятельности АС. Действия АЭ при этом могут быть наблюдаемы или ненаблюдаемы. Таким образом, получаем следующие четыре возможных варианта (комбинации).

Вариант 1. Действия АЭ наблюдаемы, функция дохода центра зависит от действий АЭ. В этом случае получаем модель S1 или модель S3, причем последняя (как было доказано в разделе 4.3) «эквивалентна» модели S1.

Вариант 2. Действия АЭ наблюдаемы, функция дохода центра зависит только от результата деятельности АС. В этом случае, ~ обозначая H (y) = H(Q(y)), получаем модель S1 или модель S3 (в зависимости от переменных, от которых зависит вознаграждение ~ АЭ), где целевая функция центра равна (y) = H (y) - (y). Методы решения этого класса задач описаны выше в разделах 4.1 и 4.3.

Pages:     | 1 |   ...   | 4 | 5 || 7 | 8 |   ...   | 23 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.