WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 14 | 15 || 17 | 18 |   ...   | 22 |

В соответствии с целевой функцией (7) выигрыш агента представляет собой разность между выручкой (произведением цены на объем производства) и затратами, которые описываются квадратичной зависимостью.

Если бы значение состояния природы было достоверно известно агенту, то ему следовало бы выбирать действие Под «статикой» в рассматриваемой дискретной модели подразумевается однократный выбор агенами своих действий, под «динамикой» – последовательность таких выборов.

(8) x*() =, 2 +максимизирующее целевую функцию, зависящую от состояния природы и его действия:

(9) f0(, x) = ( – x / ) x / – x2 / (2 2).

Так как целевая функция (7) монотонно возрастает по при любых допустимых действиях агента, то в соответствии с выражением (6) (10) xМГР() = 4 / (2 + 1).

Наблюдая (10) и либо результат xМГР() / 0, либо свой выигрыш f(0, xМГР() / 0), а, тем более, обе эти величины одновременно, агент может однозначно оценить истинное значение 0 состояния природы. • Пример 8.1 иллюстрирует ситуации, когда однократного наблюдения агентом соответствующей информации достаточно для восстановления истинного значения состояния природы. При этом нет нужды ни в повторных наблюдениях, ни в информации о выборах других агентов (если бы таковые имелись). Однако, возможны случаи, когда однократного наблюдения агенту недостаточно.

Приведем пример.

Пример 8.2. Пусть n = 1, x 0, z = x, = (p, c) = [1; 4] [1; 4], = [2; 4] [2; 4]; 0 = (3; 3), (11) f(, x) = (p – x) x – x2 c / 2, где 0 – известная размерная константа. Содержательно, в отличие от примера 8.1, состояние природы является двумерным вектором, первая компонента которого характеризует параметры цены, а вторая – параметры затрат.

Если бы значение состояния природы было достоверно известно агенту, то ему следовало бы выбирать действие p (12) x*() =.

2 + c Так как целевая функция (11) монотонно возрастает по p и монотонно убывает по с при любых допустимых действиях агента, то в соответствии с выражением (6) (13) xМГР() = 1 / ( + 2).

В рассматриваемом примере действие агента совпадает с его результатом, следовательно, единственным источником информации для агента является наблюдение своего фактического выигрыша. Из этого наблюдения он может сделать следующий вывод о множестве возможных значений состояния природы:

(14) I = { | с = 2 p ( + 2) – 6 – 9}.

Например, при = 1 из (5) получаем:

(15) J = {(p; c) | c = 6 p – 15, p [17/6; 19/6]}.

Отметим, что непротиворечивость информации агента истинному положению дел, по-прежнему имеет место, то есть J и 0 J, 0 I. • Один агент, динамика. Возможность «повторного» использования информации, полученной в результате наблюдения за результатами деятельности, появляется в случае многократного повторения выбора агентом своего действия. Будем считать, что агенты выбирают свои действия на каждом шаге одновременно, а шаги «равномерны».

Пример 8.3. Пусть в условиях примера 8.2 = 1, и агент принимает решения последовательно несколько раз. После первого «шага» он обладает информацией (15). В соответствии с выражением (6) его действием на втором «шаге» будет выбор xМГР(J) = 17 / 31. Наблюдая свой выигрыш при этом действии, агент может однозначно восстановить истинное значение состояния природы 0 = (3; 3).

Таким образом, в настоящем примере агенту достаточно было двух наблюдений (двух «шагов»), чтобы восстановить всю недостающую информацию. • Нескольких агентов в статике рассматривать мы не будем, перейдя сразу к динамическому случаю.

Несколько агентов, динамика. Обозначим xit Xi – действие i-го агента в момент времени t, x1, t – совокупность векторов действий всех агентов за t периодов. К окончанию периода t общим знанием среди агентов является информация I(xt, zt, gt) = (xt) (xt, zt) (gt, zt).

На основании всех источников информации i-ый агент за t периодов может вычислить оценку Jit значения состояния при роды как пересечение общего знания I(xt, zt, gt) с его частной информацией Jit-1, соответствующей предыдущему периоду:

(16) Jit = Jit-1 I(xt, zt, gt).

Другими словами, его оценка состояния природы сузится до множества t (17) Jit (i, x1, t, z1, t, g1, t) = i I (x, z, g ).

=Пример 8.4. Рассмотрим модель олигополии Курно [37, 155], функционирующей в условиях неопределенности.

Пусть n = 2, xi 0, i = 1, 2, z = x1 + x2, = [1; 5], 1 = [1; 4];

2 = [2; 5]; 0 = 3, (18) fi(, z) = ( – z) z – xi2 r / 2, где > 0, r > 0 – известные размерные константы. То есть, агенты различаются лишь своей информированностью о состоянии природы.

Если бы значение состояния природы было достоверно известно агентам, то им следовало бы выбирать действия (19) xi*() =, i = 1, 2.

4 + r Так как целевые функции (18) монотонно возрастают по при любых допустимых действиях агентов, то в соответствии с выражением (6) агенты в первом периоде выберут действия (20) x1 = 1 / (4 + r), x1 = 2 / (4 + r).

В результате выбора таких действий, агенты, однократно наблюдая векторы действий и выигрышей, восстановят истинное значение состояния природы. • Введем такое понятие, как «время адаптации команды» – время, за которое при неизменном значении состояния природы агенты на основании наблюдаемой информации могут однозначно идентифицировать состояние природы. Значение времени адаптации (продолжительности переходного процесса) определяется тем, какие параметры наблюдают агенты, размерностью вектора, описывающего состояние природы, а также свойствами точечномножественных отображений (2)-(4) – см. аналогичные модели для «технических» систем в [40]. В примерах 8.1 и 8.4 время адаптации равнялось единице (одному периоду), в примере 8.3 – двойке.

Время адаптации сокращается (корректней говоря – не увеличивается) с увеличением числа наблюдаемых членами команды параметров и возрастает (корректней говоря – не уменьшается) с увеличением размерности вектора, описывающего состояние природы, и/или ростом априорной неопределенности (расширением множеств {i}, описывающих частную информацию агентов).

Пример 8.5. Пусть к условиям примера 8.4 добавляется третий агент с первоначальной информированностью 3 = [2,5; 3,5].

Если каждый агент по-прежнему наблюдает действия и выигрыши всех агентов, то значение состояния природы они смогут восстановить, как и в примере 8.4, за один шаг. Время адаптации может увеличиться, если «ухудшится» информированность агентов – сократится множество наблюдаемых ими параметров или наблюдаемыми станут лишь некоторые агрегированные характеристики, например, сумма действий всех агентов.

Поэтому предположим, что i-ый агент наблюдает свое действие xi, свой выигрыш gi и сумму действий всех агентов39 z, причем факт таких наблюдений является среди агентов общим знанием.

При известных xi, z и gi уравнение ( – z) z – xi2 r / 2 = gi решается относительно однозначно, i = 1, 2. То есть с ростом числа агентов время адаптации в рассматриваемом случае не увеличивается. • Пример 8.6. Предположим теперь, что в условиях примера 8.имеются два агента, каждый из которых наблюдает только свое действие и свой выигрыш. Тогда в результате наблюдений i-ый агент получает уравнение (21) ( – (x1 + x2)) (x1 + x2) – xi2 r / 2 = gi с двумя неизвестными – x3-i и, i =1, 2.

Если каждый из агентов считает, что имеет место общее знание, то есть наделяет оппонента той же информированностью, какой обладает он сам, то он должен считать, что оппонен выберет то же действие, что и выбирает рассматриваемый агент (напомним, что в данном примере агенты различаются лишь своей информи Если агентов всего два, то каждый, зная сумму действий и свое действие, может вычислить действие оппонента. В случае, когда агентов уже три и больше, действия оппонентов на основании такой информации не могут быть восстановлены однозначно.

рованностью о состоянии природы). Подставляя в (21) реальный выигрыш агента и x3-i = xМГРi(i), получим:

1 1 (22) ( – 2 xi ) 2 xi – ( xi )2 r / 2 = 1 1 = (0 – ( x1 + x1 )) ( x1 + x1 ) – ( xi )2 r / 2, 2 откуда i-ый агент может вычислить на конец первого периода нижнюю оценку 1 1 1 (23) 1 = (0 – ( x1 + x1 )) ( x1 + x1 ) / 2 xi + 2 xi i 2 значения состояния природы, i = 1, 2.

Предположим, что = r = 1, тогда x1 = 0,2, x1 = 0,4, 1 = 4, 1 = 2,6.

2 1 Во втором периоде агенты подставят соответствующие оценки 1 и 1 в выражение (19), то есть выберут действия 1 2 x1 = 0,8, x2 = 0,52, подставят их в аналог выражения (22), вычислят новые оценки состояния природы и т.д.

В общем случае динамика оценок состояния природы агентами имеет вид (ср. с (22)):

t t t t (24) t = (0 – ( x1 + x2 )) ( x1 + x2 ) / 2 xit + 2 xit, i i =1, 2, t = 1, 2, ….

На основании этих оценок агенты будут выбирать действия (см. выражение (19)) t-i (25) xit ( t-1 ) =, i = 1, 2, t = 1, 2, ….

i 4 + r Таким образом, адаптация команды в рассматриваемом примере будет описываться системой (24)-(25) итерированных функций с начальными условиями (20), определяемыми на основании априорной информации агентов в соответствии с принципом максимального гарантированного результата.

На Рис. 15 и Рис. 16 представлены соответственно динамика оценок состояния природы агентами (первый уровень адаптации – см. Рис. 13) и динамика действий агентов (второй уровень адаптации – см. Рис. 13).

4,3,3,2,1 2 3 4 5 6 7 8 9 10 11 12 13 14 Рис. 15. Динамика оценок состояния природы агентами (первый агент – треугольники, второй – квадраты) 0,0,0,0,0,0,0,1 2 3 4 5 6 7 8 9 10 11 12 13 14 Рис. 16. Динамика действий агентов (первый агент – треугольники, второй – квадраты) Видно, что процессы изменения агентами своих оценок сходятся (достаточно быстро – изменения через 8-10 шагов становятся малозаметными), причем сходятся они к истинному значению состояния природы. Кроме того, несмотря на различную априорную информированность, агенты в результате выбирают одинаковые действия (что вполне естественно, так как целевые функции агентов одинаковы). В рассматриваемом примере время адаптации, строго говоря, равно бесконечности, хотя время попадания в любую наперед заданную непустую окрестность истинного значения состояния природы конечно. • Адаптация соответствует приспособлению, привыканию и т.п.

к изменяющимся внешним условиям. Рассмотренные в настоящем разделе модели адаптации команд позволяют отражать эти эффекты. Приведем пример, иллюстрирующий процесс адаптации команды к резкому изменению внешних условий.

Пример 8.7. Предположим, что в условиях примера 8.6 на 11ом шаге значение состояния природы изменилось и стало равно не 3, а 4, причем первоначальные оценки нового значения состояния природы были: у первого агента – 3,5, у второго – 4,5 (см. Рис. 17).

4,4,3,3,2,1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Рис. 17. Процесс адаптации команды к резкому изменению внешних условий на 11-ом шаге • В рассматриваемом примере характерное время изменения состояния природы равно 10 шагам. Время адаптации команды меньше него – за 10 шагов переходный процесс почти закончился.

Адаптацию имеет смысл рассматривать, если время адаптации не превышает характерного времени изменения внешней среды.

Изменение внешних условий может происходить и постепенно, соответственно команда должна адаптироваться и к «медленным» изменениям условий своего функционирования. Приведем пример.

Пример 8.8. Предположим, что в условиях примера 8.6 значение состояния природы на каждом шаге увеличивается на 0,1 (см.

пунктирную линию на Рис. 18). На Рис. 18 и Рис. 19 представлены соответственно динамика оценок состояния природы агентами и динамика действий агентов.

4,4,3,3,2,1 2 3 4 5 6 7 8 9 10 11 12 13 14 Рис. 18. Динамика оценок состояния природы агентами (первый агент – треугольники, второй – квадраты) 1,0,0,0,0,0,0,0,0,1 2 3 4 5 6 7 8 9 10 11 12 13 14 Рис. 19. Динамика действий агентов (первый агент – треугольники, второй – квадраты) В рассматриваемом примере скорость изменения состояния природы по отношению ко времени адаптации такова, что команда «успевает» отслеживать изменения. Возможны случаи – в условиях быстро (по отношению ко времени адаптации) менябщейся внешней среды – когда команд не сможет адаптироваться.

В завершение настоящего раздела подчеркнем, что выше вводилось предположение о том, что каждый агент наделяет оппонента той же информированностью, какой обладает он сам. Возможно отказаться от этого предположения и рассматривать более сложные структуры информированности агентов (см. Приложение), считая, то они будут выбирать действия, являющиеся информационным равновесием. Возможны также ситуации более сложной структуры «наблюдений» агентов – одни могут наблюдать одни параметры (например, действия и выигрыши одного множества агентов), другие агенты – другие параметры (например, действия и выигрыши другого множества агентов плюс некоторую информацию о состоянии природы). И так далее – все эти случаи, наверное, можно описывать по аналогии с рассмотренными выше.

Если адаптация в настоящем разделе рассматривалась как приспособление к условиям (в основном, внешним) существования и привыкание к ним и, фактически, зависела от информации об этих условиях40, которой агенты обладают на момент принятия решений, то изменение параметров самой команды (см. третий уровень адаптации на Рис. 13) может рассматриваться как обучение41. Поэтому перейдем к рассмотрению моделей обучения в командах.

Конечно, в общем случае адаптация некоторой системы подразумевает не только изменение информированности и поведения (первые два уровня адаптации – см. выше), но и изменение параметров самой системы (третий уровень адаптации), например – типов агентов, как реакцию на изменяющиеся внешние условия. Кроме того, можно рассматривать и активную адаптацию, когда система целенаправленно влияет на внешнюю среду (четвертый уровень адаптации).

Обучение и адаптация тесно связаны. Но обучение может происходить и при постоянных внешних условиях, а адаптация имеет место только при наличии их изменений.

9. ОБУЧЕНИЕ В КОМАНДАХ Члены команды в процессе совместной деятельности сознательно или неосознаваемо приобретают опыт как индивидуальной, так и совместной деятельности, то есть имеет место их научение (под научением понимается «процесс и результат приобретения индивидуального опыта» [41, с. 201]). Научение является частным случаем обучения – процесса овладения знаниями, умениями, навыками [5, с. 827]. Рассмотрим последовательно ряд моделей42, отражающих эффекты научения членов команды в процессе их работы. Начнем с общей постановки задачи, затем рассмотрим модель индивидуального обучения в процессе деятельности и, наконец – модель обучения в команде из нескольких агентов.

Общая постановка задачи и модель процесса научения.

Pages:     | 1 |   ...   | 14 | 15 || 17 | 18 |   ...   | 22 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.