WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 2 | 3 || 5 | 6 |   ...   | 10 |

Результаты исследования двух приведенных в настоящем разделе моделей саморазвития в управлении ОП (см. также модели матричных структур управления в шестом разделе) позволяют говорить о существовании единого подхода к описанию эффектов саморазвития и самоорганизации (см. также модели обучения менеджеров проектов в [37]). Подход этот заключается в следующем: сначала описывается зависимость равновесного (в теоретикоигровом смысле) состояния АС от параметров центра и агентов, характеризующих их свойства, которые могут изменяться. Затем вводятся затраты на целенаправленное изменение этих параметров, и решается задача определения таких новых значений этих параметров (или траектории их изменения), которые максимизировали бы эффективность функционирования АС в будущем (или в процессе перехода из заданного начального состояния в конечное) с учетом затрат на «переход». Применение данного подхода к максимально широкому классу задач управления динамическими АС представляется перспективным направлением будущих исследований.

5. СИНТЕЗ ОПТИМАЛЬНОГО КОМПЛЕКСА МЕХАНИЗМОВ УПРАВЛЕНИЯПриведем постановку задачи синтеза оптимального комплекса механизмов управления ОС. Пусть ОС описывается набором (вектором) множества L= {1, 2, …, l} переменных:

y = (y1, y2, …, yl) A = Ai, где yi Ai, i L, и существуют гло iL бальные ограничения A* на комбинации переменных: y A’ A*.

Под механизмом u( ) будем понимать отображение множества Mu L значений управляемых переменных во множество Ku L значений управляющих переменных, то есть u: AMu AKu, где AMu = Ai, AKu = Ai. Будем считать, что множество iMu iKu допустимых механизмов таково, что для любого механизма u( ), выполнены глобальные ограничения, то есть (1) = {u( ) | (yMu, yKu): yKu = u(yMu) (yMu, yKu) ProjMu Ku(A*)}, где yMu =(yj)j Mu, yKu =(yj)j Ku.

Введем – подмножество множества допустимых механизмов, 2 – множеству всех подмножеств множества. Обозначим Q – множество всевозможных последовательностей элементов множества, q – произвольный элемент множества Q.

Множество механизмов назовем непротиворечивым, если (2) q Q : (u, …, v) q : Mu Kv.

Свойство непротиворечивости означает, что для данного набора механизмов не существует их последовательности, для которой нашлась бы переменная, которая была бы одновременно управляемой для первого механизма в этой последовательности и управляющей – для последнего.

Непротиворечивость множества механизмов порождает в ОС иерархию: множество параметров АС может быть упорядочено – на нижнем уровне находятся параметры из множества L = L \ Ku, u на следующем уровне – параметры, которые являются управляющими по отношению к параметрам нижнего уровня, но управляе Настоящий раздел написан совместно с А.В. Лысаковым.

мыми для параметров, находящихся на более высоких уровнях иерархии, и т.д.

Поставим в соответствие i-му параметру АС активного агента, обладающего целевой функцией fi: A, i L.

При заданном комплексе механизмов агенты из множества L будут стремиться выбирать равновесные по Нэшу стратегии.

Обозначим соответствующее множество равновесий Нэша (3) EN( ) = {yL AL | i L yi Ai fi(yL u(yL )) fi(yL |yi u(yL |yi))}, где u(yL ) – действия, выбираемые агентами из множества Ku u (эти действия при заданном комплексе механизмов определяются действиями, выбираемыми агентами из множества L ).

Пусть на множестве A’ состояний системы задан функционал ( ): A, характеризующий эффективность ее функционирования. Задача синтеза оптимального комплекса механизмов может формулироваться следующим образом:

(4) min (yL, u(yL )) max, N yLE () 2, (1), (2) то есть требуется найти непротиворечивый и удовлетворяющий глобальным ограничениям (условия (2) и (1) соответственно) комплекс механизмов, обладающий максимальной гарантированной эффективностью.

Отметим, что при формулировке задачи (4) мы не учитывали явным образом интересы агентов из множества Ku. Если предu положить, что каждый из них может самостоятельно выбирать определенные механизмы управления, то получим задачу, аналогичной задаче структурного синтеза, описанной в [29, 85].

На сегодняшний день общих методов решения задачи (4) или задачи структурного синтеза неизвестно. Поэтому на практике при синтезе комплекса механизмов либо решают задачу последовательного синтеза, либо согласовывают в рамках той или иной метамодели отдельные оптимальные механизмы управления.

6. МАТРИЧНЫЕ СТРУКТУРЫ УПРАВЛЕНИЯ В матричных структурах управления, характерных для проектно-ориентированных организаций [113, 120, 137], каждый из управляемых субъектов (агентов в терминах управления проектами, АЭ в терминах теории активных систем) может быть одновременно подчинен нескольким управляющим органам (центрам). В теории активных систем (АС) такие модели получили название активных систем с распределенным контролем (РК). Специфика АС РК заключается в том, что в них возникает игра центров, равновесие в которой определяет окончательное управляющее воздействие на агентов.

В работах [44, 47, 91], посвященных изучению АС РК, предполагается, что все управляющие органы оказывают воздействие либо на одни и те же компоненты вектора действий агента, либо на различные, но содержательно схожие (например, объем работ, продолжительность рабочего времени и т.д.) компоненты. В то же время, специфика стимулирования в управлении организационными проектами [113] такова, что, не только предпочтения, но и ответственность, возможности воздействия и т.д. различных центров могут быть определены на различных компонентах векторов действий и параметров агента (последние могут отражать, например, его квалификацию). Примером может служить взаимодействие руководителей проектов (РП) и функциональных руководителей (ФР, то есть руководителей подразделений, которым принадлежат агенты, например, по штатному расписанию).

Руководитель проекта, который использует агента как ресурс, заинтересован в результатах его деятельности и осуществляет стимулирование в зависимости от этих результатов. Функциональный руководитель получает от руководителя проекта (естественно, косвенным образом в силу принадлежности одной организации и/или в рамках договорных отношений) вознаграждение за результаты деятельности агента данной квалификации и стимулирует агента в зависимости от квалификации.

В рамках рассматриваемой ниже теоретико-игровой модели взаимодействия участников системы (агента, руководителя проекта и функционального руководителя) анализируются равновесные состояния и обосновывается роль вышестоящих органов (устанавливающих «правила игры» для участников нижележащих уровней), которые выбором параметров механизма управления могут согласовать (в определенной степени) интересы руководителя проекта и функционального руководителя, побуждая их, соответственно, эффективно управлять деятельностью агентов и повышать квалификацию подчиненных.

Рассмотрим АС, состоящую из трех участников: РП, ФР и агента (см. рисунок 6), имеющих соответственно следующие целевые функции:

(1) ( ( ), ( ), y, r) = H(y) – (y) – (y, r), 0 (2) ( ( ), ( ), y, r) = (y, r) – (r) – c0(r), 0 0 (3) f( ( ), ( ), y, r) = (y) + (r) – c(y, r), где H(y) – функция дохода РП; (y), (y, r), (r) – функции стимулирования, c(y, r) – функция затрат агента, c0(r) – функция затрат ФР, y A – действие агента, r – тип агента, отражающий его квалификацию (эффективность деятельности).

РП (y, r) ФР (y) (r) Агент Рис. 6. Модель матричной структуры управления Содержательно, агент, подчиненный ФР, выбирает в рамках проекта, выполняемого под руководством РП, свой тип r и действие y A. РП получает от выбора этого действия доход H(y) и выплачивает агенту вознаграждение (y), где : A 1, а также + стимулирует ФР в размере (y, r), где : A 1, за исполь0 + зование подчиненного последнему агента. Вознаграждение агента складывается из стимулирования, получаемого от РП и зависящего от его действий, и стимулирования (r), где : 1, получае+ мого от ФР и зависящего от его типа (квалификации). Вторая составляющая оплаты может рассматриваться как тарифный оклад, не зависящий от действий. Затраты агента c(y, r) по выбору действия y A зависят от его квалификации r. Повышение или поддержание квалификации агента (в последнем случае стимулирование со стороны ФР может рассматриваться как тарифный оклад не зависящий от деятельности агента) требует от ФР затрат c(r). Кроме того, в целевые функции участников рассматриваемой АС могут входить константы, отражающие постоянные и не зависящие от их действий доходы или расходы (постоянные издержки, фиксированная составляющая оплаты и т.д.).

Предположим, что стимулирование агента со стороны РП и ФР известно ему на момент принятия решений о выбираемых типе и действии. В силу гипотезы рационального поведения [48, 86] агент будет при известном стимулировании стремиться своим выбором максимизировать собственную целевую функцию (3). Отметим, что введение дополнительного требования гарантированного обеспечения участникам АС некоторых фиксированных значений полезности не изменяет качественно результатов проводимого ниже анализа.

В рассматриваемой модели матричной структуры управления задача управления, решаемая с точки зрения РП, заключается в нахождении РП систем стимулирования, побуждающих ФР и агента выбирать такие стратегии, которые максимизировали бы целевую функцию РП (1).

Множество решений игры (множество реализуемых типов и действий) можно записать как:

(4) P(, ) = {(y’, r’) A | (y’) + (r’) – c(y’, r’) (y) + (r) – c(y, r) y A, r }.

Лемма 1.,, y’ A, r’ : если (y’, r’) P(, ), то * * (y’, r’) P(, ), где ( y'), y = y' * (5) (y) = 0, в остальных случаях, (r'), r = r' * (6) (r) = 0, в остальных случаях.

Доказательство леммы 1 заключается в подстановке (5), (6) в (4).

Содержательно, лемма 1 означает, что РП и ФР достаточно ограничиться классом компенсаторных систем стимулирования [65, 86, 87] вида (5)-(6), которые могут интерпретироваться как договора, предусматривающие фиксированные выплаты агенту за выполнение им условий договора (выбор соответствующих действий и типов).

* * Из (4)-(6) следует, что (y’, r’) P(, ) * * (7) (y’) + (r’) – c(y’, r’) – c(y, r) y A, r.

Введем следующие предположения.

А.1. A = 1, – компакт.

+ А.2. а) r min c(y, r) = 0; б) c(y, r) не убывает по y A и yA не возрастает по r ; c0(r) не убывает по r.

Содержательно введенные предположения означают, что действием агента является выбор положительнозначной скалярной величины (которая может интерпретироваться как объем произведенных работ, число отработанных часов и т.д.), причем, независимо от квалификации, выбором нулевого действия агент может обеспечить себе как минимум нулевые затраты; кроме того затраты агента не уменьшаются с увеличением действия при фиксированной квалификации и не увеличиваются с ростом квалификации при фиксированном действии, а затраты ФР по повышению квалификации агента монотонны.

Из (7) следует, что в рамках предположений А.1 и А.2 для лю* * бых (y’, r’) P(, ) имеет место:

* * (8) (y’) + (r’) c(y’, r’).

Обсудим теперь порядок функционирования. Предположим, что сначала РП устанавливает стимулирование для ФР и агента, затем свое стимулирование выбирает ФР и, наконец, агент выбирает свои действия и типы. Таким образом, в рассматриваемой игре стратегией РП является выбор функций стимулирования ( ) и ( ), стратегией ФР – выбор функции стимулирования ( ), стратегией агента – выбор типа r и действия y.

Задача ФР заключается в максимизации собственной целевой функции (2) выбором функции стимулирования агента ( ) при известном стимулировании со стороны РП. Обозначим P( ) – множество систем стимулирования ( ), на которых достигается максимум (2) при условии, что агент выбирает действия, стремясь максимизировать (3) при стимулировании (5)-(6). Справедлив следующий аналог леммы 1.

* * * * * Лемма 2.,,, (y’, r’) P(, ): если P( ), 0 * * то P( ), где ( y', r'), y = y', r = r' * (9) (y, r) = 0 0, в остальных случаях.

Доказательство леммы 2 заключается в подстановке (9) в определение P( ).

По лемме 2 РП может ограничиться классом систем стимулирования (9), в соответствии с которым он выплачивает ФР вознаграждение только в случае предоставления последним для участия в проекте агента, обладающего требуемой квалификацией и выполняющего заданный объем работ.

Лемма 3. Парето-эффективными для РП и ФР и реализующими соответствующие действия и типы агента являются платежи, обращающие (8) в равенство, то есть * * * * (10) (y’, r’) P(, ) (y’) + (r’) = c(y’, r’).

Доказательство леммы 3 очевидно (см. также [43, 44, 91]).

Если потребовать, чтобы значения целевых функций участников системы были неотрицательны (условие индивидуальной ра* * циональности), то получим, что (y’, r’) P(, ), помимо (10), должна выполняться следующая система неравенств:

* * (11) (y’) + (y’, r’) H(y’), * * (12) (r’) + c0(r’) (y’, r’).

Отметим, что при неотрицательном стимулировании в рамках предположения А.2 агент всегда может обеспечить себе нулевую полезность, выбрав нулевое действие.

Таким образом, в соответствии с леммами 1-3 использование систем стимулирования (5), (6), (9), удовлетворяющих (10)-(12), обеспечивает реализуемость действия y’ и типа r’. Рассмотрим, какие типы и действия выгодно реализовывать РП.

Из условия задачи (y’, r’) max следует, что долж( y',r'), (10)-(12) но быть выполнено:

* * (13) (y’) + (y’, r’) = c(y’, r’) +c0(r’), (то есть РП заинтересован в выполнении (12) как равенства), откуда следует справедливость утверждения следующей леммы.

Лемма 4. Целевая функция РП достигает максимума при реализации действий и типов агента (y*, r*), определяемых в результате решения следующей задачи:

(14) (y*, r*) = arg max {H(y) – c0(r) – c(y, r)}.

yA, r Интересно отметить, что в соответствии с леммой 4 реализовывать оказывается выгодно действия и типы, которые оптимальны по Парето с точки зрения всех участников АС (исследовать неэффективные по Парето равновесия мы не будем – см. [48]). Анализ (10)-(13) дает простое необходимое условие существования индивидуально-рационального и Парето-эффективного равновесия:

c(y*, r*) + c0(r*) H(y*), то есть эффект от участия агента в проекте не должен быть меньше суммы его собственных затрат и затрат ФР по обеспечению требуемой квалификации агента.

Вычислим следующую величину: = H(y*) – c0(r*) – c(y*, r*).

Результаты лемм 1-4 обосновывают справедливость следующего утверждения, дающего решение задачи управления в рассматриваемой модели матричной структуры управления.

Утверждение 2. Оптимальные с точки зрения РП действия и типы агента (14) реализуются системами стимулирования (5), (6), (9), удовлетворяющими (10)-(13). При этом значение его целевой функции равно.

Pages:     | 1 |   ...   | 2 | 3 || 5 | 6 |   ...   | 10 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.