<< Предыдущая

стр. 6
(из 14 стр.)

ОГЛАВЛЕНИЕ

Следующая >>

U
нижнем уровне находятся параметры из множества L? = L \ Ku ,
u??
на следующем уровне – параметры, которые являются управляю-
щими по отношению к параметрам нижнего уровня, но управляе-

8
Настоящий раздел написан совместно с А.В. Лысаковым.
30
мыми для параметров, находящихся на более высоких уровнях
иерархии, и т.д.
Поставим в соответствие i-му параметру АС активного агента,
обладающего целевой функцией fi: A > ?1, i ? L.
При заданном комплексе механизмов ? агенты из множества
L? будут стремиться выбирать равновесные по Нэшу стратегии.
Обозначим соответствующее множество равновесий Нэша
(3) EN(?) = {yL? ? AL? | ? i ? L?, ? yi ? Ai
fi(yL?, u(yL?)) ? fi(yL?|yi, u(yL?|yi))},
U
где u(yL?) – действия, выбираемые агентами из множества Ku
u??
(эти действия при заданном комплексе механизмов определяются
действиями, выбираемыми агентами из множества L?).
Пусть на множестве A’ состояний системы задан функционал
?(?): A > ?1, характеризующий эффективность ее функционирова-
ния. Задача синтеза оптимального комплекса механизмов может
формулироваться следующим образом:
(4) min ?(yL?, u(yL?)) > max ,
?
y L? ?E ( ? ) ??2 , (1), ( 2 )
N


то есть требуется найти непротиворечивый и удовлетворяющий
глобальным ограничениям (условия (2) и (1) соответственно) ком-
плекс механизмов, обладающий максимальной гарантированной
эффективностью.
Отметим, что при формулировке задачи (4) мы не учитывали
U
явным образом интересы агентов из множества K u . Если пред-
u??
положить, что каждый из них может самостоятельно выбирать
определенные механизмы управления, то получим задачу, анало-
гичной задаче структурного синтеза, описанной в [29, 85].
На сегодняшний день общих методов решения задачи (4) или
задачи структурного синтеза неизвестно. Поэтому на практике при
синтезе комплекса механизмов либо решают задачу последователь-
ного синтеза, либо согласовывают в рамках той или иной метамо-
дели отдельные оптимальные механизмы управления.


6. МАТРИЧНЫЕ СТРУКТУРЫ УПРАВЛЕНИЯ

31
В матричных структурах управления, характерных для проект-
но-ориентированных организаций [113, 120, 137], каждый из
управляемых субъектов (агентов в терминах управления проекта-
ми, АЭ в терминах теории активных систем) может быть одновре-
менно подчинен нескольким управляющим органам (центрам). В
теории активных систем (АС) такие модели получили название
активных систем с распределенным контролем (РК). Специфика
АС РК заключается в том, что в них возникает игра центров, равно-
весие в которой определяет окончательное управляющее воздейст-
вие на агентов.
В работах [44, 47, 91], посвященных изучению АС РК, предпо-
лагается, что все управляющие органы оказывают воздействие либо
на одни и те же компоненты вектора действий агента, либо на
различные, но содержательно схожие (например, объем работ,
продолжительность рабочего времени и т.д.) компоненты. В то же
время, специфика стимулирования в управлении организационны-
ми проектами [113] такова, что, не только предпочтения, но и
ответственность, возможности воздействия и т.д. различных цен-
тров могут быть определены на различных компонентах векторов
действий и параметров агента (последние могут отражать, напри-
мер, его квалификацию). Примером может служить взаимодействие
руководителей проектов (РП) и функциональных руководителей
(ФР, то есть руководителей подразделений, которым принадлежат
агенты, например, по штатному расписанию).
Руководитель проекта, который использует агента как ресурс,
заинтересован в результатах его деятельности и осуществляет
стимулирование в зависимости от этих результатов. Функциональ-
ный руководитель получает от руководителя проекта (естественно,
косвенным образом в силу принадлежности одной организации
и/или в рамках договорных отношений) вознаграждение за резуль-
таты деятельности агента данной квалификации и стимулирует
агента в зависимости от квалификации.
В рамках рассматриваемой ниже теоретико-игровой модели
взаимодействия участников системы (агента, руководителя проекта
и функционального руководителя) анализируются равновесные
состояния и обосновывается роль вышестоящих органов (устанав-
ливающих «правила игры» для участников нижележащих уровней),
которые выбором параметров механизма управления могут согла-
32
совать (в определенной степени) интересы руководителя проекта и
функционального руководителя, побуждая их, соответственно,
эффективно управлять деятельностью агентов и повышать квали-
фикацию подчиненных.
Рассмотрим АС, состоящую из трех участников: РП, ФР и
агента (см. рисунок 6), имеющих соответственно следующие целе-
вые функции:
(1) ?(?(?), ?0(?), y, r) = H(y) – ?(y) – ?0(y, r),
(2) ?0(?0(?), ?(?), y, r) = ?0(y, r) – ?(r) – c0(r),
(3) f(?(?), ?(?), y, r) = ?(y) + ?(r) – c(y, r),
где H(y) – функция дохода РП; ?(y), ?0(y, r), ?(r) – функции стиму-
лирования, c(y, r) – функция затрат агента, c0(r) – функция затрат
ФР, y ? A – действие агента, r ? ? – тип агента, отражающий его
квалификацию (эффективность деятельности).

РП
?0(y, r)


ФР
?(y)


?(r)

Агент


Рис. 6. Модель матричной
структуры управления

Содержательно, агент, подчиненный ФР, выбирает в рамках
проекта, выполняемого под руководством РП, свой тип r ? ? и
действие y ? A. РП получает от выбора этого действия доход H(y) и
выплачивает агенту вознаграждение ?(y), где ?: A > ?1 , а также
+
стимулирует ФР в размере ?0(y, r), где ?0: A ? ? > ?1 , за исполь-
+
зование подчиненного последнему агента. Вознаграждение агента
33
складывается из стимулирования, получаемого от РП и зависящего
от его действий, и стимулирования ?(r), где ?: ? > ?1 , получае-
+
мого от ФР и зависящего от его типа (квалификации). Вторая со-
ставляющая оплаты может рассматриваться как тарифный оклад, не
зависящий от действий. Затраты агента c(y, r) по выбору действия
y ? A зависят от его квалификации r ? ?. Повышение или поддер-
жание квалификации агента (в последнем случае стимулирование
со стороны ФР может рассматриваться как тарифный оклад не
зависящий от деятельности агента) требует от ФР затрат c(r). Кро-
ме того, в целевые функции участников рассматриваемой АС могут
входить константы, отражающие постоянные и не зависящие от их
действий доходы или расходы (постоянные издержки, фиксирован-
ная составляющая оплаты и т.д.).
Предположим, что стимулирование агента со стороны РП и ФР
известно ему на момент принятия решений о выбираемых типе и
действии. В силу гипотезы рационального поведения [48, 86] агент
будет при известном стимулировании стремиться своим выбором
максимизировать собственную целевую функцию (3). Отметим, что
введение дополнительного требования гарантированного обеспече-
ния участникам АС некоторых фиксированных значений полезно-
сти не изменяет качественно результатов проводимого ниже анали-
за.
В рассматриваемой модели матричной структуры управления
задача управления, решаемая с точки зрения РП, заключается в
нахождении РП систем стимулирования, побуждающих ФР и аген-
та выбирать такие стратегии, которые максимизировали бы целе-
вую функцию РП (1).
Множество решений игры (множество реализуемых типов и
действий) можно записать как:
(4) P(?, ?) = {(y’, r’) ? A ? ? | ?(y’) + ?(r’) – c(y’, r’) ?
? ?(y) + ?(r) – c(y, r) ? y ? A, ? r ? ?}.
Лемма 1. ? ?, ? ?, ? y’ ? A, ? r’ ? ?: если (y’, r’) ? P(?, ?), то
(y’, r’) ? P(?*, ?*), где
? ? ( y' ), y = y'
(5) ?*(y) = ? ,
0, в остальных случаях
?


34
? ? ( r' ), r = r'
(6) ?*(r) = ? .
0, в остальных случаях
?
Доказательство леммы 1 заключается в подстановке (5), (6) в
(4).
Содержательно, лемма 1 означает, что РП и ФР достаточно ог-
раничиться классом компенсаторных систем стимулирования
[65, 86, 87] вида (5)-(6), которые могут интерпретироваться как
договора, предусматривающие фиксированные выплаты агенту за
выполнение им условий договора (выбор соответствующих дейст-
вий и типов).
Из (4)-(6) следует, что ? (y’, r’) ? P(?*, ?*)
(7) ?*(y’) + ?*(r’) – c(y’, r’) ? – c(y, r) ? y? A, ? r ? ?.
Введем следующие предположения.
А.1. A = ?1 , ? – компакт.
+
А.2. а) ? r ? ? min c(y, r) = 0; б) c(y, r) не убывает по y ? A и
y? A
не возрастает по r ? ?; c0(r) не убывает по r ? ?.
Содержательно введенные предположения означают, что дей-
ствием агента является выбор положительнозначной скалярной
величины (которая может интерпретироваться как объем произве-
денных работ, число отработанных часов и т.д.), причем, независи-
мо от квалификации, выбором нулевого действия агент может
обеспечить себе как минимум нулевые затраты; кроме того затраты
агента не уменьшаются с увеличением действия при фиксирован-
ной квалификации и не увеличиваются с ростом квалификации при
фиксированном действии, а затраты ФР по повышению квалифика-
ции агента монотонны.
Из (7) следует, что в рамках предположений А.1 и А.2 для лю-
бых (y’, r’) ? P(?*, ?*) имеет место:
(8) ?*(y’) + ?*(r’) ? c(y’, r’).
Обсудим теперь порядок функционирования. Предположим,
что сначала РП устанавливает стимулирование для ФР и агента,
затем свое стимулирование выбирает ФР и, наконец, агент выбира-
ет свои действия и типы. Таким образом, в рассматриваемой игре
стратегией РП является выбор функций стимулирования ?(?) и ?0(?),
стратегией ФР – выбор функции стимулирования ?(?), стратегией
агента – выбор типа r и действия y.
35
Задача ФР заключается в максимизации собственной целевой
функции (2) выбором функции стимулирования агента ?(?) при
известном стимулировании со стороны РП. Обозначим P(?0) –
множество систем стимулирования ?(?), на которых достигается
максимум (2) при условии, что агент выбирает действия, стремясь
максимизировать (3) при стимулировании (5)-(6). Справедлив
следующий аналог леммы 1.
Лемма 2. ? ?0, ? ?*, ? ?*, ? (y’, r’) ? P(?*, ?*): если ?* ? P(?0),
то ?* ? P(?0*), где
? ? ( y', r' ), y = y', r = r '
(9) ?0*(y, r) = ? 0 .
0, в остальных случаях
?
Доказательство леммы 2 заключается в подстановке (9) в опре-
деление P(?0).
По лемме 2 РП может ограничиться классом систем стимули-
рования (9), в соответствии с которым он выплачивает ФР возна-
граждение только в случае предоставления последним для участия
в проекте агента, обладающего требуемой квалификацией и выпол-
няющего заданный объем работ.
Лемма 3. Парето-эффективными для РП и ФР и реализующими
соответствующие действия и типы агента являются платежи, обра-
щающие (8) в равенство, то есть
(10) ? (y’, r’) ? P(?*, ?*) ?*(y’) + ?*(r’) = c(y’, r’).
Доказательство леммы 3 очевидно (см. также [43, 44, 91]).
Если потребовать, чтобы значения целевых функций участни-
ков системы были неотрицательны (условие индивидуальной ра-
циональности), то получим, что ? (y’, r’) ? P(?*, ?*), помимо (10),
должна выполняться следующая система неравенств:
(11) ?*(y’) + ?0*(y’, r’) ? H(y’),
(12) ?*(r’) + c0(r’) ? ?0*(y’, r’).
Отметим, что при неотрицательном стимулировании в рамках
предположения А.2 агент всегда может обеспечить себе нулевую
полезность, выбрав нулевое действие.
Таким образом, в соответствии с леммами 1-3 использование
систем стимулирования (5), (6), (9), удовлетворяющих (10)-(12),
обеспечивает реализуемость действия y’ и типа r’. Рассмотрим,
какие типы и действия выгодно реализовывать РП.

36
Из условия задачи ?(y’, r’) > следует, что долж-
max
( y',r ' ), (10) - (12)
но быть выполнено:
(13) ?*(y’) + ?*0(y’, r’) = c(y’, r’) +c0(r’),
(то есть РП заинтересован в выполнении (12) как равенства), откуда
следует справедливость утверждения следующей леммы.
Лемма 4. Целевая функция РП достигает максимума при реа-
лизации действий и типов агента (y*, r*), определяемых в результате
решения следующей задачи:
(14) (y*, r*) = arg max {H(y) – c0(r) – c(y, r)}.
y? A, r??
Интересно отметить, что в соответствии с леммой 4 реализо-
вывать оказывается выгодно действия и типы, которые оптимальны
по Парето с точки зрения всех участников АС (исследовать неэф-

<< Предыдущая

стр. 6
(из 14 стр.)

ОГЛАВЛЕНИЕ

Следующая >>