Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Механизмы стимулирования в организационных системах - Новиков Д.А

..pdf
Скачиваний:
37
Добавлен:
24.05.2014
Размер:
829.49 Кб
Скачать

действий, но и от неопределенных и/или случайных факторов (см., например, модель теории контрактов в третьем разделе).

Настоящий раздел содержит формулировку и решение задачи коллективного стимулирования в многоэлементной детерминиро- ванной ОС, в которой центр имеет агрегированную информацию о результатах деятельности агентов.

Пусть в рамках модели, рассмотренной в предыдущем разде-

ле, результат деятельности z Î A0 = Q(A’) ОС, состоящей из n

агентов, является функцией (называемой функцией агрегирования) их действий: z = Q(y). Интересы и предпочтения участников ОС центра и агентов выражены их целевыми функциями. Целевая

функция центра представляет собой разность между его доходом H(z) и суммарным вознаграждением u(z), выплачиваемым агентам:

u(z) = åσi (z) , где si(z) – стимулирование i-го агента,

i I

s(z) = (s1(z), s2(z), …, sn(z)), то есть

(1) F(s(×), z) = H(z) åσi (z) .

i I

Целевая функция i-го агента представляет собой разность ме- жду стимулированием, получаемым им от центра, и затратами ci(y), то есть:

(2) fi(si(×), y) = si(z) – ci(y), i Î I.

Примем следующий порядок функционирования ОС. Центру и

агентам на момент принятия решений о выбираемых стратегиях (соответственно функциях стимулирования и действиях) извест-

ны целевые функции и допустимые множества всех участников ОС, а также функция агрегирования. Центр, обладая правом перво- го хода, выбирает функции стимулирования и сообщает их аген- там, после чего агенты при известных функциях стимулирования выбирают действия, максимизирующие их целевые функции.

В случае, когда индивидуальные действия агентов наблюдае- мы для центра (или когда центр может однозначно восстановить их по наблюдаемому результату деятельности), последний может использовать систему стимулирования, зависящую непосредствен-

но от действий агентов: " i Î I σ~i (y) = si(Q(y)). Методы решения

101

задачи стимулирования для этого случая описаны в предыдущем разделе. Поэтому рассмотрим случай, когда центр наблюдает только результат деятельности ОС, от которого зависит его доход,

но не знает и не может восстановить индивидуальных действий агентов, то есть, имеет место агрегирование информации центр имеет не всю информацию о векторе y Î A действий агентов, а ему известен лишь некоторый их агрегат z Î A0 параметр, характери- зующий результаты совместных действий агентов.

Будем считать, что относительно параметров ОС выполнены предположения, введенные в предыдущем разделе, и, кроме того, предположим, что функция агрегирования однозначна и непре- рывна.

Как и выше, эффективностью стимулирования является мини- мальное (или максимальное в рамках гипотезы благожелательно- сти) значение целевой функции центра на соответствующем мно- жестве решений игры:

(3) K(s(×)) = min F(s(×), Q(y)).

yÎP(σ (×))

Задача синтеза оптимальной функции стимулирования заклю- чается в поиске допустимой системы стимулирования s*, имеющей максимальную эффективность:

(4)s* = arg max K(s(×)).

σ(×)

Отметим, что в рассмотренных в предыдущих разделах зада-

чах стимулирования декомпозиция игры агентов основывалась на возможности центра поощрять агентов за выбор определенного (и наблюдаемого центром) действия. Если действия агентов не на- блюдаемы, то непосредственное применение идеи декомпозиции невозможно, поэтому при решении задач стимулирования, в кото- рых вознаграждение агентов зависит от агрегированного результа- та деятельности ОС, следует использовать следующий подход найти множество действий, приводящих к заданному результату деятельности, выделить среди них подмножество, характеризуемое минимальными суммарными затратами агентов (и, следовательно, минимальными затратами центра на стимулирование при исполь- зовании компенсаторных функций стимулирования, которые оп- тимальны), построить систему стимулирования, реализующую это

102

подмножество действий, а затем определить реализация какого из результатов деятельности наиболее выгодна для центра.

Перейдем к формальному описанию решения задачи стимули- рования в ОС с агрегированием информации.

Определим множество векторов действий агентов, приводя- щих к заданному результату деятельности ОС:

Y(z) = {y A’ | Q(y) = z} A’, z A0.

Выше показано, что в случае наблюдаемых действий агентов

минимальные затраты центра на стимулирование по реализации вектора действий y A’ равны суммарным затратам агентов

åci ( y) . По аналогии вычислим минимальные суммарные затра-

i I

ты агентов

по

достижению

результата деятельности z A0

~

 

åci ( y) ,

а

также

множество

действий

ϑ (z) = min

y Y (z)

i I

 

 

 

 

Y*(z) = Arg

min

åci ( y) , на котором этот минимум достигается.

y Y (z)

i I

 

 

 

 

 

 

 

 

 

 

x A0 и

Фиксируем

произвольный

результат

деятельности

произвольный вектор y*(x) Y*(x) Y(x).

 

 

В [14] (при следующем дополнительном предположении «тех-

нического» характера: x A0, y’ Y(x), i I, yi Proji Y(x) cj(yi, y’-i) не убывает по yi, j I) доказано, что:

1) при использовании центром системы стимулирования

(5) σ ix*

ì

*

(x)) +δi , z = x

, i I,

(z) = íci (y

 

î0,

 

z ¹ x

 

вектор действий агентов y*(x) реализуется как единственное равно- весие с минимальными затратами центра на стимулирование рав-

ными ~ – , где = å i ;

ϑ

δ

δ

δ

)

x

(

i I

2) система стимулирования (5) является δ-оптимальной.

Итак, первый шаг решения задачи стимулирования (4) заклю- чается в поиске минимальной системы стимулирования (5), харак-

~

теризуемой затратами центра на стимулирование ϑ (x) и реали- зующей вектор действий агентов, приводящий к заданному результату деятельности x A0. Поэтому на втором шаге решения

103

задачи стимулирования найдем наиболее выгодный для центра результат деятельности ОС x* A0 как решение задачи оптималь- ного согласованного планирования:

(6) x* = arg max [H(x) ~(x) ].

ϑ

x A0

Таким образом, выражения (5)-(6) дают решение задачи синте-

за оптимальной системы стимулирования результатов совместной деятельности.

Исследуем, как незнание (невозможность наблюдения) цен-

тром индивидуальных действий агентов влияет на эффективность стимулирования. Пусть, как и выше, функция дохода центра зави- сит от результата деятельности ОС. Рассмотрим два случая. Пер- вый когда действия агентов наблюдаемы, и центр может основы- вать стимулирование как на действиях агентов, так и на результате деятельности ОС. Второй случай, когда действия агентов не на- блюдаемы, и стимулирование может зависеть только от наблюдае- мого результата деятельности ОС. Сравним эффективности стиму- лирования для этих двух случаев.

При наблюдаемых действиях агентов затраты центра на сти- мулирование ϑ1(y) по реализации вектора y A' действий агентов

равны ϑ1(y) = åci ( y) , а эффективность стимулирования K1 рав-

i I

на: K1 = max {H(Q(y)) – ϑ1(y)} – см. предыдущий раздел.

y A

При ненаблюдаемых действиях агентов минимальные затраты центра на стимулирование ϑ2(z) по реализации результата деятель-

ности z A0

определяются следующим образом (см. (5) и (6)):

ϑ2(z) = min

åci ( y) , а эффективность стимулирования K2 равна:

y Y (z)

i I

 

K2 = max {H(z) – ϑ2(z)}.

z A0

В [14] доказано, что эффективности K1 и K2 равны. Данный факт, который условно можно назвать «теоремой об идеальном агрегировании в моделях стимулирования», помимо оценок срав- нительной эффективности имеет чрезвычайно важное методологи- ческое значение. Оказывается, что в случае, когда функция дохода

центра зависит только от результата совместной деятельности

104

агентов, эффективности стимулирования одинаковы как при ис- пользовании стимулирования агентов за наблюдаемые действия, так и при стимулировании за агрегированный результат деятельно- сти, несущий меньшую информацию (отметим, что центр при этом должен знать функции затрат агентов), чем вектор действий аген- тов.

Другими словами, наличие агрегирования информации не снижает эффективности функционирования системы. Это доста- точно парадоксально, так как в [9] доказано, что наличие неопре- деленности и агрегирования в задачах стимулирования не повыша- ет эффективности. В рассматриваемой модели присутствует идеальное агрегирование (см. определение и подробное обсужде- ние проблем агрегирования в управлении ОС в [9]), возможность осуществления которого содержательно обусловлена тем, что центру не важно, какие действия выбирают агенты, лишь бы эти

действия приводили с минимальными суммарными затратами к заданному результату деятельности. При этом уменьшается ин- формационная нагрузка на центр, а эффективность стимулирова- ния остается такой же.

Итак, качественный вывод из проведенного анализа следую- щий: если доход центра зависит от агрегированных показателей деятельности агентов, то целесообразно основывать стимулирова- ние агентов на этих агрегированных показателях. Даже если инди- видуальные действия агентов наблюдаются центром, то использо- вание системы стимулирования, основывающейся на действиях агентов, не приведет к увеличению эффективности управления, а лишь увеличит информационную нагрузку на центр.

Напомним, что во втором разделе был сформулирован прин- цип компенсации затрат. На модели с агрегированием информации этот принцип обобщается следующим образом: минимальные затраты центра на стимулирование по реализации заданного ре- зультата деятельности ОС определяются как минимум компенси- руемых центром суммарных затрат агентов, при условии, что последние выбирают вектор действий, приводящий к заданному результату деятельности. Рассмотрим иллюстративный пример.

105

Пример 9. Пусть z = å yi , H(z) = z, ci(yi) = yi2 /2ri, i I (см.

iÎI

также примеры 5 и 6). Вычисляем

Y(z) = {y A’ | å yi = z}.

Решение задачи

 

iÎI

 

 

åci (yi ) min при условии å yi = x

iÎI

 

yÎA'

iÎI

 

 

*

ri

x, где W = åri , i I. Минимальные затра-

имеет вид: yi (x) =

 

W

 

 

 

iÎI

ты на стимулирование по реализации результата деятельности x A0 равны ϑ(x) = x2 / 2 W. Вычисляя максимум целевой функции

центра: max [H(x) ϑ(x)], находим оптимальный план: x* = W и

x³0

оптимальную систему стимулирования:

ì

 

x2

 

ï

 

 

, z = x , i I.

σ i* (W, z) = íri 2W 2

ï

0,

z ¹ x

î

При этом эффективность стимулирования (значение целевой функции центра) равна K = W / 2.

Выше рассматривались системы коллективного стимулирова- ния, в которых зависимость вознаграждения у каждого агента была индивидуальной. На практике во многих ситуациях центр вынуж- ден использовать одинаковую для всех агентов зависимость возна- граждения от действия или результата совместной деятельности. Рассмотрим соответствующие модели.

9. УНИФИЦИРОВАННЫЕ СИСТЕМЫ СТИМУЛИРОВАНИЯ

До сих пор рассматривались персонифицированные системы индивидуального и коллективного стимулирования, в которых центр устанавливал для каждого агента свою зависимость возна- граждения от его действий (раздел 2), или действий других агентов

106

(раздел 7), или результатов их совместной деятельности (раздел 8). Кроме персонифицированных, существуют унифицированные системы стимулирования, в которых зависимость вознаграждения от тех или иных параметров одинакова для всех агентов. Необхо-

димость использования унифицированного стимулирования может быть следствием институциональных ограничений, а может возни- кать в результате стремления центра к «демократическому» управ- лению, созданию для агентов равных возможностей и т.д.

Так как унифицированное управление является частным слу- чаем персонифицированного, то эффективность первого не пре- вышает эффективности второго. Следовательно, возникает вопрос, к каким потерям в эффективности приводит использование унифи- цированного стимулирования, и в каких случаях потери отсутст- вуют?

Рассмотрим две модели коллективного унифицированного стимулирования (используемая техника анализа может быть при- менена к любой из описанных в настоящей работе систем стимули- рования) – унифицированные пропорциональные системы стиму-

лирования и унифицированные системы коллективного стимулирования за результаты совместной деятельности. В первой модели унификация не приводит к потерям эффективности (оказы- вается, что именно унифицированные системы стимулирования оказываются оптимальными в классе пропорциональных), а во второй снижение эффективности значительно.

Унифицированные пропорциональные системы стимули-

рования. Введем следующее предположение относительно функ- ций затрат агентов (ниже это предположение будет ослаблено):

(1) ci(yi, ri) = ri j (yi /ri), i Î I,

где j(×) – гладкая монотонно возрастающая выпуклая функция, j(0) = 0, (например, для функций типа Кобба-Дугласа j(t) = tα / a, a ³ 1), ri > 0 параметр эффективности агента.

Если центр использует пропорциональные (L-типа) индивиду- альные системы стимулирования: si(yi) = gi yi, то целевая функция агента имеет вид: fi(yi) = gi yi ci(yi). Вычислим действие, выбирае-

мое агентом при использовании центром некоторой фиксированной системы стимулирования:

(2) yi* (gi) = ri j ' -1(gi),

107

где j ' -1(×)функция, обратная производной функции j(×). Мини- мальные суммарные затраты центра на стимулирование равны:

n

(3) JL(g) = åγ i ri ϕ'−1i ) ,

i=1

где g = (g1, g2, ..., gn). Суммарные затраты агентов равны:

n

(4) c(g) = åri ϕ(ϕ'−1i )) .

i=1

Врамках приведенной выше общей формулировки модели пропорционального стимулирования возможны различные поста- новки частных задач. Рассмотрим некоторые из них, интерпрети- руя действия агентов как объемы выпускаемой ими продукции.

Задача 1. Пусть центр заинтересован в выполнении агентами плана R по суммарному выпуску с минимальными суммарными затратами агентов (еще раз подчеркнем необходимость различения суммарных затрат агентов и суммарных затрат центра на стимули- рование). Тогда его цель заключается в выборе ставок оплаты

{gi}i I в результате решения следующей задачи:

 

ì c(γ ) ® min

 

(5)

ï

γ

,

í

n

 

ïå yi*i ) = R

 

î i=1

 

решение которой имеет вид:

(6)

γ i* = j '(R/W);

yi* = ri (R/W); i Î I,

c* = W j (R / W); ϑL* = R j'(R / W).

n

где W = åri . Так как оптимальные ставки оплаты одинаковы для

i=1

всех агентов, то оптимальна именно унифицированная (!) система стимулирования.

Задача 2. Содержательно двойственной к задаче 1 является за-

дача максимизации суммарного выпуска при ограничении на суммарные затраты агентов:

108

 

ì

n

) ® max

(7)

ï

y*

íå i i

γ .

 

ï

i=1

 

 

c(γ ) £ R

 

î

 

 

Решение задачи (7) имеет вид:

(8)

γ i* = ϕ '-1(R / W)); yi* = ri ϕ -1(R / W); i I,

c* = R; ϑL* = ϕ 1(R / W) W ϕ'-1(R / W)),

то есть в двойственной задаче (естественно) оптимальным решени- ем также является использование унифицированных пропорцио- нальных систем стимулирования.

Замена в задачах 1 и 2 суммарных затрат агентов на суммарные затраты на стимулирование порождает еще одну пару содержатель- но двойственных задач.

Задача 3. Если центр заинтересован в выполнении агентами плана R по суммарному выпуску с минимальными суммарными затратами на стимулирование, то ставки оплаты определяются в результате решения следующей задачи:

ìϑL

(γ ) ® min

ï

γ

(9) í N

,

ïå yi* i ) = R

î i=1

 

решение которой совпадает с (6), что представляется достаточно интересным фактом, так как суммарные затраты агентов отражают интересы управляемых субъектов, а суммарные затраты на стиму- лирование интересы управляющего органа. Естественно, отме- ченное совпадение является следствием сделанных предположений.

Задача 4 заключается в максимизации суммарного выпуска при ограничении на суммарные затраты на стимулирование:

ì

N

(10) íïå yi*i )

ï

i=1

ϑL (γ )

î

®max

γ.

£ R

Из метода множителей Лагранжа получаем условие оптималь- ности (λ – множитель Лагранжа): λ ϕ' -1i) ϕ''i) + γi = 1, i I, из которого следует, что все ставки оплаты должны быть одинаковы и удовлетворять уравнению γ ϕ' -1(γ) = R / W.

109

Таким образом, мы доказали следующий результат: в органи- зационных системах со слабо связанными агентами, функции затрат которых имеют вид (1), унифицированные системы стиму-

лирования оптимальны на множестве пропорциональных систем стимулирования.

Отметим, что выше установлено, что унифицированные про- порциональные системы стимулирования оптимальны на множест- ве пропорциональных систем стимулирования в ОС со слабо свя- занными агентами, имеющими функции затрат вида (1). Поэтому исследуем их сравнительную эффективность на множестве всевоз- можных (не только пропорциональных) систем стимулирования. Как было показано выше (в разделах 2 и 7) для этого достаточно сравнить минимальные затраты на стимулирование, например, в задаче 2, с затратами на стимулирование в случае использования центром оптимальных квазикомпенсаторных систем стимулирова-

ния (которые равны JQK(y*) =

Решая задачу выбора

n

åri ϕ(yi / ri ) ).

i=1

вектора y* Î A', минимизирующего

n

JQK(y*) при условии å yi* = R, получаем, что ϑQK* = W j(R / W).

i=1

Подставляя из выражения (6) ϑUL* = R j'(R / W), вычислим отно- шение минимальных затрат на стимулирование:

(11) ϑUL* /ϑQK* = R / W j'(R / W) / j(R / W).

Из выпуклости функции j(×) следует, что ϑUL* /ϑQK* ³ 1. Более

того, можно показать, что при R / W > 0 и строго выпуклых функ- циях затрат отношение (11) строго больше единицы. Так как сум- марные затраты на стимулирование при использовании унифици- рованных пропорциональных систем стимулирования выше, чем при использовании «абсолютно оптимальных» компенсаторных систем стимулирования, следовательно, первые не оптимальны в классе всевозможных систем стимулирования. Полученный для

многоэлементных организационных систем результат вполне согласован со сделанным выше выводом, что в одноэлементных

110

Соседние файлы в предмете Экономика