Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Механизмы стимулирования в организационных системах - Новиков Д.А

..pdf
Скачиваний:
37
Добавлен:
24.05.2014
Размер:
829.49 Кб
Скачать

(соответственно функциях стимулирования и действиях) извест-

ны целевые функции и допустимые множества всех участников ОС. Центр, обладая правом первого хода, выбирает функции сти- мулирования и сообщает их агентам, после чего агенты при из- вестных функциях стимулирования выбирают действия, максими- зирующие их целевые функции.

Относительно параметров ОС введем следующие предполо- жения:

-множество действий каждого агента совпадает со множест- вом неотрицательных действительных чисел;

-функции затрат агентов непрерывны, неотрицательны и yi

Ai ci(y) не убывает по yi, i I; и y-i A-i ci(0, y-i) = 0.

-функция дохода центра непрерывна по всем переменным и

достигает максимума при ненулевых действиях агентов.

Второе предположение означает, что независимо от действий

других агентов любой агент может минимизировать свои затраты выбором нулевого действия. Остальные предположения такие же, как и в одноэлементной модели (см. второй раздел).

Так как и затраты, и стимулирование каждого агента в рас-

сматриваемой модели зависят в общем случае от действий всех агентов, то агенты оказываются вовлеченными в игру [5], в кото- рой выигрыш каждого зависит от действий всех. Обозначим P(σ) – множество равновесных при системе стимулирования σ стратегий агентов множество решений игры (тип равновесия пока не огова- ривается; единственно предположим, что агенты выбирают свои стратегии одновременно и независимо друг от друга, не имея возможности обмениваться дополнительной информацией и по- лезностью).

Как и в одноэлементной ОС, рассмотренной во втором разде- ле, гарантированной эффективностью (далее просто «эффективно- стью») стимулирования является минимальное (или максимальное

в рамках гипотезы благожелательности) значение целевой функ- ции центра на соответствующем множестве решений игры:

(3) K(σ) = min Φ(σ, y).

y P(σ )

91

Задача синтеза оптимальной функции стимулирования заклю- чается в поиске допустимой системы стимулирования s*, имеющей максимальную эффективность:

(4)s* = arg max K(s).

σM

Из результатов второго раздела следует, что в частном случае, когда агенты независимы (вознаграждение и затраты каждого из них зависят только от его собственных действий), то оптимальной

(точнее d-оптимальной, где d = åδi ) является квазикомпенса-

 

 

 

 

i I

торная система стимулирования:

(5) σ i K

ìci ( yi* ) + δi , yi = yi*

(yi ) = í0,

y

i

¹ y* , i Î I,

 

î

 

i

где {di}i I сколь угодно малые строго положительные константы (мотивирующие надбавки), а оптимальное действие y*, реализуе- мое системой стимулирования (5) как РДС, является решением следующей задачи оптимального согласованного планирования:

y* = arg max {H(y) åci ( yi ) }.

y A

i I

 

Если стимулирование каждого агента зависит от действий всех агентов (рассматриваемый в настоящем разделе случай кол- лективного стимулирования) и затраты не сепарабельны (то есть

затраты каждого агента зависят в общем случае от действий всех агентов, что отражает взаимосвязь и взаимозависимость агентов), то определения множества равновесий Нэша1 EN(s) A’и РДС yd Î A’ имеют вид:

(6) EN(s) = {yN Î A | " i Î I " yi Î Ai

si(yN) – ci( y N ) ³ si(yi, yNi ) – ci(yi, yNi )}, yid Î Ai доминантная стратегия i-го агента, тогда и только тогда,

когда

1 Напомним, что равновесием Нэша называется такой вектор действий агентов,

что каждому агенту выгодно выбирать соответствующую компоненту этого равновесия при условии, что все остальные агенты выбирают равновесные действия.

92

" yi Î Ai, " y-i Î A-i si( yid , y-i) – ci( yid , y-i) ³ si(yi, y-i) – ci(yi, y-i).

Если при заданной системе стимулирования у всех агентов имеется доминантная стратегия, то говорят, что данная система

стимулирования реализует соответствующий вектор действий как РДС.

Фиксируем произвольный вектор действий агентов y* Î A’ и рассмотрим следующую систему стимулирования:

ì

*

*

(7) si(y*, y) = íci ( yi

, yi ) + δi , yi = yi , di ³ 0, i Î I.

î

0,

yi ¹ y*i

В [14] доказано, что при использовании центром системы сти- мулирования (7) y* РДС. Более того, если di > 0, i Î I, то y* единственное РДС.

Содержательно, при использовании системы стимулирования

(7) центр использует следующий принцип декомпозиции: он предлагает i-му агенту – «выбирай действие yi* , а я компенсирую

тебе затраты, независимо от того какие действия выбрали осталь- ные агенты, если же ты выберешь любое другое действие, то воз- награждение будет равно нулю». Используя такую стратегию, центр декомпозирует игру агентов.

Если стимулирование каждого агента зависит только от его собственного действия, то, фиксировав для каждого агента обста- новку игры, перейдем от (7) к системе индивидуального стимули- рования следующим образом: фиксируем произвольный вектор действий агентов y* Î A’ и определим систему стимулирования:

ì

*

*

*

(8) si(y*, yi) = íci ( yi

, yi ) + δi , yi = yi , di ³ 0, i Î I.

î

0,

yi ¹ y*i

Содержательно, при использовании системы стимулирования

(8) центр предлагает i-му агенту

«выбирай действие yi* , а я

компенсирую тебе затраты, считая, что остальные агенты также выбрали соответствующие компоненты y*i , если же ты выбе-

решь любое другое действие, то вознаграждение будет равно ну- лю». Используя такую стратегию, центр также декомпозирует игру агентов.

93

Отметим, что функция стимулирования (8) зависит только от действия i-го агента, а величина y*i входит в нее как параметр.

Кроме того, при использовании центром системы стимулирования (8), в отличие от (7), каждый из агентов имеет косвенную инфор- мацию обо всех компонентах того вектора действий, который хочет реализовать центр. Для того, чтобы система стимулирования

(8) реализовывала вектор y* как РДС, необходимо введение допол- нительных (по сравнению со случаем использования (7)) предпо- ложений относительно функций затрат агентов см. [14].

Здесь же уместно качественно пояснить необходимость введе- ния неотрицательных констант i}i I в выражениях (5), (7) и (8). Если требуется реализовать некоторое действие как одно из равно- весий Нэша, то эти константы могут быть выбраны равными нулю. Если требуется, чтобы равновесие было единственным (в частно- сти, чтобы агенты не выбирали нулевые действия иначе при вычислении гарантированного результата в (3) центр вынужден рассчитывать на выбор агентами нулевых действий), то агентам следует доплатить сколь угодно малую, но строго положительную величину за выбор именно того действия, которое предлагается центром. Более того, величины i}i I в выражениях (5), (7) и (8) играют важную роль и с точки зрения устойчивости компенсатор- ной системы стимулирования по параметрам модели. Например, если функция затрат i-го агента известна с точностью до i ≤ δi / 2, то компенсаторная система стимулирования (7) все равно реализу- ет действие y*.

Вектор оптимальных реализуемых действий агентов y*, фигу- рирующий в качестве параметра в выражении (7) или (8), опреде-

ляется в результате решения следующей задачи оптимального согласованного планирования:

(9) y* = arg max {H(t) υ(t)},

t A

где v(t) = åci (t) , а эффективность системы стимулирования (7),

i I

(9) равна следующей величине:

K* = H(y*) åci (y*) – δ.

i I

94

В [14] доказано, что система стимулирования (7), (9) является оптимальной, то есть, обладает максимальной эффективностью среди всех систем стимулирования в многоэлементных ОС.

Примеры. Рассмотрим несколько примеров решения задач синтеза оптимальных систем коллективного стимулирования в многоэлементных ОС.

Пример 6. Решим задачу стимулирования в ОС с двумя аген-

тами, имеющими функции затрат: ci(y) = (yi y3−i )2 , i = 1, 2, где

2ri

α – некоторый параметр, отражающий степень взаимозависимости агентов. Пусть функция дохода центра H(y) = y1 + y2, а фонд зара- ботной платы ограничен величиной R. Если центр использует систему стимулирования (7), то задача стимулирования сводится к поиску оптимальных реализуемых действий:

 

 

 

 

 

ì H ( y) ® max

 

 

 

 

 

 

 

 

í

y³0 .

 

 

 

 

 

 

 

 

îc1(y) + c2 ( y) £ R

 

 

 

 

Применяя метод множителей Лагранжа, получаем, что реше-

ние имеет вид:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α r2 + r1 ,

 

 

 

 

α r1 + r2 .

y* =

2R

 

y* =

2R

 

r + r

r + r

1

 

 

α2 -1

2

 

 

α2 -1

 

 

1

2

 

 

 

 

1

2

 

 

Подставляя равновесные действия агентов в целевую функ- цию центра, получаем, что оптимальный размер ФЗП равен (см.

также пример 5)

 

 

 

r1 + r2

 

R* = arg max [

 

/(1 – α) – R] =

.

2R(r + r )

 

R³0

1

2

 

2(α -1)2

 

 

 

 

 

Пример 7 (совместное

производство). Рассмотрим

многоэле-

ментную двухуровневую ОС, состоящую из центра и n агентов. Пусть целевая функция i-го агента fi(y, ri) представляет собой

разность между доходом hi(y) от совместной деятельности и затра- тами ci(y, ri), где ri параметр эффективности (тип) агента, то есть

fi(y, ri) = hi(y) – ci(y, ri), i N.

Выберем следующий вид функций дохода и затрат:

95

 

 

 

 

 

y2

 

hi(y) = li q Y, i Î N, ci(y, ri) =

 

 

 

i

, i Î N,

2(ri ± βi å yj )

где Y = å yi , åλi =1. Для случая,

 

j¹i

 

когда в знаменателе стоит

iÎI

iÎI

ri

 

 

знак «–», предполагается, что å yj <

 

.

 

 

 

 

 

j ¹i

βi

 

Содержательно набор агентов может интерпретироваться как фирма, подразделения которой (агенты) производят однородную продукцию, реализуемую на рынке по цене q. Суммарный доход q Y распределяется между агентами в соответствии с фиксирован- ными долями {li}i I. Затраты агента возрастают по его действиям, а эффективность деятельности определяется типом агента ri.

Взаимодействие агентов моделируется зависимостью затрат (эффективности деятельности) каждого из них от действий всех (других) агентов. Знак «+» в знаменателе соответствует эффектив- ному взаимодействию агентов (убыванию затрат на масштаб) – чем большие действия выбирают другие агенты, тем меньше затраты (выше эффективность деятельности) рассматриваемого агента, что на практике может соответствовать снижению удельных постоян- ных издержек, обмену опытом, технологиями и т.д. Знак «–» в

знаменателе соответствует неэффективному взаимодействию агентов (возрастанию затрат на масштаб) – чем большие действия выбирают другие агенты, тем больше затраты (ниже эффектив- ность деятельности) рассматриваемого агента, что на практике может соответствовать нехватке основных фондов, ограничениям на побочные показатели (например, загрязнение окружающей среды) и т.д. Коэффициенты {bi ³ 0}i I отражают степень взаимо- зависимости агентов.

Пусть рыночная цена q известна всем участникам ОС. Тогда, дифференцируя целевые функции агентов, приравнивая производ-

ные нулю и складывая получившиеся при этом выражения

yi = li q (ri ± bi å y j ), i Î I,

j ¹i

получим следующую зависимость суммарных действий Y+ от параметра q:

96

 

åi I

 

λi θ ri

 

 

 

+

1± λiθβi

 

 

 

Y (θ) =

 

 

 

 

 

 

.

1m å

λ θ β

i

 

 

i

 

 

 

1± λθβ

i

 

i I

 

i

 

Стимулированию соответствует изменение параметров i}i I, которые могут интерпретироваться как внутренние (внутрифир- менные, трансфертные и т.д.) цены. ∙

Пример 8 (акккордная оплата труда). Рассмотрим ОС с двумя агентами, имеющими функции затрат ci(yi) = yi2 / 2ri, где ri тип i-

го агента, yi Ai = 1+ , i = 1, 2. Целевая функция i-го агента пред-

ставляет собой разность между стимулированием σi(y1, y2), полу- чаемым от центра, и затратами, то есть: fi(y) = σi(y) – ci(yi), i = 1, 2.

Пусть центр использует систему стимулирования

ìC , y + y

 

³ x

, i = 1, 2.

(10) σi(y1, y2) = í

i

1

2

 

î

0,

y1 + y2 < x

 

Содержательно, центр выплачивает каждому агенту фиксиро- ванное вознаграждение при условии, что сумма их действий ока- зывается не меньше, чем некоторое плановое значение x > 0. Обо-

 

+

 

 

 

, i = 1, 2, Y = {(y1, y2)

| yi y+ ,

 

значим y

=

 

2rC

i = 1, 2,

i

 

 

i i

i

 

y1 + y2 x}

 

множество индивидуально-рациональных

действий

агентов, то есть действий, при которых они не перерабатывают (обеспечивать сумму действий, большую плана x, им не имеет смысла) и каждый имеет неотрицательное значение целевой функ- ции. Рассмотрим четыре возможных комбинации переменных (см. рисунки 41–44).

97

 

 

 

y2

 

 

 

В первом случае (см. рисунок

y2+

 

 

 

 

 

41)

множество

равновесий

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Нэша

 

составляет

отрезок:

x

 

N1

 

 

 

EN(σ) = [N1; N2].

Фиксируем

 

 

 

 

произвольное

 

равновесие

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y* = ( y* , y* ) EN(σ). Наличие

y2*

 

 

 

 

 

 

 

 

 

1

2

 

 

 

 

 

 

 

 

 

 

 

«большого»

равновесия

Нэша

 

 

Y

 

 

 

 

 

 

 

 

 

 

N2

y1

(отрезка, содержащего

конти-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

нуум

точек)

имеет

несколько

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

y1*

x

y1+

 

минусов с точки зрения эффек-

 

 

 

 

 

 

Рис. 41

 

 

тивности

 

стимулирования.

 

 

 

 

 

 

 

 

Поясним это утверждение

 

 

 

 

 

 

 

 

 

Так как все точки отрезка [N1; N2] эффективны по Парето с точки зрения агентов, то при определении эффективности системы стимулирования центр вынужден (в зависимости от своей функции полезности) либо использовать гарантированный результат (вы- числять минимум по этому отрезку), либо доплачивать агентам за выбор конкретных действий из этого отрезка малую, но строго положительную, величину.

Построим систему индивидуального стимулирования в соот- ветствии с результатами, приведенными выше (см. (8) и (9)):

~*

(y1) = σ1(y1,

*

ìC1, y1

³ y1*

,

 

(11) σ1

y2 ) = í

0,

y

< y*

 

 

 

 

î

 

 

 

 

 

 

1

1

 

 

~*

*

 

ìC2 , y2

³ y2*

.

σ 2

(y2) = σ2( y1

, y2) = í

y2

< y2*

 

 

 

 

î 0,

 

 

При

использовании этой системы

стимулирования точка

y* = ( y* ,

y* ) оказывается единственным

равновесием Нэша, то

1

2

 

есть, переходя от системы стимулирования (10) каждого агента, зависящей от действий всех агентов, к системе стимулирования (11), зависящей только от действий данного агента, центр «деком- позирует» игру агентов, реализуя при этом единственное действие. При этом эффективность стимулирования, очевидно, не только не понижается, а может оказаться более высокой, чем при использо- вании исходной системы стимулирования.

98

y2

 

 

 

 

y+

y2

 

 

x

 

 

 

 

 

N1

 

 

N1

 

 

 

 

x2

 

 

y2+

 

 

 

 

y2*

 

 

 

 

 

 

 

 

 

 

 

y2*

 

 

 

N2

 

 

 

N2

 

 

 

 

 

y1

 

 

 

y1

 

 

 

 

 

 

 

 

0

 

y*

 

x

y+

0

y1*

y+

x

 

 

1

 

 

1

 

 

1

 

 

Рис. 42

 

 

 

Рис. 43

 

Во втором и третьем случаях равновесием Нэша являются от-

резки [N1; N2], изображенные на рисунках 42 и 43 соответственно.

И, наконец, в четвертом

y2

 

 

случае (см. рисунок 44)

x

 

 

 

множество

равновесий

y2+

N1

 

 

Нэша

состоит

 

из

точки

 

 

 

(0; 0) и отрезка [N1; N2],

то

*

 

 

 

есть

 

 

 

 

 

y2

 

 

 

 

 

 

 

 

 

 

N2

 

EN(σ) = (0; 0) [N1; N2],

 

 

 

 

 

 

y1

причем

точки

 

интервала

0

y1*

y1+

(N1 N2)

недоминируемы

по

x

Парето

другими

равнове-

 

Рис. 44

 

сиями.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пусть в условиях рассматриваемого примера функции затрат

агентов не сепарабельны и имеют вид: ci(y) = (yi y3−i )2 . Опре-

2ri

делим множество Y индивидуально-рациональных действий аген- тов: Y = {(y1, y2) | ci(y) ≤ Ci, i = 1, 2}. Для того чтобы не рассматри-

вать все возможные комбинации значений параметров {r1, r2, C1, C2, x} возьмем случай, представленный на рисунке 45.

99

y2

2r1C1 x

2r2C2

y2*

N1

 

 

 

 

 

N2

 

 

 

 

 

 

 

 

 

 

y1

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y1* 2r C

x

2r C

2

 

 

1

1

2

 

Рис. 45. Множество равновесий Нэша [N1; N2]

вслучае несепарабельных затрат

Врассматриваемом случае множество равновесий Нэша включает отрезок [N1; N2]. Система стимулирования

~*

ì

*

*

~*

 

ì

 

*

 

*

(y) = í

c1( y1

, y2 ), y1 = y1

(y) =

ïc2 ( y1

, y2 ), y2

= y2

(12) σ1

0,

y ¹ y*

σ 2

í

0,

y

 

¹ y*

 

î

 

 

ï

2

 

 

1 1

 

 

î

 

 

2

реализует действие y* [N1; N2] как равновесие в доминантных стратегиях. ·

Завершив рассмотрение моделей систем коллективного сти- мулирования за индивидуальные результаты деятельности агентов, перейдем к описанию моделей систем коллективного стимулиро- вания за результаты совместной деятельности.

8. СТИМУЛИРОВАНИЕ ЗА РЕЗУЛЬТАТЫ КОЛЛЕКТИВНОЙ ДЕЯТЕЛЬНОСТИ

В большинстве известных моделей стимулирования рассмат- риваются либо ОС, в которых управляющий орган центр на- блюдает результат деятельности каждого из управляемых субъек- тов агентов, находящийся в известном взаимно однозначном соответствии с выбранной последним стратегией (действием), либо ОС с неопределенностью [11, 14], в которых наблюдаемый резуль-

тат деятельности агентов зависит не только от его собственных

100

Соседние файлы в предмете Экономика