Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Методы оптимизации в статистических задачах управления

..pdf
Скачиваний:
19
Добавлен:
20.10.2023
Размер:
8.04 Mб
Скачать

12. Определение градиента в условиях помех

При применении метода стохастической аппроксимации или любого другого метода минимизации функции в условиях помех обычно возникает потребность вычисления оценки градиента минимизируемой функции F (х) или более старших производных в точке очередного приближения х‘. Причем, так как обычно ана­ литическое выражение функций неизвестно, то оценки градиента или вторых частных производных получаются в виде отношения конечных разностей. Рассмотрим случай вычисления первых частных производных функции F (х). Предположим, что функ­ ция F (х) вычисляется на ЦВМ методом Монте-Карло на основе определения среднего значения некоторой функции Ф (х , £), где £ — случайный вектор с известным распределением

F (х) = М (х, I)].

Функция Ф (х, £), как и F (х), неизвестна, однако в результате моделирования ее значение можно определить для любой сово­ купности (х, £). Будем предполагать, что оценка среднего значе­ ния функции Ф (х, £) производится по т испытаниям. Тогда оценка s-й частной производной функции F (х) будет иметь сле­ дующий вид

 

dF(x)

_

F(x +

Aes) — F (x — Aes) _

 

 

 

dxs

 

 

2A

 

 

 

 

m

 

 

m

Ф (x Де5,

if)

 

 

2 ф (x + Aes, gO — 2

 

 

i= 1__________________t=i________________

(317)

 

 

 

 

2 Am

 

 

 

где

и y\l — значения

случайных

векторов

в

статистических

исйытаниях.

 

и іф = 1,

2, . . ., т)

попарно незави-

 

Предположим, что

 

 

~

 

 

dF{x)

л

 

 

симы. Тогда дисперсия оценки

д

будет иметь вид

 

D - d F (X) -

D — Aes, I)] + D (х — Де5, г))1

 

. dxs .

 

 

4 Д2т

 

 

Предполагая, что величина А достаточно мала, так что

 

D [Ф (х -f Де5, I)] л* D [Ф (x — Ae5,

ц)]

D [Ф (x,

!)],

получим выражение для дисперсии

 

 

 

Г dF (х)

Р[ф(*. і)1

 

(318)

D L дХ5 .

2 Д2т

'

 

Следовательно, с уменьшением А дисперсия оценки частной производной возрастает до бесконечности.

137

Другим подходом

[76]

dF (я)

является исполь-

вычисления .д

зование в выражении (317)

ох$

 

одних и тех же реализаций векторов

V у]1 (і = 1, 2, . .

т).

Очевидно, что такой способ статисти­

ческого моделирования не повлияет на математическое ожидание оценки. Дисперсия оценки будет выражаться равенством

D Г dF (je) 1

Г)

Гф(х +

Де5, б ) - Ф

( х - Д е М ) І

. dxs .

 

L

J

 

 

D

ГдФ(*, I)

(319)

 

 

 

dxs

 

Сравнивая формулы (318) и (319), можно заключить, что при достаточно малом значении А второй метод, называемый методом зависимых испытаний, оказывается более экономичным. В част­ ности, если влияние вектора | в функции Ф (х, £) можно предста­ вить в виде аддитивного слагаемого

Ф(х, I) = ФХ(*) + Ф а (5),

то, как видно из формулы (319), метод зависимых испытаний дает точную оценку частной производной. В монографии Ю. Г. Полляка [76] приведены примеры, иллюстрирующие эффективность применения зависимых испытаний в процессе оптимизации систем.

Для некоторого частного класса задач [6] можно получить еще более экономичное в смысле объема вычислений выражение для градиента функции и матрицы вторых производных, чем метод зависимых испытаний.

Предположим, что минимизируемая функция F (х), как и ра­ нее, вычисляется в виде среднего значения некоторой функции

Ф (?, г]):

 

F(x) = М (I, т])],

(320)

где плотность вероятности р (£, х) вектора £ зависит от вектора х, а плотность вероятности вектора rj равна / (rj). Относительно функции р (I, х) предполагается выполнение следующих усло­ вий:

1) функция должна быть дифференцируема по всем компонен­ там вектора х при любом значении

2) при произвольных значениях х и | функция р (£, х) =/= 0. Конечно, такие предположения относительно функции Р (Е. х) удовлетворяются не во всех задачах, но практически для

всех интересных случаев можно сколь угодно точно аппроксими­ ровать истинный закон распределения некоторым другим законом, для которого указанные условия выполняются. Заметим, что тре­ буемые условия оказываются выполненными, если вектор £ рас-

138

пределен по нормальному закону, а вектор х характеризует его математическое ожидание:

Р(Ъ, х) =

n/ZiftPA ехР {—

І ^ - * ) * 0"1 (£ -* )}

=

 

(2п)п'г \ ѲI

 

 

 

 

 

 

exp - T

S S

 

Ѳп1(a

■*<)(£/

(321)

(2п)п/2 I ѲI

=i /=i

 

 

 

где Q7jl — элементы матрицы

Ѳ_1,

которая

является

обратной

матрицей по отношению к дисперсионной матрице Ѳ; | Ѳ| — опре­ делитель матрицы Ѳ.

Подобная задача возникает, например, при выборе оптималь­ ных средних значений случайных параметров системы регулиро­ вания, находящейся под воздействием случайного полезного сигнала и помехи. В этом случае вектор а представляет истинные значения случайных параметров в системе. С помощью вектора т] можно представить полезный сигнал и помеху, если воспользо­ ваться методом канонического разложения случайного про­ цесса [82]. Показателем качества работы системы может служить квадрат ошибки в некоторый фиксированный момент времени:

Ф (I, т]) = еа.

Из соотношения (320) следует, что функция F (х) может быть представлена в виде

F (х) = J J Ф (а, г,) Р (É, X) f (л) dl йц.

(322)

Для получения частной производной функции F (х) продиф­ ференцируем выражение (322) по х{ и, учитывая сделанные отно­ сительно р (а, х) предположения, получим

дР(Х) = Ші И

Ф & Л) Р (£, х) / (л) dl di\ =

 

дхі

 

 

 

 

 

 

= J j ф

(2Л), д~д77Х) f (Л) dl dr\ =

 

 

=■ J J ф (S. n)

ö ln р (I,

X)

Р (l, X) f

Cn) dl dr\ =

 

вхі

 

 

= м [Ф (а,т))0,Ox,пр(|’х> (i= 1,

2

n).

(323)

В векторной форме это равенство имеет вид

дх

М ф (6. л)

дх

х) '

дР{х)

 

д In р (I,

Формула (323) дает возможность свести вычисление градиента функции F (X) к вычислению математического ожидания некото-

139

рои вектор-функции. Это обстоятельство позволяет определять

dF (X)

на основании метода Монте-Карло:

одновременно F (х) и ^

 

N

dF (х) 2

дх N

п k=\

N

Ф (£*, т,*) д In р {lk, X)

дх

(324)

(325)

где N — число

испытаний; £к, rjfe — значения случайных век­

торов £ и т] в

k-u испытании.

При проведении расчетов по формулам (324), (325) на ЦВМ основное машинное время, как правило, тратится на формирова­

ние случайных векторов \ к и цк с заданными законами

распреде­

ления и на вычисление функции Ф (Ік, тЦ), так как для

этого не­

обходимо провести моделирование работы

всей системы. Следова­

тельно, совместное вычисление F (х) и

по формулам

(324), (325) не намного увеличивает объем расчетов по сравнению

свычислением только функции F (х).

Внекоторых случаях для ускорения сходимости итерационных методов нахождения минимума функции оказывается целесообраз-

ным использовать матрицу вторых производных d2F Выражение

для элементов этой матрицы можно получить дифференцирова­ нием выражения (323) по х;-:

 

d2F (х)

_ д

 

а р ’ Х) Р (£,

х) /

(ti) dl dr1=

 

дхI.дх.1

„ Л)

 

дх.1

 

 

І

 

 

 

 

 

 

 

Э2 1п р (£,

х)

 

 

 

 

= м ф (і, л)

дх.дх.

 

 

 

 

+

din р (£, X) д In р (£,

X)

і, / = 1, 2, . . ., п.

 

д х .

д х .

 

 

 

і

J

 

 

 

 

 

Матричная форма этого равенства имеет вид

 

л

д2 F (х) = М

ф

(

5 ( ,д2 1пл

р ()£, х{)

+

 

дх2

 

 

дх2

 

 

 

 

Р (£. *)

( д \ п р (£, X) \ П1

(326)

 

 

дх

 

\

дх

)

Л

 

где

 

d2F (х) \

 

d2F (х)

 

 

 

 

 

 

 

 

 

 

 

дх2 ) tj ~

дх. дх.

 

 

 

Таким образом, как и при

нахождении

градиента функции

dF (х)

вычисление матрицы

вторых

производных сводится к вы-

дх

 

 

 

 

 

 

 

140

числению математического ожидания некоторой функции и может производиться параллельно с вычислением F (я).

При нормальном законе распределения (321) вектора £ фор­ мулы (323) и (326) принимают соответственно вид:

ш = М[Ф & ті) ѳ~1 (£ -* )];

 

=

№. л ) | - ѳ - +

(327)

 

Ч-ö-1(g—^)(g—хГѳ-1}].

При использовании формул (327) иногда бывает целесообразно ввести случайный вектор £ таким образом, чтобы матрица Ѳ стала бы диагональной.

13. Статистический подход к задаче формирования оптимального метода минимизации функции с учетом ограничения числа измерений минимизируемой функции

В предыдущих параграфах сделан обзор известных методов минимизации функции конечного числа переменных. Значитель­ ное число перечисленных методов и тенденция к дальнейшему увеличению числа методов минимизации говорит о том, что су­ ществующие методы не всегда удовлетворяют практиков.

По мнению авторов, недостатки существующих методов со­ стоят в следующем:

1.Как правило, не учитывается априорная информация о ха­ рактере исследуемой функции.

2.Значительная часть существующих методов не учитывает наличия случайных ошибок в измерениях функции. Исключение составляет лишь группа методов стохастической аппроксимации. Как показывает практика, методы характеризуются слишком низкой скоростью сходимости.

Эти недостатки приводят к увеличению числа итераций в про­ цессе оптимизации. В тех случаях, когда измерения или вычисле­ ния значений функции не связаны со значительными затратами,

применение существующих методов оптимизации дает вполне удовлетворительный результат. В тех же случаях, когда всякие эксперименты над оптимизируемыми процессами приводят к зна­ чительным затратам, целесообразно применять методы, облада­ ющие максимальной скоростью сходимости и не требующие про­ ведения большого числа измерений функции.

В связи с вышесказанным представляет интерес исследование оптимального метода нахождения минимума функции при фикси­ рованном числе измерений функции. Этому вопросу и посвящен настоящий параграф.

141

Задана некоторая система, эффективность функционирования которой определяется скалярным параметром F. Указанный параметр зависит от некоторой совокупности управляющих пара­

метров х 1г

х 2,

. . ., хп,

образующих вектор х. На управляющие

параметры

наложено

ограничение x £ D , где D — некоторое

ограниченное

множество.

Точный вид функции F (х) неизвестен, так как обычно с по­ мощью аналитических методов не удается провести анализ ка­ чества функционирования системы. Однако из априорных сообра­

жений известна структура функции

F (я):

 

 

 

т

 

 

 

 

F(x) =

H

c j t ( X)

= c*f (X ),

(328)

 

 

t=1

 

 

 

где f (x) =

(x), /2 (x),

. . .,

fm (x)) — известная

вектор-функ­

ция, определенная на множестве D\ с = (сх, с2, ■• •, ст) — слу­ чайный нормально распределенный вектор, математическое ожи­

дание которого равно т° и

дисперсионная

матрица

равна Ѳ°:

М [о] = ту, і = 1 , 2 , . . . , т;

 

М [(с,- — ну) (с,- т°)

= Ѳ?7; г, / =

1, 2, . . .,

т.

Соответствующий ■подбор вектор-функции f (х) и статисти­ ческих характеристик вектора с дает возможность использовать предварительные знания о природе исследуемой системы.

Сцелью уточнения вида функции F проводятся эксперименты

ссистемой. Каждый эксперимент состоит в измерении значения функции F (х) в любой точке х области D с некоторыми ошиб­ ками г]. В частности, в результате г-го измерения в точке х1 полу­ чается скаляр уу.

Уі = c*f (х‘) + Л/.

(329)

где г]і — нормально распределенная центрированная случайная величина, дисперсия которой равна сг2. В общем случае диспер­ сия о2 может зависеть от точки х{, в которой проводился і-й экспе­ римент:

D [г)(] = о2

(х‘).

 

Будем предполагать, что ошибки

измерения

в различных

экспериментах статистически независимы.

Пусть имеется возможность проведения N экспериментов с си­ стемой, после чего будет получена совокупность величин у ъ Уг, ■■■, УNi образующих вектор у. В результате обработки полу­ ченных результатов можно уточнить распределение случайного вектора с и, следовательно, функцию F (х).

142

Основной задачей оптимизации является определение точки

х+ а

D, при которой апостериорное математическое ожидание 5

некоторой заданной

функции Ф (F) достигало бы минимума:

 

5 = М (F (х+))]

=

min М (F (je))],

 

 

 

 

x c z D

 

где Ф (F) — некоторая заданная

функция

критерия.

В частности, если Ф (F) = F, то х+ минимизирует апостериор­

ное

математическое

ожидание

функции

F (х); если Ф (F) =

= 1 (F т), то х+ минимизирует вероятность того, что значение функции больше некоторого заданного порога т.

Величина М (F (х+)) ] однозначно определяется апосте­ риорными статистическими характеристиками вектора с. В рас­ сматриваемой постановке задачи вектор с апорстериорно будет распределен по нормальному закону, так как в формуле (329) у{ линейно зависит от с, а вектор с и ошибки измерения г) априорно распределены по нормальному закону [82]. Поэтому в данном слу­ чае величина М (F (х+))] одназначно определяется апосте­ риорным математическим ожиданием mN вектора с и апостериор­ ной дисперсионной матрицей Ѳ'Д

М (F (х+))] = ф (mN, Ѳ^).

Очевидно, что успех оптимизации, т. е. экстремальное значе­ ние критерия зависит от последовательности точек х 1, в которых производятся измерения функции, и от результатов измерения уК Рассмотрим задачу выбора последовательности точек х1, при ко­ торой среднее по возможным результатам измерения значение успеха оптимизации ф (mN, QN) достигает минимума. При этом

возможны

два

варианта постановки задачи:

xN выбираются

1.

Точки проведения эксперимента х1, х2, . . .,

все

сразу,

и

после проведения экспериментов

определяется

точка х+.

2. Точки приведения экспериментов определяются последо­ вательно, причем выбор х‘+1зависит от предыдущих результатов экспериментов х1, y lt х2, у 2, . . ., х1, у1.

Для вывода уравнения оптимальности воспользуемся методом динамического программирования.

Предварительно заметим, что так как апостериорное распреде­ ление вектора с после проведения произвольного числа экспери­ ментов является нормальным, то вся информация о предыдущих измерениях заключена в значении апостериорного математиче­ ского ожидания вектора с и апостериорной дисперсионной ма­ трице. Апостериорное математическое ожидание вектора с и апостериорную дисперсионную матрицу при проведении k изме­ рений обозначим тк и соответственно (k = 0, 1,2, . . ., N).

Для получения связи результатов k измерений с апостериорным математическим ожиданием (оптимальной оценкой) тк вектора с и дисперсионной матрицей Ѳ* можно воспользоваться соотноше­

143

ниями теории оптимальной фильтрации. В данном случае целе­ сообразно использовать результат Калмана [42] в дискретной форме [58]:

 

т! = т! -1 -f- Ѳ' / (.X1‘) ■у‘

---- ;

 

 

ef- y

(*') f

(*') ѳ '-1

 

 

/’ W e ' - V W + a 2’

 

 

t — 1. 2,

• •

Af•

 

Введем в рассмотрение семейство функций St (т,

Ѳ) = 1,

2, . .

ІѴ), соответствующих

среднему значению

показателя

качества 5 при оптимальном способе выбора точек эксперимента, если осталось провести і экспериментов, а апостериорные харак­ теристики вектора с после проведения предыдущих измерений равны т и Ѳ. Очевидно, что S 0 (т, Ѳ) = ф (т, Ѳ).

Выведем рекуррентные соотношения для определения семей­ ства S t (т, Ѳ). Предположим, что уже были проведены N — і экспериментов (г = 1, 2, . . ., N) и требуется выбрать точку про­ ведения ( N — і + 1)-го эксперимента. Пусть после проведения N і экспериментов статистические апостериорные характери­ стики вектора с были mN~l и Ѳ"- г , а ( N —■г -f 1)-й эксперимент производится в точке х £ D. Тогда апостериорные характеристики вектора с будут:

mN—i+i _ mN—i _j_ дmN~~l — mN~l -)-

 

+

в« -‘+Ч (I)

W

;

 

 

e N ~l f ( x ) f * w

 

 

QA'-i'+l — Ѳ^ - 1 f ( * )

f (x) +

a 2

(330)

Среднее значение критерия S при оптимальном способе выбора

точек проведения

оставшихся і — 1 экспериментов

будет:

5 = М

I mN~l + Q N - l + l f

(д;) yN-i+\ — f (*)т

 

 

0 ѵ ~ г / ( х ) f

(х) Ѳ ^ - 1 \ ~

 

 

 

Г м е " " ' f W + o2

'

 

Очевидно, что для того, чтобы точка xN~l+l

была оптимальной

точкой

проведения эксперимента, необходимо и достаточно выпол­

нение

равенства:

 

 

М

S,_ 1 Im "-' +

(xN- ‘i+!)14

, N - i +l)mN- 1

У м - і + 1 —f (■

 

Ѳы ~ 1 f

[xN - l + l ) f

qN i ч -I

144

= min A4 Si_i \tnN~l + W ~l+'f{x)

yN- i+i — f (x)mN —l

 

x£D

 

o2

 

 

 

 

®N~ l f (x) f (x) ѲѴ~‘

=

S, (mN- 1, QN~l ),

( 331)

/* w Ѳ^- ‘ / (X) + o2

 

 

 

где математическое ожидание берется по возможным случайным результатом измерений уы-і

Для вычисления математического ожидания в формуле (331) рассмотрим статистические характеристики разности

Длг_і+і = üN-i+ 1 — /* (х) mN~l .

Подставляя в выражение Ац—і+і равенство (329), получим:

Ajv—/+і = (с — mN~l )* / (х) + т)лг_«+і =

^N—if {х) 4" ЦіѴ—І4 1-

(332)

В выражении (332) случайный вектор %N_t представляет собой ошибку определения вектора с после N і измерений. Это цен­ трированный, нормально распределенный вектор с дисперсионной матрицей . Естественно, что вектор | ЛГ_І и скаляр т]дг_м статистически независимы. Из уравнения (332) следует, что при вычислении математического ожидания в формуле (331) случай­ ную величину разности A^_m следует рассматривать как случай­ ную центрированную нормально определенную величину, диспер­

сия

которой

 

 

 

 

 

D [Ajv-,-+i] = /*

( х " - ^ 1) QN-if {Хм-і+і) + o’2.

 

Таким образом, А^_;+1

допускает следующее представление:

 

К - І +1= V Г {xN~l+l) ®N- 1f (xN~i+1) + <*2 блг-(чь ,(333)

где

— центрированная нормально

распределенная

вели­

чина

с единичной дисперсией

 

 

 

 

D (Здг_іЧ1]

= 1.

 

 

Для упрощения системы рекуррентных соотношений (331)

преобразуем выражение

AmN~‘,

используя соотношения

(330)

и (333):

 

 

 

 

 

АmN~l = QN-i+if до

 

N - i

 

 

f

(x) m

 

 

Q N - i

QN~ l f(x) f

(x)

f(x) X

 

 

 

f ( X)

( X ) + a2

 

 

 

 

 

 

 

 

6

f (x) бдг—г-t-i

(334)

 

X -------------- ^2--------------- °JV-M

Vf (X) Qn ~ ‘ [ { x ) + a 2 '

10 А. M. Батков

145

 

 

 

/

 

 

Подставляя

выражение (334) в формулу

(331),

получим:

M

Si-1

« N - l

e ^ V ^ + ' )

8дг_,+1

 

[m

 

 

 

V f {xN~l+l) QN~lf (xN^ + l) + 02' e N - ‘ f (xN~ l+ l) f (x"-‘'+1) Ѳ"-' \ 1

П * " “ <+1) Qif- t f ( xif- t+ 1) + o 2)

 

 

Qn

1[(x) 8n_1^ 1

 

S t - i m N - i _|_

 

 

w + a2’

 

xm£in A4

 

 

Vf*

(x ) QN - l f

 

D

 

 

 

 

 

Ѳ ^ - ‘ / (л;) /*

(* )

9 w - ( =

5; ( m ^ , Ѳ"-г).

(335)

f W

0 ^ f W

+

o2

 

 

 

 

Система уравнений (335) и (330) представляет собой рекур­ рентные соотношения, с помощью которых можно последовательно определить все функции St (т, Ѳ), начиная с (т, Ѳ), и точки проведения каждого k-vo эксперимента в зависимости от стати­ стических характеристик тк~1, Ѳ*-1 (k = 1, 2, . . N).

Основная трудность в вычислении, возникающая при реше­ нии задачи указанным способом, состоит в необходимости на каждом шаге решать задачу максимизации по ^ и запоминать систему функции S(. (т, Ѳ).

Анализируя систему рекуррентных соотношений (335), (330), можно увидеть, что задача выбора оптимальных точек наблюде­

ния

X1 эквивалента

[101]

следующей

задаче стохастического

оптимального

управления:

 

 

 

 

 

 

 

 

т1+х= т1+ Апг‘ — т1

 

ѲѴ (*г+1) 6і+г

 

 

 

1f f

(хі+:) Ѳ1 f

(xi+l) ■

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ѲН-1=

0<'

Ѳ'1 f

(хх+х) f* ( х

^ 1)

б '1

(336)

 

 

 

 

 

 

Г ( / + х)0Ч(х‘+х) + о2'

 

где m°,

0° — заданные

величины.

управление xi+1^D ,

і = 0,

Требуется

выбрать

оптимальное

1,

. . .,

N

1

как

функцию

т1,

Ѳ1'

из

условия минимума

М [гф (mN, QN),

где

6,-+і (г =

0,

1, . . ., N — 1) — система

неза­

висимых центрированных нормально распределенных чисел с еди­ ничной дисперсией.

Таким образом, показано, что задача выбора оптимальных точек измерений сводится к задаче решения системы рекуррент­ ных соотношений (335) или к решению эквивалентной задачи стохастического оптимального управления (336).

В настоящем параграфе был рассмотрен случай, когда число экспериментов под оптимизируемой системой фиксировано и равно N. Не представляет большого труда вывести аналогичные соотношения для случая, когда число экспериментов случайно или является функцией гарантированного значения критерия S.

146

Соседние файлы в папке книги из ГПНТБ