
книги из ГПНТБ / Методы оптимизации в статистических задачах управления
..pdf12. Определение градиента в условиях помех
При применении метода стохастической аппроксимации или любого другого метода минимизации функции в условиях помех обычно возникает потребность вычисления оценки градиента минимизируемой функции F (х) или более старших производных в точке очередного приближения х‘. Причем, так как обычно ана литическое выражение функций неизвестно, то оценки градиента или вторых частных производных получаются в виде отношения конечных разностей. Рассмотрим случай вычисления первых частных производных функции F (х). Предположим, что функ ция F (х) вычисляется на ЦВМ методом Монте-Карло на основе определения среднего значения некоторой функции Ф (х , £), где £ — случайный вектор с известным распределением
F (х) = М [Ф (х, I)].
Функция Ф (х, £), как и F (х), неизвестна, однако в результате моделирования ее значение можно определить для любой сово купности (х, £). Будем предполагать, что оценка среднего значе ния функции Ф (х, £) производится по т испытаниям. Тогда оценка s-й частной производной функции F (х) будет иметь сле дующий вид
|
dF(x) |
_ |
F(x + |
Aes) — F (x — Aes) _ |
|
|
|
|
dxs |
|
|
2A |
|
|
|
|
m |
|
|
m |
Ф (x — Де5, |
if) |
|
|
2 ф (x + Aes, gO — 2 |
|
|||||
|
i= 1__________________t=i________________ |
(317) |
|||||
|
|
|
|
2 Am |
|
|
|
где |
и y\l — значения |
случайных |
векторов |
в |
статистических |
||
исйытаниях. |
|
и іф (і = 1, |
2, . . ., т) |
попарно незави- |
|||
|
Предположим, что |
|
|||||
|
~ |
|
|
dF{x) |
л |
|
|
симы. Тогда дисперсия оценки |
д |
будет иметь вид |
|||||
|
D - d F (X) - |
D [Ф (х — Aes, I)] + D [Ф (х — Де5, г))1 |
|||||
|
. dxs . |
|
|
4 Д2т |
|
|
Предполагая, что величина А достаточно мала, так что |
|
|||
D [Ф (х -f Де5, I)] л* D [Ф (x — Ae5, |
ц)] |
D [Ф (x, |
!)], |
|
получим выражение для дисперсии |
|
|
|
|
Г dF (х) |
Р[ф(*. і)1 |
|
(318) |
|
D L дХ5 . |
2 Д2т |
' |
|
Следовательно, с уменьшением А дисперсия оценки частной производной возрастает до бесконечности.
137
Другим подходом |
[76] |
dF (я) |
является исполь- |
вычисления .д |
|||
зование в выражении (317) |
ох$ |
|
|
одних и тех же реализаций векторов |
|||
V — у]1 (і = 1, 2, . . |
т). |
Очевидно, что такой способ статисти |
ческого моделирования не повлияет на математическое ожидание оценки. Дисперсия оценки будет выражаться равенством
D Г dF (je) 1 |
— Г) |
Гф(х + |
Де5, б ) - Ф |
( х - Д е М ) І |
. dxs . |
|
L |
2Д |
J |
|
|
D |
ГдФ(*, I) |
(319) |
|
|
|
dxs |
|
Сравнивая формулы (318) и (319), можно заключить, что при достаточно малом значении А второй метод, называемый методом зависимых испытаний, оказывается более экономичным. В част ности, если влияние вектора | в функции Ф (х, £) можно предста вить в виде аддитивного слагаемого
Ф(х, I) = ФХ(*) + Ф а (5),
то, как видно из формулы (319), метод зависимых испытаний дает точную оценку частной производной. В монографии Ю. Г. Полляка [76] приведены примеры, иллюстрирующие эффективность применения зависимых испытаний в процессе оптимизации систем.
Для некоторого частного класса задач [6] можно получить еще более экономичное в смысле объема вычислений выражение для градиента функции и матрицы вторых производных, чем метод зависимых испытаний.
Предположим, что минимизируемая функция F (х), как и ра нее, вычисляется в виде среднего значения некоторой функции
Ф (?, г]): |
|
F(x) = М [Ф (I, т])], |
(320) |
где плотность вероятности р (£, х) вектора £ зависит от вектора х, а плотность вероятности вектора rj равна / (rj). Относительно функции р (I, х) предполагается выполнение следующих усло вий:
1) функция должна быть дифференцируема по всем компонен там вектора х при любом значении
2) при произвольных значениях х и | функция р (£, х) =/= 0. Конечно, такие предположения относительно функции Р (Е. х) удовлетворяются не во всех задачах, но практически для
всех интересных случаев можно сколь угодно точно аппроксими ровать истинный закон распределения некоторым другим законом, для которого указанные условия выполняются. Заметим, что тре буемые условия оказываются выполненными, если вектор £ рас-
138
пределен по нормальному закону, а вектор х характеризует его математическое ожидание:
Р(Ъ, х) = |
n/ZiftPA ехР {— |
І ^ - * ) * 0"1 (£ -* )} |
= |
|||
|
(2п)п'г \ ѲI |
|
|
|
|
|
|
exp - T |
S S |
|
Ѳп1(a |
■*<)(£/ |
(321) |
(2п)п/2 I ѲI |
=i /=i |
|
|
|
||
где Q7jl — элементы матрицы |
Ѳ_1, |
которая |
является |
обратной |
матрицей по отношению к дисперсионной матрице Ѳ; | Ѳ| — опре делитель матрицы Ѳ.
Подобная задача возникает, например, при выборе оптималь ных средних значений случайных параметров системы регулиро вания, находящейся под воздействием случайного полезного сигнала и помехи. В этом случае вектор а представляет истинные значения случайных параметров в системе. С помощью вектора т] можно представить полезный сигнал и помеху, если воспользо ваться методом канонического разложения случайного про цесса [82]. Показателем качества работы системы может служить квадрат ошибки в некоторый фиксированный момент времени:
Ф (I, т]) = еа.
Из соотношения (320) следует, что функция F (х) может быть представлена в виде
F (х) = J J Ф (а, г,) Р (É, X) f (л) dl йц. |
(322) |
Для получения частной производной функции F (х) продиф ференцируем выражение (322) по х{ и, учитывая сделанные отно сительно р (а, х) предположения, получим
дР(Х) = Ші И |
Ф & Л) Р (£, х) / (л) dl di\ = |
|
||||
дхі |
|
|
|
|
|
|
= J j ф |
(2Л), д~д77Х) f (Л) dl dr\ = |
|
|
|||
=■ J J ф (S. n) |
ö ln р (I, |
X) |
Р (l, X) f |
Cn) dl dr\ = |
|
|
вхі |
|
|
||||
= м [Ф (а,т))0,Ox,пр(|’х> (i= 1, |
2 |
n). |
(323) |
В векторной форме это равенство имеет вид
дх |
М ф (6. л) |
дх |
х) ' |
дР{х) |
|
д In р (I, |
Формула (323) дает возможность свести вычисление градиента функции F (X) к вычислению математического ожидания некото-
139
рои вектор-функции. Это обстоятельство позволяет определять
dF (X) |
на основании метода Монте-Карло: |
одновременно F (х) и ^ |
|
|
N |
dF (х) 2
дх N
п k=\
N
Ф (£*, т,*) д In р {lk, X)
дх
(324)
(325)
где N — число |
испытаний; £к, rjfe — значения случайных век |
торов £ и т] в |
k-u испытании. |
При проведении расчетов по формулам (324), (325) на ЦВМ основное машинное время, как правило, тратится на формирова
ние случайных векторов \ к и цк с заданными законами |
распреде |
ления и на вычисление функции Ф (Ік, тЦ), так как для |
этого не |
обходимо провести моделирование работы |
всей системы. Следова |
тельно, совместное вычисление F (х) и |
по формулам |
(324), (325) не намного увеличивает объем расчетов по сравнению
свычислением только функции F (х).
Внекоторых случаях для ускорения сходимости итерационных методов нахождения минимума функции оказывается целесообраз-
ным использовать матрицу вторых производных d2F Выражение
для элементов этой матрицы можно получить дифференцирова нием выражения (323) по х;-:
|
d2F (х) |
_ д |
|
а р ’ Х) Р (£, |
х) / |
(ti) dl dr1= |
||
|
дхI.дх.1 |
„ Л) |
||||||
|
дх.1 |
|
|
І |
|
|
|
|
|
|
|
|
Э2 1п р (£, |
х) |
|
|
|
|
|
= м ф (і, л) |
дх.дх. |
|
|
|
||
|
+ |
din р (£, X) д In р (£, |
X) |
і, / = 1, 2, . . ., п. |
||||
|
д х . |
д х . |
|
|||||
|
|
і |
J |
|
|
|
|
|
Матричная форма этого равенства имеет вид |
||||||||
|
л |
д2 F (х) = М |
ф |
( |
5 ( ,д2 1пл |
р ()£, х{) |
+ |
|
|
дх2 |
|
|
дх2 |
|
|
||
|
|
Р (£. *) |
( д \ п р (£, X) \ П1 |
(326) |
||||
|
|
дх |
|
\ |
дх |
) |
Л ’ |
|
где |
|
d2F (х) \ |
|
d2F (х) |
|
|
|
|
|
|
|
|
|
|
|||
|
|
дх2 ) tj ~ |
дх. дх. |
|
|
|
||
Таким образом, как и при |
нахождении |
градиента функции |
||||||
dF (х) |
вычисление матрицы |
вторых |
производных сводится к вы- |
|||||
дх |
’ |
|
|
|
|
|
|
|
140
числению математического ожидания некоторой функции и может производиться параллельно с вычислением F (я).
При нормальном законе распределения (321) вектора £ фор мулы (323) и (326) принимают соответственно вид:
ш = М[Ф & ті) ѳ~1 (£ -* )]; |
|
|
= |
№. л ) | - ѳ - + |
(327) |
|
Ч-ö-1(g—^)(g—хГѳ-1}].
При использовании формул (327) иногда бывает целесообразно ввести случайный вектор £ таким образом, чтобы матрица Ѳ стала бы диагональной.
13. Статистический подход к задаче формирования оптимального метода минимизации функции с учетом ограничения числа измерений минимизируемой функции
В предыдущих параграфах сделан обзор известных методов минимизации функции конечного числа переменных. Значитель ное число перечисленных методов и тенденция к дальнейшему увеличению числа методов минимизации говорит о том, что су ществующие методы не всегда удовлетворяют практиков.
По мнению авторов, недостатки существующих методов со стоят в следующем:
1.Как правило, не учитывается априорная информация о ха рактере исследуемой функции.
2.Значительная часть существующих методов не учитывает наличия случайных ошибок в измерениях функции. Исключение составляет лишь группа методов стохастической аппроксимации. Как показывает практика, методы характеризуются слишком низкой скоростью сходимости.
Эти недостатки приводят к увеличению числа итераций в про цессе оптимизации. В тех случаях, когда измерения или вычисле ния значений функции не связаны со значительными затратами,
применение существующих методов оптимизации дает вполне удовлетворительный результат. В тех же случаях, когда всякие эксперименты над оптимизируемыми процессами приводят к зна чительным затратам, целесообразно применять методы, облада ющие максимальной скоростью сходимости и не требующие про ведения большого числа измерений функции.
В связи с вышесказанным представляет интерес исследование оптимального метода нахождения минимума функции при фикси рованном числе измерений функции. Этому вопросу и посвящен настоящий параграф.
141
Задана некоторая система, эффективность функционирования которой определяется скалярным параметром F. Указанный параметр зависит от некоторой совокупности управляющих пара
метров х 1г |
х 2, |
. . ., хп, |
образующих вектор х. На управляющие |
параметры |
наложено |
ограничение x £ D , где D — некоторое |
|
ограниченное |
множество. |
Точный вид функции F (х) неизвестен, так как обычно с по мощью аналитических методов не удается провести анализ ка чества функционирования системы. Однако из априорных сообра
жений известна структура функции |
F (я): |
|
|||
|
|
т |
|
|
|
|
F(x) = |
H |
c j t ( X) |
= c*f (X ), |
(328) |
|
|
t=1 |
|
|
|
где f (x) = |
(x), /2 (x), |
. . ., |
fm (x)) — известная |
вектор-функ |
ция, определенная на множестве D\ с = (сх, с2, ■• •, ст) — слу чайный нормально распределенный вектор, математическое ожи
дание которого равно т° и |
дисперсионная |
матрица |
равна Ѳ°: |
М [о] = ту, і = 1 , 2 , . . . , т; |
|
||
М [(с,- — ну) (с,- — т°) |
= Ѳ?7; г, / = |
1, 2, . . ., |
т. |
Соответствующий ■подбор вектор-функции f (х) и статисти ческих характеристик вектора с дает возможность использовать предварительные знания о природе исследуемой системы.
Сцелью уточнения вида функции F проводятся эксперименты
ссистемой. Каждый эксперимент состоит в измерении значения функции F (х) в любой точке х области D с некоторыми ошиб ками г]. В частности, в результате г-го измерения в точке х1 полу чается скаляр уу.
Уі = c*f (х‘) + Л/. |
(329) |
где г]і — нормально распределенная центрированная случайная величина, дисперсия которой равна сг2. В общем случае диспер сия о2 может зависеть от точки х{, в которой проводился і-й экспе римент:
D [г)(] = о2 |
(х‘). |
|
Будем предполагать, что ошибки |
измерения |
в различных |
экспериментах статистически независимы.
Пусть имеется возможность проведения N экспериментов с си стемой, после чего будет получена совокупность величин у ъ Уг, ■■■, УNi образующих вектор у. В результате обработки полу ченных результатов можно уточнить распределение случайного вектора с и, следовательно, функцию F (х).
142
Основной задачей оптимизации является определение точки
х+ а |
D, при которой апостериорное математическое ожидание 5 |
||||
некоторой заданной |
функции Ф (F) достигало бы минимума: |
||||
|
5 = М [Ф (F (х+))] |
= |
min М [Ф (F (je))], |
||
|
|
|
|
x c z D |
|
где Ф (F) — некоторая заданная |
функция |
критерия. |
|||
В частности, если Ф (F) = F, то х+ минимизирует апостериор |
|||||
ное |
математическое |
ожидание |
функции |
F (х); если Ф (F) = |
= 1 (F — т), то х+ минимизирует вероятность того, что значение функции больше некоторого заданного порога т.
Величина М [Ф (F (х+)) ] однозначно определяется апосте риорными статистическими характеристиками вектора с. В рас сматриваемой постановке задачи вектор с апорстериорно будет распределен по нормальному закону, так как в формуле (329) у{ линейно зависит от с, а вектор с и ошибки измерения г) априорно распределены по нормальному закону [82]. Поэтому в данном слу чае величина М [Ф (F (х+))] одназначно определяется апосте риорным математическим ожиданием mN вектора с и апостериор ной дисперсионной матрицей Ѳ'Д
М [Ф (F (х+))] = ф (mN, Ѳ^).
Очевидно, что успех оптимизации, т. е. экстремальное значе ние критерия зависит от последовательности точек х 1, в которых производятся измерения функции, и от результатов измерения уК Рассмотрим задачу выбора последовательности точек х1, при ко торой среднее по возможным результатам измерения значение успеха оптимизации ф (mN, QN) достигает минимума. При этом
возможны |
два |
варианта постановки задачи: |
xN выбираются |
|
1. |
Точки проведения эксперимента х1, х2, . . ., |
|||
все |
сразу, |
и |
после проведения экспериментов |
определяется |
точка х+.
2. Точки приведения экспериментов определяются последо вательно, причем выбор х‘+1зависит от предыдущих результатов экспериментов х1, y lt х2, у 2, . . ., х1, у1.
Для вывода уравнения оптимальности воспользуемся методом динамического программирования.
Предварительно заметим, что так как апостериорное распреде ление вектора с после проведения произвольного числа экспери ментов является нормальным, то вся информация о предыдущих измерениях заключена в значении апостериорного математиче ского ожидания вектора с и апостериорной дисперсионной ма трице. Апостериорное математическое ожидание вектора с и апостериорную дисперсионную матрицу при проведении k изме рений обозначим тк и соответственно (k = 0, 1,2, . . ., N).
Для получения связи результатов k измерений с апостериорным математическим ожиданием (оптимальной оценкой) тк вектора с и дисперсионной матрицей Ѳ* можно воспользоваться соотноше
143
ниями теории оптимальной фильтрации. В данном случае целе сообразно использовать результат Калмана [42] в дискретной форме [58]:
|
т! = т! -1 -f- Ѳ' / (.X1‘) ■у‘ |
---- ; |
|
|
|
ef- y |
(*') f |
(*') ѳ '-1 |
|
|
/’ W e ' - V W + a 2’ |
|
||
|
t — 1. 2, |
• • |
Af• |
|
Введем в рассмотрение семейство функций St (т, |
Ѳ) (і = 1, |
|||
2, . . |
ІѴ), соответствующих |
среднему значению |
показателя |
качества 5 при оптимальном способе выбора точек эксперимента, если осталось провести і экспериментов, а апостериорные харак теристики вектора с после проведения предыдущих измерений равны т и Ѳ. Очевидно, что S 0 (т, Ѳ) = ф (т, Ѳ).
Выведем рекуррентные соотношения для определения семей ства S t (т, Ѳ). Предположим, что уже были проведены N — і экспериментов (г = 1, 2, . . ., N) и требуется выбрать точку про ведения ( N — і + 1)-го эксперимента. Пусть после проведения N — і экспериментов статистические апостериорные характери стики вектора с были mN~l и Ѳ"- г , а ( N —■г -f 1)-й эксперимент производится в точке х £ D. Тогда апостериорные характеристики вектора с будут:
mN—i+i _ mN—i _j_ дmN~~l — mN~l -)- |
|
|||
+ |
в« -‘+Ч (I) |
W |
; |
|
|
e N ~l f ( x ) f * w |
|
|
|
QA'-i'+l — Ѳ^ - 1 — f ( * ) |
f (x) + |
a 2 |
(330) |
|
Среднее значение критерия S при оптимальном способе выбора |
||||
точек проведения |
оставшихся і — 1 экспериментов |
будет: |
||
5 = М |
I mN~l + Q N - l + l f |
(д;) yN-i+\ — f (*)т |
|
|
|
0 ѵ ~ г / ( х ) f |
(х) Ѳ ^ - 1 \ ~ |
|
|
|
Г м е " " ' f W + o2 |
' |
|
|
Очевидно, что для того, чтобы точка xN~l+l |
была оптимальной |
точкой |
проведения эксперимента, необходимо и достаточно выпол |
||
нение |
равенства: |
|
|
М |
S,_ 1 Im "-' + |
(xN- ‘i+!)14 |
, N - i +l)mN- 1 |
У м - і + 1 —f (■ |
|||
|
Ѳы ~ 1 f |
[xN - l + l ) f |
qN —i ч -I |
144
= min A4 Si_i \tnN~l + W ~l+'f{x) |
yN- i+i — f (x)mN —l |
|
|
x£D |
|
o2 |
|
|
|
|
|
®N~ l f (x) f (x) ѲѴ~‘ |
= |
S, (mN- 1, QN~l ), |
( 331) |
/* w Ѳ^- ‘ / (X) + o2 |
|
|
|
где математическое ожидание берется по возможным случайным результатом измерений уы-і+ь
Для вычисления математического ожидания в формуле (331) рассмотрим статистические характеристики разности
Длг_і+і = üN-i+ 1 — /* (х) mN~l .
Подставляя в выражение Ац—і+і равенство (329), получим:
Ajv—/+і = (с — mN~l )* / (х) + т)лг_«+і =
— ^N—if {х) 4" ЦіѴ—І4 1- |
(332) |
В выражении (332) случайный вектор %N_t представляет собой ошибку определения вектора с после N — і измерений. Это цен трированный, нормально распределенный вектор с дисперсионной матрицей . Естественно, что вектор | ЛГ_І и скаляр т]дг_м статистически независимы. Из уравнения (332) следует, что при вычислении математического ожидания в формуле (331) случай ную величину разности A^_m следует рассматривать как случай ную центрированную нормально определенную величину, диспер
сия |
которой |
|
|
|
|
|
D [Ajv-,-+i] = /* |
( х " - ^ 1) QN-if {Хм-і+і) + o’2. |
|
||
Таким образом, А^_;+1 |
допускает следующее представление: |
||||
|
К - І +1= V Г {xN~l+l) ®N- 1f (xN~i+1) + <*2 блг-(чь ,(333) |
||||
где |
— центрированная нормально |
распределенная |
вели |
||
чина |
с единичной дисперсией |
|
|
|
|
|
D (Здг_іЧ1] |
= 1. |
|
|
|
Для упрощения системы рекуррентных соотношений (331) |
|||||
преобразуем выражение |
AmN~‘, |
используя соотношения |
(330) |
||
и (333): |
|
|
|
|
|
|
АmN~l = QN-i+if до |
|
N - i |
|
|
|
f |
(x) m |
|
||
|
Q N - i |
QN~ l f(x) f |
(x) |
f(x) X |
|
|
|
f ( X) |
( X ) + a2 |
|
|
|
|
|
|
||
|
|
|
6 |
f (x) бдг—г-t-i |
(334) |
|
X -------------- ^2--------------- °JV-M |
— Vf (X) Qn ~ ‘ [ { x ) + a 2 ' |
10 А. M. Батков |
145 |
|
|
|
/ |
|
|
Подставляя |
выражение (334) в формулу |
(331), |
получим: |
||
M |
Si-1 |
« N - l |
e ^ V ^ + ' ) |
8дг_,+1 |
|
[m |
|
|
|
V f {xN~l+l) QN~lf (xN^ + l) + 02' e N - ‘ f (xN~ l+ l) f (x"-‘'+1) Ѳ"-' \ 1
П * " “ <+1) Qif- t f ( xif- t+ 1) + o 2)
— |
|
|
Qn |
1[(x) 8n_1^ 1 |
|
||
S t - i m N - i _|_ |
|
|
w + a2’ |
|
|||
xm£in A4 |
|
|
Vf* |
(x ) QN - l f |
|
||
D |
|
|
|
|
|
||
Ѳ ^ - ‘ / (л;) /* |
(* ) |
9 w - ( = |
5; ( m ^ , Ѳ"-г). |
(335) |
|||
f W |
0 ^ f W |
+ |
o2 |
|
|
|
|
Система уравнений (335) и (330) представляет собой рекур рентные соотношения, с помощью которых можно последовательно определить все функции St (т, Ѳ), начиная с (т, Ѳ), и точки проведения каждого k-vo эксперимента в зависимости от стати стических характеристик тк~1, Ѳ*-1 (k = 1, 2, . . N).
Основная трудность в вычислении, возникающая при реше нии задачи указанным способом, состоит в необходимости на каждом шаге решать задачу максимизации по ^ и запоминать систему функции S(. (т, Ѳ).
Анализируя систему рекуррентных соотношений (335), (330), можно увидеть, что задача выбора оптимальных точек наблюде
ния |
X1 эквивалента |
[101] |
следующей |
задаче стохастического |
||||||||
оптимального |
управления: |
|
|
|
|
|
|
|||||
|
|
т1+х= т1+ Апг‘ — т1 |
|
ѲѴ (*г+1) 6і+г |
|
|||||||
|
|
1f f |
(хі+:) Ѳ1 f |
(xi+l) ■ |
|
|||||||
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
ѲН-1= |
0<' |
Ѳ'1 f |
(хх+х) f* ( х |
^ 1) |
б '1 |
(336) |
||
|
|
|
|
|
|
Г ( / + х)0Ч(х‘+х) + о2' |
|
|||||
где m°, |
0° — заданные |
величины. |
управление xi+1^D , |
і = 0, |
||||||||
Требуется |
выбрать |
оптимальное |
||||||||||
1, |
. . ., |
N — |
1 |
как |
функцию |
т1, |
Ѳ1' |
из |
условия минимума |
|||
М [гф (mN, QN), |
где |
6,-+і (г = |
0, |
1, . . ., N — 1) — система |
неза |
висимых центрированных нормально распределенных чисел с еди ничной дисперсией.
Таким образом, показано, что задача выбора оптимальных точек измерений сводится к задаче решения системы рекуррент ных соотношений (335) или к решению эквивалентной задачи стохастического оптимального управления (336).
В настоящем параграфе был рассмотрен случай, когда число экспериментов под оптимизируемой системой фиксировано и равно N. Не представляет большого труда вывести аналогичные соотношения для случая, когда число экспериментов случайно или является функцией гарантированного значения критерия S.
146