
книги из ГПНТБ / Методы оптимизации в статистических задачах управления
..pdf
|
G22, 1 — |
J _ |
Yx Slk3 |
cos <D0e |
sin Affie |
|
2л |
T{Tx |
|
; |
|
G22, 2 |
1 X |
Ф 3Aa COScd0 |
4 |
sin Да ^6 + Х д ) |
|
*.(■+ £) |
|||||
|
|
|
|
Io |
|
Теперь можно воспользоваться уравнениями (205), (207), которым удовле творяют математическое ожидание вектора г (t) и его матрица вторых начальных моментов Г (7), связанная с дисперсионной матрицей известным соотношением
D (t) = Г (0 — т (t) т* (t).
Результаты |
моделирования |
на вычислительной |
машине уравнений (205) |
||||
и (207) представлены на рис. 29 |
и 30. |
При моделировании было |
принято Dv = |
||||
= 10'3, Yi = |
= —^ 5’ |
= |
T'X ~ |
Ю мкс’ |
= |
9 МГц, k = |
0,5. Задержка |
87
в приеме сигнала в компенсационном канале 8 варьировалась в диапазоне от 0,001 до 0,025 мкс. На рис. 29 показаны графики изменения математического ожидания компонент вектора z (t) во времени:
Щ (0 = |
М [гх (/)]; |
I |
|
||
т± |
(t) = |
М [гх (0] |
I |
(216) |
|
Кривые на графиках соответствуют определенным величинам |
задержки 8 |
||||
(в мкс): |
|
|
|
|
|
1 — 0,025; |
4 — 0,010; |
7 — 0,003; |
|
||
2 — 0,20; |
5 — 0,007; |
8 — 0,002; |
|
||
3 — 0,15; |
6 — 0,005; |
9 — 0,001. |
|
На рис. 30 |
показаны графики |
элементов дисперсионной |
матрицы вектора |
z (t) для тех же величин е, что и на рис. 29. |
на математическое |
||
Величина |
= у х оказывает |
незначительное влияние |
ожидание вектора г (t), но существенно влияет на разброс его значений. На рис. 31 представлены графики математических ожиданий гх (і) и г± (f) при е =
== 0,02 мкс и значениях 7і = Vj_ = —Ю5 и Yj = Yj_ = —0,7- ІО5. Графики дис персий 2j (t) и z± (t) при тех же значениях параметров показаны на рис. 32.
Моделирование уравнений (205) и (207) позволяет выяснить влияние несимметрии трактов на фильтрацию узкополосного гауссова процесса, а также влия ние параметров Vj, 7 Х, Тх, Т± и мощности входного процесса на устойчивость
системы в среднем и среднеквадратическом смысле, а также ряд других инженер ных характеристик системы.
Г Л А В А I I I
ПАРАМЕТРИЧЕСКИЕ МЕТОДЫ ОПТИМИЗАЦИИ СИСТЕМ УПРАВЛЕНИЯ
1. Градиентные методы
При проектировании систем автоматического управления часто приходится сталкиваться с задачей выбора некоторых параме тров х+ из условия минимума некоторого критерия качества функ ционирования системы F. В соответствии с этим рассмотрим задачу
нахождения вектора х+ = (xt, xt, ■. ., xt) из условия
F (х+) = min F (у),
у
где F (у) — F (уг, у 2, . . уп) — функция векторного перемен ного у, определяющая связь минимизируемого критерия F с управ ляемыми параметрами у = (ylt у 2, . . ., у„).
Исторически первым подходом к решению этой задачи является аналитический подход, основанный на использовании необходимых условий минимума. Как известно, эти условия
(217)
сводят исходную задачу к решению системы п нелинейных уравне
ний относительно п компонент вектора х+ = (х^, xt, . . ., х+). Эти уравнения могут иметь сложный вид и допускать не единствен ное решение. После нахождения корней уравнения (217) необ ходимо исследовать характер поверхности функции в окрестности точки х+, чтобы выделить локальные точки минимума. Аналитиче ский метод минимизации оказывается эффективным обычно только в тех случаях, когда известно аналитическое выражение миними зируемой функции F (у). Практически при оптимизации систем автоматического управления более целесообразно применять чис ленные методы минимизации.
Старейшим численным методом решения этой задачи является градиентный метод, алгоритм которого имеет вид
(218)
где at — значение шага на і-й итерации.
Точка х° называется начальным приближением метода. Градиентный метод является типичным представителем ли
нейных методов. Как следует из равенства (218), очередное
89
приближение хі+х получается из предыдущего х1путем движения в направлении антиградиента. Это направление наиболее быстрого
убывания функции в окрестности точки х ‘, если предположить, что здесь функция достаточно точно аппроксимируется линейной функцией.
Одним из недостатков всех линейных методов, в том числе и градиентных, является зависимость итерационной последователь ности от выбранной системы координат и, в частности, от масшта бов переменных функции. Пусть, например, при использовании формулы градиентного метода (218) была получена итерационная
последовательность \х1}. Затем была введена новая система коор динат, причем координаты новой системы у и старой системы х связаны соотношением
Ау = X,
где А — неособенная матрица размерности [п, п]. В пространстве переменных у градиентный метод минимизации функции
F(x) = F (Ау) = Ф (у)
будет иметь вид
(219)
Предположим, что в пространстве у градиентный метод осуще ствляется с теми же значениями шага а (., что и в пространстве х, причем начальное приближение у0 естественным образом согла суется с приближением х°:
х° = А у0.
Произведем пересчет последовательности точек \у‘\ в про
странство параметров х. Соответствующие точки обозначим х1:
X1 = Ау1. |
(220) |
Подставляя в равенство (219) выражение для производной функции Ф (у):
дФ (У) _ л* dF (Ау)
ду дх
и учитывая формулу (220), получим рекуррентное соотношение для последовательности \х1\ в следующем виде:
кі+1 = х‘ - щАА' |
, і = 0, 1, 2, |
|
(221) |
где знак * означает операцию транспонирования матрицы. Сравнивая формулы (218) и (221), получаем, что в общем слу
чае изменение системы координат изменяет итерационную после
90
довательность, получаемую в процессе применения градиентного метода. В частности, из соотношения (221) видно существенное влияние масштабов для оптимизируемых параметров. Итерацион
ная последовательность {х 1) будет полностью совпадать с после довательностью {*‘} только в том случае, если
А А* = Е, |
(222) |
где Е — единичная матрица. Как известно из линейной алгебры [98], матрица А, удовлетворяющая условию (222), называется ортогональной, а соответствующее преобразование — ортого нальным. Геометрически ортогональное преобразование соответ ствует повороту системы координат в пространстве.
Из равенства (222) видно, что процедура вычисления обратной матрицы для ортогональной матрицы сводится просто к операции транспонирования:
А - 1 = А*.
Из формулы (221) следует, что применение градиентного ме тода имеет столько же оснований, что и использование метода, основанного на соотношении
* '+1 = |
- atB |
, (і = 0, 1, 2, . . .), |
(223) |
где В — произвольная симметричная положительно определенная матрица. Действительно, так как для такой матрицы всегда можно найти [98] неособенную матрицу С, удовлетворяющую условию
СС* = В,
то итерационную процедуру (223) можно рассматривать как обыч ный градиентный метод в пространстве параметров г, связанных
спараметрами х посредством соотношения
х= Cz.
Наиболее широко распространены две модификации градиент ного метода:
1. Простой градиентный метод, или метод простой итерации, где размер шага остается постоянным в течение всей итерационной
процедуры: |
|
аі = а = const. |
(224) |
2. Метод наискорейшего спуска, в котором на каждой итера ции размер шага выбирается из условия минимума функции в на правлении антиградиента. Иначе говоря, at выбирается из условия
dF (х1) |
= min F |
■а |
dF(xl) |
\ |
' |
і = 0, 1, 2, ... |
дх |
а>0 |
|
дх |
) |
|
Существует обширная литература, посвященная исследованию условий и скорости сходимости градиентных методов [43, 79,
91
80]. Для простоты изложения проанализируем скорость сходи мости градиентных методов на примере квадратичной функции. Этот анализ имеет практический интерес, так как функции в окрест ности точки экстремума с достаточной точностью обычно могут быть аппроксимированы квадратичной функцией. Рассмотрим вначале скорость сходимости простого градиентного метода. Пусть минимизируемая функция имеет вид
F (x) = 4 - X*QX = |
4~ S |
2 xixjqlh |
(225) |
z |
z /=1 |
/=i |
|
где Q — симметричная положительно определенная матрица. Введем новую систему переменных у = (уг, у 2, . . ., уп), свя
занных с исходными переменными х посредством ортогонального преобразования А:
X = Ау; АА* = Е.
В новой системе координат функция F (х), выраженная через переменные у, имеет вид
a>(y) = F(Ay) = ±-y*A*QAy.
Выберем ортогональное преобразование А из условия приве дения матрицы A*QA к диагональному виду. В линейной алгебре доказывается возможность и предлагаются методы решения по добной задачи. Полученную таким образом диагональную матрицу обозначим Л. Диагональные элементы матрицы Л будем обозна чать А,2, . . Хп. Как известно, эти параметры называются собственными значениями матрицы Q.
Особый интерес представляют минимальное собственное зна чение т = min {Alt Х2, . . . , Хп) и максимальное собственное зна чение М = max {Ац Х2, . . ., Хп\ [98]. Вследствие положитель ной определенности матрицы Q значения т и М должны быть поло жительными:
A*QA = Л.
В этом случае функция Ф (у) имеет существенно более простой
вид
Ф ( у ) = ~ ^ У А у = ^ - ^ Х Л
В соответствии с этим простой градиентный метод примени тельно к этой функции Ф (у) определит следующую итерационную
последовательность точек {у1}:
у‘+г = У І - а Х кУІ, і = 0, 1, 2, . . . ; £ = 1 , 2 , . . . , « . (226)
Как было показано выше, если матрица А ортогональная и имеет место равенство х° = Ау°, то точки итерационной последо
вательности {у‘) находятся в простом соответствии с точками ите-
92
рационной |
последовательности |
{х c}t |
полученной |
применением |
простого градиентного метода к функции (225): |
|
|||
|
X1 = |
Ау1. |
|
|
Отсюда |
следует, что модуль |
вектора х! совпадает с модулем |
||
вектора у 1: |
|
|
|
|
|
х**х‘ == у1*А*Ау1 = |
t/ У . |
(227) |
Из равенства (226) легко получить выражение компонент век тора у1+1 через компоненты у0:
Ук+1 = УІ( 1— аЛ*),+1; f = 0, 1, 2, |
6 = 1 , 2 , . . . , л. (228) |
Анализируя равенство (228), можно заключить, что когда о зна чении начального приближения у° ничего неизвестно, естественно выбирать значение шага градиентного метода из условия
max I 1 •—a°Kk | = |
min max | 1 — a Xk |. |
k |
a k |
Решая это уравнение, получим
m in {X,-} + |
m ax {Xj} |
m + M ’ |
' ' |
i |
i |
|
|
max |
II |
m i |
= |
A4 — от |
1 |
— a°Xk |
— . |
||
k |
1 |
* 1 |
M + m |
Используя равенства (227), (228) и решение (229), нетрудно получить оценки скорости сходимости:X
X1 |
|
|
М — т \ |
і . |
|
|
|
Ж +т ) |
' |
||
|
|
|
|||
П |
М — от |
21 І y f h |
= F(x°)( М — от \ 2» |
||
k=\ |
|||||
ÄT+OT |
k=i |
\ A4 -f от / |
Заметим, что так как для рассматриваемого случая функция F (х) достигает своего минимума в точке х+ — 0 и минимальное значение F (0) = 0, то окончательные оценки скорости сходимости простого градиентного метода при оптимальном способе выбора шага имеют следующий вид:
Y + I^ ( М -j- от )
(230)
F (х1) — F (*+) ^ [F (х°) — F (*+)] ( М — от \ 2 І
М - \ - т У
Нетрудно показать, что оценки скорости сходимости, получен ные для квадратичной функции специального вида (295), справед ливы и для произвольной квадратичной функции. В этом случае т и М имеют смысл минимального и максимального собственных
93
значений для матрицы вторых производных минимизируемой ква дратичной функции.
Из оценок (230) следует, что для квадратичной функции F (х), определяемой формулой (225), итерационная последовательность
[х1], построенная на основе простого градиентного метода с опти мальным значением величины шага, сходится к истинной точке минимума х+ = 0 по закону геометрической прогрессии с знамена
телем k — -д ~ га., Соответствующее значение функции при этом
убывает также по закону геометрической прогрессии с знаменате-
лем (^ і_ р -- у . Это означает, что простои градиентный метод
сходится тем быстрее, чем меньше отличаются величины макси мального и минимального собственных значений.
Отношение р = М/т называют коэффициентом обусловлен ности матрицы Q. Если значение р велико, то матрица считается плохо обусловленной, если р ^ 1, матрица хорошо обусловлена. Подставляя выражение для р в формулу для знаменателя геоме трической прогрессии k, получим связь k и р:
k = 1 - 1 /Р
1 + 1/Р '
Отсюда для плохо обусловленных матриц имеет место прибли женное равенство
k1 — 2_
Р‘
Сравнивая алгоритмы простого градиентного метода и метода наискорейшего спуска, можно увидеть, что реализация первого метода проще, так как в процессе реализации метода наискорей шего спуска на каждой итерации необходимо решать задачу мини мизации функции в направлении антиградиента. Однако, как показывает теоретическое исследование, скорость сходимости ме тода наискорейшего спуска оказывается приблизительно такой же, как и простого градиентного метода. В частности, были получены следующие оценки для метода наискорейшего спуска примени тельно к квадратичной функции [43]:
\уі |
Ѵ+І „ л Г |
2 (F(x°)-F{x+)) |
( M - m \ . |
|
Iх - x К у |
--------- й |
--------- \ Ж Т ^ ) ' |
||
F (Х{) - |
F (х+) ^ |
(F ( х °) - |
F ( х +)) |
. |
Сравнение формул (230) и (231) показывает, что оценка скорости сходимости обоих методов практически совпадает. Наблюдается полное совпадение по скорости убывания значения функции, а ско
рость убывания модуля вектора ошибки ] х1— х+ j в простом гра-
94
диентном методе даже несколько выше, так как имеет место не равенство
2 (F (х°) — F (х+)) |
> \х° — х +\. |
т |
|
Однако в тех случаях, когда отсутствует априорная информация относительно минимизируемой функции F (х), метод наискорей шего спуска может оказаться предпочтительным, так как он га рантирует всегда ту же скорость сходимости, что и простой гра диентный метод с оптимальным выбором шага а°, зависящего от параметров т и М.
2. Практическая реализация градиентных методов
Как было отмечено в предыдущем параграфе, скорость сходи мости градиентных методов при минимизации квадратичной функ ции определяется значением коэффициента обусловленности ма трицы вторых производных Q. Если рассмотреть случай функции двух переменных (п = 2), то геометрическое изображение линий уровня минимизируемой функции имеет вид эллипсов. Причем эллипсы оказываются тем более вытянутыми, чем больше коэффи циент обусловленности матрицы Q. Поверхность, изображающая функцию такого типа, имеет вид оврага. При практическом при
менении градиентного метода к подобным функциям точка х‘ до статочно быстро спускается на дно оврага. Причем в процессе этого спуска траектория движения имеет прямолинейный харак тер, а значение функции достаточно резко убывает. При дости жении дна оврага траектория движения приобретает вид «зигзага» (рис. 33). Значение функции при этом убывает очень мед ленно.
Если коэффициент обусловленности матрицы Q близок к еди нице, то линии уровня имеют вид окружности, и градиентный метод быстро сходится к точке минимума О (рис. 34).
|
Рис. 34. Минимизация функ |
|
ции с круговыми линиями |
Рис. 33. Минимизация «овражной» функции |
уровня простым градиентным |
простым градиентным методом |
методом |
95
Как показывает теоретическое и экспериментальное исследо вание, это свойство квадратичных функций остается справедливым и для общего класса функций. В случае многомерного простран ства, если поверхности уровня функции близки к гиперсфере, то градиентный метод имеет быструю сходимость. Если поверхности уровня имеют вид вытянутых эллипсоидов (функции овражного типа), скорость сходимости градиентного метода резко умень шается. Учитывая это, естественно постараться изменить систему координат таким образом, чтобы уменьшить степень вытянутости гиперповерхностей уровня функции. Эта идея используется в гра диентном методе с подбором масштабов [78, 79]. Рассмотрим конк ретные случаи реализации градиентного метода.
Градиентный метод с подбором масштабов. Предлагается осу ществлять минимизацию исходной функции F (х) в пространстве переменных z — (zlt z2, . . ., zn), связанных с х соотношением
zi = Уіхі> і = К 2, . . ., n,
где параметр у( определяется выражением
Уі |
ö2F (s) |
і = 1 |
. 2 |
П. |
(232) |
|
дх? |
||||||
|
|
|
|
|
В качестве s рационально выбирать точку, «подозреваемую» на экстремум. Заметим, что для квадратичной функции значение 7 , не зависит от s. При таком преобразовании поверхности уровня функции
F (х) = £ г, (хі — Ь;)\ rt > О
I- 1
преобразуются в гиперсферы. Для минимизируемой функции об щего вида степень вытянутости (значение коэффициента обуслов ленности матрицы вторых производных) уменьшится, а поэтому скорость сходимости градиентного метода возрастет.
В старых координатах х градиентный метод будет иметь вид
і+1 |
= х І — а |
|
(IF(У) |
Xk |
УІ |
dxk |
|
|
|
|
Практически оказывается рациональным перед осуществле нием градиентного метода производить покоординатную оптими зацию, при которой последующее приближение получается из предыдущего варьированием одной из компонент векторной пере менной X при фиксированном значении всех остальных компонент. Затем по очереди варьируются все остальные координаты. В про цессе осуществления покоординатной оптимизации по трем заме рам функции в окрестности точки минимума удобно получать
оценки второй производной — &= 1, 2, . . ., п. Покоординат ной
96