Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Методы оптимизации в статистических задачах управления

..pdf
Скачиваний:
19
Добавлен:
20.10.2023
Размер:
8.04 Mб
Скачать

 

G22, 1

J _

Yx Slk3

cos <D0e

sin Affie

 

T{Tx

 

;

G22, 2

1 X

Ф 3Aa COScd0

4

sin Да ^6 + Х д )

*.(■+ £)

 

 

 

 

Io

 

Теперь можно воспользоваться уравнениями (205), (207), которым удовле­ творяют математическое ожидание вектора г (t) и его матрица вторых начальных моментов Г (7), связанная с дисперсионной матрицей известным соотношением

D (t) = Г (0 — т (t) т* (t).

Результаты

моделирования

на вычислительной

машине уравнений (205)

и (207) представлены на рис. 29

и 30.

При моделировании было

принято Dv =

= 10'3, Yi =

= —^ 5’

=

T'X ~

Ю мкс’

=

9 МГц, k =

0,5. Задержка

87

в приеме сигнала в компенсационном канале 8 варьировалась в диапазоне от 0,001 до 0,025 мкс. На рис. 29 показаны графики изменения математического ожидания компонент вектора z (t) во времени:

Щ (0 =

М [гх (/)];

I

 

т±

(t) =

М [гх (0]

I

(216)

Кривые на графиках соответствуют определенным величинам

задержки 8

(в мкс):

 

 

 

 

 

1 — 0,025;

4 — 0,010;

7 — 0,003;

 

2 — 0,20;

5 — 0,007;

8 — 0,002;

 

3 — 0,15;

6 — 0,005;

9 — 0,001.

 

На рис. 30

показаны графики

элементов дисперсионной

матрицы вектора

z (t) для тех же величин е, что и на рис. 29.

на математическое

Величина

= у х оказывает

незначительное влияние

ожидание вектора г (t), но существенно влияет на разброс его значений. На рис. 31 представлены графики математических ожиданий гх (і) и г± (f) при е =

== 0,02 мкс и значениях 7і = Vj_ = —Ю5 и Yj = Yj_ = —0,7- ІО5. Графики дис­ персий 2j (t) и z± (t) при тех же значениях параметров показаны на рис. 32.

Моделирование уравнений (205) и (207) позволяет выяснить влияние несимметрии трактов на фильтрацию узкополосного гауссова процесса, а также влия­ ние параметров Vj, 7 Х, Тх, Т± и мощности входного процесса на устойчивость

системы в среднем и среднеквадратическом смысле, а также ряд других инженер­ ных характеристик системы.

Г Л А В А I I I

ПАРАМЕТРИЧЕСКИЕ МЕТОДЫ ОПТИМИЗАЦИИ СИСТЕМ УПРАВЛЕНИЯ

1. Градиентные методы

При проектировании систем автоматического управления часто приходится сталкиваться с задачей выбора некоторых параме­ тров х+ из условия минимума некоторого критерия качества функ­ ционирования системы F. В соответствии с этим рассмотрим задачу

нахождения вектора х+ = (xt, xt, ■. ., xt) из условия

F (х+) = min F (у),

у

где F (у) — F (уг, у 2, . . уп) — функция векторного перемен­ ного у, определяющая связь минимизируемого критерия F с управ­ ляемыми параметрами у = (ylt у 2, . . ., у„).

Исторически первым подходом к решению этой задачи является аналитический подход, основанный на использовании необходимых условий минимума. Как известно, эти условия

(217)

сводят исходную задачу к решению системы п нелинейных уравне­

ний относительно п компонент вектора х+ = (х^, xt, . . ., х+). Эти уравнения могут иметь сложный вид и допускать не единствен­ ное решение. После нахождения корней уравнения (217) необ­ ходимо исследовать характер поверхности функции в окрестности точки х+, чтобы выделить локальные точки минимума. Аналитиче­ ский метод минимизации оказывается эффективным обычно только в тех случаях, когда известно аналитическое выражение миними­ зируемой функции F (у). Практически при оптимизации систем автоматического управления более целесообразно применять чис­ ленные методы минимизации.

Старейшим численным методом решения этой задачи является градиентный метод, алгоритм которого имеет вид

(218)

где at — значение шага на і-й итерации.

Точка х° называется начальным приближением метода. Градиентный метод является типичным представителем ли­

нейных методов. Как следует из равенства (218), очередное

89

приближение хі+х получается из предыдущего х1путем движения в направлении антиградиента. Это направление наиболее быстрого

убывания функции в окрестности точки х ‘, если предположить, что здесь функция достаточно точно аппроксимируется линейной функцией.

Одним из недостатков всех линейных методов, в том числе и градиентных, является зависимость итерационной последователь­ ности от выбранной системы координат и, в частности, от масшта­ бов переменных функции. Пусть, например, при использовании формулы градиентного метода (218) была получена итерационная

последовательность \х1}. Затем была введена новая система коор­ динат, причем координаты новой системы у и старой системы х связаны соотношением

Ау = X,

где А — неособенная матрица размерности [п, п]. В пространстве переменных у градиентный метод минимизации функции

F(x) = F (Ау) = Ф (у)

будет иметь вид

(219)

Предположим, что в пространстве у градиентный метод осуще­ ствляется с теми же значениями шага а (., что и в пространстве х, причем начальное приближение у0 естественным образом согла­ суется с приближением х°:

х° = А у0.

Произведем пересчет последовательности точек \у‘\ в про­

странство параметров х. Соответствующие точки обозначим х1:

X1 = Ау1.

(220)

Подставляя в равенство (219) выражение для производной функции Ф (у):

дФ (У) _ л* dF (Ау)

ду дх

и учитывая формулу (220), получим рекуррентное соотношение для последовательности \х1\ в следующем виде:

кі+1 = х‘ - щАА'

, і = 0, 1, 2,

 

(221)

где знак * означает операцию транспонирования матрицы. Сравнивая формулы (218) и (221), получаем, что в общем слу­

чае изменение системы координат изменяет итерационную после­

90

довательность, получаемую в процессе применения градиентного метода. В частности, из соотношения (221) видно существенное влияние масштабов для оптимизируемых параметров. Итерацион­

ная последовательность {х 1) будет полностью совпадать с после­ довательностью {*‘} только в том случае, если

А А* = Е,

(222)

где Е — единичная матрица. Как известно из линейной алгебры [98], матрица А, удовлетворяющая условию (222), называется ортогональной, а соответствующее преобразование — ортого­ нальным. Геометрически ортогональное преобразование соответ­ ствует повороту системы координат в пространстве.

Из равенства (222) видно, что процедура вычисления обратной матрицы для ортогональной матрицы сводится просто к операции транспонирования:

А - 1 = А*.

Из формулы (221) следует, что применение градиентного ме­ тода имеет столько же оснований, что и использование метода, основанного на соотношении

* '+1 =

- atB

, (і = 0, 1, 2, . . .),

(223)

где В — произвольная симметричная положительно определенная матрица. Действительно, так как для такой матрицы всегда можно найти [98] неособенную матрицу С, удовлетворяющую условию

СС* = В,

то итерационную процедуру (223) можно рассматривать как обыч­ ный градиентный метод в пространстве параметров г, связанных

спараметрами х посредством соотношения

х= Cz.

Наиболее широко распространены две модификации градиент­ ного метода:

1. Простой градиентный метод, или метод простой итерации, где размер шага остается постоянным в течение всей итерационной

процедуры:

 

аі = а = const.

(224)

2. Метод наискорейшего спуска, в котором на каждой итера­ ции размер шага выбирается из условия минимума функции в на­ правлении антиградиента. Иначе говоря, at выбирается из условия

dF (х1)

= min F

■а

dF(xl)

\

'

і = 0, 1, 2, ...

дх

а>0

 

дх

)

 

Существует обширная литература, посвященная исследованию условий и скорости сходимости градиентных методов [43, 79,

91

80]. Для простоты изложения проанализируем скорость сходи­ мости градиентных методов на примере квадратичной функции. Этот анализ имеет практический интерес, так как функции в окрест­ ности точки экстремума с достаточной точностью обычно могут быть аппроксимированы квадратичной функцией. Рассмотрим вначале скорость сходимости простого градиентного метода. Пусть минимизируемая функция имеет вид

F (x) = 4 - X*QX =

4~ S

2 xixjqlh

(225)

z

z /=1

/=i

 

где Q — симметричная положительно определенная матрица. Введем новую систему переменных у = (уг, у 2, . . ., уп), свя­

занных с исходными переменными х посредством ортогонального преобразования А:

X = Ау; АА* = Е.

В новой системе координат функция F (х), выраженная через переменные у, имеет вид

a>(y) = F(Ay) = ±-y*A*QAy.

Выберем ортогональное преобразование А из условия приве­ дения матрицы A*QA к диагональному виду. В линейной алгебре доказывается возможность и предлагаются методы решения по­ добной задачи. Полученную таким образом диагональную матрицу обозначим Л. Диагональные элементы матрицы Л будем обозна­ чать А,2, . . Хп. Как известно, эти параметры называются собственными значениями матрицы Q.

Особый интерес представляют минимальное собственное зна­ чение т = min {Alt Х2, . . . , Хп) и максимальное собственное зна­ чение М = max {Ац Х2, . . ., Хп\ [98]. Вследствие положитель­ ной определенности матрицы Q значения т и М должны быть поло­ жительными:

A*QA = Л.

В этом случае функция Ф (у) имеет существенно более простой

вид

Ф ( у ) = ~ ^ У А у = ^ - ^ Х Л

В соответствии с этим простой градиентный метод примени­ тельно к этой функции Ф (у) определит следующую итерационную

последовательность точек {у1}:

у‘+г = У І - а Х кУІ, і = 0, 1, 2, . . . ; £ = 1 , 2 , . . . , « . (226)

Как было показано выше, если матрица А ортогональная и имеет место равенство х° = Ау°, то точки итерационной последо­

вательности {у‘) находятся в простом соответствии с точками ите-

92

рационной

последовательности

{х c}t

полученной

применением

простого градиентного метода к функции (225):

 

 

X1 =

Ау1.

 

 

Отсюда

следует, что модуль

вектора х! совпадает с модулем

вектора у 1:

 

 

 

 

 

х**х‘ == у1*А*Ау1 =

t/ У .

(227)

Из равенства (226) легко получить выражение компонент век­ тора у1+1 через компоненты у0:

Ук+1 = УІ( 1— аЛ*),+1; f = 0, 1, 2,

6 = 1 , 2 , . . . , л. (228)

Анализируя равенство (228), можно заключить, что когда о зна­ чении начального приближения у° ничего неизвестно, естественно выбирать значение шага градиентного метода из условия

max I 1 •—a°Kk | =

min max | 1 — a Xk |.

k

a k

Решая это уравнение, получим

m in {X,-} +

m ax {Xj}

m + M ’

' '

i

i

 

 

max

II

m i

=

A4 — от

1

a°Xk

— .

k

1

* 1

M + m

Используя равенства (227), (228) и решение (229), нетрудно получить оценки скорости сходимости:X

X1

 

 

М — т \

і .

 

 

Ж +т )

'

 

 

 

П

М — от

21 І y f h

= F(x°)( М — от \ 2»

k=\

ÄT+OT

k=i

\ A4 -f от /

Заметим, что так как для рассматриваемого случая функция F (х) достигает своего минимума в точке х+ — 0 и минимальное значение F (0) = 0, то окончательные оценки скорости сходимости простого градиентного метода при оптимальном способе выбора шага имеют следующий вид:

Y + I^ ( М -j- от )

(230)

F (х1) F (*+) ^ [F (х°) — F (*+)] ( М — от \ 2 І

М - \ - т У

Нетрудно показать, что оценки скорости сходимости, получен­ ные для квадратичной функции специального вида (295), справед­ ливы и для произвольной квадратичной функции. В этом случае т и М имеют смысл минимального и максимального собственных

93

значений для матрицы вторых производных минимизируемой ква­ дратичной функции.

Из оценок (230) следует, что для квадратичной функции F (х), определяемой формулой (225), итерационная последовательность

[х1], построенная на основе простого градиентного метода с опти­ мальным значением величины шага, сходится к истинной точке минимума х+ = 0 по закону геометрической прогрессии с знамена­

телем k — ~ га., Соответствующее значение функции при этом

убывает также по закону геометрической прогрессии с знаменате-

лем (^ і_ р -- у . Это означает, что простои градиентный метод

сходится тем быстрее, чем меньше отличаются величины макси­ мального и минимального собственных значений.

Отношение р = М/т называют коэффициентом обусловлен­ ности матрицы Q. Если значение р велико, то матрица считается плохо обусловленной, если р ^ 1, матрица хорошо обусловлена. Подставляя выражение для р в формулу для знаменателя геоме­ трической прогрессии k, получим связь k и р:

k = 1 - 1 /Р

1 + 1/Р '

Отсюда для плохо обусловленных матриц имеет место прибли­ женное равенство

k1 2_

Р

Сравнивая алгоритмы простого градиентного метода и метода наискорейшего спуска, можно увидеть, что реализация первого метода проще, так как в процессе реализации метода наискорей­ шего спуска на каждой итерации необходимо решать задачу мини­ мизации функции в направлении антиградиента. Однако, как показывает теоретическое исследование, скорость сходимости ме­ тода наискорейшего спуска оказывается приблизительно такой же, как и простого градиентного метода. В частности, были получены следующие оценки для метода наискорейшего спуска примени­ тельно к квадратичной функции [43]:

\уі

Ѵ+І л Г

2 (F(x°)-F{x+))

( M - m \ .

Iх - x К у

--------- й

--------- \ Ж Т ^ ) '

F (Х{) -

F (х+) ^

(F ( х °) -

F ( х +))

.

Сравнение формул (230) и (231) показывает, что оценка скорости сходимости обоих методов практически совпадает. Наблюдается полное совпадение по скорости убывания значения функции, а ско­

рость убывания модуля вектора ошибки ] х1х+ j в простом гра-

94

диентном методе даже несколько выше, так как имеет место не­ равенство

2 (F (х°) F (х+))

> \х° х +\.

т

 

Однако в тех случаях, когда отсутствует априорная информация относительно минимизируемой функции F (х), метод наискорей­ шего спуска может оказаться предпочтительным, так как он га­ рантирует всегда ту же скорость сходимости, что и простой гра­ диентный метод с оптимальным выбором шага а°, зависящего от параметров т и М.

2. Практическая реализация градиентных методов

Как было отмечено в предыдущем параграфе, скорость сходи­ мости градиентных методов при минимизации квадратичной функ­ ции определяется значением коэффициента обусловленности ма­ трицы вторых производных Q. Если рассмотреть случай функции двух переменных (п = 2), то геометрическое изображение линий уровня минимизируемой функции имеет вид эллипсов. Причем эллипсы оказываются тем более вытянутыми, чем больше коэффи­ циент обусловленности матрицы Q. Поверхность, изображающая функцию такого типа, имеет вид оврага. При практическом при­

менении градиентного метода к подобным функциям точка х‘ до­ статочно быстро спускается на дно оврага. Причем в процессе этого спуска траектория движения имеет прямолинейный харак­ тер, а значение функции достаточно резко убывает. При дости­ жении дна оврага траектория движения приобретает вид «зигзага» (рис. 33). Значение функции при этом убывает очень мед­ ленно.

Если коэффициент обусловленности матрицы Q близок к еди­ нице, то линии уровня имеют вид окружности, и градиентный метод быстро сходится к точке минимума О (рис. 34).

 

Рис. 34. Минимизация функ­

 

ции с круговыми линиями

Рис. 33. Минимизация «овражной» функции

уровня простым градиентным

простым градиентным методом

методом

95

Как показывает теоретическое и экспериментальное исследо­ вание, это свойство квадратичных функций остается справедливым и для общего класса функций. В случае многомерного простран­ ства, если поверхности уровня функции близки к гиперсфере, то градиентный метод имеет быструю сходимость. Если поверхности уровня имеют вид вытянутых эллипсоидов (функции овражного типа), скорость сходимости градиентного метода резко умень­ шается. Учитывая это, естественно постараться изменить систему координат таким образом, чтобы уменьшить степень вытянутости гиперповерхностей уровня функции. Эта идея используется в гра­ диентном методе с подбором масштабов [78, 79]. Рассмотрим конк­ ретные случаи реализации градиентного метода.

Градиентный метод с подбором масштабов. Предлагается осу­ ществлять минимизацию исходной функции F (х) в пространстве переменных z (zlt z2, . . ., zn), связанных с х соотношением

zi = Уіхі> і = К 2, . . ., n,

где параметр у( определяется выражением

Уі

ö2F (s)

і = 1

. 2

П.

(232)

дх?

 

 

 

 

 

В качестве s рационально выбирать точку, «подозреваемую» на экстремум. Заметим, что для квадратичной функции значение 7 , не зависит от s. При таком преобразовании поверхности уровня функции

F (х) = £ г, (хі — Ь;)\ rt > О

I- 1

преобразуются в гиперсферы. Для минимизируемой функции об­ щего вида степень вытянутости (значение коэффициента обуслов­ ленности матрицы вторых производных) уменьшится, а поэтому скорость сходимости градиентного метода возрастет.

В старых координатах х градиентный метод будет иметь вид

і+1

= х І — а

 

(IF(У)

Xk

УІ

dxk

 

 

 

Практически оказывается рациональным перед осуществле­ нием градиентного метода производить покоординатную оптими­ зацию, при которой последующее приближение получается из предыдущего варьированием одной из компонент векторной пере­ менной X при фиксированном значении всех остальных компонент. Затем по очереди варьируются все остальные координаты. В про­ цессе осуществления покоординатной оптимизации по трем заме­ рам функции в окрестности точки минимума удобно получать

оценки второй производной — &= 1, 2, . . ., п. Покоординат­ ной

96

Соседние файлы в папке книги из ГПНТБ