Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Планирование и обработка эксперимента / Rakitskiy - Chislenniye metodi resheniya 1979

.pdf
Скачиваний:
84
Добавлен:
13.05.2017
Размер:
6.71 Mб
Скачать

160

Гл. 4. Оптимизация

Учитывая, что

получим

откуда следует согласно предположению 2), что

 

-

L

 

11xk+,-x*11

~ 2

л. 11Xii-x*112

Из формулы Тейлора и

из

предположения 2) име­

ем неравенства

 

 

 

.!. llx-x* 112 ~J(x)-J*~~11х-х*112

2

 

 

2

НШI

 

 

 

А.

~ Jн,-J*::::;;;

-

2/lxн,-x*l/2

J ( хн,)-J*~

 

 

 

::::;;; ~ 11 Xk+I -x*:ll2

Отсюда прпходп!\1 к требуемой оценке:

 

1

 

 

Теорема доказана.

Таким образом, установлена квадратичная скорость

сходимости, характерная для методов ньютоновского

типа.

Рассмотрим эффективность работы системного алго·

ритма в невыпу1<.ТJЫХ оптимизационных задачах.

Пусть минимизируемый функционал на рассматри·

ваемом участке аппроксимируется невыпуклым r-ов·

ражным квадратпчным функционалом

J (х)= +(Dx, х), det D =1= О.

 

§ 4.3. Системные методы оптимизации

 

161

Тогда,

сог.11асно ( 18),

 

 

 

 

 

 

 

 

 

 

т

 

 

 

 

 

 

J (х11)=+L (z~>)2 Л; (D),

 

 

 

 

 

 

i=I

 

 

 

 

 

 

 

 

 

т

 

 

 

 

 

 

J ( xk+1)= +L (z~>)2Лi(D) а;,

 

 

 

 

 

i=I

 

 

 

 

 

r.:i:e

 

 

 

 

 

 

 

 

 

 

 

 

 

т

 

 

 

 

 

 

 

 

 

Х11= ~

z~> U;,

 

 

 

 

 

 

i=I

 

 

 

 

 

 

 

 

 

т

 

 

 

 

 

 

х

 

~ z(i)

и

 

 

 

 

 

k+I- ~

k+I

 

 

 

 

 

 

i=I

 

 

 

 

 

Для

системного

алгоритма

коэффициент

затухания

 

а.1

= ехр (-Л1

(D) hk).

 

 

Отсюда видно, что при любом hk>O имеет

место а;>

>1, если ./.;(D)<O,

и ai<l,

если Лi(D)>O, причем

чем больше величина hk, тем

быстрее

убывание J(x)

при переходе от Х11.

к хн1• На

самом деле ве.'lичина h11

бывает

ограничена

размерами

области

справед.'lивости

.::.анной квадратичной аппроксимации.

В резу.11ьтате, в отличие от метода Левенберга, где

СХ· =

~k

1

~k +Л; (D) '

и ему подобных а.11горитмов, проблемы выбора парамет­

ров метода не возникает, так как условия сходимости

выполняются в широких пределах изменения h незави­

с.имо от степенп овражности функционала.

Легко проверить (см. § 2.1), что если Xk .11ежит на

траектории наискорейшего спуска аппроксимирующего

квадратичного (не обязательно выпуклого) функцио­

нала, то точ,ка х.н 1 , построенная rc по:-.ющью системного

алгоритма, при любом hk>O также будет находиться на этой траектории. Указанное свойство последователь­

ности {х11} позволяет независимо от знакоопределенно­

сти матрицы Гессе эффективно отслеживать траекторию

спуска аппроксимирующего, а вместе с ним и исходного

6 Ю. В. Ракитский и др.

162

Гл. 4. Оптимизация

функционала до нарушения ус.'lовия их близости. По­

следнее проверяется автоматически с помощью прави­

ла выбора параметра h (21) или ему аналогичного.

Рассмотрим некоторые вопросы реализации принци­

пиальной схемы (20), (21).

Процесс (20), (21) можно трактовать как одно~<рат­

ное применение спстемного

 

метода первой степени к

линейному дифференциальному уравнению

dx

Ь

, x(O)=xk,

- = -Dkx+

 

dt

 

(33)

а само уравнение (33) считать уравнением лиюш наи­

скорейшего спуска для аппроксимирующего функцио­

нал J(х) в точке xk квадратичного функционааа. Эта

трактовка по сути и используется ниже при реа.~r1зации

алгоритма.

Основываясь на методах дискретизации линейных

систем с постоянной матрицей, изложенных в § 2.1,

можно построить СJiедующую итерационную cxe:v1y:

''·

Ф0 = .\' ехр (-Dk т) d т,

о

U0 = E-Dk Ф0,

(34)

Ь= Dkxk-J~, gо=ФоЬ,

Ип+~=И~,

gn+I = (Е +Ип) gn,

Zn+l = ИпZп -+ gr., z0 = Xk, n = О, l, · ..

Так построенная последовате.'lьность {zn} находится на решении уравнения (33), прпчем Zn+i=x(2nho).

Матрица Ф0 и величина параметра ho получаются по

форму.'lам (2.19), (2.23), (2.24).

Процесс продо.'lжается до тех пор, пока функцио·

на.'1 J(zп) убывает, либо достаточно быстро убывает. Точка с минимальным значением J принимается за

~k+I·

§ 4.3. Систе,1tные методы оптщ.шзации

163

Возможна и другая реализация алгоритма, основан­

ная на построени11 последовательности {zn} вида

 

Zn = Хн-Фп J~'

 

(35)

Фп = Ф (Dk, h0 2"),

п =О, 1, 2, ...

 

Переход от матрицы Фn к Фn+I осуществляется со­

гласно формуле пересчета

(2.16). Так же как 11 в

пре­

дыдущем с.11учае, в качестве Хн+~ выбирается Zn с

ми­

нимальным значением !.

 

 

Однако следует заметить, что процедура (34) по ря­ ду причпн, изложенных в § 2.1, обычно оказывается бо· пее эффеюивной по сравнению с (35).

В случае необходимости для более точной лока.1иза­

ции минимума на каждом шаге по k могут испо.1ьзо­

ваться процедуры одномерного поиска по h типа зо.110-

того

сечения,

квадратичной

аппроксимации

11 т. д.

[34].

При этом

рассматр11вается

зависимость

J (x(h) ),

lt=2"ho, и да.11ее варьируется величина h0 •

 

До

с11х пор

не говорилось

о

методах вычпс.1енпя

матрицы D,,=J"(x,,). Необходпмость построенпя l\!атри­ цы D" традицпонно счнтается одним из основных возра­

жений протнв методов второго порядка вообще. При этом указывается, что прямой путь, заключающшkя в

11спо.11ьзован1111 соответствующих анатпнческнх выра­

жений, не всегда воз:11ожен, а пр11ем.r~емых альтернатив

не существует.

В частност11, указывается на трудности обоснова11ия

выбора шагов дискретнзац1111 hi при аппрокс11:-.1ации

производных с помощью различных конечноразностпых

формул. Напрпмер,

 

__!!___ rv

J ( xU> + /1;)

- J ( x<i> -

h;)

 

дхU> -

 

2h1

 

д2J

~ - 1- [

J ( x<i> +h·

хш+!ti)-

ax<i> ax<i>

4hthj

р

 

 

- J ( x<i> -h;. x<i> +hi)-J ( x<i> +hi, xш-hi) +

 

+ J ( x<i> -h; x<i> -hi)]

при i =1= j, (36)

д2~>'~1;[J(x<i> +h;)-2J +J ( x<i> _hi)].

дх

h;

.

 

 

6*

164

Гл. 4. Оптимизация

Однако, как показывают численные эксперименты, выч11с.1ительные процедуры большинства применяемых

методов второго порядка оказываются гораздо менее

чувствптельными к величинам шагов hi, чем этого сле­

дова.10 ожидать (на это же указано в работе (38]). Бо­

лее того, во многих задачах удается получить более высокую скорость сходимости при использовании фор-

1\!у.1 (36) вместо точных (ана.1итических) выражений

для: соответствующпх производных.

Пос.1еднее обстоятельство, по-видимому, объясняет­

ся не1<0торыми сг.1ажпвающи:-.ш свойствами 1юнечнораз11остных выражений (36).

В принципиальной

схеме (20) матрица Dk

нужна

,тшшь для вычисления

матрицы Ф (D1i, h0). Это

может

быть использовано при реализации принципиальной схе:-.1ы (20), позво.ТJяющей избежать вычис.11ения вторых

.пронзводных.

Вернемся к итерационному процессу (34). Он может ruыть начат, если заданы матрица Ио и вектор g 0 • Од­

:нако .1егко показать, что данные объекты можно вычпс­

:rшть, мпнуя вычисление матрицы Dн. Действительно, прс:~.ставим решенпе задачи (33) в виде

 

 

 

 

 

 

 

t

 

 

 

 

 

 

x(t,

 

хн)= exp(-Dht)x11.+ .\ ехр(-D11.т)dтЬ.

(37)

 

 

 

 

 

 

 

о

 

 

 

 

 

 

Отсюда

 

 

 

 

 

 

 

 

 

 

 

 

 

и для go, Ио получае::'vl:

х (!1 11 , X/i + Л; е;) (!1 0 ,

 

 

 

go=x

(' о)

,

иl

 

х11.)

 

(38)

 

lo,

 

о=

 

Л;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

rде И0i -

 

i-й

столбец

матрицы

Ио;

ei

-

вектор,

i-я

компонента

которого

равна 1, а

все

остальные -

ну­

лю; Лi -

 

величина

возмущения

начального

условия

X1t задачи (33) вдоль i-го единичного орта.

 

 

 

В результате Ио и g0 определяются

путем

интегри­

рования уравнения

(33)

с различными начальными ус­

ловиями на малом промежутке te: [О, ho].

§

4.3.

Системные

Аtетоды

оптимизации

165

Уравнение

(33)

непосредственно не

задано,

оно является

линеаризацией уравнения

спуска

 

~~

= -J' (у),

Уо =Хп,

 

однако

(39)

н

поэтому при малых h0

можно

полагать

 

 

 

 

у (t,

 

0

 

 

 

 

 

Уо) ~ х (t, у

)

 

и

д.т1я определения

Ио,

go согласно

(38)

вместо

ния (33)

использовать уравнение (39).

 

 

Из-за

малости

промежутка

интегрирования

уравне­ [О. hoJ

выбор

подходящего

метода

пнтегрирования

не

вызывает

трудностей. В заключение

рассмотрим

примеры

применеюш

сн­

стемного

алгоритма

в

различных

оптимизационных

за­

дачах.

 

В

работе

[47]

рассматрпвается

несколько

общих

тестовых функций,

на которых

проводится

сравнение

различных

методов

оптимизации.

Такой характер нс­

следованпя

в настоящее

время

является общепринятым.

Остановимся на

двух

тестовых

функциях,

nесьма

часто используемых

при

оценке

эффект11вност11

а.1го­

р11тмов.

 

 

 

 

 

 

 

Функция

F

1

( х

0

 

 

 

 

Розенброка

>,

х)<

>= 100

 

2

 

[37]

( х<

2

>

 

задается 0>')2 +

выражен11е:-.1

(l -x< >)

2

1

 

Функция

F

1

имеет

в

точке

(I,

1)

минимальное

зна­

чение,

равное

нулю.

Линии

уровня

F

1=const

преJ.стаВ'­

ляют собой крутой

ный вдоль параболы

криволинейный х<2>=х<1>2 (рис.

овраг, 15).

распо.1ожен­

Известно,

что

минимизация

F

1

вызывает

знач11тель-

11ые трудности, заключающиеся

в резком

процесса достижения экстремальной

точки.

заме,.:иеншr Мног11е нз­

испытанных

алгоритмов

практически

не

обеспечпвают­

существенного продвижения

к

большинстве

исходных

значений

Обычно в

качестве

тестового

точке

минимума

при

аргументов.

 

 

нача.'!ьного

условия

ис­

пользуется точка (-1,2;

Для

минимизации

1). F 1

использовалась

процедура

(35).

Необходимые

производные

вычислялись cor.iacнo

:~.вусторонним

конечноразностным

аппроксимацию~

(36)

с

шагами

дискретизации

по

обоим

аргументам,

равны-

166 Гл. 4. Опти~tизация

ми 0.002. Параметр h последовательно увеличиваJiся от

значення ho=0,4/llFi''(x11) 11 до конечной величины hk=

=ho220.

Переход I< следующей итерации осуществJ1ялся либо по достижении параметром h величины hн., либо если

очерелюе зна·чение F1 (z11) > l,5F1.-1, где F1:1 - значение

Рис. 15.

в нап.1учшей точке, полученной к п-му шагу. Получен­

ные результаты приведены в табл. 2, где р -

число вы­

чис,1ен11й F 1

 

 

 

 

 

 

 

Таблица 2

 

р

x(I)

х(2)

F,

 

1

 

1

1

 

о

-1,2

1

24,2

 

28

--1,095

1, 162

4,525

 

112

-0,507

0,223

2,386

 

224

О, 160

0,005

0,748

 

280

0,431

О, 173

0,339

 

364

0,765

0,573

0,071

 

476

0,985

0,970

0,00039

 

582

0.997

0,994

0,00001

 

Из таблицы видно, что уже

при р=476

получена

пр11е}1.1емая точность решения задачи.

§

4.3.

Системные

,11етоды

оптимизации

167

Известно

[29],

что

метод

по

координатного

спуск?

для

l\111ю1мизации

F

1

требует

свыше

2800

вычислении

f'1.

"\tетод

наискорейшего

спуска

также

применялся

для

мш111:\-111зации

данной

функции,

но

дава.11

очень

мед.пен­

ное ния

продвижение.

При

р= 1800 были

по.11учены

1

 

2

>=0,6035, F1=0,00497, весьма

x< J=0,7772,

х<

значе­ дале­

кие от искомых.

Таюв1 образом,

на

данном

примере проиллюстриро­

ваны

возможности

системного

алгоритма

при

миними­

зации

функционалов

с

существенно

оврагюш. Эффективность

а.11горптма

криволинейными оказывается удов­

.т~етворательной,

хотя

метод

вращения

осей Розен6рока

для данного примера дал лучшие

результаты.

В качестве второго примера

рассмотрим

впервые введенную Пауэллом [57]:

функцию,

F2 =

(

х<'>

+

1ох<

2

>)2

+

5 (

х<

3

>

-х<

4

>)

2

+

(

х<

2> -2х<3

+ 1О ( х

>)

4

 

0

>

 

+ -х<4>

)

4

в

Осооенность rданной функции заключается в тo:vi, что точ·ке :\'IИHиi:viy:via (О; О; О; О) :-.1атрица Гессе F2" стано­

вится

вырожденной

и,

в

частности,

прямое

применение

метода

Ньютона

невозможно.

Как

известно,

для

поиска

мию1:-.1у:v.а F2

непригодны многие

методы,

например, ме­

тод вращения

осей Розенброка,

метод

наискорейшего

спуска

11 др. Системный метод

оптимизации

является

прямьщ

обобщением метода Ньютона, поэтому его 11с­

нытан11е

на

функции

F

2

представляет

известный

инте­

рес.

 

 

Резу.1ыаты, по.11ученные

с

ритма.

приведены в табл. 3.

 

помощью системного Была использована

алго­ та же

поисковая

схема,

что

и

в

случае

функции

F

1•

При

этом

попек

осуществлялся,

начиная

с

тестового

начального

ус.1ов11я

(3;

-1;

О;

1).

Расо1отренный пример частично

подтверждает

ра­

нее С,1е.1анное предположение

об

ожидаемой

универ­

са.11ьносп1 системного алгоритма

относительно

профи.11я

мин11лшзируемого функционала.

Его

эффективность

в

данно:\1

случае приблизительно

J.ыдуще:-.1

примере,

хотя метод

брока

д.11я

функции

Пауэлла

такая же,

как и

вращения

осей

оказался вообще

в пре­ Розен­ непри­

годны:\!.

168

 

 

 

 

Гл. 4. Оптимизация

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таблица З

р

х(\)

 

х(2)

х(З)

 

 

х(4)

 

 

F2

 

 

1

 

1

 

 

1

 

1

 

 

 

1

 

1

о

3

 

-1

 

о

 

 

1

 

 

215,0

 

50

1,5896

-О, 15991

0.25354

 

О,2.'5615

 

31,811

 

200

0,46987

-0,046987

0,074814

 

0,074802

 

 

0,24510

300

0,20872

-0,020873

0,033163

 

0,033163

 

 

0.00956

400

О, 13903

-0,013903

0,022015

 

0,022015

 

 

0,00189

500

0,040561

-0,0040561

0,0060271

 

0,0060272

 

0,000014

800

0,004976

-0,0004976

0,0023621

 

0,0023624

 

0,i2110-8

 

 

 

 

 

 

 

 

 

 

 

 

 

Таб,ища ./

\

1 \

2 \

з \

41 s \

61 1 \

в \

 

9 \ 10 \ 11

w; \

1.oi 1. 1\

1.2\

1,3\

1•1\

1.511 •6\

1.1\

 

1.8\

1.9\

2. о

S;

71

67

 

64

61

58

55

53

1

51

49

47

45

Ка1< уже указывалось, овражная ситуация весьма типична в задачах параметрической идентификации,

когда неизвестные параметры модели определяются в результате поиска минимума некоторого критерия, опи­

сывающего согласие расчетных и эксперимента.1ьных

значений.

Характерным примером подобного типа является за­ дача вычисления коэффициентов а и Ь передаточной

функцпи объекта

k(p)=-~-, а>О, Ь>О

Рта

по амплитудно-частотной характеристике, представлен­

ной в виде табл. 4 и соответствующей значениям

а*= 1, ь* = 100.

Воспользуясь методом наименьших квадратов, бу­

дем определять а и Ь из условия минимума критерия

[28]

J(a, Ь)= !11

[

Si-

ь

]2

(40)

 

__

.

i=l

 

 

Va2 +ooi

 

 

§ 4.4. Принцип повторных измерений

169

Линии равного уровня J(а, Ь) =const имеют ярко

выраженную овражную структуру. Обусловленность

матрицы Гессе !" в точке минимума достигает ве.'шчп­ ны k ( !") = 23 ООО, что определяет и известные вычис.1и­

тельные трудности.

В табл. 5 приведены результаты минимизации функ­ ционала (40) системным методом оптимизации.

 

 

 

Таблица 5

р

а

ь

J

 

1

1

1

о

0,5

50

3089,4

24

0,05

78,3

106,9

72

0,58

84,0

55,7

96

0,79

92,3

9,06

120

0,96

98,3

0,5

144

0,99

99,8

0,006

168

0,99998

99,999

310-1

Для сравненпя в табл. 6 приведены результаты ра­

боты метода наискорейшего спуска.

 

 

 

Таблица б

р

а

ь

J

1

 

1

1

о

0,5

50

3089,4

50

-0,01

56,2

1613,5

100

0,06

56,9

1525,8

200

0,06

57,9

1405,6

300

0,06

58,9

1287' 1

500

0,06

60,9

1066,5

1000

0,06

65,9

619,4

1300

О, 1

69.1

411

§ 4.4. Принцип повторных измерений

При анализе квадратичных методов оптими­ зации обычно пренебрегают различными вычислите.1ь­ ными погрешностями, необходимо присутствующими в

.rrюбом вычислительном процессе. Однако, если уровень