Планирование и обработка эксперимента / Rakitskiy - Chislenniye metodi resheniya 1979
.pdf
|
§ 4.3. Системные методы оптимизации |
|
161 |
||||||
Тогда, |
сог.11асно ( 18), |
|
|
|
|
|
|
||
|
|
|
|
т |
|
|
|
|
|
|
J (х11)=+L (z~>)2 Л; (D), |
|
|
||||||
|
|
|
|
i=I |
|
|
|
|
|
|
|
|
|
т |
|
|
|
|
|
|
J ( xk+1)= +L (z~>)2Лi(D) а;, |
|
|||||||
|
|
|
|
i=I |
|
|
|
|
|
r.:i:e |
|
|
|
|
|
|
|
|
|
|
|
|
|
т |
|
|
|
|
|
|
|
|
|
Х11= ~ |
z~> U;, |
|
|
||
|
|
|
|
i=I |
|
|
|
|
|
|
|
|
|
т |
|
|
|
|
|
|
х |
|
-· ~ z(i) |
и |
|
|
|||
|
|
|
k+I- ~ |
k+I |
i· |
|
|
||
|
|
|
|
i=I |
|
|
|
|
|
Для |
системного |
алгоритма |
коэффициент |
затухания |
|||||
|
а.1 |
= ехр (-Л1 |
(D) hk). |
|
|
||||
Отсюда видно, что при любом hk>O имеет |
место а;> |
||||||||
>1, если ./.;(D)<O, |
и ai<l, |
если Лi(D)>O, причем |
|||||||
чем больше величина hk, тем |
быстрее |
убывание J(x) |
|||||||
при переходе от Х11. |
к хн1• На |
самом деле ве.'lичина h11 |
|||||||
бывает |
ограничена |
размерами |
области |
справед.'lивости |
.::.анной квадратичной аппроксимации.
В резу.11ьтате, в отличие от метода Левенберга, где
СХ· = |
~k |
1 |
~k +Л; (D) ' |
и ему подобных а.11горитмов, проблемы выбора парамет
ров метода не возникает, так как условия сходимости
выполняются в широких пределах изменения h незави
с.имо от степенп овражности функционала.
Легко проверить (см. § 2.1), что если Xk .11ежит на
траектории наискорейшего спуска аппроксимирующего
квадратичного (не обязательно выпуклого) функцио
нала, то точ,ка х.н 1 , построенная rc по:-.ющью системного
алгоритма, при любом hk>O также будет находиться на этой траектории. Указанное свойство последователь
ности {х11} позволяет независимо от знакоопределенно
сти матрицы Гессе эффективно отслеживать траекторию
спуска аппроксимирующего, а вместе с ним и исходного
6 Ю. В. Ракитский и др.
§ 4.3. Систе,1tные методы оптщ.шзации |
163 |
||
Возможна и другая реализация алгоритма, основан |
|||
ная на построени11 последовательности {zn} вида |
|
||
Zn = Хн-Фп J~' |
|
(35) |
|
Фп = Ф (Dk, h0 2"), |
п =О, 1, 2, ... |
||
|
|||
Переход от матрицы Фn к Фn+I осуществляется со |
|||
гласно формуле пересчета |
(2.16). Так же как 11 в |
пре |
|
дыдущем с.11учае, в качестве Хн+~ выбирается Zn с |
ми |
||
нимальным значением !. |
|
|
Однако следует заметить, что процедура (34) по ря ду причпн, изложенных в § 2.1, обычно оказывается бо· пее эффеюивной по сравнению с (35).
В случае необходимости для более точной лока.1иза
ции минимума на каждом шаге по k могут испо.1ьзо
ваться процедуры одномерного поиска по h типа зо.110-
того |
сечения, |
квадратичной |
аппроксимации |
11 т. д. |
|
[34]. |
При этом |
рассматр11вается |
зависимость |
J (x(h) ), |
|
lt=2"ho, и да.11ее варьируется величина h0 • |
|
||||
До |
с11х пор |
не говорилось |
о |
методах вычпс.1енпя |
матрицы D,,=J"(x,,). Необходпмость построенпя l\!атри цы D" традицпонно счнтается одним из основных возра
жений протнв методов второго порядка вообще. При этом указывается, что прямой путь, заключающшkя в
11спо.11ьзован1111 соответствующих анатпнческнх выра
жений, не всегда воз:11ожен, а пр11ем.r~емых альтернатив
не существует.
В частност11, указывается на трудности обоснова11ия
выбора шагов дискретнзац1111 hi при аппрокс11:-.1ации
производных с помощью различных конечноразностпых
формул. Напрпмер,
|
__!!___ rv |
J ( xU> + /1;) |
- J ( x<i> - |
h;) |
|
дхU> - |
|
2h1 |
|
д2J |
~ - 1- [ |
J ( x<i> +h· |
хш+!ti)- |
|
ax<i> ax<i> |
4hthj |
р |
|
|
- J ( x<i> -h;. x<i> +hi)-J ( x<i> +hi, xш-hi) + |
||||
|
+ J ( x<i> -h; x<i> -hi)] |
при i =1= j, (36) |
||
д2~>'~1;[J(x<i> +h;)-2J +J ( x<i> _hi)]. |
||||
дх |
h; |
. |
|
|
6*
164 |
Гл. 4. Оптимизация |
Однако, как показывают численные эксперименты, выч11с.1ительные процедуры большинства применяемых
методов второго порядка оказываются гораздо менее
чувствптельными к величинам шагов hi, чем этого сле
дова.10 ожидать (на это же указано в работе (38]). Бо
лее того, во многих задачах удается получить более высокую скорость сходимости при использовании фор-
1\!у.1 (36) вместо точных (ана.1итических) выражений
для: соответствующпх производных.
Пос.1еднее обстоятельство, по-видимому, объясняет
ся не1<0торыми сг.1ажпвающи:-.ш свойствами 1юнечнораз11остных выражений (36).
В принципиальной |
схеме (20) матрица Dk |
нужна |
,тшшь для вычисления |
матрицы Ф (D1i, h0). Это |
может |
быть использовано при реализации принципиальной схе:-.1ы (20), позво.ТJяющей избежать вычис.11ения вторых
.пронзводных.
Вернемся к итерационному процессу (34). Он может ruыть начат, если заданы матрица Ио и вектор g 0 • Од
:нако .1егко показать, что данные объекты можно вычпс
:rшть, мпнуя вычисление матрицы Dн. Действительно, прс:~.ставим решенпе задачи (33) в виде
|
|
|
|
|
|
|
t |
|
|
|
|
|
|
x(t, |
|
хн)= exp(-Dht)x11.+ .\ ехр(-D11.т)dтЬ. |
(37) |
||||||||||
|
|
|
|
|
|
|
о |
|
|
|
|
|
|
Отсюда |
|
|
|
|
|
|
|
|
|
|
|
|
|
и для go, Ио получае::'vl: |
х (!1 11 , X/i + Л; е;) -х (!1 0 , |
|
|
|
|||||||||
go=x |
(' о) |
, |
иl |
|
х11.) |
|
(38) |
||||||
|
lo, |
|
о= |
|
Л; |
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
rде И0i - |
|
i-й |
столбец |
матрицы |
Ио; |
ei |
- |
вектор, |
i-я |
||||
компонента |
которого |
равна 1, а |
все |
остальные - |
ну |
||||||||
лю; Лi - |
|
величина |
возмущения |
начального |
условия |
||||||||
X1t задачи (33) вдоль i-го единичного орта. |
|
|
|
||||||||||
В результате Ио и g0 определяются |
путем |
интегри |
|||||||||||
рования уравнения |
(33) |
с различными начальными ус |
ловиями на малом промежутке te: [О, ho].
168 |
|
|
|
|
Гл. 4. Оптимизация |
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
Таблица З |
|
р |
х(\) |
|
х(2) |
х(З) |
|
|
х(4) |
|
|
F2 |
|
|||
|
1 |
|
1 |
|
|
1 |
|
1 |
|
|
|
1 |
|
1 |
о |
3 |
|
-1 |
|
о |
|
|
1 |
|
|
215,0 |
|
||
50 |
1,5896 |
-О, 15991 |
0.25354 |
|
О,2.'5615 |
|
31,811 |
|
||||||
200 |
0,46987 |
-0,046987 |
0,074814 |
|
0,074802 |
|
|
0,24510 |
||||||
300 |
0,20872 |
-0,020873 |
0,033163 |
|
0,033163 |
|
|
0.00956 |
||||||
400 |
О, 13903 |
-0,013903 |
0,022015 |
|
0,022015 |
|
|
0,00189 |
||||||
500 |
0,040561 |
-0,0040561 |
0,0060271 |
|
0,0060272 |
|
0,000014 |
|||||||
800 |
0,004976 |
-0,0004976 |
0,0023621 |
|
0,0023624 |
|
0,i2110-8 |
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
Таб,ища ./ |
|
\ |
1 \ |
2 \ |
з \ |
41 s \ |
61 1 \ |
в \ |
|
9 \ 10 \ 11 |
||||||
w; \ |
1.oi 1. 1\ |
1.2\ |
1,3\ |
1•1\ |
1.511 •6\ |
1.1\ |
|
1.8\ |
1.9\ |
2. о |
||||
S; |
71 |
67 |
|
64 |
61 |
58 |
55 |
53 |
1 |
51 |
49 |
47 |
45 |
Ка1< уже указывалось, овражная ситуация весьма типична в задачах параметрической идентификации,
когда неизвестные параметры модели определяются в результате поиска минимума некоторого критерия, опи
сывающего согласие расчетных и эксперимента.1ьных
значений.
Характерным примером подобного типа является за дача вычисления коэффициентов а и Ь передаточной
функцпи объекта
k(p)=-~-, а>О, Ь>О
Рта
по амплитудно-частотной характеристике, представлен
ной в виде табл. 4 и соответствующей значениям
а*= 1, ь* = 100.
Воспользуясь методом наименьших квадратов, бу
дем определять а и Ь из условия минимума критерия
[28]
J(a, Ь)= !11 |
[ |
Si- |
ь |
]2 |
(40) |
|
__ |
. |
|||
i=l |
|
|
Va2 +ooi |
|
|
§ 4.4. Принцип повторных измерений |
169 |
Линии равного уровня J(а, Ь) =const имеют ярко
выраженную овражную структуру. Обусловленность
матрицы Гессе !" в точке минимума достигает ве.'шчп ны k ( !") = 23 ООО, что определяет и известные вычис.1и
тельные трудности.
В табл. 5 приведены результаты минимизации функ ционала (40) системным методом оптимизации.
|
|
|
Таблица 5 |
р |
а |
ь |
J |
|
1 |
1 |
1 |
о |
0,5 |
50 |
3089,4 |
24 |
0,05 |
78,3 |
106,9 |
72 |
0,58 |
84,0 |
55,7 |
96 |
0,79 |
92,3 |
9,06 |
120 |
0,96 |
98,3 |
0,5 |
144 |
0,99 |
99,8 |
0,006 |
168 |
0,99998 |
99,999 |
310-1 |
Для сравненпя в табл. 6 приведены результаты ра
боты метода наискорейшего спуска.
|
|
|
Таблица б |
р |
а |
ь |
J |
1 |
|
1 |
1 |
о |
0,5 |
50 |
3089,4 |
50 |
-0,01 |
56,2 |
1613,5 |
100 |
0,06 |
56,9 |
1525,8 |
200 |
0,06 |
57,9 |
1405,6 |
300 |
0,06 |
58,9 |
1287' 1 |
500 |
0,06 |
60,9 |
1066,5 |
1000 |
0,06 |
65,9 |
619,4 |
1300 |
О, 1 |
69.1 |
411 ,О |
§ 4.4. Принцип повторных измерений
При анализе квадратичных методов оптими зации обычно пренебрегают различными вычислите.1ь ными погрешностями, необходимо присутствующими в
.rrюбом вычислительном процессе. Однако, если уровень