Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Планирование и обработка эксперимента / Rakitskiy - Chislenniye metodi resheniya 1979

.pdf
Скачиваний:
84
Добавлен:
13.05.2017
Размер:
6.71 Mб
Скачать

Iзо

Гл. 3. Асимп.тотические преобразования

Ньютона может быть использовано значение z1 на пре­

дыдущем шаге или результат прогноза по формуле

(l. l 07). Матрица Я·коби дF/дz1 может :viaлo из:v~еняться

на решении и вычисляться только один раз на неско.111,­ ко шагов, аналогично тому, как это делается при при­

менении неявных методов для жестких систем.

В тех случаях, когда в жесткой системе ( l) может быть выделен ·малый !Параметр µ при ffiроиз·водной и она

допускает представление в сингулярно возмущенном

виде

µ dt -

f

1

(t

, и,

t' ,

 

 

 

(56)

du

 

 

 

)

 

 

 

du

f2

 

 

 

 

 

v=Rm-k

 

 

di =

 

(t,

и,

v),

,

(57)

 

=

v

возможность описания

 

решения

(56)-( 57)

решением

··спстемы дпфференциальных уравнений меньшей размер­

постп использовалась в реальных практических задачах

:задо.1го до строгого ее обоснованпя. Так, в задачах хи­ wшческой кинетики применя.'Iся метод квазистационар­

ных концентраций Боденштейна - Семенова :[30], пред­ nо.1агающ11й следующую аппрокспмацию:

f1 (t, U, v) =О,

(58)

 

(59)

Позднее аппроксимация (58)-(59), в основе теоре­ тического обоснования которой лежит теорема Тихоно­ ва [31], стала испо.11ьзоваться н в других прик.11адных

задачах.

Однако такой подход имеет ряд ограничений. Во-пер­

вых, явное выделение малого параметра и разделение

переменных на «быстрые» (и) и «мед.1енные» ( v) воз­ :\южно далеко не в каждой жесткой системе. Более то­ го, даже если малый параметр при производной выде­

.11яется, то без наличия априорной информации о ха­

рактере ·поведения решения ·систе•мы определения «'бы­ стрых» переменных не всегда очевидно. Примером ска­ занного служат уравнения (39)-(40). Обе переменные

совершенно равноправны, и аппроксимация (58)-(59) no любому из уравнений не приводит к желаемому ре-

§ 3.2. Квазистационарность производных

131

зу:1ьтату. Между тем система яв.ТJяется жесткой 11 нмеет

два различных частных решения с существенно разным

поведением.

Во-вторых, дифференциальная систе:-.1а (58)-(59).

по.1уч11вшаяся в результате аппрокс11маци11, хотя 11 пере­

стает быть спнгулярно возмущенной, может оставаться

все еще жеспюй и вызывать существенные труJ.нос·ш

при ее анализе. Последний факт обусловлен тем, что ко­ личество независимых быстроубывающих частных ре­

шений может не совпадать с количеством уравнений,

где выделяется малый параметр при производной.

В-третьих, точность аппроксимации решения (56)- (57) решенпем (58)-(59), определяемая величиной ~t,

может оказаться недостаточной. В этом случае вне по­

граннчного слоя (to+'tпc ~t~to+Т) попытаемся ис­

кать формальное решенне в виде степенного ря;~:а 110

µ [6]

u(t,

~t)=u0 (t)+~iu1 (t)+

.. ·+µkuk(t)-1-

, (60)'

и(t,

~t)=v;;(t)+µvi(t)+

.. ·+µ 11 vk(t)+

 

Подставляя (60) в (56)

11 (57), записывае!\1 обе час­

тн этих уравпенпй также в

виде разложення по степе­

НЯ!\1 µ и прнравниваем коэффицпенты прп

одинаковых

степенях

µ. Отсюда получаются уравнения

для iii(t) 11

й; (t). Сравнивая коэффициенты при нулевой степснн,

11~1еем

 

 

 

f1 (t, И~;, v;;) =~О,

 

 

 

 

 

 

 

d~= f2 (t, Uo, t'o).

 

 

 

 

 

 

 

dt

 

 

 

 

 

Заметн:\-1, что уравнения для й0

н fio

совпадают

с:

(58)

11 (59). Для й1 и v1 получаем

 

 

v

(6 I)

 

d110= дf1(t,uo,•'0Lи+ дt1(t,u;;,~)

 

dt

 

ди

1

дv

 

1•

(62)

 

dVi =

~~ 110,

v;;l__ u+ дf2 (t,

ио, ~) v

 

dt

 

дtt

1

ди

 

1•

 

Ана.1оп1чные

уравнення строятся 11

для

оста.1ы1ых

йi 11

v;.

 

 

 

 

 

 

 

Отметпм,

что

практическое нахожденне

решеппя

в

в11;1.е

(60) существенно

осложняется

не

только потреб-

9*

132

Гл. 3. Асимптотические преобразования

ностью решать алгебраические и дифференциальные

уравнения типа (61) и (62) для каждой пары Vi, йi, но и

необходимостью получать началЬ"ные услоВ'ИЯ Vi (О). Фор­

мулы для нахождения последних rполучены А. Б. Ва­ еильевой [6] и требуют учета та1к называемых П-функ­

ц~ий, описывающих пограничный слой.

В работах [55, 41] рассматривается возможность ис­

пользования квазистационарных приближений при s= 1

в жестких системах. Однако предлагаемый подход по­

прежнему связан с неявным выделением малого пара­

метра, и отмеченные выше трудности сохраняются. На­ конец, в работе [16] показывается, что частным случя.­

ем общего метода построения асимптотических разложе­

ний решений сингулярно возмущенных уравнений явля­ ется и известный SАРS-1м·етод, предложенный Г. Даль­ квистом [46].

От перечисленных недостатков свободны аппроl{СИ­ мацни (44)-(45), основывающиеся на ПКП и не тре­

бующие записи жесткой системы в сингулярно возму­

щенном виде (56)-(57).

Рассмотрим подробнее применение аппроксимации

(44)-(45), когда жесткая система записана в форме

(56)-(57).

Продифференцируем уравнение (56)

d2и

дf1 (t,и,v)

f1 (t,u,

t') +дf1(t. и, v)

f2(t,

и,

v)+

µ dt 2 =

ди

µ

дv

 

 

 

 

 

 

 

+ дf1 (t,

и,

v) •

(6З)

 

 

 

 

дt

 

 

 

После умножения на µ имеем

 

 

 

 

2 d2и_дf1 (t, и, v)

fi(t, и,

v)+µ(дf1(t, и,

v) f2 (t,

и,

v) +

µd/2-

ди

 

дv

 

 

 

 

+ дf1(t. и, v))·

дt

Аналогично, дифференцируя (56) s-1 раз, получаем

sd5 и

µ- = dt 5

=U0 (t, и, v)+µИ1 (t, и, v)+ · · ·+µ5-1 Иs-1(t, и, v).

(64)

§

3.2.

Квазистационарность

производных

133

При подстановке

(60)

в

(64)

и

(57)

выражение

приводится к виду

 

 

 

 

 

 

s d

U0

s+l d

Ut

(

-

-

0

)

+

µ --+µ

--+

···=F0

t, И0

, t1

 

5

 

5

 

 

 

 

 

 

 

dt

5

dt

5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(64)

Тогда,

приравнивая

коэффициенты

при

одинаковых

степенях подобно

µ в (61)

(64) и (57), получаем

и (62). Заметим, что

уравнения для разложение в

Ui, Vi левой

части

(65)

начинается

с

µ•

и,

следовательно,

уравнения

д.1я ТII

й; и (65).

Vi

при

i<s

не

зависят

от

членов

в

левой

час­

Таким изводной

образом, пренебрегая согласно ПКП s-й про­ в уравнении (64), получим приближение реше­

ния,

разложение

которого

по

•степеня:1-1

µ

сов:падает

до

µ•-

1

включительно

с

-разложением

(60)

для

исходной

систе.мы ~примере,

(56)-(57). расоютрев

Проиллюстрируем этот фаю на

аппроксю1ацию ·в·ида

(44)-(45)

ура~внений

(56)-(57)

с

s=2.

Предварительно

перепишем

уравнение

(61)

д.1я

й1 и рез

ii1,

заменив производную dй01dt ее выражением че­

й0 и

ii0• Дифференцируя алгебраическое

уравнение

д.1я

йо

и

iio,

получаем

Пред1полагая

матрицу дf1U.

Ио. Vo°)

неособенной,

 

 

ди

 

duo=

-(дf1(t, Uo•

Vo))-

1

(дt1(t,

и;.,

Vo)f

(t

 

-

-)+

dt

ди

 

 

 

дt•

 

2

Ио,

Vo

имеем

и

уравнение

(61)

преобразуется

к

+дf1(t,

виду

Uo, дt

Vo))

'

дf1 ди

и1

+

дf1 дv

"i

+

(af1 ди

)

-

1

(at1 дv

12

+

дf1 дt

)=о.

(66)

134Гл. 3. Аси,1ттотицеские преобразования

Сдругой стороны, приравнивая нулю вторую произ­ водную по и, согласно (63) имеем

дf1(t, и. v) f1(t,

и,

v)+µ(дf1(t,

и,

v) f2(t,

и,

v)+

 

ди

 

 

 

 

дv

 

 

 

v))=o,

 

 

 

 

 

 

 

 

+дf1(t,

u,

(67)

 

 

 

 

 

 

 

 

 

дt

 

 

 

 

dv

 

f

2 (t,

и,

v).

 

 

 

(68)

 

 

dt =

 

 

 

 

Подстав.'Iяя

в

(67)

и

 

(68) разложение (60) и при­

равнивая коэффициенты

прп

нулевой степени µ,

по.11у­

чаем

 

 

 

 

 

 

 

 

 

 

 

 

дf1 (t, и;;,

vo)

f (t -

7

) - О

 

 

 

 

ди

 

 

1

' Ио, Vo

-

'

 

 

 

 

dv

 

 

(

-

-)

 

 

 

 

 

 

d/= f2

t,

Ио,

Vo

 

 

 

 

После умножения на

( ~: )-t

первого уравнения: воз­

нпкшая спстема для й0 11 i/0 принимает такой же вид,

как 11 соответствующая система для (56) и (57). Ана­

логично приравнивая коэффициенты прп перво1"r степе­

ни µ, убеждаемся, что дифференциальное уравнение для

v1

совпадает с

(62), а алгебраическая система

д.11я ii1 и

v1

в точностн

отвечает ура'внению (66), у:-..шоженному

на неособенную :-.1атрицу дf1/ди.

 

 

Оп1ечая савпадение первых ~вух чденов в

разложе­

нш1 (60) для уравнений (56)-(57) и уравнений (67)- (68), следует обратить внимание на тот факт, что в по­

.11учении приб.'Iижения на основе ПКП п приближения (60) по форму.11ам (61) п (62) есть существенная раз­ ница. Работа с формуламп (44) и (45) требует реше· ння то.11ько одной алгебрапческой системы (44) относи­

тельно х1, а также наличия только одного начального

условия для .\:2, в то время как во втором

с.1учае

нуж·

но найти все Vi (О) и решать несколыю

спстем

вида

(61). Начальное значение для х2 вне пограничного с.1оя

может быть найдено интегрированием полной системы

(42)- (43) или, если внутри пограничного с.1оя допусти­

ма линеаризация (42)-(43), то х2 (0) рассчитывается по формуле (30).

Глава 4. Оптимизация

§4. t. Оптимизация и жесткость

Вчетвертой главе рассматриваются методы

опт11:-.шзации, предназначенные для решения следующей

за,:1.ач11.

Пусть J(x) - гладкий функционал, определенный в

т-:\!ерном евк.111;1.овом пространстве Rm, и пусть на не­

котором под:чножестве X*cRm функционал J(x) дости­

гает своего :'>Шю1:v~:ального значения, т. е.

J (х*) = min J (х) при V х* е Х*. xERm

Требуется найти точку x*ER111, удов.1етворяющую о.:~.но:11у из с.1е,J.ующих условий:

j\p(~*)-i'J\~e,

(1)

\ J (x*)-J (~J1~е,

(2)

г.Jе е есть заданная точность ~решения, а р(х*) означает проекцию х" на множество Х*.

В да.11ьнейшем, как правило, рассматривается случай,

коrJ.a множество Х* содержит единственную точку х". Сформуш1рованная задача оптимизации, естественно,

не охватывает всех ситуаций, возникающих в приложе­ iшях. Например, на искомый вектор х" могут наклады­

ваться допо.11нптельные ограничения, приводящие к ми­

нюшзации це.пе~вого функционала не во всем про'С'11ран­

стве Rm, а на некотором его подмножестве. Однако ме­ ТОJ.ы решения более сложных оптимизационных задач обычно строятся на основе алгоритмов решения выше­

пр11веденной простейшей задачи, которая продолжает

заш1:-.rать центра.11ьное место в общей теории оптимиза­

щrн.

136

Гл.

4.

Оптu,чиэация

Другой

причиной,

заставляющей

обращаться

к

изу­

чению

методов

решения

оптимизационных

задач

в

про­

стейшей

постановке,

нвляется

тот факт,

что

широко

из­

вестные

методы

минимизации

01<азываются

совершенно

непригодными для

прикладных задач

решения подавляющего большинства

даже в простейшей постановке н час­

то

сходятся

слишком медленно.

 

 

 

Вознпкающие трудности в

первую

с

ситуацией,

когда поверхности

уровня

очередь связаны

J(х) = const име­

ют

«овражную»

структуру,

весьма сильно

отличающую­

ся

от

сферической

и

характеризующуюся

наличпе:vr

не­

которой области в которой норма

притяжения QcR.m, содержащей х*, вектора-градиента J'(x) существенно

меньше, чем

в

 

оста.11ьной

части

пространства.

На рис.

13

изображены линии

уровня

функционала

овражного

типа,

зависящего от

1ментав x(I>, х<

2

>.

 

 

 

 

 

 

 

 

 

 

некоторого двух аргу-

Рис.

13.

Область Q в данном случае совпадает с

точек,

удовлетворяющих уравнению q>(xO>,

множеством

x<

2

J) =О,

и

 

 

 

изображена

па

рисунке

пунктирной

линией.

Если

раз­

·мерность

1прос1'ранства

аргуе"1енrов

больше

д:вух,

то

струк­

тура жет

:поверхностей уровня овражных

01<азаться весьма сложной. При

фун1кционалов

этом вместо

мо­ изо­

браженного на рисунке

оврага могут появляться

так называемого

одномерного

(m-k)-мерные

овраги, где k

~1ожет :-.1еняться

от

1

до m-1.

Так, в

ранстве (m=З)

возможны уже ка1<

двумерные овраги.

В

первом

случае

трех:мерно·:-.1

прост­

одномерные,

так и

линии уровня ока­

зываются

б.11изкими

к

сильно

вытянутым

эллипсоидам

§ 4.1. Оптимизация и жесткость

137

вращенпя, во втором случае - к сш1ющенным эллипсоп­

да:v~ вращения. С увеличением размерности многообра­

зне поJ.обных ситуаций также увеличивается. Функционалы овражного типа локально характери­

зуются плохо обуслО'вленньаш 'У!атрица:v~и Гессе J" (х), что прпводит к сильному изменению J(x) вдоль направ­

леннй, совпадающих с собственными векторами матрицы Гессе J..'IЯ больших собственных чисе.r~, и к слабому из­ менению вдоль других направлений, отвечающих ма.1ы:м

собственным числам матрицы Гессе.

Бо.1ьшинство известных методов оптимизащш позво­

ляет достаточно быстро попадать в область Q (называ­

емую «дном» оврага), приводя иногда к значительному уменьшению значения J(x) по сравнению с его значени­ ем в псходной точке («спуск на дно оврага»). Однако

далее процесс резко замедляется и практическп оста­

нав.111шается в некоторой точке из Q, расположенной

сравнительно далеко от истинной точки минимума. По­

лучаемые таким образо:v~ точки из-за схожести ситуаuий часто ош11бочно трактуются как точки локальных ми­ н11!11у:110в. Как показывает практика, подобные выводы о

мноrоЭI<стремальном характере минимизируемых функ­

щюна.1ов, как прави.•ю, лишены оснований 11 в дейст­

внте.1ьности наличие многих локальных мпнимумов

встречается значительно реже, чем об этом прпнято го­

ворить.

Точкп остановки применяемой поисковой процедуры

могут весьма сиJ1ьно зависеть от используемого началь­

ного приближения 11 располагаются в областп Q прак­

тнческп случайным образом. Д.11я того чтобы пояснить,

кче:-.1у это иногда может пр11вести, рассмотрим в каче­

стве примера следующую задачу параметрпческой идентпфикаuии.

Пусть имеются некоторые данные эксперпмента,

преJ.ставляющие собой набор чисел {.ii1<}, k= 1, ... , N, и :v~а-

1емат11ческая модель исследуемого явления Yk=Fk (х),

позво.1яющая рассчитывать резу.11ьтаты эксперимента в

завпсимости от величин компонент вектора х= (x(l>, ...

..., х:";)) - неизвестных пара:.1етров С\ЮJ.ели. Требуется оп­

реJ.е.шть значения параметров х<о из условия совпаде­

нпя с заданной точностью расчетных Ун и эксперпмен­

та.1ьных значений Ун прп k= l, ..., N.

138

Гл. 4. Оптимизация

Бели функционал, описывающий рассогласование вы­

ходов моде.1п и объекта, как это обычно п бывает, н:v~е­

ет овражную структуру, то могут возникать двоякого

рода трудности в зависимости от типа решаемой за­

дачи.

Еслп решается задача аппроксимацпи эксперимен­ тальных данных с помощью формул yk=F1,(x), то до.1ж­

на быть найдена точка х., удовлетворяющая условию

(2). Однако при остановке алгоритма в точке х1 ложно­ го минимума значение J (х1) может существенно превос­ ходить величину J(x.), и в результате прпхо;щм к яв.1е­

нию ложной неадекватности и, как с.1едствие, 1< отбра­

ковке, может быть, вполне приемлемой структуры мо­

дели, задаваемой функцпями Fk, k= 1, ..., N. В некото­

рых случаях это существенно затрудняет .:~.альнейшие

исследования по поиску оптимального математического

описания.

Иногда бывает известно, что принятая структура

модели в точности соответствует реальному объекту ис­

след'о'Вания, и •пара·:\~етры x<iJ несут ·нпо.пне определенный

содержате.1ьный смыс.'I. В таких случаях может ставнть­

ся задача оценки неизвестных параметров объекта x<i)

также из условия совпа::~.ения выходов мо.:~.е.'Iи и объек­

та. Пр·и это:\! вектор х* фа1ктически должен опре.::.елять­

ся нз условия (1). Данная задача обычно оказывается значительно труднее предыдущей. Дело заключаетсп в том, что в множестве Q минимизируемый функцнона.'I

меняется достаточно медленно, и точка .1ожного мшш­

мума X1EQ может быть расположена далеко от х.,

т. е. llx 1-x. 11 ~ е, хотя при этом часто оказываете?., что ll(x1)-J(x.) 1<е, и задача аппроксимащш решена. По­

следующее использование полученных такпм образом оценок неизвестных параметров вне данной мате:v~ати­

ческой моделп может повлечь существенно неверные

выводы.

Трудностн минимпзации овражных функциона.1ов тесно связаны с рассматриваемой в данной книге проб­

лематикой п вытекают из жесткости систем обыкновен­

ных дифференциальных уравнений, описывающих траек­

тор:ию наискорейшего спуска функциона.1а J (х):

~; = -J' (х), х (О)= Х0

(3)

§

4.1.

Оптu,11изация

и

жесткость

139

Естественно, что мизационных задач

и методы решения овражных опти­

оказываются близкими к сооответ­

ствующ11м Дадим

методам численного интегрирования.

формальное определение понятия овражности.

Определение 1. ФуН'кцнона.1

J (х), xERm,

вается овражнылt, если система (3) -

жесткая.

Бо.'!ее конструктивным оказывается следующее

назы­ опре­

де.1е11ие.

Оп

редел

е

1111

е

2.

ДважJ.ы

непрерывно

дифферен­

цируемый

функциона"'!

J

(х)

называется

овражным,

если

существует некоторая чис.1а :.1аТ1рицы J"(x),

область

GcR

111

,

уnоряJ.оченные

где в

собс'Гвенные любой точ·ке

ХЕ

G

.тю

убыванию

·).юду

лей,

удов.1етворяют

неравен­

ства.vt

Л

1

(х)

~

1

m/n

Л;

(х)

1

>О.

(4)

В

частно:vr

с.туучае,

когда

функционал

J(x)

является

c11.1i>110 выпуклым

11

опреде.'Iена (все

ее

матрица Гессе !" (х) положительно

собственные числа строго

больше

ну.1я),

неравенства

(4)

совпадают

с

известным

требова­

нпе:-.1

п.1охой

обусловленности

матрицы

Гессе

в

смысле

ве.1вчины

спектрального

числа.

k (J")

 

max 1

Л; 1

=

i

 

 

 

miп I

Л; 1

 

 

i

 

max

i

min i

Л; Лi

(5)

Наиболее бо.1ее грубая

:1агается, что

часто в

дальнейшем будет

использована

модель

овражной ситуацни,

когда

предпо­

собственные числа матрицы

Гессе

можно

отчетливо раздетпь

на две

группы, в

вхоJ.ят собственные

числа,

по

модулю

ходящие составляющие второй

группы.

одну из

которых

намного

превос­

А именно, будет

пспользовано следующее опреде.'Iение.

Определение 3. Дважды непрерывно

дифферен­

цируемый функционал J(x) называется

об.1аст;1 GcRn',если собственные числа

r-овражным

в

матрицы J"(x)

удоРлетворяют неравенствам

Л1 ~ · · ·~ ').,т-г )) 1 Лm-г+1

1

>

···:>

1

Лт

1

при V xEG. функшюна.11а

Число J(x) в

r называется

об.11астп G.

размерностью

оврага