Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Снапелев, Ю. М. Моделирование и управление в сложных системах

.pdf
Скачиваний:
11
Добавлен:
21.10.2023
Размер:
10.23 Mб
Скачать

грани равны нулю. В многоэкстремальных задачах каж­ дый из вариантов, подозреваемых на локальный экстре­ мум, должен рассматриваться и как вариант, подозре­ ваемый на глобальный экстремум.

Заметим, что в задачах отыскания минимума на вы­ пуклой вверх функции на многогранном множестве усло­ вий (многоэкстремальные задачи) подозреваемыми на оптимум точками являются, как и в случае линейного программирования, вершины многогранного множества условий задачи.

Число локальных экстремумов в практических зада­ чах невыпуклого программирования с сотнями перемен­ ных и десятками ограничений (как, впрочем, и число по­ дозреваемых на экстремум точек в задачах линейного и выпуклого программирования) чрезвычайно велико.

Однако, если в задачах линейного и выпуклого про­ граммирования критерий оптимальности плана позволяет упорядочить перебор вариантов и делает его практически осуществимым, то в общей задаче невыпуклого програм­ мирования надежды на упорядочение перебора нет.

Отсюда важность и сложность новых подходов к ре­ шению многоэкстремальных задач.

Принципиальные и вычислительные трудности, стоя­ щие на пути анализа многоэкстремальных задач, застав­ ляют обычно ориентироваться не на оптимальное реше­ ние (не на глобальный экстремум), а на приближенное решение (на некоторый локальный экстремум). Значе­ ние показателя качества на принятом приближенном ре­ шении должно быть, естественно, ближе к оптимальному, чем во всех других экстремальных точках, которые уда­ лось теми или иными методами обнаружить. Задача со­ стоит, следовательно, в том, чтобы при заданных ресур­ сах (временных и вычислительных) получить возможно больше информации о поведении показателя качества

вобласти его определения, сократить размеры области,

вкоторой следует искать оптимум, и число локальных экстремумов, подлежащих сравнению. Практически нель­ зя рассчитывать на точное решение многоэкстремальной задачи общего вида с немалым числом переменных и ог­ раничений.

До сих пор нет сколько-нибудь серьезных теоретиче­

ских работ, позволяющих подвести прочную математи­ ческую основу под нелинейное невыпуклое программи­ рование. Ниже приводится попытка систематизировать

190

пути анализа многоэкстремальных задач и наметить пер­ спективу исследований в этом направлении.

Следуя [100], методы решения многоэкстремальных задач будем делить на методы слепого поиска, методы локального и нелокального поиска. В методах слепого поиска в определенном порядке или случайным образом просматривается допустимая область изменения пара­ метров управления и сравниваются соответствующие значения показателя качества решения задачи. Основной недостаток слепого поиска в том, что информация о про­ веденных опытах здесь не используется для организации последующих.

Локальные методы поиска обеспечивают целеустрем­ ленное приближение к локальному экстремуму, в обла­ сти притяжения которого находится исходная точка. Нелокальные методы поиска изучают структуру оптими­ зируемой функции в области ее определения и выраба­ тывают пути приближения к глобальному экстремуму.

Методы поиска разделяются на детерминистические и стохастические (случайные) [102]. В детерминистиче­ ских методах, как уже отмечалось, очередной шаг одно­ значно определяется информацией, поступающей или накопленной к моменту принятия решения. Однако апри­ орной информации не всегда достаточно, чтобы опреде­ лить рациональное направление движения к экстремуму. Накопление информации может оказаться чрезмерно до­ рогостоящим. В таких случаях по аналогии с соответст­ вующими ситуациями в теории игр с неполной информа­ цией представляется целесообразным использовать для подготовки решения случайный механизм с определен­ ным образом подобранными статистическими характери­ стиками [65, 66].

Простейший нелокальный поиск состоит из комбина­ ции локального и слепого поиска. В качестве локального метода, как уже говорилось выше, при этом обычно ис­ пользуются различные варианты градиентного метода или метода Гаусса — Зейделя. Многочисленные модифи­ кации этих методов (дискретные и непрерывные) доста­ точно хорошо изучены.

Градиентный метод определяет движение к локаль­ ному экстремуму вдоль направления градиента показа­ теля качества решения.

В методе Гаусса — Зейделя на каждом шаге опреде­ ляется экстремум только по одной переменной или по

191

группе переменных. В [62] рассматривается модификация метода Гаусса — Зейделя, в которой на каждом шаге по каждой переменной определяется не локальный, а гло­ бальный экстремум. Эта модификация представляет со­ бой уже вариант нелокального поиска.

Нелокальный метод, скомбинированный из слепого поиска и локального метода, может быть реализован двумя способами. Первый способ предусматривает пред­ варительный слепой поиск, в результате которого выби­ рается исходная точка для однократного локального по­ иска. Второй способ требует многократного использова­ ния локального поиска из разных исходных точек. Срав­ нение значений показателя качества в достигнутых экстремальных точках позволяет выбрать из них бли­ жайшую к оптимуму. Оба способа могут быть реализо­ ваны как детерминистический или случайный поиск. Однако и в том и в другом случае применяется нена­ правленный нелокальный поиск. Любая специальная ор­ ганизация поиска, при котором исходная точка для очередного применения локального метода использует ту или иную информацию о результатах предыдущих опы­ тов, представляет собой направленный нелокальный поиск.

Гиперповерхности показателя качества решения мно­ гоэкстремальных задач содержат различные «ловушки» для локальных методов поиска.

Пусть точка, реализующая поиск минимума, движет­ ся по гиперповерхности показателя качества в сторону, обратную направлению градиента.

Будем рассматривать гиперповерхность с достаточно большим числом локальных минимумов — «ям» разной «глубины» и разного «диаметра».

Если движущаяся точка лишена массы, то незави­ симо от длины шага найдется локальная «яма», из ко­ торой точка не выберется. Если же заменить материаль­ ную точку тяжелым шариком, как это предлагает Б. Т. Полляк [63], то неглубокие ямы с относительно пологими краями не явятся причиной прекращения поиска. Тяжелый шарик будет по инерции выскакивать из таких «ям».

Ясно, что формальный метод поиска, реализующий движение тяжелого шарика по гиперповерхности пока­ зателя качества в области его определения, лучше прн-

192

способлен к решению многоэкстремальной задачи, чем градиентный или другие локальные методы поиска.

Градиентный метод с дискретной реализацией свя­ зывает координаты очередной точки с текущим вектором и градиентом показателя качества решения в текущей точке следующей рекуррентной общей формулой (о ко­ торой мы говорили выше):

Xi+i = Xi—aWVf(Xi),

(2.52)

где a(i) определяется длиной шага. Величина а<г'>, вообще говоря, может зависеть от номера шага.

Разные варианты метода тяжелого шарика опреде­ ляют вектор очередной точки по векторам текущей и предшествующей ей точки и градиентам показателя качества в этих точках по следующей формуле:

X t+i = Ро° X t + р}0 Х {_>- a<‘>V

f (Хг)~а\‘] V / (**_,).

Подбор коэффициентов р'0 , й|‘}

, ajl) определяет­

ся диаметром и глубиной локальных «ям», к которым метод поиска должен оказаться нечувствительным или малочувствительным.

В методе поиска, в котором очередная точка опре­ деляется по большому числу предшествующих точек,

 

X i+l = £

^

_fe - t а<;>у f (*,_*),

(2.53)

 

k=0

k=0

 

можно,

выбирая

соответствующим образом

параметры

а и р ,

регулировать

чувствительность метода

не только

к «диаметру» и «глубине» локальных «ям», но и к раз­ личным характеристикам распределения локальных экстремумов функции f(X).

Будем называть метод поиска, задаваемый форму­ лой (2.53), нелокальным градиентным методом в отли­ чие от локального градиентного метода, определяемого формулой (2.52).

Априорные сведения о структуре гиперповерхности показателя качества решения или сведения, полученные в результате предварительного поиска, дают основание для суждений о поведении функции f(X) в окрестностях исследованных областей. Гипотезы о структуре гипер­ поверхности f=f(X), уточняющиеся от шага к шагу,

позволяют выбирать постоянные и нелокального

13—633

193

градиентного метода поиска, обеспечивающие целе­ устремленное приближение к глобальному экстремуму показателя качества решения задачи.

Близким по идее и по возможным конструктивным реализациям к нелокальному градиентному методу является следующий метод анализа многоэкстремаль­ ных задач, который будем называть методом сглажива­ ния. В этом методе показатель качества решения f(X) = = f(xi, xz, ..., хп) — функция многих переменных, сгла­ живается таким образом, чтобы последующее примене­ ние локального или нелокального поиска оказалось не­ чувствительным или малочувствительным к неглубоким локальным экстремумам. Исследование показателя ка­ чества f(X) подменяется изучением функции

/ ( А > - Г j(X-Y)'P(Y)dY,

ъ

где 6 — некоторая окрестность точки X.

Функция веса P(Y)=P(yi, у2, ..., уп) выбирается в соответствии с принятой гипотезой о структуре опти­ мизируемой функции f(X). Гипотеза принимается на основе априорной или накапливаемой информации о ха­ рактеристиках локальных экстремумов f(X) и их рас­ пределения. Гипотеза уточняется по мере накопления информации. Вместе с ней деформируется и Р(У). Более гибкая система сглаживания определяется соотноше­ нием

f ( X ) = ^ f ( X - Y ) F ( X , Y)dY.

Ь

При достаточно общих предположениях относитель­ но f(X) и рационально подобранной функции веса эффект сглаживания оказывается следующим. Гладкая часть гиперповерхности показателя качества почти не изменится, локальные экстремумы с малой областью притяжения и небольшой глубиной сглаживания, а явно выраженный локальный экстремум функции f(X) (кото­ рый может оказаться и глобальным) несколько сместит­ ся относительно соответствующего экстремума f(X). Приближение к оптимуму сглаженной функции — более простая задача, чем решение исходной многоэкстремаль­ ной задачи. Точку, в которой f(X) достигает оптимума, целесообразно использовать в качестве исходной точки

194

для локального пли нелокального поиска экстрему­ ма f(X).

В ряде случаев (при определенным образом органи­ зованных функциях, подлежащих оптимизации) весьма эффективным оказывается нелокальный метод поиска, предложенный И. М. Гельфандом и М. Л. Цетлиным [32]. Пусть переменные, определяющие значение показа­ теля качества решения задачи, могут быть разделены на две группы. К так называемым несущественным переменным относят переменные, изменение которых приводит к существенным изменениям показателя каче­ ства решения.

Изменение переменных второй группы (существен­ ных переменных в терминологии авторов метода) при­ водит к несущественным вариациям показателя качест­ ва. Структура гиперповерхностей показателя качества решения в рассматриваемых задачах вызывает ассо­ циации с многомерным оврагом. Изменение несущест­ венных переменных определяет крутые склоны оврага, а изменение существенных переменных характеризует рельеф дна оврага. Приведенная геометрическая интер­ претация оправдывает название метода — метод оврага. В методе оврагов локальные улучшения показателя ка­ чества (выбор значений несущественных переменных) чередуются с быстрым нелокальным продвижением но существенным переменным. По мере уточнения сущест­ венных переменных в ходе поиска экстраполируется рациональное направление движения и ускоряется сам процесс поиска.

Рассмотрим более подробно этот метод. Следуя [80], будем предполагать, что функция, экстремум которой ищется, «хорошо организована». Если пользоваться гео­ метрическим языком, то «хорошая организация» функ­ ции означает, грубо говоря, «естественность» ландшафта ее поверхности, устроенной в виде системы хребтов и оврагов, которые друг в друга переходят «без катаклиз­ мов». Если ищется минимум (в дальнейшем именно он будет нас интересовать), то можно даже допустить существование колодцев, глубоких, но узких, поскольку такие колодцы все равно можно (а может быть, нужно) игнорировать из соображений требования устойчивости оптимального режима [106].

Гипотеза «хорошей организации» минимизируемой функции сохраняет достаточную общность для большин­

13*

195

ства производственных задач, во всяком случае, значи­ тельно большую, нежели гипотеза выпуклости. Другими словами, класс задач, в которых можно предполагать «хорошую организацию», значительно шире, чем класс задач выпуклых. Кроме того, по-видимому, овражный поиск в случае выпуклости будет действовать не намно­ го хуже, чем специальные выпуклые методы.

Схема овражного поиска хорошо известна. Из на­ чальных точек Ai и А2 производятся локальные спуски — до точек Xi и Х2 соответственно. Из точки А3, выбран­

ной на прямой XiX2 в направлении убывания

функции,

на расстоянии L (длина овражного шага) от

Х2 про­

изводится локальный спуск в Х3, после чего находится точка Ai — на прямой Х2Х3 на расстоянии L от Х3 и т. д. Каждый локальный спуск заканчивается тогда, когда относительное уменьшение функции становится доста­ точно незначительным (рис. 24).

В случае перевала через минимум при движении по оврагу можно сделать «вылазки» в сторону, чтобы про­ верить, нет ли здесь седловины. Можно вблизи мини­ мума заняться параболической интерполяцией и т. д.

Основными параметрами овражного поиска являются две начальные точки, вели­ чины локального и овраж­ ного шагов, а также «гради­ ентная проба», позволяющая вовремя кончать отдельный локальный поиск. Обозна­ чая эти параметры соот­ ветственно Аи А2, h, L, А, обозначая через Т минимум, найденный овражным по­ иском с этими параметрами, видим:

T— T{AUА2, h, L, А). (2.54)

В принципе, проводя по­ иск минимума этой функции пяти переменных (например, тем же овражным мето­

дом), можно найти наилучший режим овражного поиска. До сих пор нахождение такого режима зависит главным образом от искусства человека. Практически, однако, эта надстройка «второго этажа» делает задачу

196

очень сложной, в особенности, если само вычисление значений исходной минимизируемой функции сопряжено со значительными трудностями (например, требует большого количества машинного времени). С этим мы сталкиваемся, в частности, в тех случаях, когда исход­ ная функция задается с помощью некоторой статисти­ ческой модели. Действительно, эффективное исследова­ ние достаточно сложных систем можно проводить, как правило, лишь методом статистических испытаний (Мон­ те-Карло), но при этом интересующие нас характе­ ристики определяются как некоторые функционалы от процесса функционирования системы, т. е. для получе­ ния удовлетворительных оценок их значений требуется «проигрывание» моделирующего алгоритма [115].

Поэтому естественны следующие требования:

1) сократить

количество переменных в

(2.54);

2) упростить «первый этаж» в надежде,

что второй

не позволит решению быть слишком грубым.

ухищрения

Если все же

применять дополнительные

(например, параболическую интерполяцию), то нужно делать это только в последнем овражном поиске, прово­ димом в наилучшем режиме.

Наиболее важным параметром овражного поиска является величина овражного шага L. Если он мал, мы

не дойдем

до минимума,

если

велик, — перескочим.

Поэтому

интуитивно ясно,

что

T= T(L) — выпуклая

(вниз), и ее минимум может быть найдет обычным фибоначчиевым поиском на прямой. Что касается упро­ щения первого этажа, то технически, по-видимому, са­ мым простым является вычисление значений в вершинах правильного симплекса с последующим симметричным отражением максимальной вершины от противополож­ ной грани. Заканчивать движение по оврагу можно так же, как и при локальном спуске, — при помощи крите­ рия «градиентной пробы». Наверное, предположение выпуклости оврага на первых порах не будет слишком сильным.

Следует подчеркнуть, что далеко не всегда в исход­ ной системе координат удается произвести разделение переменных на существенные и несущественные, т. е. на первый и второй этажи. Однако можно ожидать, что физическая, биологическая или иная интерпретация показателя качества решения позволит в ряде случаев перейти к новым переменным, в которых такое разделе­

197

ние естественно. Задача преобразования показателя качества к переменным, в которых естественно разделе­ ние на существенные и несущественные аргументы, аналогичная задаче распознавания, как известно, сво­ дится к описанию образа в системе признаков, среди которых легко выделить существенные и несущест­ венные.

Таким образом, резюмируя сказанное, подчеркнем, что не всегда структура задачи позволяет разделить переменные на два класса, различающихся по влиянию на изменение показателя качества. Не все достаточно хорошо организованные показатели качества соответст­ вуют одномерным оврагам. В ряде случаев поиск экстремума можно ускорить, применяя многомерную тактику оврагов. Вводятся не две, а большее число групп переменных. При этом переменные каждой после­ дующей группы являются существенными по сравнению с переменными предыдущей группы.

Можно построить разнообразные варианты метода оврагов. Рациональное применение различных модифи­ каций овражного метода позволяет систематически ускорять поиск в ходе последовательного изучения структуры показателя качества. Априорные сведения о показателе качества решения дают основания для выбора исходной гипотезы о рациональной реализации метода применительно к конкретной задаче. Результаты применения метода позволяют в процессе решения уточ­ нить гипотезу и совершенствовать метод поиска [106].

При решении ряда задач, в которых приведенные методы поиска не являются эффективными, могут ока­ заться целесообразными те или иные комбинации этих методов. При этом в процессе решения задачи на каж­ дом этапе обеспечивается не только продвижение к оптимуму, но и получение необходимой информации для рациональной организации последующего поиска. В частности, уточнение структуры показателя качества f(X) в процессе расчетов может дать основание для перехода к другому методу нелокального поиска [100].

§ 2.7. Динамические модели оптимизации

До сих пор мы говорили о так называемых одношаго­ вых процедурах оптимизации. Для исследования много­ шаговых процедур используется динамическое програм­ мирование [6, 7, 25]. Лежащий в основе динамического

198

программирования принцип оптимальности часто может быть реализован в виде такого функционального урав­ нения, решение которого более доступно методам совре­ менной математики (в том числе вычислительной мате­ матики), чем решение соответствующих уравнений мето­ дами классической математики [33, 39, 95].

Здесь необходимо подчеркнуть, что возникновение динамического программирования связано с исследова­ нием некоторых типов многошаговых процессов управ­ ления, в которых фактор времени рассматривался явно. Однако метод динамического программирования может применяться и в таких задачах, где фактор времени вообще не фигурирует.

Основоположником динамического программирова­ ния является выдающийся американский математик Ричард Веллман.

Р а с с м о т р и м пример,

п р и в о д я щ и й

к з а д а ч е

д и н а м и ч е с к о г о

п р о ­

г р а м м и р о в а н и я

[175].

 

 

 

 

 

П р е д п р и н и м а т е л ю н у ж н о о п р е д е л и т ь о п т и м а л ь н о е ч и с л о р а б о т ­

н и к о в в к а ж д ы й и з п м е с я ц е в .

П у с т ь и з в е с т н о ,

ч т о и д е а л ь н о е ч и с л о

р а б о т н и к о в в

/ - м м е с я ц е

trtj.

О д н а к о ,

с у щ е с т в у ю т е щ е з а т р а т ы

п о

н а й м у и у в о л ь н е н и ю и в ы р а ж а ю т с я ф у н к ц и е й

fi(xixi-i)

В з а в и с и м о с т и о т з н а к а р а з н о с т и Xj— X j _ i э т а ф у н к ц и я о п р е д е л я е т з а т р а т ы п о н а й м у и л и у в о л ь н е н и ю пр и п е р е х о д е о т ( / — 1 ) - г о м е с я ц а к / - м у . О т к л о н е н и е ч и с л а р а б о т н и к о в о т и д е а л ь н о г о п р и в о д и т к з а ­ т р а т а м g j ( X j r r i j ) . Е с л и X j > t r i j , т о э т о з а т р а т ы н а с о д е р ж а н и е н е ­ р а б о т а ю щ и х р а б о т н и к о в , в п р о т и в н о м с л у ч а е — н а с в е р х у р о ч н ы е р а б о т ы .

О п т и м а л ь н о е з н а ч е н и е х,■— э т о н е о т р и ц а т е л ь н ы е ц е л ы е ч и сл а , м и н и м и з и р у ю щ и е в ы р а ж е н и е

п

Z"==\i —*3-1 ) + Ы*з —"О)).

где х„ = /и0.

Суть динамического программирования заключается в следующем. Предположим, что требуется разделить количество х затрат на две части у и (ху) с отдачей от у, задаваемой в виде g{y), и отдачей от у) в ви­ де h(x--y). После того, как использована часть перво­ начального количества затрат, остается количество за­ трат ау + Ь(х—у), где а>0, b< 1. Последнее количество снова делится на две части с теми же функциями от­ дачи.

Соседние файлы в папке книги из ГПНТБ