Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
445.doc
Скачиваний:
24
Добавлен:
30.04.2022
Размер:
5.75 Mб
Скачать

10.3. Подходы к решению обобщенных задач оптимизации. Математическая формулировка задач оптимизации

В процессе проектирования первым этапом начала работ является формулировка требований на элементы будущей системы. Существенной частью при этом должны стать перечень выходных параметров и значения технических требований TTj к ним, т.е. условия работоспособности . Анализ особенностей постановки задач оптимизации показывает, что задачу параметрического синтеза технических объектов в некоторых случаях можно сформулировать как задачу безусловной оптимизации:

. (10.7)

Наиболее типичным случаем параметрической оптимизации технических объектов является поиск значений вектора управляемых параметров, доставляющих экстремум функции при наличии ограничений. Формулировка задачи в этом случае запишется так: найти

при ограничениях:

(10.8)

В зависимости от того, каким образом выбираются и объединяются выходные параметры в скалярной функции качества различают частные, аддитивные, мультипликативные, минимаксные и статистические критерии. Для многих технических объектов примером частного критерия может служить стоимость.

В данной части лекций, рассмотрим весьма обширный класс задач, именуемых нелинейными задачами условной оптимизации. Ставятся они следующим образом:

найти

при ограничениях

Произвольную точку , удовлетворяющую всем ограничениям, будем называть допустимой. Множество всех допустимой точек называют допустимой областью. Задача, у которой нет допустимых точек, называется “недопустимой задачей”. Определение решение задачи как точки локального минимума на первый взгляд может показаться довольно искусственным - ведь ясно, что наибольший интерес, как правило, представляет глобальный минимум, т.е. точка, в которой значение целевой функции не хуже, чем в любой допустимой, а не только в близлежайших. Вообще, поиск глобального экстремума минимизируемой функции, имеющей несколько локальных экстремумов, является одной из труднейших задач оптимизации. Дело здесь в том, что в процессе глобального поиска должны решаться сразу две противоречивые задачи: искать каждый конкретный минимум и одновременно уклоняться от него, чтобы найти другой наименьший, т.е. глобальный минимум. Эта двойственность глобального поиска отражается и на затратах они значительно превышают затраты на поиск локального экстремума. Другой специфической чертой глобального поиска является отсутствие полной уверенности, что найденный за конечное время экстремум является глобальным. И лишь при неограниченном увеличении времени поиска вероятность утери глобального экстремуму может быть сколь угодно малой. Алгоритмы глобального поиска, в которых используется процедура случайного наброса, т.е. случайного распределения пробных точек в области S называют набросывыми. Наиболее часто используют алгоритм случайного наброса с поиском и адаптивный набросовый алгоритм.

При реализации алгоритма случайного наброса на каждом i-м этапе из случайной начальной точки делается локальный спуск в ближайший минимум Cоп– любым локальным методом поиска. За глобальным минимум принимается наименьший из полученных М локальных минимумов

(16.2)

Обычно при М вероятность того, что Соп, определяет положение глобального минимума, стремится к единице. При конечном М вероятность утери глобального экстремума всегда конечна. Однако использование локального поиска совершенно необязательно при работе набросовых алгоритмов.

Адаптивный набросовый алгоритм связан с адаптивным изменением плотности распределения наброса. Пусть p(C,V, ) - плотность распределения, параметрами которого является вектор --, равный математическому ожиданию случайного вектора, а 2 - некоторая скалярная мера рассеивания этого распределения (типа обобщенной дисперсии), такая, что при =0 распределение вырождается в дельта-функцию п С=V, а с увеличением – область наброса расширяется пропорционально . Алгоритм поиска заключается в генерировании последовательности случайных точек C[1], ..., C[N] и выборе точки с наименьшим значением показателя качества аналогично (15.5.1):

(16.3)

Так будем условно обозначать решение задач .

При этом параметры V и распределения адаптируются, например, следующим образом:

(16.4)

(16.5)

где 1<1, 2>1, т.е. зона поиска расширяется с каждой удачей и сужается при неудаче. Этот алгоритм стремится стянуть наброс вокруг лучшей точки. Темп такого стягивания, т.е. величина 1, определяет степень глобальности алгоритма. Если он велик (т.е. 1 мало), то, очевидно, будет найден ближайший локальный экстремум. Если мал, то шансы найти экстремум лучше ближайшего локального повышаются и при 1 1 вероятность отыскания глобального экстремума при N стремиться к единице (для этого необходимо, чтобы p(C,V, ) 0 для любой точки С S, т.е. чтобы плотность вероятности появления любой допускаемой точки не было равна нулю).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]