Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
методология научного творчества лекции.doc
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
333.82 Кб
Скачать

Сведение задач третьего типа в задачи мат программирования

Задачи третьего типа, приведенные к задачам мат программирования, являются параметрической оптимизации. Вспомним постановку задачи параметрической оптимизации: любое отдельное техническое решение, как правило, можно описать единым набором переменных (изменяемых параметров) Х=(х1,х2,…,xn) (1). Эти параметры могут изменять свои значения в некотором гиперпараллелепипиде (ai<=xi<=bi) i=1..n (2). Мат модель проектируемого изделия ставит в соответствие каждому набору значений (1) некоторый критерий качества или функцию цели F(X), а также накладывает на переменные (1) дополнительные ограничения, представляемые чаще всего в виде системы нелинейных неравенств gj(X)>=0 j=1..m. Тогда задача поиска оптимальных параметров технического решения состоит в нахождении такого набора значений переменных (1), который удовлетворяет неравенствам (2) и (3) и обеспечивает глобальный экстремум критерия качества F(X).

Для определенности считаем, что ищется минимум, и тогда, если обозначить чрез D область допустимых решений, удовлетворяющих неравенствам 2 и 3, то получим задачу математического программирования в N-мерном пространстве, а именно найти точку Х* из D такую, что F(X*) – минимум функции F(X) для всех X из D.

Следует отметить, что задача поиска оптимальных значений параметров в большинстве случаев представляет собой многопараметрическую и многоэкстремальную задачу, когда функциональное ограничение 3 вырезают замысловатые области в D. Объемы этих областей могут быть очень малыми по сравнению с объемами гиперпараллелепипеда 2. Однако, несмотря на такую кажущуюся сложность, большинство задач параметрической оптимизации можно вполне удовлетворительно решать существующими методами, таких методов много.

Метод конкурирующих точек

В основе алгоритма лежит принцип эволюции популяции живых организмов, находящихся в ограниченном пространстве, например, на острове. В такой популяции резко возрастает конкуренция между отдельными особями. В основу алгоритма положены следующие положения:

1) Поиск глобально экстремума осуществляется сразу несколькими конкурирующими решениями (точками).

2) условия конкуренции одинаковы для всех решений.

3) В определенные моменты некоторые худшие решения бракуются (уничтожаются)

4) Последовательный локальный спуск каждого решения в начале грубый, а затем более точный, происходит независимо для каждого решения.

Алгоритм конкурирующих точек является достаточно простым и эффективным по сравнению с другими, например по сравнению с методом Монте-Карло, трудоемкость на два порядка меньше.

Для удобства изложения алгоритма решения, будем называть точкой многомерного пространства и обозначать через Х. Для определенности ищем минимум.

Алгоритм

1) Синтезируется l точек (l=q+w) q – число основных точек w – число дополнительных точек. Xj

В этих точках определяется F(X). Из этих точек отбирается q точек имеющих наилучшие значения критерия, назовем их основными. Запоминаем наихудшее значение критерия основных точек. Обозначим это наихудшее значение через p0. Считаем, что выполнен или совершен нулевой глобальный групповой шаг поиска (t=0).

В общем случае на любом групповом шаге с номером t имеем групповые точки X1t, X2t .. Xqt t=0..T. Поскольку для каждого группового шага с номером t имеем свое наихудшее значение функции p, то для группового шага с номером t будем иметь p0,p1,...,pt.

2) Каждая основная точка (основной шаг) локального поиска делает один шаг локального поиска, в результате которого точки 1 переходят в новое состояние. Обозначим его X^1(t+1), X^2(t+1)... (3) (t+1 – верхние индексы!!!!)

3) Синтезируем w[t+1] дополнительных точек, каждой из которых разрешается сделать t+1 шагов локального поиска при условии, что после каждого локального шага ее критерий не хуже, чем соответствующий элемент последовательности 2. При нарушении этого условия, точка исключается и не участвует в дальнейшем поиске глобального экстремума, в результате с учетом исключения ряда дополнительных точек получаем k доп точек и получаем следующий набор дополнительных точек X^^1[t+1], X^^2[t+1]… (4)

4) среди точек (3) и (4) отбираем точки количеством q с лучшими значениями критериев X1[t+1], X2[t+1]... Xq[t+1] (5).

Точки (5) являются основными на t+1 шаге группового поиска. Последовательность (2) дополняется числом p[t+1].

5) Цикл по пунктам 2-4 повторяется до получения глобального экстремума, в качестве условия прекращения поиска может быть использовано, например выполнение заданного числа шагов T.

Рассмотренный алгоритм является универсальным. На эффективность поиска глобального экстремума в этом алгоритме сильное влияние оказывает процедура шага локального поиска, которую следует выполнять с учетом свойств минимизируемой функции F(X) и ограничений. В качестве процедуры шага локального поиска можно взять последовательность естественных итераций некоторого алгоритма поиска локального экстремума. Иногда целесообразно при построении процедуры шага локального поиска использовать несколько разных алгоритмов с условием перехода от простого (менее точного) к более точному. Проведенные исследования равных процедур на тестовых и практических задачах позволяют предложить (рекомендовать) следующие алгоритмы: алгоритм Нелдера-Мида, случайного поиска в подпространствах, случайного поиска с выбором по наилучшей пробе, сопряженных градиентов.

В случае отсутствия априорных сведений о решениях в допустимой области, синтез допустимых точек рекомендуется проводить согласно равномерному распределению.