Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
билеты по Разработке САПР все.doc
Скачиваний:
14
Добавлен:
18.04.2019
Размер:
203.26 Кб
Скачать

26. Минимаксные критерии оптимизации.

В теории векторной оптимизации особое место занимает принцип компромисса, основанный на идее равномерности. На базе этого принципа работают минимаксные (максимильные) критерии.

Сущность принципа: при большом кол-ве частных критериев трудно установить аналитическую взаимосвязь между ними. Поэтому принимают идею равномерного компромисса. Стараются найти такие знач. переменных проектирования: x=(x1,x2…xn), при кот. нормированные значения всех частных критериев становятся равными между собой, т.е. fi=k, при k= от 1 до n.

А с учетом весовых коэф. Ci*fi(x)=k, i=от 1 до n

При большом кол-ве частных критериев из-за сложных взаимосвязей трудно добиться выполнения этих рав-в. В этом случае полезно применить принцип минимакса (максимина), при кот. варьируют знач. переменных проектировании x таким образом, чтобы наименьшие нормированные критерии «подтягивались» к остальным.

Ряд шагов приводит к определению степени уравнивания противоречивых частных критериев.

Формально принцип максимина формулируется след. образом: нужно выбрать такие x0 принадлежащее x (x(0) принадлежит X), на кот. реализуется максимум из минимальных значений частных критериев: F(0) (x(0))=max min {fi(x)}, где i=от 1 до n, x=(x1,x2…xn)

Max min {Ci Fi(x)}

Такой принцип выбора x(0) иногда носит название гарантированного рез-та. Если «отстающий» критерий имеет max значение, то необходимо минимизировать его:

F(0) (x(0))=min max {Ci Fi(x)}, i= от 1 до n, x=(x1,x2..xn)

27. Методы поиска экстремума. Покоординатный спуск.

Это метод Гаусса-Зейделя и явл. наиболее простым. Направление поиска выбирают поочередно в направлении вдоль всех координатных осей, т.е. вектор Pk состоит из нулевых эл-тов, за исключением одного- равного единице.

Pk-направление движения к оптимуму.

Пусть x0=(x1(0)…Xn(0))-начальная точка поиска. Примем условно, что n=2. Идем от x0 к x1 при выполнении однопарной оптимизации x1=(x1(1)…Xn(0))

Причем ф-ция F(x1(1),x2(0)…xn(0))=min F(x1(1), x2(0)…xn(0))

Результат второй итерации x2 получается из точки x1 путем оптимизации F(x) по пар-ру x2. Далее процесс повторяется, причем величину шага альфа k выбирают по способу оптимального шага.

Направление движения определ. по производным от ф-ции по пар-ру (в данной точке) в сторону уменьшения (max уменьшения)

Градиент-сумма всех производных (показывает увеличение ф-ции).

28. Метод наискорейшего спуска.

Этот метод наиболее применяем из-за сравнительной простоты. При определении направления поиска выбирают наибыстрейшее убывание ф-ции F(x), т.е. Pk=-grad F(x k-1).

Работа метода заключается в след.: после определения градиента-критерия оптимальности в точке x (k-1) движутся вдоль направления антиградиента до точки, в кот. достигается минимальное знач. ф-ции. Затем в этой точке снова определяется градиент и движутся по прямой, согласно направлению нового антиградиента и т.д., пока не достигнут точки, имеющей наименьшее знач. Движемся до тех пор, пока знач. ф-ции уменьшаются. Берется max градиент.

Если окажется, что F(xk) больше F(X (k-1)), то для определения экстремума производят возврат назад, в точку x(k-1) и идут в направлении антиградиента, но с шагом альфа (k-1)/2.