Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
99
Добавлен:
23.06.2014
Размер:
11.12 Mб
Скачать

2.3. Методы параметрической оптимизации

В общем случае решение задачи параметрической оптимизации осуществляется путем перебора определенным образом выбираемых вариантов значений параметров, сравнения их между собой и выбора наилучшего варианта. Алгоритм выбора очередного варианта значений параметров носит название стратегии поиска.

Чаще всего решение задачи параметрической оптимизации проводится в несколько этапов. На первом этапе выделяют области параметров, в которых целевая функция является унимодальной, на втором - уточняют положения точек локального минимума в областях унимодальности, а затем среди точек локального минимума выбирают точку глобального минимума. При этом наиболее сложным и не поддающимся строгой алгоритмизации и формализации является первый этап. Для реализации второго этапа применяют специальные итерационные численные методы поиска экстремумов унимодальных функций.

2.3.1. Метод сеточного поиска

Метод сеточного поиска может применяться для проведения как одномерной, так и многомерной оптимизации. Данный метод является наиболее простым для реализации, не требует предварительного выделения областей унимодальности оптимизируемой функции, хотя его использование часто связано с большими затратами машинного времени.

Суть метода состоит в том, что непрерывной области D сопоставляется дискретная (сеточная) область D' Поиск оптимальной точки производится среди узлов сеточной области путем вычисления значений оптимизируемой функции в каждом узле, сравнения их между собой и выбора узла с минимальным значением функции.

Вводимая на области D сетка может быть как равномерной, так и неравномерной. Точность определения оптимальной точки зависит от "плотности" сетки (шага дискретизации области D*). На рис. 2.5 приведена блок-схема алгоритма поиска максимума целевой функции W(P) в прямоугольной области с границами PL=(PL1,PL2)' u PP-=(PP1,PP2)' пространства двух параметров (PL - нижняя, РР - верхняя границы).

Рис 2.5

2.4.2. Метод золотого сечения

Метод золотого сечения применяется при одномерной оптимизации и предполагает предварительное выделение интервалов унимодальности оптимизируемой функции.

Пусть функция f(x) унимодальная на интервале [a,b] и требуется уточнить положение точки минимума (максимума) л. на данном интервале. Применение для этой цели метода золотого сечения сводится к построению последовательности приближений {хk}, такой, чтобы точка минимума (максимума) функции находилась в интервале неопределенности данной последовательности [xk-1, xk], то есть хk-1<х<хk. Итерационный процесс приближения к точке оптимума заканчивается, когда интервал неопределенности становится меньше заранее заданной величины, определяющей точность нахождения точки оптимума. В качестве критерия окончания итерационного процесса удобно выбирать выполнение неравенства:

где δ определяет относительную погрешность поиска оптимальной точки. На каждом шаге метода золотого сечения отрезок [а,b] делится в точке

где носит название золотого сечения. Чтобы воспользоваться свойством унимодальности функции для уменьшения интервала неопределенности, на отрезке [а,b выбирается другая точка х1, расположенная симметрично относительно середины отрезка по отношению к точкех1. При поиске минимума если f(x1)>f(x2), то в качестве следующего интервала неопределенности выбирается [а, х1 ], что эквивалентно переносу точки b в точку х1 Если f(x1)<f(x2), то в качестве следующего интервала неопределенности выбирается 2,b], что эквивалентно переносу точки а в точку х2. При поиске максимума знаки неравенств меняются на противоположные.

На рис. 2.6 приведена блок-схема алгоритма поиска максимума функции методом золотого сечения.

Рис 2.6

Соседние файлы в папке Информатика_Курсовой проект_вар.30