Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Методы оптимизации-А5.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
3.05 Mб
Скачать
    1. Метод равномерного поиска

Пусть априорная информация об унимодальности функции крайне недостаточна, чтобы строить разумный процесс поиска экстремума. Наиболее приемлемым способом поведения в такой обстановке является последовательное вычисление целевой функции I(x) при всех допустимых значениях варьируемого параметра x

a  x  b ,

где a, b – границы интервала поиска.

Пусть  заданная величина погрешности определения оптимального параметра x*. Тогда для реализации алгоритма поиска следует определить значение I(x) в точках, равномерно отстоящих друг от друга на расстоянии h = , т. е. в точках

Из полученных значений показателя качества I(xj) выбирается наибольшее значение (глобальный максимум). Такой способ поиска называется сканированием. При малой заданной погрешности  этот метод требует слишком большое число вычислений функции I(x) и больших затрат машинного времени.

    1. Метод поразрядного приближения

Этот метод применим для поиска оптимума унимодальной функции и обладает более высоким быстродействием. Это достигается тем, что используется алгоритм с переменным шагом поиска. Вначале величина шага выбирается достаточно большой, значительно превышающей требуемую погрешность определения положения оптимума, и выполняется грубый поиск. В районе оптимума поиск производится с меньшим шагом.

Рассмотрим алгоритм такой стратегии поиска максимума функции I(x). Пусть интервал [a,b] содержит внутри себя максимальное значение параметра x*: a  x*  b.

Задается начальное значение параметра x0 = a и вычисляется I0=I(x0). Задаются начальный шаг поиска h и кратность k уменьшения шага в районе оптимума. Производится поиск максимума I(x) из начальной точки x=x0 по алгоритму:

x(j+1)=x(j)+h(j+1);

(1.3)

где j – номер шага.

Поэтому алгоритму поиск из начальной точки x = x0 осуществляется с постоянным шагом h. После каждого шага вычисляется значение критерия I(x), оно сравнивается с предыдущим значением и, в случае улучшения критерия, шаги продолжаются до тех пор, пока очередной шаг не окажется неудачным. После этого поиск максимума продолжается из последней точки в обратном направлении с шагом в k раз меньше прежнего. Эта процедура поиска продолжается до тех пор, пока не будет выполнено условие:

 h   ,

где  – заданная погрешность определения оптимума.

    1. Метод дихотомии

Этот метод отыскания экстремума применим для класса унимодальных функций. Идея метода проста – делить интервал [a,b], где расположен оптимум I(x), пополам

x0 = (a + b)/2

и отбрасывать часть, где оптимума заведомо быть не может. С этой целью достаточно вычислить показатель качества I(x) в точках x0  d, отстоящих друг от друга на расстояние 2d < , где  – заданная погрешность определения оптимума. По двум вычисленным значениям I(x0–d) и I(x0+d), в силу унимодальности функции I(x), легко установить новый интервал неопределенности по следующим условиям (при поиске максимума):

(1.4)

Таким образом, в результате двух вычислений I(x) промежуток, где содержится оптимум, сокращается почти вдвое. Следующая пара измерений проводится в районе середины нового интервала неопределенности [a, x0+d] или [x0–d, b] в зависимости от того, какое из условий (4.4) выполняется.

Аналогично производятся последующие шаги поиска до тех пор, пока на k-ом шаге после 2k измерений I(x) длина интервала неопределенности lk = (b-a)/2k, где находится оптимум, не станет меньше или равен , т. е. lk.

Как видно, метод дихотомии позволяет довольно быстро попадать в район оптимума. Так, после 10 шагов дихотомии (20 измерений показателя качества) длина интервала неопределенности, где локализован оптимум, в 210=1024 раза меньше исходной длины l = b – a. Для достижения такой точности в методе равномерного приближения потребуется вычисление I(x) в 1025 точках.