Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
295
Добавлен:
11.05.2015
Размер:
888.83 Кб
Скачать

4.7.4. Методы однопараметрической оптимизации

(одномерного поиска)

Методы однопараметрической оптимизации используются:

  • при исследовании влияния отдельных параметров на показатель оптимальности;

  • для определения длины шага вдоль выбранного направления поиска в многопараметрических задачах оптимизации.

Методы однопараметрической оптимизации по объему информации, используемой в каждой точке поиска можно разделить на два класса алгоритмов. Алгоритмы одного класса учитывают при определении длины шага только признак возрастания (убывания) показателя оптимальности в нескольких последовательно выбираемых точках поиска. К этому классу относятся методы:

  • общего поиска;

  • деления интервала пополам;

  • дихотомии;

  • «золотого сечения»;

  • Фибоначчи и др.

Алгоритмы другого класса учитывают при определении длины шага изменения числовых значений целевой функции в одной или нескольких итерациях. (Итерация – лат. iteratio – повторение – результат неоднократно повторяемого применения какой-либо математической операции). Сюда относится метод квадратичной аппроксимации и др.

При решении задачи оптимизации предполагается, что исследуемая целевая функция y = F(x) является «унимодальной», т.е. в рассматриваемом интервале изменения значений х (ахb) существует только один экстремум. Других сведений о целевой функции не имеется.

Вводится понятие «интервал неопределенности» – это интервал значений х, в котором заключен оптимум. В начале процесса оптимизации этот интервал имеет длину L или (b - a) – начальный интервал неопределенности. Задача оптимизации состоит в систематическом сужении интервала неопределенности до такой величины, в которой находится экстремум с заданной точностью. Оценка положения экстремума получается интервальной, а не точечной.

Остановимся на методах сужения интервала неопределенности первого класса.

1. Метод общего поиска (равномерного поиска)

В этом методе расположение точек, в которых проводятся опыты, выбирается до проведения первого испытания. Интервал неопределенности (отрезок аb) делится на N + 1 равных частей, где N – число испытаний на отрезке [а, b]. В 1-й серии опытов определяются значения целевой функции в узлах полученной сетки (рис. 4.17): N = 5.

На рисунке обозначены: L – начальный интервал неопределенности; М – суженный интервал неопределенности (до двух шагов сетки).

Число испытаний можно уменьшить на одно, если остановиться в точке 4.

Новый интервал неопределенности М опять делят на N1 + 1 равных частей, но в два раза меньших, чем в 1-й серии опытов (N1 = 3). Процедура повторяется до получения нужной точности.

F(x) L

М

0 а 1 2 3 4 5 b

Рисунок 4.17.

Дробление интервала неопределенности характеризуется коэффициентом дробления

Чтобы получить f = 0,01 потребуется целевую функцию определить в 199 точках, а при f = 0,001 – в 1999 точках. Следовательно, эффективность метода быстро падает при уменьшении интервала неопределенности.

Соседние файлы в папке ТОППиН_часть1