
- •Глава 4 математический аппарат
- •4.1. Общие сведения
- •4.2. Исследование операций
- •4.3. Случайные функции и процессы
- •4.4. Марковский случайный процесс
- •4.5. Потоки событий
- •4.6. Теория массового обслуживания
- •4.6.1. Многоканальная смо с отказами [38]
- •4.6.2. Одноканальная смо с неограниченной очередью [38]
- •4.7. Оптимизация. Методы оптимизации
- •4.7.1. Общие сведения. Терминология
- •4.7.2. Постановка и содержание задачи оптимизации
- •4.7.3. Методы оптимизации
- •4.7.4. Методы однопараметрической оптимизации
- •1. Метод общего поиска (равномерного поиска)
- •2. Метод деления интервала пополам (половинного разбиения)
- •3. Метод дихотомии
- •4. Метод «золотого сечения»
- •5. Метод Фибоначчи
- •4.7.5. Методы многомерного поиска
- •1. Метод неопределенных множителей Лагранжа
- •2. Метод линейного программирования
- •3. Метод Гаусса-Зейделя
- •4. Метод градиента
- •5. Метод наискорейшего спуска
- •6. Метод случайного поиска
4.7.4. Методы однопараметрической оптимизации
(одномерного поиска)
Методы однопараметрической оптимизации используются:
при исследовании влияния отдельных параметров на показатель оптимальности;
для определения длины шага вдоль выбранного направления поиска в многопараметрических задачах оптимизации.
Методы однопараметрической оптимизации по объему информации, используемой в каждой точке поиска можно разделить на два класса алгоритмов. Алгоритмы одного класса учитывают при определении длины шага только признак возрастания (убывания) показателя оптимальности в нескольких последовательно выбираемых точках поиска. К этому классу относятся методы:
общего поиска;
деления интервала пополам;
дихотомии;
«золотого сечения»;
Фибоначчи и др.
Алгоритмы другого класса учитывают при определении длины шага изменения числовых значений целевой функции в одной или нескольких итерациях. (Итерация – лат. iteratio – повторение – результат неоднократно повторяемого применения какой-либо математической операции). Сюда относится метод квадратичной аппроксимации и др.
При решении задачи оптимизации предполагается, что исследуемая целевая функция y = F(x) является «унимодальной», т.е. в рассматриваемом интервале изменения значений х (а х b) существует только один экстремум. Других сведений о целевой функции не имеется.
Вводится понятие «интервал неопределенности» – это интервал значений х, в котором заключен оптимум. В начале процесса оптимизации этот интервал имеет длину L или (b - a) – начальный интервал неопределенности. Задача оптимизации состоит в систематическом сужении интервала неопределенности до такой величины, в которой находится экстремум с заданной точностью. Оценка положения экстремума получается интервальной, а не точечной.
Остановимся на методах сужения интервала неопределенности первого класса.
1. Метод общего поиска (равномерного поиска)
В этом методе расположение точек, в которых проводятся опыты, выбирается до проведения первого испытания. Интервал неопределенности (отрезок а – b) делится на N + 1 равных частей, где N – число испытаний на отрезке [а, b]. В 1-й серии опытов определяются значения целевой функции в узлах полученной сетки (рис. 4.17): N = 5.
На рисунке обозначены: L – начальный интервал неопределенности; М – суженный интервал неопределенности (до двух шагов сетки).
Число испытаний можно уменьшить на одно, если остановиться в точке 4.
Новый интервал неопределенности М опять делят на N1 + 1 равных частей, но в два раза меньших, чем в 1-й серии опытов (N1 = 3). Процедура повторяется до получения нужной точности.
F(x) L
М
0 а 1 2 3 4 5 b
Рисунок 4.17.
Дробление интервала неопределенности характеризуется коэффициентом дробления
Чтобы получить f = 0,01 потребуется целевую функцию определить в 199 точках, а при f = 0,001 – в 1999 точках. Следовательно, эффективность метода быстро падает при уменьшении интервала неопределенности.