- •Кафедра компьютерных систем управления и обработки информации
- •Введение
- •1 Методы одномерной оптимизации
- •Одномерная оптимизация методом классического анализа
- •Метод равномерного поиска
- •Метод поразрядного приближения
- •Метод дихотомии
- •1.5 Метод золотого сечения
- •1.6 Метод квадратичной интерполяции
- •Методы одномерной оптимизации на основе преобразования задач
- •2.1 Метод классического анализа.
- •2.2 Метод исключения переменных
- •2.3 Метод множителей Лагранжа
- •2.4 Пример применения метода множителей Лагранжа
- •2.5 Метод множителей Лагранжа с ограничениями в виде неравенств
- •2.6 Экономическая интерпретация множителей Лагранжа
- •2.7 Метод штрафных функций
- •3 Поисковые методы одномерной оптимизации
- •3.1 Общие сведения
- •3.2 Градиентные методы оптимизации
- •3.2.1 Метод релаксации
- •3.2.2 Метод градиента
- •Метод наискорейшего спуска
- •3.3. Безградиентные методы оптимизации поиска
- •3.3.1 Метод сканирования
- •3.3.2 Метод Гаусса-Зейделя
- •3.3.3 Метод поиска по симплексу
- •4 Линейная оптимизация
- •4.1 Примеры задач линейной оптимизации
- •4.2 Общая постановка задачи линейной оптимизации
- •4.3 Геометрическая интерпретация злп
- •4.4 Основы симплекс-метода
- •Список использованных источников и литературы
- •Содержание
3.3. Безградиентные методы оптимизации поиска
До сих пор рассматривались методы поиска оптимума, в которых производился предварительный анализ производных функций цели по всем независимым переменным для определения направления и величины шага поиска. Это связано с необходимостью выполнения большого объёма вычислений, что приводит к увеличению времени поиска.
Кроме того, при оптимизации объекта в условиях отсутствия его математического описания, погрешность вычисления производной как разности значений и критерия оптимальности может достигать до сотен процентов из-за неизбежных погрешностей при измерений величин, характеризующих этот критерий. Причём это может иметь место даже при небольшой относительной погрешности вычислений значения критерия оптимальности. Это может привести к существенным ошибкам в определении направления движения к оптимуму с помощью градиентных методов.
Существует другая группа методов – безградиентные методы, использующие в процессе поиска информацию, получаемую не при анализе производных, а от сравнительной оценки критерия оптимальности в результате выполнения очередного шага. К ним относятся методы сканирования, покоординатного спуска (Гаусса- Зейделя), симплекса.
3.3.1 Метод сканирования
Идея алгоритма
перебора крайне проста. Вычисляют
значения функции
в конечном числе точек
области Dx
(в узлах координатной сетки).Из вычисленных
значений выбирают наименьшее (наибольшее)
.
Координаты соответствующего узла сетки
– это координаты экстремума, определённые
с точностью до
,
где – h
шаг сетки (рис. 6.10).
Рисунок 3.11 – Поиск оптимума на сетке переменных
Точность определения
точки минимума, причем глобального,
зависит от плотности наполнения области
Dx
дискретным множеством
,
то есть от величины шага h
координатной сетки, тем выше точность
определения положения оптимума, однако
при уменьшении h
быстро растёт объём вычислений. Если
интервал изменения каждой переменной
разбить К равных частей, то h
равно
,
При этом необходимое
количество вычислений I(x)
равно
.
Поэтому эффективное
применение данного метода ограничивается
задачами невысокой размерности (n=2-3).
При большой размерности вектора
требуется выполнение большого объёма
вычислительной работы.
Пусть область Dx – геперкуб:
,
в котором ищется
.Точность
определения координат вектора
,
минимизирующего
,
положим равной 0,1. Тогда интервалы
следует разбить на 10 частей с шагом
h=0,1
плоскостями, ортогональными
и вычислить во всех точках перечисления
плоскостей значения
.
Всего потребуется вычислить
в 11n
точках. Пусть для нахождения I
в каждой точке требуется примерно 102n
арифметических операций. Тогда общее
число арифметических операций алгоритма
перебора примерно 11(n+2)n
и при n=10
на ЭВМ с быстродействием 109
oп/c
требуется примерно 104
с, т.е. примерно 167 минут непрерывной
работы ЭВМ.
Иногда поиск осуществляется с переменным шагом сканирования. Вначале величина h выбирается достаточно большой, выполняется грубый поиск для локализации экстремума, а поиск в районе оптимума осуществляется с меньшим шагом.
Достоинства метода – возможность определения глобального оптимума и независимость поиска от вида оптимизируемой функции.
