- •Глава 9. Организация эксперимента при решении задач оптимизации
- •9.1 Формализация задач оптимизации технических систем (процессов)
- •9.1.1 Формулировка задачи оптимизации
- •9.1.2 Классификация задач оптимизации
- •9.2 Методы поиска оптимальных условий работы технических систем
- •9.3 Аналитический поиск экстремума целевой функции
- •9.4 Численные методы поиска оптимума
- •9.4.1 Оптимизация перебором
- •9.4.2 Сканирование
- •9.5 Итерационные методы направленного поиска
- •9.5.1 Метод дихотомии
- •Результаты вычислений по методу дихотомии
- •9.5.2 Метод золотого сечения (деление отрезка в среднем и крайнем отношении)
- •9.6 Методы безградиентного многомерного поиска оптимума
- •1. Безградиентные методы:
- •2. Градиентные методы:
- •9.6.1 Покоординатный метод Гаусса-Зайделя
- •9.6.2 Метод случайного поиска
- •9.6.3 Симплекс – планирование и движение в область оптимума
- •1. Наилучшее значение выходной переменной y наблюдалось в двух или нескольких вершинах симплекса. Рекомендуется принять решение с помощью одного из случайных механизмов (бросания монет и т. П.).
- •Матрица симплекса 1-3-6
- •Матрица симплекса 2-7-8
- •Преобразованная матрица симплекса 1-3-6
- •План-матрица начального симплекса
- •Координаты симплекса 2-3-4
- •Координаты симплекса 3-4-5
- •Координаты симплекса 2-4-6
- •Координаты симплекса 4-6-7
- •Координаты симплекса 6-7-8
- •9.7 Градиентные методы экспериментальной оптимизации
- •9.7.1 Метод градиента
- •9.7.2 Метод крутого восхождения
- •План-матрица пфэ и его результаты
- •Расчеты для движения по градиенту
- •Реализация мысленных опытов
- •9.7.3 Особенности решения задач экспериментальной оптимизации
- •9.8 Вопросы для самоконтроля
9.5.2 Метод золотого сечения (деление отрезка в среднем и крайнем отношении)
В методе золотого сечения делят отрезок [а; b] на две части m и () так, чтобы меньшая часть m относилась к большей (), как большая () ко всему отрезку , или чтобы отношение всего отрезка к большей части равнялось отношению большей части к меньшей:
;
;
.
Отрезок [a, b] делят указанным образом слева (индекс л) и справа (индекс п). В точках л и n (рис. 9.4) рассчитывают f(x).
Как видно из рисунка 9.4, . Поскольку функция унимодальна, то в левой части максимума быть не может. Можно ее отбросить и продолжить аналогичные процедуры в правой части. На каждом этапе, кроме самого первого, необходимо рассчитывать f(x) только в одной точке, поскольку значение f(x) во второй уже известно. Это повышает эффективность метода.
Рис. 9.4 Схема поиска максимума методом золотого сечения
Решим приведённый выше пример методом золотого сечения. Проведём два опыта в точках с координатами x1 и x2, которые можно вычислить по формулам:
; (9.1)
. (9.2)
,
,
По результатам этих двух опытов устанавливаем, что для дальнейших исследований нужно оставить интервал [0; 0,618]. В него входит результат одного из предыдущих опытов, а именно x1 = 0,382. В интервале [0; 0,618] проводим третий опыт, симметричный x1. По формуле 9.1 вычисляем х3, а затем f(x3):
;
.
Новый интервал неопределенности [0,236076; 0,618] больше 2, поэтому по формуле 9.2 вычисляем х4 и продолжаем поиск:
.
.
Следующий интервал неопределенности [0,236076; 0,472105] также больше 2.
По формуле 9.1 определяем, что . При этом:
.
Поиск продолжаем в интервале [0,326239; 0,472105], который всё ещё больше 2.
По формуле 9.2 определяем, что . При этом:
.
Поиск привел нас к интервалу неопределенности [0,326239; 0,416386], который меньше 2.
Поэтому x* = (0,326239 + 0,416384) / 2 = 0,371311;
.
Ход поиска по методу золотого сечения представлен на рисунке 9.5.
Рис. 9.5 Схема поиска оптимума методом золотого сечения
При q ≤ 4 ÷ 7 эффективность метода золотого сечения выше, чем метода дихотомии, но уже при q = 10 ÷ 20 – эффективность методов практически одинакова.
9.6 Методы безградиентного многомерного поиска оптимума
Основные поисковые методы многомерной оптимизации можно разделить на безградиентные и градиентные.
1. Безградиентные методы:
-
покоординатный метод Гаусса-Зейделя;
-
метод случайного поиска;
-
метод симплексов.
2. Градиентные методы:
-
метод градиента;
-
метод наискорейшего спуска;
-
метод крутого восхождения.
Ряд методов могут реализоваться как численные при условии выполнения двух основных требований: наличия вычисляемой целевой функции и известного алгоритма для расчёта значений критерия оптимальности при заданных значениях факторов. К таким методам относятся покоординатный спуск, случайный поиск, метод симплексов.
Ниже рассматриваются безградиентные и градиентные поисковые методы и основные принципы организации экспериментов при их использовании для определения оптимальных значений факторов.