
- •Глава 1. Методы оптимизации в электронике свч
- •1.1 Классификация методов оптимизации
- •1.2 Методы одномерного поиска
- •1.2.1 Методы исключения интервалов
- •1.2.2 Методы полиномиальной аппроксимации
- •1.2.3 Методы с использованием производных
- •1.3 Методы оптимизации 0-го порядка
- •1.3.1 Метод покоординатного поиска
- •1.3.2 Метод Розенброка
- •1.3.3 Метод дск
- •1.3.4 Метод Пауэлла
- •1.3.5 Симплексный метод
- •1.4 Методы оптимизации 2-го порядка
- •1.4.1 Метод Ньютона
- •1.4.2 Метод Ньютона-Рафсона
- •1.5 Методы оптимизации 1-го порядка
- •1.5.1 Метод наискорейшего спуска
- •1.5.2 Метод Вольфа
- •1.5.3 Методы с переменной метрикой
- •1.6 Методы условной оптимизации
- •1.6.1 Метод множителей Лагранжа
- •1.6.2 Метод штрафных функций
- •1.6.3 Комбинированный метод Хестенса
- •1.6.4 Метод разделения параметров
- •1.7 Проблема глобальной оптимизации
- •1.8 Расчет производных
- •1.8.1 Конечно-разностный метод
- •1.9 Рекомендации по использованию методов оптимизации в задачах электроники свч и краткие выводы
1.7 Проблема глобальной оптимизации
В настоящее время не существует строгих методов поиска глобальной оптимизации, т.е. методов поиска минимального минимума из всех возможных минимумов заданной целевой функции. Обычно такая задача решается многократным использованием метода локальной оптимизации с различных начальных поисковых точек и определением оптимальной точки, где достигается минимальное из всех найденных минимальных значений целевой функции. Начальные поисковые точки можно выбирать или из каких-то физических соображений или случайным образом.
Можно, однако, использовать свойство методов оптимизации с переменной метрикой состоящее в том , что вблизи оптимальной точки целевую функцию можно представить в виде квадратичной аппроксимации вида (1.5.19). Тогда можно искать другой ближайший минимум целевой функции вдоль основных осей квадратичной аппроксимации, а начинать надо с оси с наибольшим значением второй производной, т.е. оси с наибольшим собственным значением i собственного вектора Qi матрицы Hk-1 (см.(1.1.6)). Это ось или вектор Qi указывает направление наиболее быстрого возрастания целевой функции. Если пройти вдоль этого направления, то можно с достаточно большой вероятностью и наиболее быстро пройти перевал и оказаться в области притяжения ближайшего, но уже другого, локального минимума. Начальный шаг вдоль этого направления можно приближенно оценить исходя из квадратичной аппроксимации по формуле:
(1.7.1)
С точки притяжения к новому минимуму осуществляем поиск локального минимума одним из методов с переменной метрикой и т.д.. В конце каждого m-ного локального поиска следует запоминать найденные оптимальные значения вектора поисковых параметров Xm* и найденное приближение матрице Гессе Hm-1*. В процессе поиска следует проверять текущее значение вектора поисковых параметров Xk на его принадлежность к области притяжения найденных ранее локальных минимумов, чтобы исключить зацикливание алгоритма. Под областью притяжения можно принимать те значения вектора Xk, которые удовлетворяют следующему неравенству:
J(Xm0)-J(Xm*)> (Xk-Xm*)THm-1*(Xk-Xm*)/2. (1.7.2)
Предложенный алгоритм позволяет существенно быстрее и надежнее определять глобальный минимум целевой функции, чем метод случайного бросания начальных точек для локальной оптимизации, однако он требует значительных объемов запоминаемой информации.
1.8 Расчет производных
Для реализации методов оптимизации первого порядка следует рассчитывать градиент от целевой функции по поисковым параметрам. Его можно рассчитывать двояко: или с помощью метода конечных разностей или с помощью АУС- метода. В первом случае расчет производных требует как минимум n+1 вычисления целевой функции. АУС- метод применим в тех случаях, когда процессы в приборе описываются системой обыкновенных дифференциальных уравнений и требует всего одного вычисления целевой функции, однако следует при этом запомнить промежуточные значения фазовых переменных и решить сопряженную систему уравнений с одновременным расчетом производных, что в итоге соответствует как минимум двум вычислениям целевой функции. Другими словами АУС-метод следует применять только в случае большого числа оптимизируемых параметров и частого применения программы оптимизации конкретного устройства.