- •РАЗДЕЛ I. МЕТОДЫ ОПТИМИЗАЦИИ
- •1. ПОСТАНОВКА ЗАДАЧ ОПТИМИЗАЦИИ И ИХ КЛАССИФИКАЦИЯ.
- •1.1. Постановка задачи
- •1.2. Методы нахождения минимума функции одной переменной
- •Метод деления отрезка пополам
- •Метод золотого сечения
- •Метод последовательного перебора
- •Метод квадратичной параболы
- •Метод кубической параболы
- •1.3. Рельеф функции
- •1.4. Представление функции в окрестности минимума
- •1.5. Классификация методов оптимизации
- •2.МЕТОДЫ НУЛЕВОГО ПОРЯДКА
- •2.1. Описание общего алгоритма методов покоординатного спуска.
- •2.2 Метод ГАУССА-ЗЕЙДЕЛЯ
- •2.3. Метод ПАУЭЛЛА
- •2.4. Метод ДСК
- •2.5. Метод РОЗЕНБРОКА
- •2.6. Метод покоординатного последовательного перебора
- •2.7. Метод ХУКА-ДЖИВСА
- •2.8. Метод НЕЛДЕРА-МИДА
- •3. МЕТОДЫ ПЕРВОГО ПОРЯДКА И МЕТОДЫ С ПЕРЕМЕННОЙ МЕТРИКОЙ
- •3.1. Метод спуска по градиенту
- •3.3. Метод Давидона-Флетчера-Пауэлла
- •3.4. Метод проективного градиента
- •3.5. Метод Мак-Кормика 1
- •3.6. Метод Мак-Кормика 2
- •3.7. Метод Гольдфарба
- •3.8. Метод Гринстадта
- •4. МЕТОДЫ УСЛОВНОЙ ОПТИМИЗАЦИИ ФУНКЦИИ N ПЕРЕМЕННЫХ.
- •4.1. Метод штрафных функций
- •РАЗДЕЛ II. ЧИСЛЕННЫЕ МЕТОДЫ УРАВНЕНИЙ МАТЕМАТИЧЕСКОЙ ФИЗИКИ
- •1. МАТЕМАТИЧЕСКИЕ МОДЕЛИ И ЧИСЛЕННЫЕ МЕТОДЫ
- •1.1. Как исследуются физические явления и решаются задачи
- •1.2. Как оценивается погрешность вычислений?
- •1.3. Откуда возникают погрешности расчетов?
- •1.4. Итерационные методы решения задач
- •2. КЛАССИФИКИЦИЯ ДИФФЕРЕНЦИАЛЬНЫХ УРАВНЕНИЙ
- •2.1. Определение дифференциальных уравнений
- •2.2. Постановка задач для обыкновенных ДУ
- •2.4. Как получают дифференциальные уравнения
- •2.5. Подобие физических явлений, безразмерные переменные
- •3. ТЕОРЕТИЧЕСКИЕ ОСНОВЫ МЕТОДА СЕТОК
- •3.1. Теоретические основы метода сеток
- •3.2 Решение систем обыкновенных дифференциальных уравнений
- •4. РЕШЕНИЕ КРАЕВОЙ ЗАДАЧИ ДЛЯ ДИФФЕРЕНЦАЛЬНЫХ УРАВНЕНИЙ 2-ГО ПОРЯДКА МЕТОДОМ ПРОГОНКИ
- •5. РЕШЕНИЕ ДИФФЕРЕНЦИАЛЬНЫХ УРАВНЕНИЙ В ЧАСТНЫХ ПРОИЗВОДНЫХ
- •5.1. Одномерное нестационарное уравнение теплопроводности
- •5.2. Задача Дирихле для двухмерного уравнения Пуассона
4. МЕТОДЫ УСЛОВНОЙ ОПТИМИЗАЦИИ ФУНКЦИИ N ПЕРЕМЕННЫХ.
В большинстве практически важных оптимизационных задач имеются ограничения на область изменения аргументов минимизируемой функции y = f (x1...xn ) = f (xr). Обычно эти ограничения математически можно свести к
условиям двух типов:
ψk (xr) ≥ 0, k =1...q, ϕl (xr) = 0, l =1...p.
Условия типа неравенств выделяют n −мерную область, ограниченную гиперповерхностями ψk (xr) = 0. Условия типа равенств выделяют в пространстве
некоторую поверхность размерности (n − p) . Таким образом, эти условия вы-
деляют в пространстве переменных x некоторую допустимую область G . Функция может достигать минимального значения как внутри этой области (при наличии локальных минимумов), так и на ее границе (если глобальный минимум вне G). Эта задача и особенно последний случай трудны для расчетов. При численном расчете приходится вести спуск к минимуму во всем пространстве (выходя за пределы допустимой области G ). Особенно трудно добиться, чтобы траектория спуска шла вдоль границы.
Для решения нелинейной задачи условной оптимизации предложено большое число всевозможных полуэвристических методов, что указывает на ее сложность. Метод множителей Лагранжа, который позволяет при выполнении условий Куна-Такера свести задачу минимизации к решению системы уравнений. Ряд эвристических методов прямого поиска – модифицированный метод Хука-Дживса, комплексный метод Бокса, являющийся модификацией метода Нелдера-Мида.
На сегодняшний день для решения общей нелинейной задачи применяется метод штрафных функций и различные его модификации (метод барьерных функций, метод нагруженных функций и др.), суть которых в сведении решения задачи с ограничениями к задаче безусловной минимизации введением функции штрафа при выходе текущего значения вектора параметров за область G. Несмотря на то, что этот метод медленный, не слишком надежный, применим при небольшом числе переменных, им приходится пользоваться, т.к. для общей нелинейной задачи более хороших методов нет.
4.1. Метод штрафных функций
Суть метода штрафных функций заключается в сведении задачи поиска условного минимума к задаче нахождения безусловного минимума, рассмотренного в задании 2.
Введем следующую вспомогательную функцию:
p |
q |
Φ(xr) = f (xr) + ∑μi (xr)ϕi2 (xr) + ∑λk (xr)ψk2 (xr)(1+signψk (xr)), μi (x) > 0, λk (x) > 0, |
|
l=1 |
k=1 |
signψ =+1 при ψ > 0, signψ =0 при ψ = 0, signψ =-1 при ψ < 0
22
Прибавляемые к f (xr) члены взяты таким образом, что они обращаются в
нуль, если ограничивающие условия выполнены. Еслиrже условия нарушены, то эти члены положительны, т.е. они увеличивают Φ(x) , причем тем больше,
чем сильнее нарушены условия. Это своеобразный штраф за нарушение условий.
μi , λk - коэффициенты штрафа, которые в простейшем случае могут быть
константами. Если коэффициент штрафа достаточно велик, то при выходе x за соответствующую ему границу функция Φ(x) быстро возрастает. Следователь-
но, минимум функции Φ(xr) (обозначим xmm ) будет расположен либо внутри G ,
либо снаружи, но близко от ее границы. Если он лежит внутри G , то он совпадаетr с искомым минимумом xmm = xrm , т.к. здесь Φ(x) = f (xr) . Если же минимум Φ(x) лежит снаружи, то искомый минимум f (x) лежит на границе G , и если
коэффициент штрафа увеличивать, то xmm xrm . Поэтому при нахождении xm выполняют несколько вычислений xmm для различных возрастающих значений коэффициента штрафа той границы, вблизи которой находится xrmm .
При больших коэффициентах μ , λ вблизи границы появляются глубокие
овраги и крутые откосы у функции Φ и методы минимизации сходятся медленно. Поэтому начинать расчет следует с небольших значений коэффициента штрафа. После первого расчета становится ясно, какие ограничения нарушены, где примерно находится минимум, и увеличив соответствующие коэффициенты, проводят расчет минимума, начиная спуск из полученной точки. Эту процедуру повторяют до тех пор, пока ограничения не будут выполнены с заданной точностью.
Успех в применении данного метода определяется удачным выбором штрафных коэффициентов μi (x), λk (x) .
23
