- •Основные понятия.
- •Соответствие методов и множеств.
- •Общая схема безусловной оптимизации
- •Методы первого порядка (градиентные методы)
- •Градиентный метод с постоянным шагом
- •Выпуклые функции и множества
- •Cвойства выпуклых функций
- •2.Теорема:
- •4.Теорема:
- •5.Теорема:
- •Градиентные методы (продолжение)
- •2. Градиентный метод с дроблением шага.
- •3.Метод наискорейшего спуска.
- •4.Масштабирование.
- •1.2 Метод Ньютона.
- •Сравнительная таблица достоинств и недостатков градиентного метода и метода Ньютона:
- •Число обусловленности локального min.
- •1.3. Многошаговые ( двухшаговые ) методы.
- •1.4.Квазиньютоновские методы
- •1. Методы апроксимации
- •2. Метод покоординатного спуска
- •3.Метод симплексов (Нелдера- Нида)
- •4 .Метод Пауэлла (сопряженных направлений)
Основные понятия.
1. X- множество вариантов или допустимое множество.
f : XR1 - целевая функция.
Точка x*X - оптимальная, если выполняется f(x*)=min f(x), xX (*).
Если верно (*) для любого xX, то точка x- точка глобального минимума.
Если нет, но существует R1, >0 такое что:
f(x) f(x*), для любого x из - окрестности, то есть ||x-x*||< , то
x* - точка локального минимума.
Надо найти экстремумы функции f на множестве X.
Содержание курса состоит в поисках экстремумов.
Будем искать min f(x), xX , так как max f(x)= - min(-f(x)), xX.
Множество X бывает:
Конечным (конечное множество элементов, например графы).
Конечномерным (когда совпадает или является подмножеством множества евклидова пространства).
Бесконечномерным (не вкладывается в евклидово пространство ,например множество непрерывных функций на отрезке).
Соответствие методов и множеств.
Методы решения переборных задач (метод ветвей и границ, динамическое
программирование и др.)
Методы решения задач математического программирования
(условная/безусловная минимизация, нелинейное, выпуклое и линейное
программирование).
Методы вариационного исчисления и методы оптимального управления
(уравнение Эйлера-Лагранжа, принцип максимума).
Безусловная оптимизация (многомерные функции).
min f(x), x = Rn, то есть минимизация на всем пространстве.
Определение:
Минимизация заданная неравенствами, равенствами и другими ограничениями называется условной.
Пусть:
x = Rn (евклидово n-мерное пространство);
Функция f дифференцируема хотя бы один раз,
тогда в точке минимума выполняется равенство:
f(x)=0, где
(вектор частных производных по каждому аргументу)
f(x)=
В большинстве случаев это приводит к решению системы нелинейных уравнений, что само по себе проблема. Существуют релаксационные методы, в основе которых лежит построение релаксационной последовательности со следующими свойствами:
xiX,i;
f(x0)>f(x1)>...;
xix* = argmin f(x), i, xX.
Это методы нахождения локального минимума (т.е. корня уравнения f(x) =0). Все рассматриваемые методы делятся на несколько групп в зависимости от того, какой максимальный порядок производной функции f используется для вычисления последовательности. Если производные не используются, то методы нулевого порядка, затем -первого и так далее. Мы будем рассматривать порядок не выше второго.
Общая схема безусловной оптимизации
xRn
xk+1 = xk+ tkSk , где Sk -вектор, определяющий направление изменения xk
tk - скаляр, определяющий длину шага.
Sk может зависеть от xk: Sk = (xk), а может от xk-1. В зависимости от этого критические методы делятся на:
одношаговые ((xk));
двухшаговые ((xk, xk+1)).
Эти методы имеют основное распространение.
Методы первого порядка (градиентные методы)
Для вычисления t и S используются значение функции и первая производная.
Известно, что градиент функции в точке дает направление наибольшего возрастания функции в точке. Направление наибольшего убывания - это направление антиградиента.
Пусть Sk = -f(xk), tk - длина шага.