
- •Общие сведения
- •Постановка задачи безусловной оптимизации функции многих переменных
- •Глобальный оптимум функции
- •Локальный оптимум функции
- •Выпуклость множеств и функций
- •Методы прямого поиска безусловного оптимума функции многих переменных
- •Эвристические методы
- •Метод Хука-Дживса (метод прямого поиска)
- •Метод покоординатного спуска
- •Метод Розенброка (метод вращающихся координат)
- •Метод Нелдера-Мида
- •Теоретические методы прямого поиска
- •Метод сопряженных направлений (метод Пауэлла)
- •Решение задачи безусловной оптимизации функции многих переменных с использованием необходимых и достаточных условий экстремума
- •Методы оптимизации функции одной переменной
- •Метод квадратичной интерполяции
- •Метод Пауэлла (квадратичной интерполяции)
- •Метод первого приемлемого значения (квадратичная интерполяция с использованием производных).
- •Метод кубической интерполяции (Давидона)
- •Методы оптимизации функции многих переменных
- •Общие критерии останова численных методов оптимизации функции многих переменных
- •Модельная схема применения методов оптимизации функции многих переменных
- •Градиентные методы
- •Аффинная (линейная) модель функции многих переменных
- •Метод Коши
- •Расчет направления поиска методами сопряженных градиентов
- •Метод Ньютона-Рафсона
- •Метод Марквардта
- •Методы переменной метрики (квазиньютоновские методы)
- •Соотношение секущих
- •Метод bfgs
- •Метод dfp
Методы оптимизации функции многих переменных
Схема безусловной оптимизации функции многих переменных
Общие критерии останова численных методов оптимизации функции многих переменных
Достигнута заданная норма градиента:
Достигнуто предельное количество итераций:
Изменение значения функции и текущего приближения к точке оптимума меньше заданных величин:
и
Модельная схема применения методов оптимизации функции многих переменных
Методы
оптимизации функции носят итерационный
характер и имеют единую модельную схему.
Имея текущее приближение
текущей точки
на
-ой
итерации выполняется следующая
последовательность шагов:
Шаг 1:Проверка соблюдения условия останова.
если условие останова выполняется, то вычисления прекратить и взять x(k)в качестве искомого решения
в противном случае перейти на шаг 2
Шаг 2:Расчет направления поиска. Вычислить не нулевой вектор S(k)- направление поиска.
Шаг
3:Расчет длины шага. Вычислить
положительное число,
обеспечивающее выполнение неравенства:
Шаг 4:Пересчет оценки решения.
Переход на шаг 1.
Эффективность алгоритмов выполненных по модельной схеме зависит от двух параметров:
вектора направления поиска
шага вдоль заданного направления
.
Способы
определения
достаточно хорошо отработаны и
гарантируют убывание функции
.
Главной
частью алгоритмов оптимизации,
определяющих их "лицо и название",
является расчет
.
Градиентные методы
Аффинная (линейная) модель функции многих переменных
Аффинная
модель функции
имеет вид:
,
тогда
.
Для того чтобы вектор S(k)был направлением минимизации, обычно контролируется выполнение условия:
.
Метод Коши
Направление
вектора градиента функции является
направлением возрастания функции, тогда
антиградиент
является направлением убывания функции
в точке
.
Такое направление называется направлением
наискорейшего спуска. Метод, использующий
такой способ расчета направления,
называется метод наискорейшего спуска
(метод Коши).
Итерационная формула метода выглядит следующим образом:
Метод Коши гарантирует сходимость для сильно выпуклых функций. Для таких функций скорость сходимости метода – линейная.
Эффективность
алгоритма зависит от вида минимизируемой
функции. Алгоритм наискорейшего спуска
сойдется за одну итерацию при любом
начальном приближении для функции
,
но сходимость будет очень медленной,
например, в случае функции вида
.
В тех ситуациях, когда линии уровня
минимизируемой функции представляет
собой прямолинейный или, хуже того,
криволинейный "овраг" эффективность
алгоритма оказывается очень низкой.
Очевидно, что хорошие результаты может
давать предварительное масштабирование
функций.
Процесс наискорейшего спуска обычно быстро сходится вдали от точки экстремума и медленно в районе экстремума. Поэтому метод наискорейшего спуска нередко используют в комбинации с другими алгоритмами.
Расчет направления поиска методами сопряженных градиентов
Другой способ расчета направления поиска S(k)учитывает информацию об изменении градиента при переходе отx(k-1)кx(k):
В
этом случае градиенты
будут сопряженными.
Методы, базирующиеся на этой формуле, называются методами сопряженных градиентов:
метод Флетчера-Ривса
метод Полака-Рибьера
Метод Флетчера-Ривса
В
методе Флетчера-Ривса
вычисляется по следующей формуле:
,
.
Такое
вычисление
обеспечивает для квадратичной функции
вида
построение последовательности
-сопряженных
направлений
(
).
Для квадратичных функций с матрицей
метод Флетчера-Ривса является конечным
и сходится за число шагов не превышающее
.
При минимизации неквадратичных функций
метод не является конечным. Скорость
сходимости метода:
.
Метод Полака-Рибьера
Для
неквадратичных функций, как правило,
используется метод Полака-Рибьера, в
котором величина
вычисляется следующим образом:
,
.
Часто при практических реализациях метода предусматривается использование итерации наискорейшего градиентного спуска, тогда:
,
Метод Полака-Рибьера гарантирует сходимость для сильно выпуклых функций со сверхлинейной скоростью сходимости.
Методы второго порядка
Квадратичная модель функции многих переменных
Методы
второго порядка основаны на использовании
квадратичной модели функции в окрестности
точки
:
.
Квадратичная модель приводит к линейной модели для градиента f(x):
Тогда
направление
может быть найдено из соотношения:
,
.
Метод Ньютона
Т.к. матрица Гессе является симметричной и в окрестностях точки оптимума положительно определенной.
Вычисленное таким образом направление называется ньютоновским направлением, а метод – метод Ньютона.
Итерационная формула метода Ньютона имеет вид:
.
В
случае, если матрица
не является положительно определенной
используется вычисление точки
по методу наискорейшего спуска:
.
Сходимость метода Ньютона доказана только для сильно выпуклых функций и для достаточно хорошего начального приближения. В этом случае метод имеет квадратичную скорость сходимости.