
- •Нелинейные методы и модели в экономике.
- •Глава 6. Постановки знп и основные определения…………………………..3
- •Глава 7. Задача одномерной оптимизации…………………………………….13
- •Глава 8. Графический метод решения знп…………………………………...33
- •Глава 6. Постановки задачи нелинейного программирования (знп) и основные определения.
- •6.1. Задача нелинейного программирования (знп) и ее постановки.
- •6.2. Основные определения.
- •6.3. Классификация знп.
- •6.4. Классическая оптимизация.
- •Глава 7. Методы одномерной оптимизации
- •Постановка задачи. Основные понятия
- •7.2. Поиск отрезка, содержащего точку максимума Алгоритм Свенна
- •Методы нулевого порядка.
- •Дихотомический поиск (метод деления отрезка пополам)
- •Метод золотого сечения
- •Метод дск-Пауэлла
- •7.4. Методы первого порядка.
- •Метод средней точки
- •Метод хорд (секущих)
- •Метод кубической аппроксимации
- •7.5. Методы второго порядка. Метод Ньютона-Рафсона
- •Итерация 1
- •Глава 8. Графический метод решения знп.
- •8.1. Алгоритм графического метода решения знп
- •8.2. Решение примеров.
- •Выпуклые и вогнутые функции
- •Глава 9. Выпуклый анализ
- •9.1. Определения
- •9.2. Свойства вогнутых (выпуклых) функций
- •9.3. Критерии вогнутости (выпуклости) гладких функций
- •9.4. Экстремальные свойства вогнутых (выпуклых) функций
- •9.5. Сильно вогнутые (выпуклые) функции
- •9.5.1. Определение. Примеры
- •9.5.2. Свойства сильно вогнутых (выпуклых) функций
- •9.5.3. Критерии сильной вогнутости (выпуклости)
- •9.5.4. Экстремальные свойства сильно вогнутых (выпуклых) функций
- •Глава 10. Выпуклое программирование
- •10.1. Постановка задачи
- •10.2. Функция Лагранжа. Седловая точка функции Лагранжа, условия ее существования Определение 10.1. Функция , (10.10)
- •10.3. Достаточные условия оптимальности
- •10.4. Условия регулярности выпуклого множества
- •10.5. Теорема Куна-Таккера. Общий случай
- •10.6. Теорема Куна-Таккера. Случай линейных ограничений
- •Глава 11. Квадратичное програмирование.
- •11.1. Постановка задачи квадратичного программирования (зкп)
- •11.2. Применение теории Куна-Таккера к решению зкп.
- •11.3. Решение задач.
- •Глава 12. Методы безусловной оптимизации
- •12.1. Постановка задачи
- •. Методы нулевого порядка (прямого поиска)
- •Метод Хука-Дживса
- •Алгоритм метода Хука-Дживса, использующий одномерный поиск
- •Метод покоординатного спуска
- •Первый вариант
- •Второй вариант
- •Методы первого и второго порядков
- •Градиентные методы. Метод скорейшего спуска – метод Коши
- •Метод Ньютона
- •Модифицированный метод Ньютона
- •Методы, использующие сопряженные направления
- •Определение сопряженных направлений
- •Оптимизация квадратичной функции. Конечная сходимость алгоритмов, использующих сопряженные направления
- •12.4.4. Метод Дэвидона-Флетчера-Пауэлла Метод Дэвидона-Флетчера-Пауэлла (дфп) принадлежит к классу квазиньютоновских методов, в которых направление поиска задаётся в виде
- •Алгоритм метода дфп
- •Итерация 1
- •Шаг 2. Вычислим , тогда .
- •Шаг 2.Вычислим , тогда .
- •12.4.5. Метод сопряжённых градиентов Флетчера-Ривса
- •Алгоритм метода Флетчера-Ривса
- •Глава 13. Методы условной оптимизации
- •13.1. Постановка задачи. Классификация методов
- •Общая схема методов условной оптимизации
- •Шаг 1. Выбрать ( -я итерация) – возможное направление подъёма функции в точке . Если такого направления нет, то полагаем и идем на выход. В противном случае перейти к шагу 2.
- •13.2. Методы возможных направлений
- •13.2.1. Метод Зойтендейка
- •Пример 13.2
- •Итерация 3
- •13.2.2. Метод Топкиса-Вейнотта
- •Пример 13.3
- •Итерация 1
- •Алгоритм метода Топкиса-Вейнотта
- •13.2.3. Метод Франка-Вульфа
- •Алгоритм метода Франка-Вульфа
- •Шаг 5. Находим шаг в направлении новой точки . Решение этой задачи (одномерной): .
- •Шаг 3. Так как , переходим к шагу 4.
- •Шаг 5. Решаем задачу: .
- •2.1. Постановки злп
- •3.1. Определение двойственной задачи
- •3.5. Анализ решения из и дз на основе отчетов ms Excel
- •4.1. Постановки транспортной задачи
- •4.4 Опорный план тз. Алгоритм нахождения исходного плана
- •4.5. Метод потенциалов решения транспортной задачи
- •4.6. Задача о назначениях
- •5.2. Метод ветвей и границ решения задач целочисленного программирования
- •5.3. Задача коммивояжера
Метод Ньютона
Рассмотрим
разложение
в ряд Тейлора в окрестностях точки
:
(12.6)
Отбрасывая
члены третьего порядка и выше, полагаем
квадратичную аппроксимацию
функции
в точке
:
, (12.7)
где
– матрица Гессе
в точке
.
В
качестве новой точки
будем брать точку минимума квадратичной
функции
.
Необходимым условием минимума квадратичной
функции
является равенство
или
. (12.8)
Предполагая, что матрица, обратная к , существует, получаем
или
. (12.9)
Равенство (12.9) дает рекуррентную формулу для точек, генерируемых методом Ньютона. Таким образом, в методе Ньютона направление поиска задается формулой
(12.10)
т.е.
направление, равное градиенту
и используемое в качестве направления
поиска в методе Коши, отклоняется
посредством умножения на матрицу
.
Пример 12.6. Найти минимум функции методом Ньютона: .
Выберем
начальную точку
.
Тогда
Так как
,
то
,
,
то
.
Очевидно, что оптимум квадратичной функции Ньютона находится за одну итерацию независимо от выбора начальной точки. При оптимизации неквадратичных функций метод Ньютона не является конечным. Сходимость метода Ньютона при оптимизации неквадратичных функций существенно зависит от выбора начальной точки , и теорема сходимости доказывается в предположении, что итерационный процесс начинается из точки, достаточно близкой к оптимальной. Кроме того, в методе Ньютона не гарантируется убывание функции на каждой итерации.
Модифицированный метод Ньютона
Метод Ньютона можно модифицировать с целью обеспечения убывания функции на каждой итерации путем осуществления одномерной оптимизации вдоль направления.
Алгоритм модифицированного метода Ньютона
Начальный этап. Выбрать – начальную точку и – параметр окончания счета, положить .
Основной этап.
Если , то , остановиться.
Положить , вычислить
, , положить
и перейти к шагу 1.
Существенным
недостатком метода Ньютона и его
модификации является необходимость
вычисления на каждой итерации матрицы
и обратной к ней матрицы
,
что значительно увеличивает трудоемкость
каждой итерации. Именно в силу этих
соображений возникает необходимость
создания методов, менее трудоемких,
использующих значения только первых
производных, но обладающих скоростью
сходимости, близкой к скорости метода
Ньютона. Так возникли методы
квазиньютоновского типа, в которых в
качестве направления спуска выбирается
либо вектор
,
либо
,
где
– подходящая матрица,
– подходящий вектор, причем матрицы
и векторы
выбираются так, чтобы последовательные
приближения
оптимизировали квадратичную функцию
за конечное число шагов.
Методы, использующие сопряженные направления
В данном разделе рассматриваются алгоритмы безусловной оптимизации, использующие сопряженные направления. Понятие сопряженности является очень важным при решении задач безусловной оптимизации, особенно для задач оптимизации квадратичных функций.