
- •Нелинейные методы и модели в экономике.
- •Глава 6. Постановки знп и основные определения…………………………..3
- •Глава 7. Задача одномерной оптимизации…………………………………….13
- •Глава 8. Графический метод решения знп…………………………………...33
- •Глава 6. Постановки задачи нелинейного программирования (знп) и основные определения.
- •6.1. Задача нелинейного программирования (знп) и ее постановки.
- •6.2. Основные определения.
- •6.3. Классификация знп.
- •6.4. Классическая оптимизация.
- •Глава 7. Методы одномерной оптимизации
- •Постановка задачи. Основные понятия
- •7.2. Поиск отрезка, содержащего точку максимума Алгоритм Свенна
- •Методы нулевого порядка.
- •Дихотомический поиск (метод деления отрезка пополам)
- •Метод золотого сечения
- •Метод дск-Пауэлла
- •7.4. Методы первого порядка.
- •Метод средней точки
- •Метод хорд (секущих)
- •Метод кубической аппроксимации
- •7.5. Методы второго порядка. Метод Ньютона-Рафсона
- •Итерация 1
- •Глава 8. Графический метод решения знп.
- •8.1. Алгоритм графического метода решения знп
- •8.2. Решение примеров.
- •Выпуклые и вогнутые функции
- •Глава 9. Выпуклый анализ
- •9.1. Определения
- •9.2. Свойства вогнутых (выпуклых) функций
- •9.3. Критерии вогнутости (выпуклости) гладких функций
- •9.4. Экстремальные свойства вогнутых (выпуклых) функций
- •9.5. Сильно вогнутые (выпуклые) функции
- •9.5.1. Определение. Примеры
- •9.5.2. Свойства сильно вогнутых (выпуклых) функций
- •9.5.3. Критерии сильной вогнутости (выпуклости)
- •9.5.4. Экстремальные свойства сильно вогнутых (выпуклых) функций
- •Глава 10. Выпуклое программирование
- •10.1. Постановка задачи
- •10.2. Функция Лагранжа. Седловая точка функции Лагранжа, условия ее существования Определение 10.1. Функция , (10.10)
- •10.3. Достаточные условия оптимальности
- •10.4. Условия регулярности выпуклого множества
- •10.5. Теорема Куна-Таккера. Общий случай
- •10.6. Теорема Куна-Таккера. Случай линейных ограничений
- •Глава 11. Квадратичное програмирование.
- •11.1. Постановка задачи квадратичного программирования (зкп)
- •11.2. Применение теории Куна-Таккера к решению зкп.
- •11.3. Решение задач.
- •Глава 12. Методы безусловной оптимизации
- •12.1. Постановка задачи
- •. Методы нулевого порядка (прямого поиска)
- •Метод Хука-Дживса
- •Алгоритм метода Хука-Дживса, использующий одномерный поиск
- •Метод покоординатного спуска
- •Первый вариант
- •Второй вариант
- •Методы первого и второго порядков
- •Градиентные методы. Метод скорейшего спуска – метод Коши
- •Метод Ньютона
- •Модифицированный метод Ньютона
- •Методы, использующие сопряженные направления
- •Определение сопряженных направлений
- •Оптимизация квадратичной функции. Конечная сходимость алгоритмов, использующих сопряженные направления
- •12.4.4. Метод Дэвидона-Флетчера-Пауэлла Метод Дэвидона-Флетчера-Пауэлла (дфп) принадлежит к классу квазиньютоновских методов, в которых направление поиска задаётся в виде
- •Алгоритм метода дфп
- •Итерация 1
- •Шаг 2. Вычислим , тогда .
- •Шаг 2.Вычислим , тогда .
- •12.4.5. Метод сопряжённых градиентов Флетчера-Ривса
- •Алгоритм метода Флетчера-Ривса
- •Глава 13. Методы условной оптимизации
- •13.1. Постановка задачи. Классификация методов
- •Общая схема методов условной оптимизации
- •Шаг 1. Выбрать ( -я итерация) – возможное направление подъёма функции в точке . Если такого направления нет, то полагаем и идем на выход. В противном случае перейти к шагу 2.
- •13.2. Методы возможных направлений
- •13.2.1. Метод Зойтендейка
- •Пример 13.2
- •Итерация 3
- •13.2.2. Метод Топкиса-Вейнотта
- •Пример 13.3
- •Итерация 1
- •Алгоритм метода Топкиса-Вейнотта
- •13.2.3. Метод Франка-Вульфа
- •Алгоритм метода Франка-Вульфа
- •Шаг 5. Находим шаг в направлении новой точки . Решение этой задачи (одномерной): .
- •Шаг 3. Так как , переходим к шагу 4.
- •Шаг 5. Решаем задачу: .
- •2.1. Постановки злп
- •3.1. Определение двойственной задачи
- •3.5. Анализ решения из и дз на основе отчетов ms Excel
- •4.1. Постановки транспортной задачи
- •4.4 Опорный план тз. Алгоритм нахождения исходного плана
- •4.5. Метод потенциалов решения транспортной задачи
- •4.6. Задача о назначениях
- •5.2. Метод ветвей и границ решения задач целочисленного программирования
- •5.3. Задача коммивояжера
Глава 12. Методы безусловной оптимизации
12.1. Постановка задачи
Задачей многомерной безусловной оптимизации функции нескольких переменных будем называть задачу, в которой требуется найти
,
(12.1)
при
отсутствии ограничений на
,
где
–
вектор управляемых переменных,
–
скалярная
целевая функция.
Определение12.1.
Решением или точкой минимума задачи
безусловной оптимизации будем называть
такой вектор
,
что
для всех
,
и писать
, (12.2)
Определение12.2.
Вектор
называется направлением спуска функции
в точке
,
если существует такое
,
что
для всех
.
Сущность
рассматриваемых в данном разделе методов
решения задачи (12.1) состоит в построении
последовательности точек
,
принадлежащих
,
монотонно уменьшающих значения функции
.
Такие методы называют методами спуска.
Алгоритм метода спуска
Начальный
этап. Задать
– начальную точку,
-параметр
окончания счета, положить
.
Основной этап.
В точке
проверить условие окончания счета; если оно выполняется, то положить
и остановиться.
В точке выбрать направление спуска
.
Положить
, где
– длина шага вдоль направления , положить
и перейти к шагу 1.
Различные методы спуска отличаются друг от друга способом выбора направления спуска и шага вдоль этого направления . Естественно, что трудоемкость вычисления величины следует согласовывать с трудоемкостью определения направления спуска .
Методы решения задач безусловной оптимизации можно разделить на группы в зависимости от уровня используемой в методе информации о целевой функции, например:
методы нулевого порядка, или прямого поиска, основанные на вычислении только значений функции;
градиентные методы, в которых используются значения функции и ее градиента, т.е. вектора, компонентами которого являются частные производные первого порядка;
методы второго порядка, в которых используются первые и вторые производные функции , т.е. значения ,
, и
, где - матрица Гессе, элементами которой являются частные производные второго порядка функции ;
методы оптимизации квадратичных функций.
Первые три группы методов различаются требуемой степенью гладкости целевой функции (разрывная, непрерывная, непрерывно-дифференцируемая, дважды непрерывно-дифференцируемая), тогда как вид самой функции не оговаривается, четвертая группа ориентирована на оптимизацию функции определенного вида.
. Методы нулевого порядка (прямого поиска)
Для реализации методов прямого поиска требуются только значения целевой функции и не требуются значения ее производных (т.е. степень гладкости – нулевая). Очевидно, что методы прямого поиска можно применять для решения тех задач (12.1), в которых является гладкой и даже дважды гладкой, например, в тех случаях, когда вычисление производных затруднительно.
Методы прямого поиска можно разделить на эвристические и теоретические. Эвристические методы реализуют процедуры поиска с помощью интуитивных представлений, тогда как теоретические методы основаны на соответствующей математической теории.
К
эвристическим методам относятся,
например, метод поиска по симплексу (
-
метод), метод Нелдера-Мида (метод
деформируемого многогранника), метод
Хука-Дживса. В данном разделе будет
рассмотрен метод Хука-Дживса. К
теоретическим методам нулевого порядка
можно отнести, например, метод
покоординатного спуска и его различные
модификации, рассматриваемые в данном
разделе, метод сопряженных направлений
Пауэлла, который будет рассмотрен в
разделе 12.4, и другие. К числу положительных
свойств методов прямого поиска следует
отнести относительную простоту
вычислительных процедур, легкую машинную
реализацию. С другой стороны, реализация
методов нулевого порядка требует более
значительных временных затрат по
сравнению с методами высших порядков.