
- •1.4.Двойственность состоит в том, что каждой исходной (прямой) задаче, в которой целевая функция стремится к максимуму (минимуму)
- •2. Лекции
- •Понятие модели
- •Классификация экономико-математических моделей
- •Оптимизационные модели
- •Лекция 2. Примеры содержательных постановок задач линейного программирования
- •Задача об оптимальном использовании ресурсов
- •Транспортная задача линейного программирования
- •Лекция 3. Различные формы задач линейного программирования
- •Стандартная форма задачи линейного программирования
- •Каноническая форма задачи линейного программирования (злп)
- •Переход от стандартной формы задачам линейного программирования (злп) к канонической
- •Лекция 4. Графический метод решения задач линейного программирования
- •Лекция 5. Основные теоремы линейного программирования
- •Геометрическая интерпретация симплекс-метода
- •Основное неравенство теории двойственности
- •Лекция 8. Основные теоремы двойственности
- •Лекция 9. Задачи нелинейного программирования
- •Метод множителей Лагранжа
- •Выпуклое программирование
- •Задача выпуклого программирования
- •Градиентные методы
- •Метод параллельных касательных
- •Метод сопряженных градиентов
- •Метод покоординатного спуска
- •О методах второго порядка
- •О методах прямого поиска
- •Методы одномерной минимизации
- •1. Задачи с ограничениями-равенствами
- •2. Задачи с ограничениями-неравенствами
- •2.1. Метод проекции градиента
- •2.2. Метод приведенного градиента
- •Методы штрафных функций
- •Методы барьерных функций
- •Лекция 14. Практическая реализация методов нелинейного программирования
- •Построение начального приближения
- •Практическая реализация методов нелинейного программирования
- •3. Практические и лабораторные занятия
- •4. Самостоятельная работа студента
- •Задача об оптимальном использовании ресурсов
- •Транспортная задача линейного программирования
- •Стандартная форма задачи линейного программирования
- •Основное неравенство теории двойственности
- •Экономический смысл первой (основной) теоремы двойственности
Метод покоординатного спуска
Рассмотрим еще один простой метод безусловной оптимизации, идея которого состоит в том, чтобы свести оптимизацию в многомерном пространстве к многократно повторяемой одномерной оптимизации. Метод состоит в следующем:
В начальной точке х0 фиксируем все координаты, кроме xi.
Определяем такое значение x1, при котором целевая функция достигает минимума. Это одномерная задача, так как все переменные, кроме х1 фиксированы.
Фиксируем найденную координату x1 и все остальные, кроме х2.
Определяем х2 из условия минимума целевой функции и т.д.? пока не переберем все координаты.
Проверяем условия окончания счета и, если они не выполнены, возвращаемся к пункту 1, приняв полученную точку за х0. В качестве условия прекращения счета можно взять малое изменение функции после поочередного изменения всех координат или малые изменения всех координат.
О методах второго порядка
Методы второго порядка предусматривают использование вторых частных производных целевой функции. Поскольку для квадратичной задачи целевая функция l/2(Qx, x) + (с, х), необходимое условие экстремума дает
Получаем критическую точку х* = -Q-1 с.
Если исходная точка х0и градиент в ней g 0 = Qx0 + с, то выражение для х можно записать так:
Другими словами, можно найти критическую точку за один шаг из любой точки. Но идти надо не по антиградиенту, а сначала умножить антиградиент на Q-1 (см. формулу 2.6). При положительно определенной квадратичной форме критическая точка будет точкой минимума. Но для этого надо знать обратную матрицу Q-1 или (что равносильно) решить систему линейных уравнений Qx + с = 0. При большой размерности задачи это требует большого объема вычислений (порядка n3 умножений).
О методах прямого поиска
Методами прямого поиска называются методы, в которых используются только значения функции и не используются ее производные (градиент и матрица Гессе). Таким образом, они относятся к методам нулевого порядка. Если известно градиентное направление, то относительно любого направления можно установить, является ли оно улучшающим (по знаку его скалярного произведения на градиент). Если же неизвестно градиентное направление, то относительно любого направления ничего не ясно, если пробный шаг по нему был не удачным, так как всегда можно предположить, что этот шаг был велик. Другими словами, если есть возможность вычисления градиента, то этой возможностью пренебрегать не следует, так как методы прямого поиска, как правило, менее эффективны, чем методы первого и второго порядка.
Методы одномерной минимизации
Существует много методов поиска минимума функции одной переменной на заданном отрезке. Как правило, функция предполагается унимодальной, т.е. имеющей один минимум. Для гладких унимодальных функций точка минимума совпадает с точкой, в которой производная Функции равна нулю. Поэтому вместо точки минимума Функции f(x) можно искать корень уравнения f (х) = 0.
Вопросы для самоконтроля:
1.Методы спуска для задач безусловной оптимизации.
2.Метод Ньютона для задач безусловной оптимизации.
3.Квазиньютоновские методы.
Рекомендуемая литература:
1.Измаилов А.Ф., Солодов М.В. Численные методы оптимизации. М.: Физматлит, 2003.
2.Банди Б. Методы оптимизации. Вводный курс. М.: Радио и связь, 1988.
Лекция 12. Задачи с линейными ограничениями
Содержание лекционного занятия:
Этапы развития информационных систем
Задачи с ограничениями-равенствами
Задачи с ограничениями-неравенствами
Метод проекции градиента
Метод приведенного градиента
Ограничения в задачах оптимизации являются отражением реальных ситуаций, имеющих место в технических, экономических, социальных и др. сложных системах. Ограничены различные виды ресурсов, наличествуют связи, зависимости между теми или иными переменными, описывающими реальные процессы и т.д.
Линейные ограничения — это частный случай ограничений. Но многие задачи сводятся к задачам оптимизации именно с линейной системой ограничений. Относительно допустимой области при наличии линейной системы ограничений справедливо все, что сказано об ОДР в разделе «Линейное программирование». Однако наличие нелинейной целевой функции приводит к тому, что теория линейного программирования уже не применима. В частности, точкой минимума может быть и внутренняя точка допустимой области, а крайние точки (вершины многогранника) уже не играют той исключительной роли, как в линейных задачах. Минимум может достигаться во внутренней или в граничной точке, как в вершине, так и на граничных линейных многообразиях различной размерности.