- •Экономико-математические методы
- •2. Геометрическое решение злп
- •3. Основные теоремы линейного программирования
- •2.1.Линейная программа: случай двух переменных
- •2.2 Общие свойства линейных программ
- •2.3. Теоретические основы симплексного метода
- •Симплексный метод решения задач линейного программирования
- •Двойственная задача линейного программирования.
- •7.1. Классическая содержательная постановка лп
- •7.2 Экономическая интерпретация двойственной задачи
- •7.3 Экономическая интерпретация ограничений двойственной задачи.
- •7.4 Экономическая интерпретация теорем двойственности
- •Связь между решениями прямой и двойственной задач
- •2.1. Методы отсечения и их сущность
- •2.Метод гомори
- •Описание метода
- •[Править]Обоснование
- •[Править]Двумерный случай
- •Принцип оптимальности. Уравнение Беллмана
Описание метода
Составим функцию Лагранжа в виде линейной комбинации функции
и
функций
,
взятых с коэффициентами,
называемыми множителями
Лагранжа —
:
где
.
Составим систему из
уравнений,
приравняв к нулю частные
производные функции
Лагранжа
по
и
.Если полученная система имеет решение относительно параметров
и
,
тогда точка
может
быть условным экстремумом, то есть
решением исходной задачи. Заметим, что
это условие носит необходимый, но не
достаточный характер.
[Править]Обоснование
Нижеприведенное обоснование метода множителей Лагранжа не является его строгим доказательством. Оно содержит эвристические рассуждения, помогающие понять геометрический смысл метода.
[Править]Двумерный случай
Линии
уровня
и
кривая
.
Пусть
требуется найти экстремум некоторой
функции двух переменных
при
условии, задаваемом уравнением
.
Мы будем считать, что все функции
непрерывно дифференцируемы, и данное
уравнение задает гладкую кривую
на
плоскости
.
Тогда задача сводится к нахождению
экстремума функции
на
кривой
.
Будем также считать, что
не
проходит через точки, в
которых градиент
обращается
в
.
Нарисуем
на плоскости
линии
уровня функции
(то
есть кривые
).
Из геометрических соображений видно,
что экстремумом функции
на
кривой
могут
быть только точки, в которых касательные к
и
соответствующей линии уровня совпадают.
Действительно, если кривая
пересекает
линию уровня
в
точке
трансверсально (то
есть под некоторым ненулевым углом), то
двигаясь по кривой
из
точки
мы
можем попасть как на линии уровня,
соответствующие большему значению
,
так и меньшему. Следовательно, такая
точка не может быть точкой экстремума.
Тем
самым, необходимым условием экстремума
в нашем случае будет совпадение
касательных. Чтобы записать его в
аналитической форме, заметим, что оно
эквивалентно параллельности градиентов функций
и
в
данной точке, поскольку вектор градиента
перпендикулярен касательной к линии
уровня. Это условие выражается в следующей
форме:
где
—
некоторое число, отличное от нуля, и
являющееся множителем Лагранжа.
Рассмотрим
теперь функцию
Лагранжа ,
зависящую от
и
:
Необходимым
условием ее экстремума является равенство
нулю градиента
.
В соответствии с правилами дифференцирования,
оно записывается в виде
Мы
получили систему, первые два уравнения
которой эквивалентны необходимому
условию локального экстремума (1), а
третье — уравнению
.
Из нее можно найти
.
При этом
,
поскольку в противном случае градиент
функции
обращается
в нуль в точке
,
что противоречит нашим предположениям.
Следует заметить, что найденные таким
образом точки
могут
и не являться искомыми точками условного
экстремума — рассмотренное условие
носит необходимый, но не достаточный
характер. Нахождение условного экстремума
с помощью вспомогательной функции
и
составляет основу метода множителей
Лагранжа, примененного здесь для
простейшего случая двух переменных.
Оказывается, вышеприведенные рассуждения
обобщаются на случай произвольного
числа переменных и уравнений, задающих
условия.
На основе метода множителей Лагранжа можно доказать и некоторые достаточные условия для условного экстремума, требующие анализа вторых производных функции Лагранжа.
№22 Модели выпуклого программирования
Представляет собой совокупность методов решения нелинейных экстремальных задач с выпуклыми функциями — раздел нелинейного программирования (т. е. дисциплины, занимающейся решением таких задач, в которых действуют не только линейные, но и другие, более сложные зависимости). Выпуклым этот вид математического программирования называется потому, что имеет дело с выпуклыми целевыми функциями (они минимизируются) и выпуклыми системами ограничений (рис. 2.4, в, г).
Общая
задача выпуклого программирования
состоит в отыскании такого вектора х
(т. е. такой точки выпуклого допустимого
множества), который доставляет минимум
выпуклой функции
или
максимум вогнутой функции
Для
второго случая
(выпуклая область допустимых значений и максимум вогнутой функции) ряд авторов используют термин «вогнутое программирование». Выпуклость (вогнутость) важна тем, что гарантирует нахождение оптимального решения задачи, так как здесь соответственно локальные и глобальный экстремумы обязательно совпадают. Критериями оптимальности в первом случае могут быть, например, издержки при различных сочетаниях факторов производства, во втором — величина прибыли при этих сочетаниях. Как видим, есть большое сходство между задачами выпуклого (вогнутого) и линейного программирования (последнее можно рассматривать как частный случай первого). Но нелинейность зависимостей делает задачу намного сложнее задачи линейного программирования, где результаты изменяются пропорционально (линейно) по отношению к затратам.
№23 Общая постановка задачи динамического программирования
Рассматривается
управляемая система, которая под влиянием
управления переходит из начального
состояния
в
конечное состояние
. Предположим,
что процесс управления системой можно
разбить на n шагов.
Пусть
-состояния
системы после 1-го, 2-го, ..., n-го-шагов.
Состояние
системы
после k-го шага
характеризуется
параметрами
,
которые называются фазовыми
координатами. Состояние
можно изобразить точкой s -мерного
пространства, называемого фазовым. Последовательное
преобразование системы (по шагам)
достигается с помощью некоторых
мероприятий
,
которые составляют управление системой
,
где
-
управление на k-м шаге,
переводящее систему из состояния
в
состояние
. Управление
на k-м шаге
заключается в выборе значений определенных
управляющих переменных
.
Предполагаем, что состояние системы в
конце k-го шага
зависит только от предшествующего
состояния системы
и
управления
на
данном шаге. Такое
свойство получило название отсутствие
последействия.Запишем
эту зависимость в
виде
(1).
Равенства (1) получили название уравнений состояний.
Варьируя управление U, получим различную эффективность процесса, которую будем оценивать количественно-целевой функцией
(2)
Показатель
эффективности k-го
шага процесса управления, который
зависит от состояния
в
начале этого шага и управления
, выбранного
на этом шаге, обозначим через
. Врассматриваемой
задаче пошаговой оптимизации целевая
функция (2) полагается аддитивной, т. е.
. (3)
Обычно условиями процесса на управление на каждом шаге накладываются некоторые ограничения. Управления, удовлетворяющие этим ограничениям, называются допустимыми.
Задачу пошаговой оптимизации можно сформулировать следующим образом. Определить совокупность допустимых управлений переводящих систему из начального состояния в конечное состояние и максимизирующих или минимизирующих показатель эффективности (3). В дальнейшем будем рассматривать задачу на максимум.
Начальное
состояние
и
конечное состояние
могут
быть заданы однозначно или могут быть
указаны множество
начальных
состояний и множество
конечных
состояний так, что
. В
последнем случае в задаче пошаговой
оптимизации требуется определить
совокупность допустимых управлений,
переводящих систему из начального
состояния
в
конечное состояние
и максимизирующих целевую
функцию (3). Управление, при котором
достигается максимум целевой функции
(3), называется оптимальным
управлением и
обозначается через
.
№24 Принцип оптимальности и уравнение Беллмана
