- •Оглавление
- •Раздел 1. Методические указания по подготовке к лабораторным занятиям 6
- •Раздел 2. Методические указания по выполнению запланированных видов самостоятельной работы студентов 109
- •Раздел 3. Методические указания по подготовке 114
- •Раздел 1. Методические указания по подготовке к лабораторным занятиям
- •1.1. Организация самостоятельной работы студентов по подготовке к лабораторным занятиям
- •1.2. Содержание лабораторных занятий
- •Раздел 1: Введение в исследование операций. «Исследование операций» как наука и искусство
- •Тема 1.1. Искусство моделирования и этапы исследования операций.
- •Тема 1.2. Задача линейного программирования и ее графическое решение.
- •Тема 1.3. Задача линейного программирования как задача распределения ресурсов.
- •Раздел 2: Задачи многокритериального программирования. Линейное программирование
- •Тема 2.1. Задачи математического программирования.
- •Тема 2.2. Критерии оптимальности в задачах математического программирования.
- •Тема 2.3. Решение задач линейного программирования
- •Раздел 3: Исследование операций и искусство организационного управления
- •Тема 3.1. Линейное программирование: алгебраический метод решения. Модифицированный симплекс-метод. Определение двойственной задачи. Транспортная модель, сетевая модель.
- •Тема 3.2. Целочисленное линейное программирование. Методы решения задач целочисленного программирования. Метод ветвей и границ.
- •Тема 3.3. Динамическое программирование. Примеры моделей динамического программирования.
- •Раздел 4: Вероятностные модели. Введение
- •Тема 4.1. Основы теории вероятностей. Теория игр и принятие решений. Принятие решений в условиях неопределенности.
- •Тема 4.2. Календарное планирование и управление запасами
- •Тема 4.3. Теория массового обслуживания. Системы массового обслуживания с приоритетами
- •Тема 4.4. Имитационное моделирование. Моделирование как эксперимент. Метод Монте-Карло
- •Раздел 5: Нелинейное программирование
- •Тема 5.1. Методы нелинейного программирования без ограничений
- •Тема 5.2. Методы нелинейного программирования при наличии ограничений
- •Тема 5.3. Процедуры минимизации при наличии ограничений: методы штрафных функций
- •Тема 5.4. Теория катастроф. Общая задача нечеткого математического программирования
- •Раздел 2. Методические указания по выполнению запланированных видов самостоятельной работы студентов
- •2.1. Методические указания по выполнению расчетно-графической работы
- •2.1.1. Задания для выполнения расчетно-графической работы
- •2.1.2. Порядок выбора варианта расчетно-графической работы
- •2.1.3. Указания на сроки выполнения и защиты расчетно-графической работы
- •2.1.4. Требования к структуре и содержанию расчетно-графических работ
- •2.1.5. Критерии оценки расчетно-графической работы
- •2.1.6. Требования к форме представления результатов, оформлению титульного листа и текста расчетно-графической работы
- •2.1.7. Дополнительное обеспечение
- •Раздел 3. Методические указания по подготовке к промежуточной аттестации
- •3.1. Список вопросов для подготовки к зачету
- •3.2. Общие положения проведения зачета
- •Приложение 1
- •Приложение 2
- •Расчетно-графическая работа
Тема 5.3. Процедуры минимизации при наличии ограничений: методы штрафных функций
Содержание вопросов
Методы штрафных функций специальной структуры. Метод последовательной безусловной минимизации (комбинированный метод штрафных функций)
Вопросы и задания для самостоятельной работы:
1.Подготовить ответы на контрольные вопросы по теме 5.3.:
1.1. Методы штрафных функций?
1.2. Методы штрафных функций специальной структуры?
1.3.Метод Розенброка для решения задач оптимизации при наличии ограничений?
1.4. Комплексный метод Вейсмана «МИНИМАЛ»?
1.5. Метод последовательной безусловной минимизации?
1.6.Условия сходимости метода последовательной безусловной минимизации?
1.7.Вычислительная процедура метода последовательной безусловной минимизации?
2. Тестовые задания для самостоятельного контроля уровня подготовки студентами вопросов темы 5.3.
2.1. Методы штрафных функций:
А. во всех методах штрафных функций осуществляется преобразование задачи нелинейного программирования при наличии ограничений либо в одну (эквивалентную исходной) задачу без ограничений, либо в эквивалентную последовательность задач без ограничений;
Б. в процессе
минимизации
«штрафная добавка»-
к
способствует тому, чтобы вектор
в некоторой степени удовлетворял
исходному ограничивающему условию
;
В. пока условие
удовлетворяется
(в пределах установленного допуска),
значение штрафного члена пренебрежимо
мало, и
при
;
Г. при использовании методов штрафных функций получается максимальный оптимизирующий эффект за счет постоянного компромисса между необходимостью удовлетворения ограничений и процессом минимизации , который достигается путем присвоения надлежащих весов целевой функции и функциям, задающим ограничения и добавления весового коэффициента.
2.2. Методы штрафных функций специальной структуры:
А. основаны на использовании множителей Лагранжа. Методы относятся к категории параметрических методов штрафных функций, так как для них функции-ограничения вводятся в структуру модифицированной целевой функции совместно с некоторым переменным параметром;
Б. ограничения в виде неравенств следует преобразовать в ограничения, имеющие вид равенств, путем введения ослабляющих переменных (на каждое ограничение-неравенство по одной ослабляющей переменной).
В. задача нелинейного
программирования в общей постановке
принимает следующий вид: минимизировать
,
при ограничениях
Г. если вычесть
из
то можно гарантировать, что ограничивающее
условие, имеющее в исходной постановке
задачи вид неравенства, действительно
выполняется. Тогда можно определить
обычным образом функцию Лагранжа:
,
где
-
неотрицательные и не зависящие от
весовые коэффициенты, которые можно
отождествить с множителями Лагранжа.
2.3. Метод Розенброка для решения задач оптимизации при наличии ограничений
А. для того чтобы
было решением общей задачи нелинейного
программирования {минимизировать
,
при
линейных и (или) нелинейных ограничениях
в виде равенств
и
,
линейных и (или) нелинейных ограничениях
в виде неравенств
}
необходимо и достаточно, чтобы: а) функция
была
выпуклой, б) в окрестности
ограничения
задачи были выпуклы и
в) в точке
удовлетворялась система уравнений
.
Т.е., условный минимум
имеет место в стационарной точке для
и, в частности,
в седловой точке
-пространства,
так что задача с ограничениями превращается
в задачу определения седловой точки
в отсутствие ограничений;
Б. решение задачи
минимизации
,
при ограничениях
,
эквивалентно определению минимума не
связанной никакими ограничениями
присоединенной функции
,
где
при
и
при
.
Таким образом, присоединенная функция
вне допустимой области обращается в
нуль;
В. предполагается,
что в каждой точке допустимой области
целевая функция принимает отрицательное
значение, т.е.
.
Если в некоторых или даже во всех точках
значения
оказались
положительными, мы могли бы вычесть из
большое
постоянное число
,
так что имело бы место условие
;
Г. при решении
сформулированной задачи численный
оптимизационный поиск может начинаться
не только с внутренней точки
,
но также и с точки, слегка выходящей за
пределы допустимой области. Для
минимизации
используется
разработанная Розенброком процедура
безусловной минимизации. Последовательность
точек
,
получаемая при этом, является допустимой.
2.4. Комплексный метод Вейсмана «МИНИМАЛ»:
А. комплексный метод Вейсмана позволяет реализовать в одной программе сразу три алгоритма: алгоритм прямого поиска, алгоритм случайного поиска и алгоритм, основанный на использовании штрафной функции;
Б. штрафная функция
строится следующим образом:
,
где
равняется нулю, если ограничивающие
условия удовлетворяются, и единице,
если ограничения оказываются нарушенными.
При этом ограничения в виде равенств
преобразуются в ограничения-неравенства,
т.е. записываются в виде
где
-
величина допуска, ассоциированного с
соответствующим исходным ограничением
в виде равенства;
В. минимизация
осуществляется по алгоритму прямого
поиска для некоторой поэтапно возрастающей
последовательности значений
.
Поиск заканчивается либо оказываются
удовлетворенными все ограничивающие
условия, либо когда абсолютная разность
между значениями
в
начале и конце поиска оказывается меньше
некоторого заранее установленного
доверительного числа (например
);
Г. Вейсман выбирал
начальные значения
так, чтобы
где
- число ограничений. В конце каждого
этапа значения
для
каждого нарушенного (на
этапе) ограничения умножаются на 8;
полученное в результате новое значение
используется
на
этапе. В конце
каждого оптимизационного поиска методом
прямого поиска реализуется, кроме того,
случайный (рандомизированный) поиск.
2.5. Метод последовательной безусловной минимизации:
А. алгоритм нелинейного программирования, называемый метод последовательной безусловной минимизации, является обобщением метода барьерных поверхностей, который был предложен Кэрролом. Фиакко и Мак-Кормик развили этот метод, доказали его эффективность и распространили его алгоритмическую структуру на случай, когда среди ограничений задачи имеют место ограничения в виде равенств;
Б. алгоритм
разработан для решения задачи нелинейного
программирования вида: {минимизировать
,
при
линейных и (или) нелинейных ограничениях
в виде равенств
и
,
линейных и (или) нелинейных ограничениях
в виде неравенств
},
в которой
и
могут быть нелинейными функциями
независимых переменных, а
должны быть линейными функциями
независимых переменных;
В. при таких условиях гарантируется сходимость последовательности промежуточных решений к оптимальному решению задачи нелинейного программирования;
Г. в основном метод последовательной безусловной минимизации сводится к следующему: ищется решение некоторой последовательности задач без ограничений, причем в пределе находится минимум исходной задачи нелинейного программирования.
2.6. Условия сходимости метода последовательной безусловной минимизации:
А. в предложенном
машинном варианте метода задача
нелинейного программирования преобразуется
в последовательность задач без ограничений
путем построения
функции
следующего вида:
где значения
весовых коэффициентов
положительны
и образуют монотонно убывающую
последовательность
;
Б. процедура
минимизации функции начинается с
внутренней (или граничной) точки, т.е. с
точки
,
в которой все ограничивающие условия
в виде неравенств удовлетворены. После
вычисления
точка
определяется
путем минимизации
.
Затем вычисляется
и
путем минимизации
находится
точка
и
т.д.;
В. при определенных
условиях последовательность безусловных
минимумов
будет стремиться к решению задачи
нелинейного программирования по мере
приближения к нулю значений
.
Существенным является условие выпуклости
функции;
Г. условия сходимости выглядят следующим образом:
Условие 1.
Объединение множества, содержащего все
точки
,
удовлетворяющие ограничивающим условиям
в виде равенств
,
и множества
,
содержащего все точки
,
удовлетворяющие ограничивающим условиям
должно быть непустым.
Условие 2.
Функции
должны
быть дважды непрерывно дифференцируемыми,
если возникает необходимость применять
метод, основанный на использовании
вторых производных.
Условие 3.
Для любого конечного q
и любого
множество
точек
,
удовлетворяющих неравенству
и
принадлежащих
,
должно быть ограниченным.
Условие
4. Целевая
функция
должна
быть выпуклой, а функции
должны быть
линейными (точнее сумма
должна
быть выпуклой).
Условие
5. Функции
должны
быть вогнутыми.
Условие 6. Матрица Гессе для функции относительно (т.е. матрица, составленная из вторых частных производных функции по независимым переменным) не должна обращаться в нуль ни для одной из точек, принадлежащих множеству .
2.7. Вычислительная процедура метода последовательной безусловной минимизации:
А. вычислительный
алгоритм реализует следующие шаги: шаг
1. Пользователь
выбирает стартовую точку
,
принадлежащую множеству
(т.е.
такую точку
,
для которой
);
Б. так как функция может иметь несколько минимумов, то, начиная поиск с точки, не являющейся внутренней, можно прийти к минимуму, не являющемуся допустимым. Если требуемая внутренняя точка неизвестна, ее можно найти с помощью метода последовательной безусловной минимизации;
В. шаг
2. После
определения стартовой точки в соответствии
с алгоритмом находится положение
минимума
функции
для текущего значения
.
Направление оптимизационного поиска
находится с помощью метода Ньютона
путем предварительного умножения
градиента функции
на
матрицу, являющуюся обратной по отношению
к матрице вторых частных производных
по независимым переменным, или с помощью
метода Бройдена, аппроксимирующего
или
.
Длина шага определяется путем минимизации
модифицированной
функции.
Как только направление поиска оказывается
установленным, в рамках метода
последовательной безусловной минимизации
производится поиск методом Фибоначчи
тем, чтобы определить положение
минимума
на
расстоянии
от
в
направлении поиска для того, чтобы
перейти к минимизации методом линейной
аппроксимации;
Г.
шаг 3. В методе
последовательной безусловной минимизации
вектор
задается
соотношением
,
где
определяется
формулой
или
.
Чтобы избежать манипулирования с
точками, лежащими вне допустимой области,
необходимо располагать некоторым
методом выявления ситуаций, когда
оказывается нарушенным то или иное
ограничение в виде неравенства;
шаг 4.
Без акселерационного шага метод
последовательной безусловной минимизации
обеспечивает сходимость к условному
экстремуму слишком медленно (так как
вблизи границы процесс минимизации
проходит медленно). Поэтому используется
прием последовательного уменьшения
весового коэффициента
для
того, чтобы получить последовательность
минимумов
и
соответствующих значений
.
После этого по трем точкам
можно найти приближенный экстремум (за
исключением случаев сильного «сгущения»
текущих точек).
Можно продолжать и далее итерационный процесс (шаги 5-8) и при желании разработчика, и при наличии машинного времени, но вычисления заканчиваются и при желании, если выполняется выбранный критерий.
