- •Теория принятия решений
- •Часть 2 нелинейное программирование, теория игр, многокритериальные задачи принятия решений
- •Введение
- •4. Нелинейное программирование
- •4.1. Характеристика задач
- •4.2. Условия оптимальности
- •4.3. Квадратичное программирование
- •4.4. Сепарабельное программирование
- •4.5. Задачи дробно-линейного программирования
- •4.6. Методы спуска
- •4.7. Методы одномерной минимизации
- •4.7.3. Метод деления интервала пополам
- •4.7.4. Метод золотого сечения
- •4.7.6. Метод первого порядка
- •4.8. Многомерный поиск безусловного минимума
- •4.8.1. Метод Гаусса – Зейделя (покоординатного спуска)
- •4.8.2. Метод Хука – Дживса (метод конфигураций)
- •4.8.3. Симплексный метод
- •4.8.4. Градиентные методы
- •4.8.6. Методы сопряженных направлений
- •4.8.7. Методы случайного поиска
- •Алгоритм с возвратом при неудачном шаге
- •Алгоритм с обратным шагом
- •Алгоритм наилучшей пробы
- •Алгоритм статистического градиента
- •4.8.8. Генетические алгоритмы
- •Исходная популяция
- •Результаты работы оператора скрещивания
- •Популяция первого поколения
- •4.9. Методы условной оптимизации
- •4.9.2. Метод проектирования градиента
- •4.9.3. Метод штрафных функций
- •Минимизация по методу Ньютона
- •4.9.4. Метод барьерных функций
- •Результаты поиска алгоритмом барьерных функций
- •4.9.5. Другие методы условной оптимизации
- •5. Методы теории игр в управлении
- •5.1. Теория игр в контексте теории принятия решений
- •5.2. Матричные игры с нулевой суммой
- •Использование линейной оптимизации при решении матричных игр. Пусть игра не имеет оптимального решения в чистых стратегиях, т.Е. Седловая точка отсутствует .
- •5.3. Игры с природой
- •5.4. Критерии, используемые для принятия решений
- •В играх с природой. Критерии, основанные
- •На известных вероятностях стратегий природы
- •Иногда неопределенность ситуации удается в некоторой степени ослабить с помощью нахождения вероятностей состояний на базе данных статистических наблюдений.
- •5.5. Оценка необходимости эксперимента
- •6. Многокритериальные задачи принятия решений
- •6.1. Основы многокритериальный оптимизации
- •6.2. Принцип оптимальности Парето.
- •6.3. Принцип равновесия по Нэшу
- •6.4. Конфликты, переговоры и компромиссы
- •6.5. Краткий обзор методов решения задачи векторной оптимизации
- •Значения компонентов вектор-функции
- •1. Оптимальность по Парето
- •Исходные данные для задачи оптимизации по Парето
- •Эффективность операции
- •2. Принятие решений в условиях неопределенности
- •Исходные данные для задачи принятия решения в условиях неопределенности
- •3. Многокритериальная оптимизация
- •Заключение
- •Библиографический список
- •Оглавление
- •Теория принятия решений
4.9.3. Метод штрафных функций
Совершенно иной подход используется в методах штрафных и барьерных функций. Ограничения задачи специальным образом отражаются в критерии, в результате чего критерий модифицируется, а исходная задача на условный экстремум сводится к задаче на безусловный экстремум.
В методе штрафных функций в критерий вводится штраф при нарушении условий задачи. Пусть в общем случае имеем задачу
f(x) → min; (4.65)
i(x) 0, ; (4.66)
i(x) = 0 , . (4.67)
Тогда можно построить вспомогательную функцию
(x) = f(x) + H(x), (4.68)
где H(x) – функция штрафа; – параметр штрафа.
Вспомогательная функция играет роль модифицированного критерия, который при выполнении всех ограничений должен совпадать с исходным. Поэтому необходимо, чтобы в допустимой области Н(х) равнялась нулю, а вне ее была положительной. Для задачи (4.65)–(4.67) функция штрафа включает две составляющие Н(х) = Н(x) + Н(x), учитывающие ограничения-неравенства и ограничения-равенства соответственно и удовлетворяющие условиям
(4.69)
Возможны разные конструкции функций, обладающих указанными свойствами. Типичные представители составляющих штрафной функции имеют вид
где р – натуральное число. Для дифференцируемости функций берут четные значения р, обычно р = 2.
Чем больше , тем сильнее влияет функция штрафа и, значит, тем точнее выполняются условия задачи.
Пример 4.8. Дана задача
f(x) = x → min;
(x) = 3 – x 0.
Ответ очевиден: x* = 3. Теперь сведем эту задачу к определению безусловного экстремума вспомогательной функции. Построим штрафную функцию в соответствии с формулой (4.69): H = [max (0, 3 – x)]2. Тогда приходим к задаче
= x + [max (0, 3 – x)]2 → min.
На рис. 4.40 и 4.41 показаны функции H и для двух значений .
Рис. 4.40. Функция H для двух значений |
Рис. 4.41. Функция для двух значений |
Видно, что точки минимума вспомогательной функции с увеличением приближаются к точке условного минимума исходной задачи. Такой же вывод следует из аналитического решения. Действительно, при x < 3 вспомогательная функция имеет вид
= x + (3 – x)2.
Находим минимум этой функции:
.
Отсюда получаем
Пример 4.9. Рассмотрим влияние параметра шага в задаче
Здесь и На рис. 4.42 построены линии уровня функции для разных значений и линия ограничения . При = 0 имеем = f, и минимум достигается в точке безусловного минимума f: x1 = x2 = 1. С увеличением меняется форма линий уровня и положение минимума. При = 1 минимум смещается к линии ограничения, а при = 1000 он практически точно совпадает с условным минимумом задачи.
В обоих примерах с увеличением генерируемые точки приближаются к оптимальному решению извне допустимого множества. Поэтому ряд авторов называют рассматриваемый метод методом внешних штрафов.
Таким образом, чтобы безусловный минимум вспомогательной функции был близок к условному минимуму решаемой задачи, необходимо брать очень большое значение , теоретически бесконечное.
Рис. 4.42. Линии уровня функции для разных значений и линия ограничения
Однако при больших возникают серьезные трудности при поиске минимума вспомогательной функции. Поэтому предлагается решать последовательность задач минимизации с возрастающими значениями . При этом в качестве начальной точки следующей задачи берется оптимальная точка предыдущей. Такой прием использован в следующем алгоритме штрафных функций.
Алгоритм
1. Задать: начальную точку x0, точность , начальное значение 0 и число > 1.
2. Минимизировать (x) одним из методов безусловной оптимизации, в результате чего определяется .
3. Проверить: если , то остановиться, приняв за оптимальное решение задачи.
4. Положить , за начальную точку принять и вернуться на п. 2.
Рекомендуется выбирать значения параметров алгоритма из диапазонов: 0 (0,1], (1,10]. Начальную точку следует задавать в недопустимой области.
Пример 4.10. Алгоритмом штрафных функций решить задачу
Возьмем начальную точку x0 = (–5; 5), 0 = 0,21, = 5 и = 0,0001. Применяя для минимизации метод Ньютона, получаем результаты, представленные в табл. 4.4.
Таблица 4.4