
- •Теория принятия решений
- •Часть 2 нелинейное программирование, теория игр, многокритериальные задачи принятия решений
- •Введение
- •4. Нелинейное программирование
- •4.1. Характеристика задач
- •4.2. Условия оптимальности
- •4.3. Квадратичное программирование
- •4.4. Сепарабельное программирование
- •4.5. Задачи дробно-линейного программирования
- •4.6. Методы спуска
- •4.7. Методы одномерной минимизации
- •4.7.3. Метод деления интервала пополам
- •4.7.4. Метод золотого сечения
- •4.7.6. Метод первого порядка
- •4.8. Многомерный поиск безусловного минимума
- •4.8.1. Метод Гаусса – Зейделя (покоординатного спуска)
- •4.8.2. Метод Хука – Дживса (метод конфигураций)
- •4.8.3. Симплексный метод
- •4.8.4. Градиентные методы
- •4.8.6. Методы сопряженных направлений
- •4.8.7. Методы случайного поиска
- •Алгоритм с возвратом при неудачном шаге
- •Алгоритм с обратным шагом
- •Алгоритм наилучшей пробы
- •Алгоритм статистического градиента
- •4.8.8. Генетические алгоритмы
- •Исходная популяция
- •Результаты работы оператора скрещивания
- •Популяция первого поколения
- •4.9. Методы условной оптимизации
- •4.9.2. Метод проектирования градиента
- •4.9.3. Метод штрафных функций
- •Минимизация по методу Ньютона
- •4.9.4. Метод барьерных функций
- •Результаты поиска алгоритмом барьерных функций
- •4.9.5. Другие методы условной оптимизации
- •5. Методы теории игр в управлении
- •5.1. Теория игр в контексте теории принятия решений
- •5.2. Матричные игры с нулевой суммой
- •Использование линейной оптимизации при решении матричных игр. Пусть игра не имеет оптимального решения в чистых стратегиях, т.Е. Седловая точка отсутствует .
- •5.3. Игры с природой
- •5.4. Критерии, используемые для принятия решений
- •В играх с природой. Критерии, основанные
- •На известных вероятностях стратегий природы
- •Иногда неопределенность ситуации удается в некоторой степени ослабить с помощью нахождения вероятностей состояний на базе данных статистических наблюдений.
- •5.5. Оценка необходимости эксперимента
- •6. Многокритериальные задачи принятия решений
- •6.1. Основы многокритериальный оптимизации
- •6.2. Принцип оптимальности Парето.
- •6.3. Принцип равновесия по Нэшу
- •6.4. Конфликты, переговоры и компромиссы
- •6.5. Краткий обзор методов решения задачи векторной оптимизации
- •Значения компонентов вектор-функции
- •1. Оптимальность по Парето
- •Исходные данные для задачи оптимизации по Парето
- •Эффективность операции
- •2. Принятие решений в условиях неопределенности
- •Исходные данные для задачи принятия решения в условиях неопределенности
- •3. Многокритериальная оптимизация
- •Заключение
- •Библиографический список
- •Оглавление
- •Теория принятия решений
4.8.6. Методы сопряженных направлений
Как и метод Ньютона, методы сопряженных направлений основаны на свойствах квадратичных функций. В связи с этим говорят о сопряженных направлениях относительно квадратичной функции.
Пусть дана матрица Нnn. Направления d1, d2, ..., dk (k n) называются сопряженными, или Н-сопряженными, если они линейно независимы и
. (4.52)
Эти
векторы определяют сопряженные
направления. Для квадратичной функции
двух переменных сопряженные направления
получаются следующим образом. Возьмем
произвольное направлениеd1
и на нем найдем минимум, двигаясь
из точки X1.
Повторим поиск минимума на d1
из точки X2
X1
(рис. 4.35).
Направление d2,
определяемое прямой, проходящей
через найденные минимумы, является
сопряженным с направлением d1.
При этом направление d2
проходит через искомый минимум
функции f.
Следовательно, при любой начальной
точке минимум квадратичной функции
двух переменных достигается за два
одномерных поиска вдоль сопряженных
направлений.
Пример 4.6.
Используя сопряженные направления,
найти минимум функции
(точка минимума X*
= (2, 4)).
Запишем матрицу
Гессе: .
За первое направление
возьмем
Компоненты d2
найдем из условия (4.52):
.
Положив а
= 1, получаем b
= 2 и Возьмем
начальную точку
X0
= (–1; 1). Найдем минимум на направлении
d1.
Для этого подставим в функцию X = X0
+ hd1,
т. е. x1
= x10
+ h =
–1+ h,
x2
= x20
= 1. Тогда f = h2
– 3h –
3 и минимум по h
будет при
h*
= 1,5. Следовательно, минимум на
d1 достигается
в точке
X1
=
(0,5;
1). Приняв ее
за начальную для поиска вдоль d2
и подставляя в функцию
x1
= 0,5 + h,
x2
= 1 + 2h,
получаем f
= 3h2
– – h –
5,25. Находим h*
=1,5 и соответствующую новую точку X2
= (2; 4). Как видим, второй одномерный поиск
привел в точку искомого минимума f
(рис. 4.36).
Для квадратичной функции n переменных сопряженные направления позволяют найти минимум не более чем за n одномерных поисков. В случае нелинейной функции, отличной от квадратичной, конечное число итераций дает только приближенное решение.
Методы, основанные на концепции сопряженных направлений, различаются способами построения таких направлений. Ряд из них относятся к прямым методам, например, метод Пауэлла и его модификация – метод Зангвилла. Другие используют первые производные, например метод сопряженных градиентов (метод Флетчера – Ривса). Одним из самых эффективных является метод Дэвидона – Флетчера – Пауэлла. В нем генерируются сопряженные направления с использованием градиента и матрицы D, аппроксимирующей обратную матрицу H–1. Поэтому его относят также к квазиньютоновским методам. Рассмотрение этих методов выходит за рамки настоящего пособия.
4.8.7. Методы случайного поиска
Рассматриваемые здесь методы основаны на использовании случайного механизма задания начальной точки и выбора направления движения. Так как в процессе поиска вычисляются значения только целевой функции, эти методы можно отнести к классу прямых.
Случайный механизм выбора направления реализуется с помощью датчика случайных чисел , равномерно распределенных на интервале [–b, b]. Направление задается случайным вектором
= (1, 2, 3, ..., n),
компоненты которого вычисляются по формуле
,
где n случайных чисел i генерируются датчиком. Очевидно, что такой случайный вектор имеет единичную длину и определяет только направление. При этом все направления равновероятны.
Приведем несколько простых алгоритмов случайного поиска.