- •1.Основные понятия системного анализа
- •1.1.Определения и свойства системы
- •1.2.Виды описаний систем
- •1.3.Понятие системного подхода
- •1.4.Аспекты системного подхода
- •2.Классификация систем
- •3.Модели систем
- •4.Постановка задач принятия решений.
- •5.Классификация задач принятия решений.
- •6.Этапы решения задач.
- •6.1.Одношаговые схемы принятия решения
- •6.2.Многошаговые решения
- •7.Экспертные процедуры.
- •7.1. Задачи оценивания.
- •7.2. Алгоритмы экспертизы.
- •7.3 Методы получения экспертной информации.
- •7.4. Шкалы измерений, методы экспертных измерений.
- •7.5.Проверка согласованности мнений экспертов и классификация экспертных мнений.
- •7.6.Нахождение итогового мнения комиссии экспертов.
- •7.6.1.Бинарные отношения и расстояние Кемени.
- •7.6.2.Медиана Кемени и законы больших чисел.
- •7.7. Основные стадии экспертного опроса.
- •7.8. Оценка компетентности экспертов.
- •7.9. Методы обработки экспертной информации.
- •7.9.1. Статистические методы
- •7.9.2. Алгебраический метод.
- •7.9.3 Методы шкалирования.
- •2. Метод троек.
- •8. Формирование исходного множества альтернатив и Морфологический анализ.
- •8.1. Общая характеристика алгоритмов
- •8.2. Алгоритмы формирования има
- •8.3. Морфологический анализ.
- •9.Методы многокритериальной оценки альтернатив.
- •9.1. Различные группы задач принятия решений.
- •9.2.Многокритериальная теория полезности (maut)(Аксиоматические методы многкритериальной оценки).
- •9.2.1. Основные этапы подхода maut
- •9.2.2. Аксиоматическое обоснование
- •9.2.3.Основные теоремы.
- •9.2.4.Построение однокритериальных функций полезности
- •9.2.5. Проверка условий независимости
- •9.3.Проверка условий независимости по полезности
- •9.2.6.Определение весовых коэффициентов (коэффициентов важности) критериев
- •9.2.7.Определение полезности альтернатив
- •9.2.8.Веса критериев
- •9.2.9.Как люди назначают веса критериев
- •9.2.10.Практическое применение
- •9.2.11.Метод smart - простой метод многокритериальной оценки.
- •9.2.12.Первый эвристический метод
- •9.2.13.Выводы
- •9.3. Подход аналитической иерархии.
- •9.3.1.Основные этапы подхода аналитической иерархии
- •9.3.2.Структуризация
- •9.3.3.Попарные сравнения.
- •9.3.4.Определение наилучшей альтернативы
- •9.3.5.Проверка согласованности суждений лпр
- •9.3.6.Система поддержки принятия решений Expert Choice
- •9.3.7.Контрпримеры и противоречия.
- •9.4.Мультипликативный метод аналитической иерархии
- •9.5.Пример практического применения подхода анр
- •9.6.Выводы
- •9.7. Методы electre(Прямые методы многокритериальной оценки альтернатив).
- •9.7.1.Конструктивистский подход
- •9.7.2.Два основных этапа
- •9.7.3.Свойства бинарных отношений
- •9.8.Метод electre I
- •9.8.1.Этап разработки индексов
- •9.8.2.Этап исследования множества альтернатив
- •9.9.Метод electre II
- •9.9.1.Этап разработки индексов
- •9.9.2.Этап исследования множества альтернатив
- •9.10.Метод electre III
- •9.10.1. Этап разработки индексов
- •9.10.2.Этап исследования альтернатив
- •Пример.
- •9.10.3.Пример практического применения метода electre III
- •9.10.4.Некоторые сопоставления
- •9.11.Выводы
- •10.Деревья решений.
- •Рнс. 10.1. Дерево решений
- •11. Методы принятия решений в многокритериальных задачах и постулируемые принципы оптимальности.
- •11.1.Метод главного критерия
- •11.2.Метод доминантной структуры (альтернативы)
- •11.3.Метод "эффективность - стоимость"
- •11.4.Построение множества Парсто (компромиссы Парето)
- •11.5.Отказ от рассмотрения проблемы многокритериального выбора
- •11.6.Методы порогов сравнимости
- •11.7.Компромиссное распределение ресурсов между целями.
- •11.8.Метод деревьев решений
- •11.9.Метод решения многокритериальных задач при вычислимых критериях
- •12. Вербальный анализ решений и диалоговые методы принятия решений.
- •12.1. Особый класс задач принятия решений: неструктуризованные проблемы с качественными переменными
- •12.2. Качественная модель лица, принимающего решения
- •12.2.1. Черты человеческой системы переработки информации
- •12.2.2. Особенности поведения человека при принятии решений
- •12.3. Какими должны быть методы анализа неструктуризованных проблем
- •12.4. Измерения
- •12.4.1. Качественные измерения
- •12.4.2. Сравнительные качественные оценки
- •12.5. Построение решающего правила
- •12.6. Проверка информации лпр на непротиворечивость
- •12.7. Обучающие процедуры
- •12.8. Получение объяснений
- •12.9. Основные характеристики методов вербального анализа решений
- •12.10. Метод запрос (зАмкнутые пРоцедуры у Опорных Ситуаций)
- •12.10.1. Постановка задачи
- •12.10.2. Пример: как оценить проекты?
- •12.11. Выявление предпочтений лпр
- •12.11.1.Единая порядковая шкала для двух критериев
- •12.11.2.Проверка условия независимости для двух критериев
- •12.11.3.Независимость по понижению качества для группы критериев
- •12.11.4.Единая порядковая шкала оценок всех критериев
- •12.11.5.Проверка информации лпр на непротиворечивость
- •12.11.6.Частный случай
- •12.11.7. Психологическая корректность процедуры выявления предпочтений лпр
- •12.12.Сравнение альтернатив.
- •12.12.1.Упорядочение группы заданных альтернатив
- •12.13. Преимущества метода запрос
- •12.13.1. Практическое применение метода запрос
- •12.14. Сравнение трех сппр
- •12.15.Выводы
- •13.Функция полезности.
- •14. Принятие решений в условиях неопределенности.
- •15. Статические модели принятия единичных решений в условиях определенности.
- •15.1. Метод сравнительного учета затрат.
- •15.2. Метод сравнительного учета прибыли.
- •15.3. Метод сравнительного учета рентабельности.
- •15.4. Метод статических амортизационных расчетов.
- •16.Сущность глобального и локального критериев оптимальности.
- •17.Критерии принятия решений.
- •17.1. Критерий Байеса-Лапласа.
- •17.2.Составной критерий Байеса-Лапласа минимаксный.
- •17.3.Критерий Гермейера.
- •17.4. Критерий Сэвиджа.
- •17.5.Критерий Гурвица.
- •17.6.Критерий произведений.
- •18.Принятие коллективных решений.
- •18.1.Плюсы и минусы коллективных решений, современные концепции группового выбора.
- •18.2. Теорема Эрроу о невозможности. Анализ предпосылок теоремы Эрроу.
- •18.3.Правило Кондорсе.
- •18.4.Правило Борда.
- •19.Принятие решений в условиях нечеткой информации.
- •19.1.Зачем нужны нечеткие множества.
- •19.2. Операции над нечеткими множествами.
- •19.3. Задача достижения нечетко определенной цели.
- •19.4.Нечеткие отношения и их свойства.
- •19.4.1.Основные определения.
- •19.4.2.Операции над нечеткими отношениями.
- •19.4.3.Свойства нечетких отношений.
- •19.4.4.Декомпозиция нечетких отношений.
- •19.4.5.Транзитивное замыкание нечетких отношений.
- •19.4.6.Проекции нечетких отношений.
- •20.2.Кооперативные игры.
- •20.3. Дифференциальная игра.
- •20.4. Платежная матрица. Цена игры. Принципы максимина и минимакса.
- •20.5. Решение игры в смешанных стратегиях. Основная теорема теории матричных игр.
- •20.6.Сведение матричной игры к задаче линейного программирования.
- •21. Методы безусловной оптимизации
- •21.1 Классификация методов безусловной оптимизации.
- •21.2 Скорости сходимости.
- •21.3 Методы первого порядка.
- •21.4 Метод наискорейшего спуска
- •21.5 Методы сопряженных градиентов.
- •21.6 Градиентные методы.
- •21.7 Методы второго порядка.
- •21.8 Метод Ньютона и его модификации.
- •21.9 Модифицированный метод Ньютона.
- •21.10 Метод секущих.
- •21.11 Квазиньютоновские методы. Методы переменной метрики.
- •21.12 Конечно-разностная аппроксимация производных. Конечно-разностные методы.
- •21.12.1 Постановка задачи.
- •21.12.2 Общая схема.
- •21.12.3 Устойчивость схемы.
- •21.12.4 Повышение порядка аппроксимации.
- •21.12.5 О решении разностных схем.
- •21.12.6 Нелинейные задачи.
- •21.13 Методы нулевого порядка.
- •21.13.1 Основные определения
- •21.13.2 Общая характеристика методов нулевого порядка
- •21.14 Метод покоординатного спуска
- •21.15 Метод Хука—Дживса
- •21.16 Метод сопряженных направлений.
- •21.17 Методы деформируемых конфигураций.
- •21.18 Симплексные методы.
- •21.19 Комплекс-методы.
- •21.20 Решение задач многокритериальной оптимизации методами прямого поиска.
- •21.20.1 Модифицированный поиск Хука-Дживса
- •21.20.2 Методы случайного поиска
- •22. Задачи с ограничением (условная оптимизация)
- •22.1 Основные подходы к решению задач с ограничениями. Классификация задач и методов.
- •22.2 Метод проекции градиента.
- •22.3 Метод условного градиента.
- •22.4 Методы сведения задач с ограничениями к задачам безусловной оптимизации. Методы возможных направлений
- •22.4.1 Метод Зойтендейка
- •22.4.2 Метод возможных направлений для нелинейных ограничений-неравенств и равенств
- •22.4.3 Модификация метода возможных направлений
- •22.5 Методы штрафных функций
- •22.5.1 Методы внутренних штрафных функций
- •22.5.2 Методы внешних штрафных функций
- •22.6 Комбинированные алгоритмы штрафных функций
- •23. Стохастичесоке программирование
- •23.1 Задачи стохастического программирования. Прямые и непрямые методы.
- •23.2 Прямые методы. Стохастические квазиградиентные методы. Метод проектирования стохастических квазиградиентов.
- •23.3 Прямые методы. Метод стохастической аппроксимации
- •23.4 Прямые методы. Методы случайного поиска. Статистические методы поиска нелинейного программирования
- •23.5 Стохастические разностные методы. Методы конечных разностей в стохастическом программировании.
- •Статистические методы поиска нелинейного программирования
- •23.6 Стохастические задачи с ограничениями вероятностей природы.
- •24. Дискретное программирование
- •24.1 Методы и задачи дискретного программирования. Задачи целочисленного линейного программирования.
- •24.1.1 Задачи с неделимостями
- •24.1.2 Задача о рюкзаке.
- •24.1.3 Экстремальные комбинаторные задачи
- •24.1.4 Задача о коммивояжере.
- •24.1.5 Задача о покрытии.
- •24.1.6 Задачи на несвязных областях.
- •24.1.7 Задачи на невыпуклых областях.
- •24.1.8 Задачи с разрывными целевыми функциями
- •24.1.9 Задачи, сводящиеся к целочисленным
- •24.2 Методы отсечения Гомори.
- •24.3 Метод ветвей и границ.
- •24.4 Метод ветвей и границ для задачи целочисленного программирования
- •24.5 Задача о назначениях.
- •24.6 Венгерский алгоритм.
- •24.6.1 Венгерский метод для задачи о назначениях. Постановка задачи.
- •24.6.2 Описание алгоритма венгерского метода
- •24.6.3 Пример решения задачи о назначених венгерским алгоритмом.
- •24.7 Задачи оптимизации на сетях и графах.
- •Метод итераций по критерию
- •Метод итераций по стратегиям (в пространстве стратегий)
- •Минимизация средних затрат.
- •Пример 24.1
- •Пример 24.2.
- •25. Динамическое программирование
- •25.1 Метод динамического программирования для многошаговых задач принятия решений.
- •25.2 Принцип оптимальности Беллмана
- •25.3 Основное функциональное уравнение.
- •25.4 Вычислительная схема метода динамического программирования.
- •26. Общие положения о системном анализе.
- •27. Задача математического программирования.
- •27.1. Формы записи задач нечеткого математического программирования.
- •27.2. Классификация методов нелинейного математического программирования.
- •28. Линейное программирование.
- •28.1. Общие положения.
- •28.2. Геометрическая интерпретация множества решений системы линейных неравенств с 2 неизвестными.
- •28.3. Постановка задачи линейного программирования и двойственная задача линейного программирования.
- •28.3.1. Стандартная задача лп.
- •28.3.2. Каноническая задача лп.
- •28.3.3. Общая задача лп.
- •28.3.4. Двойственная задача линейного программирования.
- •28.3.5. Теорема двойственности.
- •28.3.6. Теорема равновесия.
- •28.4. Решение систем линейных неравенств. Гиперплоскость и полупространство.
- •28.5. Основные теоремы линейного программирования. Допустимые множества и оптимальные решения задач линейного программирования.
- •28.6. Симплексный метод решения задачи линейного программирования.
- •28.7. Условия существования и свойства оптимальных решений задачи линейного программирования.
- •28.7.1. Оптимальные решения.
- •28.7.2. Необходимые и достаточные условия оптимальности решения.
- •28.7.2.1. Нелинейное программирование без ограничений.
- •28.7.2.2. Нелинейное программирование с ограничениями в виде равенств и неравенств.
- •29. Двойственность в линейном программировании.
- •29.1. Общие положения.
- •29.2. Несимметричные двойственные задачи. Теорема двойственности.
- •29.3. Симметричные двойственные задачи.
- •29.4. Виды математических моделей двойственных задач.
- •29.5. Двойственный симплексный метод.
- •30.1.3. Классические способы отыскания решения экстремальных задач.
- •30.1.4. Условие регулярности.
- •30.1.5. Функция Лагранжа. Условия оптимальности.
- •30.1.6. Теорема Куна-Таккера.
- •30.1.7. Дифференциальные условия Куна-Таккера.
- •30.1.8. Общая схема решения задачи выпуклого программирования.
- •30.2. Выпуклые множества и функции.
- •30.3. Поиск экстремума функции.
- •31. Задача нелинейного программирования при ограничениях в неравенствах.
- •31.1. Теорема Куна-Таккера.
- •31.2. Седловая точка и задача нелинейного программирования.
- •31.3. Применение теоремы Куна-Таккера для задачи выпуклого программирования.
- •Список использованных источников
30.3. Поиск экстремума функции.
Задачи поиска экстремума функции означают нахождение ее максимума (наибольшего значения) или минимума (наименьшего значения) в некоторой области ее аргументов. Ограничения значений аргументов, задающих эту область, как и прочие дополнительные условия, должны быть определены в виде системы неравенств и (или) уравнений. В таком случае говорят о задаче на условный экстремум. Поиск экстремума функции включает в себя задачи нахождения локального и глобального экстремума. Последние называют еще задачами оптимизации.
Для решения задач поиска максимума и минимума чаще всего применяются те же самые итерационные градиентные численные методы, что и для решения нелинейных уравнений. Для решения задачи на экстремум функции так же следует задать начальное приближение - нулевую итерацию. Отличием является критерий, согласно которому строятся следующие итерации. В случае решения нелинейных уравнений и систем он заключается в поиске точки x, максимально близкой к нулю f(x), а в случае задачи на экстремум - точки, увеличивающей (или уменьшающей) значение функции f(x) от шага к шагу, либо приближающей к нулю ее производную f'(x) (в последнем случае, подразумевающем дифференцируемость функции f, задача поиска экстремума сводится к задаче решения нелинейного уравнения).
Рассмотрим конкретный пример функции f(x)=x4+5x3-10x, на интервале (-2,5). Она имеет глобальный максимум на левой границе интервала, глобальный минимум, локальный максимум, локальный минимум и локальный максимум на правой границе интервала (в порядке слева–направо).
При помощи градиентных методов можно решить только задачу поиска локального экстремума. Чтобы найти глобальный максимум (или минимум), требуется либо сначала вычислить все их локальные значения и потом выбрать из них наибольший (наименьший), либо предварительно просканировать с некоторым шагом рассматриваемую область, чтобы выделить из нее подобласть наибольших (наименьших) значений функции и осуществить поиск глобального экстремума, уже находясь в его окрестности. Последний путь таит в себе некоторую опасность уйти в зону другого локального экстремума, но часто может быть предпочтительнее из соображений экономии времени. Всем аргументам функции f предварительно следует присвоить некоторые значения, причем для тех переменных, по которым производится минимизация, они будут восприниматься как начальные приближения. Помните, что существенное влияние на результат оказывает как раз выбор начального приближения, в зависимости от чего в качестве ответа выдаются различные локальные экстремумы. Возможно, что численный метод вообще не справится с задачей, если начальное приближение (например, x=-10 в рассматриваемом примере) будет выбрано далеко от области локального максимума, и поиск решения уходит в сторону увеличения f(x), т. е. расходится.
31. Задача нелинейного программирования при ограничениях в неравенствах.
31.1. Теорема Куна-Таккера.
Рассмотрим случай задачи с ограничениями-неравенствами :
минимизировать (31.1)
при ограничениях
(31.2)
В точке
минимума
неравенства
могут
выполняться как равенства или строгие
неравенства.
Ограничение
называется
активным в точке
,
если оно выполняется в ней как строгое
равенство, то есть если
Используя
геометрические свойства допустимой
области, найдем необходимые условия
экстремума для задач минимизаци с
ограничениями. Для этого сначала
рассмотрим случай, когда все
линейны.
Итак, пусть требуется найти
при
условии
(31.3)
Здесь
каждое ограничение (31.3) определяет
полупространство в
.
Допустимая область
задана
пересечением
полупространств,
определяемых
неравенствами
(31.3), и следовательно, является выпуклым
многогранником. Вектор
является
нормалью к гиперплоскости, определяемой
уравнением
,
и направлен внутрь области
.
Пусть точка является точкой минимума задачи (31.1) с ограничениями (31.3). Обозначим множество индексов активных ограничений через
(31.4)
Например,
на рис.5.9 приведен пример минимизации
с линейными ограничениями при
.
Выберем любую допустимую точку
из
.
Вектор
направлен
из
внутрь
области
.
Такой вектор будем называть входящим.
Для этого вектора с учетом того, что
,
можно записать следующее условие:
,
или
(31.5)
для всех
и
.
|
|
|
|
Таким образом, входящий вектор определяет допустимое направление перемещения из точки . Но так как минимальна в точке , то при любом , удовлетворяющем (31.5) , будем иметь:
(31.6)
Применим
теперь теорему, которая есть следствием
леммы Фаркаша (см. приложение 1). Из
условий (5.3.5), (5.3.6) на основании леммы
Фаркаша следует, что существует множество
неотрицательных скаляров
,
для которых
(31.9)
Если
принять , что
при
(то
есть для неактивных ограничений), (31.7)
можно переписать в виде
(31.10)
Кроме того, получим, что
(31.11)
поскольку
при
,
а при
.
Поэтому уравнения ограничений можно
включить в целевую функцию следующим
образом:
(31.12)
Следовательно, удовлетворяет следующим условиям:
(31.13)
(31.14)
При
рассмотрении задачи минимизаци
при
условиях
может
случиться так , что не будет существовать
таких
,
для которых без дополнительных
предположений о природе функций были
бы справедливы уравнения (31.13), (31.14), где
-
оптимальное решение. Эти дополнительные
предположения называют условиями
регулярности ограничений. В частности,
в рассмотренном случае, в качестве таких
условий использовали линейную
независимость векторов-градиентов
ограничений
.
Теорема Куна-Таккера. Выше найдены условия оптимальности (31.11), (31.12) для задачи НП с линейными ограничениями. Обобщим эти условия на случай задачи (31.1), (31.2), когда все ограничения нелинейны.
Условия оптимальности решения задачи НП формулируются в следующей теореме, имеющей исключительно важное значение в теории нелинейного программирования .
Теорема
31.1.
(Куна-Таккера).
Пусть
функции
,
имеют непрерывные частные производные
на некотором открытом множестве
,
содержащем точку
.
Если
является
точкой минимума функции
при
ограничениях
,
удовлетворяющих условию регулярности
в виде линейной независимости векторов
,
то существуют такие неотрицательные
множители Лагранжа
,
что
(31.15)
(31.16)
Определим функцию Лагранжа следующим образом:
(31.17)
Тогда теорему Куна-Таккера можно записать в виде
(31.18)
(31.19)
(31.20)
Заметим,
що множители Лагранжа
в
задаче НП с ограничениями-равенствами
являются знаконеопределенными, тогда
как в теореме Куна-Таккера они должны
быть положительными.
Доказательство.
При достаточно малых
,
разлагая
в
ряд Тейлора, получим
(31.21)
где
-
остаточный член второго порядка малости
.
Пусть
- множество активных ограничений. Тогда
так как
при
.
Заметим, що система неравенств
|
несовместна, так как в противном случае при достаточно малом для некоторого получили бы:
что противоречит предположению об оптимальности точки . Для дальнейшего доказательства воспользуемся леммой, являющейся следствием леммы Фаркаша.
Лемма.
При
произвольной матрице
выполняется
одно из двух условий:
либо выполняется следующая система неравенств:
(31.24)
либо выполняется следующая система равенств (уравнений):
(31.25)
Одновременно условия (31.24), (31.25) выполняться не могут.
Применим эту лемму к (31.22), (31.23), приняв за матрицу
Поскольку
система (31.3.22), (31.3.23) не имеет решений,
то существуют такие
что
(31.26)
где
Если
присвоим
значение
0 для
,
то получим
.
Условие
называют
условием
дополняющей нежесткости.
Покажем,
что
в
(31.26)
не может равняться 0. В самом деле, если
допустить, что
,
то получим
(31.27)
Однако
(31.27) противоречит условию теоремы о
линейной независимости векторов
.
Остается принять
.
Тогда, разделив обе части (31.26) на
,
получим
Следовательно, теорема доказана.
Понятие
регулярности было впервые введено
Г.Куном и А.Таккером и имеет различные
формы. В частном случае, когда
и
все
являются
выпуклыми функциями, условие регулярности
записывается в виде: существует такой
вектор
,
что
для
всех
.
Это означает, що может существовать
хотя бы одна внутренняя точка допустимого
множества решений. Это условие называют
условием
регулярности Слейтера
.
