
- •1. Парето-оптимальные решения многокритериальных задач и способы сужения границы Парето: субоптимизация, лексикографическая оптимизация, построение обобщенного критерия.
- •2. Метод анализа иерархий (метод Саати): определение значимости критериев, согласованность матрицы парных сравнений, определение весовых коэффициентов методом собственного вектора.
- •3. Критерии принятия решений в условиях неопределенности: методы Лапласа, Вальда, Сэвиджа, Гурвица.
- •4. Обобщенный критерий Гурвица для безопасной и опасной ситуаций.
- •Формализация ситуации риска, принципы доминирования.
- •6. Меры риска, масштабные и вероятностные.
- •7. Критерии принятия решений в условиях риска: ожидаемого значения (критерий Байеса), минимальной вариации, предельного уровня, наиболее вероятного исхода.
- •8. Критерий «ожидаемое значение – вариабельность результата», коэффициент склонности к риску, зоны склонности к риску.
- •9. Понятие кривой безразличия. Три типа кривых безразличия.
- •10. Понятие идеального эксперимента, обоснование его целесообразности.
- •11. Понятие неидеального эксперимента, алгоритм обоснования его целесообразности.
- •12. Смешанные стратегии как инструмент уменьшения риска.
- •13. Понятие функции полезности, алгоритм ее построения. Основные типы функций полезности.
- •14. Интенсивность несклонности к риску, премия за риск (подход Марковица).
- •15. Формула Эрроу-Пратта.
- •16. Понятие многошагового управляемого процесса. Формализация многошаговой детерминированной задачи принятия решения.
- •17. Характерные особенности многошаговых процессов принятия решений. Принцип оптимальности Беллмана.
- •18. Марковские процессы с дискретными состояниями. Формула Колмогорова-Чепмена.
- •19. Марковские процессы принятия решений с конечным числом этапов: метод итераций по стратегиям и его возможные обобщения.
- •20.Марковские процессы принятия решений с бесконечным числом этапов: специфика постановки задачи. Отыскание оптимальных стратегий на бесконечном временном горизонте методом полного перебора.
- •21. Метод итераций по стратегиям без дисконтирования (для бесконечного числа этапов).
- •22. Случайные процессы с непрерывным временем, их формализация. Система дифференциальных уравнений Колмогорова, правила ее составления.
- •23. Потоки событий, их свойства. Простейший (пуассоновский стационарный) поток.
- •24. Вероятностные характеристики простейшего потока.
- •25. Роль экспоненциального распределения в исследовании простейших потоков. Финальные состояния системы, в которой протекает марковский процесс.
- •26. Процессы гибели и размножения, финальные вероятности состояний.
- •27. Процессы гибели и размножения в системе с m узлами, финальные вероятности состояний.
- •28. Системы массового обслуживания, их основные компоненты и характеристики функционирования.
- •29. Многоканальные системы массового обслуживания с отказами.
- •30. Одноканальные системы массового обслуживания с ожиданием и ограничением на длину очереди.
18. Марковские процессы с дискретными состояниями. Формула Колмогорова-Чепмена.
Процессы с дискретным временем и дискретными состояниями называются марковскими или цепями маркова.
Процессы с дискретными состояниями; X(t) если каждое его сечение представляет собой случайную величину дискретного типа с конечным или счетным множеством состояний. Процессы с дискретными состояниями обычно изображаются в форме графов, вершины которых соответствуют возможным состояния системы, а дуги показывают непосредственные переходы из одного состояния в другое.
Основными характеристиками цепей маркова являются вероятности состояний pi(n). Вероятности того, что в момент времени tn система перешла в i-ое возможное состояние.
Предполагается, что состояния системы определены таким образом, что в каждый момент времени система находится ровно в одном из своих возможных состояний.
Для вычисления вероятности состояний вводится понятие переходных вероятностей.
Это вероятность того, что система, находящаяся в i-ом состоянии переходит в свое j- ое состояние. Pii(n) – вероятность задержки.
Если непосредственный переход из одного состояния невозможен. То переходная вероятность полагается равной 0. Если переходные вероятности зависят от номера этапа, марковская цепь называется неоднородной. В противном случае – однородной.
Pmxm=(pij)
– матрица переходных вероятностей,
элементы которой удовлетворяют
нормировочному равенству
Граф состояний системы, дуги которого нагружены вероятностями перехода, называется размеченным графом системы.
p(0)=(p1(0),p2(0)…) компоненты которого показывают вероятности состояний системы в начальный момент времени называют вектором абсолютных вероятностей. Динамика цепи Маркова определяется вектором абсолютных вероятностей и матрицей переходных вероятностей.
p(1)=p(0)*P
p(n)=p(o)*Pn
Это формулы Колмогорова – Чепмена
19. Марковские процессы принятия решений с конечным числом этапов: метод итераций по стратегиям и его возможные обобщения.
Пусть имеется некоторая система S, текущее состояние которой представлено элементом из конечного множества состояний, а процесс ее функционирования и процесс принятия решения разбивается на отдельные этапы. Переходные вероятности между состояниями описываются МЦ с матрицей Рm*M=(pij). Каждый одношаговый переход сопровождается некоторым результатом rij (доходами, затратами), которые в совокупности образуют матрицу одношаговых результатов R=( rij). Величина результата определяется выбранным управлением на каждом шаге и в каждом состоянии, т.е. матрица переходных вероятностей и результатов зависит от вариантов решений, которыми располагает ЛПР. Цель - определение оптимальной стратегии, максимизирующей ожидаемый доход или минимизирующей затраты.
Хар-р задач, стоящих перед ЛПР, зависит от горизонта планирования. Если деятельность ЛПР определяется конечным числом этапов, то наиболее естественным подходом является оптимизация результата за n шагов. опр-ся вероятностными связями МЦ и выбранным управлением и называется полным ожидаемым результатом.
ЛПР может интересовать оценка полного ожидаемого результата при заранее определенной стратегии поведения в случае одного и того же состояния системы, не зависящего от № этапа. Такая стратегия называется стационарной. Если все стационарные стратегии известны, то оценив каждую из них, можно выбрать наилучший способ действия. Однако такой подход применяется преимущественно на бесконечных временных горизонтах. При конечном горизонте планирования пользуются более экономными методами, основанными на идеях динамического программирования.
Метод динамического программирования с конечным числом этапов
Uj=1 – используем рекламу, =0 – нет.
F*j(xi) – полный ожидаемый максимальный результат за период j, j+1….n, если к началу j-ого этапа система находилась в состоянии xi.
F*j(xi)=maxu=1,0
Viu-ожидаемый одношаговый результат, если система находится в состоянии xi.
F*j(xi)=maxu=1,0
Рассмотренная задача на конечном временном горизонте может быть обобщена в следующих направлениях:
1.Переходные вероятности и значения результата необязательно должны быть одинаковыми на каждом этапе. Можно потребовать, чтобы эти параметры зависели от номера этапа, то есть Марковская цепь была неоднородной.
2.Учитывая,
что ожидаемые результаты относятся к
разным временным периодам, целесообразно
вводить коэффициент дисконтирования.
В следствии чего значения функции f
будут представлять приведенные величины
ожидаемых доходов по всем этапам.
Формально это обобщение вводится
следующим образом.
тогда
3.Записанное рекуррентное уравнение можно использовать и для оценки произвольной стационарной оценки с номером q.