- •1. Процесс принятия решений. Три условия принятия решений.
- •2. Принятие решений в условиях определенности. Структура с одним иерархическим уровнем.
- •3. Принятие решений в условиях определенности. Структура с двумя иерархическими уровнями.
- •4. Принятие решений в условиях определенности. Понятие веса и комбинированного веса.
- •5. Принятие решений в условиях определенности. Понятие матрицы парных сравнений.
- •6. Принятие решений в условиях определенности. Понятие нормализованной матрицы.
- •7. Принятие решений в условиях определенности. Пример согласованной матрицы.
- •8. Принятие решений в условиях определенности. Условие согласованности.
- •9. Принятие решений в условиях определенности. Коэффициент согласованности.
- •10. Принятие решений в условиях риска. Сравнение альтернативных решений.
- •11. Принятие решений в условиях риска. Понятие дерева решений.
- •12. Принятие решений в условиях риска. Связь между «состоянием природы» и ожидаемым платежом.
- •13. Принятие решений в условиях риска. Альтернатива на примере ремонта автомобилей.
- •14. Принятие решений в условиях риска. Критерий выбора периодичности ремонта автомобилей.
- •15. Принятие решений в условиях риска. Зависимость вероятности поломки автомобиля от срока эксплуатации.
- •16. Принятие решений в условиях риска. Априорные вероятности.
- •17. Принятие решений в условиях риска. Апостериорные вероятности.
- •18. Принятие решений в условиях риска. Вероятностные соотношения, отражающие мнение специалиста при принятии решения на основе эксперимента над исследуемой системой.
- •19. Принятие решений в условиях риска. Дерево решений при использовании апостериорных вероятностей.
- •20. Принятие решений в условиях риска. Вероятность совместного появления событий m и .
- •21. Принятие решений в условиях риска. Абсолютная вероятность.
- •22. Принятие решений в условиях риска. Выражение для апостериорной вероятности.
- •23. Принятие решений в условиях риска. Понятие функции полезности.
- •24. Принятие решений в условиях риска. Графическое изображение функции полезности.
- •25. Принятие решений в условиях риска. Процедура построения функции полезности.
- •26. Принятие решений в условиях риска. Понятие критерия ожидаемого значения.
- •27. Принятие решений в условиях риска. Составляющие критерия ожидаемого значения – дисперсия.
- •28. Принятие решений в условиях риска. Понятие критерия предельного уровня.
- •29. Принятие решений в условиях риска. Использование критерия предельного уровня в сфере массового обслуживания.
- •30. Принятие решений в условиях риска. Критерий наиболее вероятного исхода.
- •31. Принятие решений в условиях неопределенности. Критерий Лапласа.
- •32. Принятие решений в условиях неопределенности. Минимаксный критерий.
- •33. Принятие решений в условиях неопределенности. Критерий Сэвиджа.
- •34. Принятие решений в условиях неопределенности. Критерий Гурвица.
- •35. Марковские процессы. Понятие матрицы переходных вероятностей и матрицы доходов.
- •36. Марковские процессы. Стационарная стратегия.
- •37. Марковские процессы. Основной смысл решений, принимаемых садовником.
- •38. Марковские процессы. Представление задачи садовника как задачи динамического программирования с конечным числом этапов (основные элементы).
- •39. Марковские процессы. Ожидаемый доход, обусловленный одним переходом.
- •40. Марковские процессы. Понятие обратной прогонки в задаче динамического программирования.
- •41. Марковские процессы. Рекуррентное уравнение динамического программирования при условии изменения переходных вероятностей и функции дохода во времени.
- •42. Марковские процессы. Коэффициент дисконтирования. Его учет в рекуррентном уравнении динамического программирования при конечном числе этапов.
- •43. Марковские процессы. Общая характеристика методов решения задачи с бесконечным числом этапов.
- •44. Марковские процессы. Алгоритм метода полного перебора. Общая характеристика.
- •45. Марковские процессы. Пример вычисления долгосрочных стационарных вероятностей в методе полного перебора в модели с бесконечным числом этапов.
- •46. Марковские процессы. Характеристика результирующей таблицы в методе полного перебора в методе с бесконечным числом этапов.
- •47. Марковские процессы. Недостаток метода полного перебора в модели с бесконечным числом этапов.
- •48. Марковские процессы. Модификация рекуррентного уравнения в методе итераций по стратегиям при бесконечном числе этапов.
- •49. Марковские процессы. Необходимость применения итеративной процедуры в методе итераций по стратегиям при бесконечном числе этапов.
- •50. Марковские процессы. Алгоритм метода итераций по стратегиям при бесконечном числе этапов. Общая характеристика.
- •1.Шаг оценивания параметров:
- •2.Шаг улучшения стратегии:
- •51. Марковские процессы. Критерий выбора оптимального решения в методе итераций по стратегиям при бесконечном числе этапов.
- •52. Марковские процессы. Пример шага оценивания параметров в методе итераций по стратегиям при бесконечном числе этапов.
- •53. Марковские процессы. Пример шага улучшения стратегии в методе итераций по стратегиям при бесконечном числе этапов.
- •58. Марковские процессы. Выражение (основа) для формулировки марковской задачи в виде задачи линейного программирования.
- •59. Марковские процессы. Формулировка Марковской задачи в виде задачи линейного программирования. Постановка задачи.
- •60. Марковские процессы. Пример формулировки задачи садовника без дисконтирования при бесконечном числе этапов в виде задачи линейного программирования.
- •61. Вероятное динамическое программирование. Рекуррентное уравнение об инвестировании.
- •62. Вероятное динамическое программирование. Модель дп для задачи инвестирования.
- •63. Вероятное динамическое программирование. Уравнение состояния для задачи инвестирования.
- •64. Вероятное динамическое программирование. Этап расчета в задаче инвестирования.
- •65. Вероятное динамическое программирование. Понятие максимизация вероятности достижениями.
- •66. Вероятное динамическое программирование. Полная вероятность и функция состояния в задаче максимизации вероятности достижения цели.
- •67. Вероятное динамическое программирование. Пример этапа расчета в задаче максимизация вероятности достижения цели.
- •68. Вероятное динамическое программирование. Модель дп в задаче азартная игра.
- •69. Вероятное динамическое программирование. Функция состояния в задаче азартная игра.
- •70. Вероятное динамическое программирование. Пример этапа в задаче азартная игра.
- •71. Вероятностное динамическое программирование. Оптимальная последовательность действий в задаче азартная игра.
- •72. Методы прогнозирования. Прогнозирование с использованием скользящего среднего. Основные понятия.
- •73. Методы прогнозирования. Выбор количества элементов массива для расчета в методе скользящего среднего.
- •74. Методы прогнозирования. Понятие экспоненциального сглаживания.
- •75. Методы прогнозирования. Рекуррентная формула в методе экспоненциального сглаживания.
- •76. Понятие регрессионного анализа.
- •77. Метод наименьших квадратов.
- •78. Понятие доверительный интервал для среднего значения оценки.
- •79. Понятие интервала предсказаний
- •80. Понятие коэффициента корреляции
- •81. Понятие тренда во временном ряду.
- •82. Модель аддитивных компонентов.
- •83. Модель мультипликативных компонентов.
68. Вероятное динамическое программирование. Модель дп в задаче азартная игра.
Задача азартная игра: Человек вращает рулетку, на которой по периметру нанесены n последовательных чисел от 1 до n. Вероятность того, что колесо в результате одного вращения остановится на цифре i, равна pi. Игрок платит x$ за возможность осуществить m вращений колеса. Сам же игрок получает сумму равную удвоенному числу, которое выпало при последнем вращении колеса. Поскольку игра продолжается достаточно много раз (каждая до m вращений), требуется разработать оптимальную стратегию для игрока.
Модель:
Этап i соответствует i-му вращению колеса, i=1,2, … m.
Альтернативы на каждом этапе состоят в следующем – либо крутить колесо, либо нет.
Состояние системы j на каждом этапе i предоставляется одни из чисел от 1 до n, которое выпало в результате последнего вращения.
69. Вероятное динамическое программирование. Функция состояния в задаче азартная игра.
Пусть fi(j) – max ожидаемой прибыли при условии, что игра находиться на этапе i и исходном последнего вращения есть число j. Тогда:
Рекуррентное уравнение для fi(j) можно записать следующим образом
Обоснование рекуррентного уравнения сводиться к тому, что при первом вращении (i=1) состоянием системы является j=0 (игра только началась). Следовательно, f1(0) = p1f2(1)+p2f2(2)+…pnf2(n). После выполнения последнего вращения колеса (i=m) имеется лишь один выбор – закончить игру независимо от исхода j m-го вращения. Следовательно, fm+1(j)=2j.
Вычисления начинаются с fm+1 , заканчиваются при f1(0) и сводятся таким образом к m+1 вычислительному этапу. Так как f1(0) представляет собой ожидаемую прибыль от всех m вращений, а игра обходится игроку в x$, имеем ожидаемую прибыль, равную f1(0)-x$.
70. Вероятное динамическое программирование. Пример этапа в задаче азартная игра.
Предположим, что по периметру колеса русской рулетки расставлены числа от 1 до 5. Вероятности pi остановки колеса на числе i соответственно равны следующему: p1=0.3; p2=0.25; p3=0.2; p4=0.15; p5=0.1; Игрок платит 5$ за возможность сделать не более 4-ех вращений. Определить оптимальную стратегию игрока для каждого из 4-ех вращений и найдем соответствующий ожидаемый выигрыш.
Этап №5. Функция состояния: f5(j)=2j
Исход 4-го вращения |
Оптимальное решение |
|
j |
f5(j) |
Решение |
1 |
2 |
Закончить |
2 |
4 |
Закончить |
3 |
6 |
Закончить |
4 |
8 |
Закончить |
5 |
10 |
Закончить |
Этап №4. f4(j)=max{2j; p1f5(1) + p2f5(2) + p3f5(3) + p4f5(4) + p5f5(5)} = max{2j; 0.3*2 + 0.25*4 + 0.2*6+0.15*8+0.1*10}=max{2j; 5}.
Исход 3-го вращения |
Ожидаемая прибыль |
Оптимальное решение |
||
j |
Закончить |
Вращать |
f4(j) |
Решение |
1 |
2 |
5 |
5 |
Вращать |
2 |
4 |
5 |
5 |
Вращать |
3 |
6 |
5 |
6 |
Закончить |
4 |
8 |
5 |
8 |
Закончить |
5 |
10 |
5 |
10 |
Закончить |