- •1. Процесс принятия решений. Три условия принятия решений.
- •2. Принятие решений в условиях определенности. Структура с одним иерархическим уровнем.
- •3. Принятие решений в условиях определенности. Структура с двумя иерархическими уровнями.
- •4. Принятие решений в условиях определенности. Понятие веса и комбинированного веса.
- •5. Принятие решений в условиях определенности. Понятие матрицы парных сравнений.
- •6. Принятие решений в условиях определенности. Понятие нормализованной матрицы.
- •7. Принятие решений в условиях определенности. Пример согласованной матрицы.
- •8. Принятие решений в условиях определенности. Условие согласованности.
- •9. Принятие решений в условиях определенности. Коэффициент согласованности.
- •10. Принятие решений в условиях риска. Сравнение альтернативных решений.
- •11. Принятие решений в условиях риска. Понятие дерева решений.
- •12. Принятие решений в условиях риска. Связь между «состоянием природы» и ожидаемым платежом.
- •13. Принятие решений в условиях риска. Альтернатива на примере ремонта автомобилей.
- •14. Принятие решений в условиях риска. Критерий выбора периодичности ремонта автомобилей.
- •15. Принятие решений в условиях риска. Зависимость вероятности поломки автомобиля от срока эксплуатации.
- •16. Принятие решений в условиях риска. Априорные вероятности.
- •17. Принятие решений в условиях риска. Апостериорные вероятности.
- •18. Принятие решений в условиях риска. Вероятностные соотношения, отражающие мнение специалиста при принятии решения на основе эксперимента над исследуемой системой.
- •19. Принятие решений в условиях риска. Дерево решений при использовании апостериорных вероятностей.
- •20. Принятие решений в условиях риска. Вероятность совместного появления событий m и .
- •21. Принятие решений в условиях риска. Абсолютная вероятность.
- •22. Принятие решений в условиях риска. Выражение для апостериорной вероятности.
- •23. Принятие решений в условиях риска. Понятие функции полезности.
- •24. Принятие решений в условиях риска. Графическое изображение функции полезности.
- •25. Принятие решений в условиях риска. Процедура построения функции полезности.
- •26. Принятие решений в условиях риска. Понятие критерия ожидаемого значения.
- •27. Принятие решений в условиях риска. Составляющие критерия ожидаемого значения – дисперсия.
- •28. Принятие решений в условиях риска. Понятие критерия предельного уровня.
- •29. Принятие решений в условиях риска. Использование критерия предельного уровня в сфере массового обслуживания.
- •30. Принятие решений в условиях риска. Критерий наиболее вероятного исхода.
- •31. Принятие решений в условиях неопределенности. Критерий Лапласа.
- •32. Принятие решений в условиях неопределенности. Минимаксный критерий.
- •33. Принятие решений в условиях неопределенности. Критерий Сэвиджа.
- •34. Принятие решений в условиях неопределенности. Критерий Гурвица.
- •35. Марковские процессы. Понятие матрицы переходных вероятностей и матрицы доходов.
- •36. Марковские процессы. Стационарная стратегия.
- •37. Марковские процессы. Основной смысл решений, принимаемых садовником.
- •38. Марковские процессы. Представление задачи садовника как задачи динамического программирования с конечным числом этапов (основные элементы).
- •39. Марковские процессы. Ожидаемый доход, обусловленный одним переходом.
- •40. Марковские процессы. Понятие обратной прогонки в задаче динамического программирования.
- •41. Марковские процессы. Рекуррентное уравнение динамического программирования при условии изменения переходных вероятностей и функции дохода во времени.
- •42. Марковские процессы. Коэффициент дисконтирования. Его учет в рекуррентном уравнении динамического программирования при конечном числе этапов.
- •43. Марковские процессы. Общая характеристика методов решения задачи с бесконечным числом этапов.
- •44. Марковские процессы. Алгоритм метода полного перебора. Общая характеристика.
- •45. Марковские процессы. Пример вычисления долгосрочных стационарных вероятностей в методе полного перебора в модели с бесконечным числом этапов.
- •46. Марковские процессы. Характеристика результирующей таблицы в методе полного перебора в методе с бесконечным числом этапов.
- •47. Марковские процессы. Недостаток метода полного перебора в модели с бесконечным числом этапов.
- •48. Марковские процессы. Модификация рекуррентного уравнения в методе итераций по стратегиям при бесконечном числе этапов.
- •49. Марковские процессы. Необходимость применения итеративной процедуры в методе итераций по стратегиям при бесконечном числе этапов.
- •50. Марковские процессы. Алгоритм метода итераций по стратегиям при бесконечном числе этапов. Общая характеристика.
- •1.Шаг оценивания параметров:
- •2.Шаг улучшения стратегии:
- •51. Марковские процессы. Критерий выбора оптимального решения в методе итераций по стратегиям при бесконечном числе этапов.
- •52. Марковские процессы. Пример шага оценивания параметров в методе итераций по стратегиям при бесконечном числе этапов.
- •53. Марковские процессы. Пример шага улучшения стратегии в методе итераций по стратегиям при бесконечном числе этапов.
- •58. Марковские процессы. Выражение (основа) для формулировки марковской задачи в виде задачи линейного программирования.
- •59. Марковские процессы. Формулировка Марковской задачи в виде задачи линейного программирования. Постановка задачи.
- •60. Марковские процессы. Пример формулировки задачи садовника без дисконтирования при бесконечном числе этапов в виде задачи линейного программирования.
- •61. Вероятное динамическое программирование. Рекуррентное уравнение об инвестировании.
- •62. Вероятное динамическое программирование. Модель дп для задачи инвестирования.
- •63. Вероятное динамическое программирование. Уравнение состояния для задачи инвестирования.
- •64. Вероятное динамическое программирование. Этап расчета в задаче инвестирования.
- •65. Вероятное динамическое программирование. Понятие максимизация вероятности достижениями.
- •66. Вероятное динамическое программирование. Полная вероятность и функция состояния в задаче максимизации вероятности достижения цели.
- •67. Вероятное динамическое программирование. Пример этапа расчета в задаче максимизация вероятности достижения цели.
- •68. Вероятное динамическое программирование. Модель дп в задаче азартная игра.
- •69. Вероятное динамическое программирование. Функция состояния в задаче азартная игра.
- •70. Вероятное динамическое программирование. Пример этапа в задаче азартная игра.
- •71. Вероятностное динамическое программирование. Оптимальная последовательность действий в задаче азартная игра.
- •72. Методы прогнозирования. Прогнозирование с использованием скользящего среднего. Основные понятия.
- •73. Методы прогнозирования. Выбор количества элементов массива для расчета в методе скользящего среднего.
- •74. Методы прогнозирования. Понятие экспоненциального сглаживания.
- •75. Методы прогнозирования. Рекуррентная формула в методе экспоненциального сглаживания.
- •76. Понятие регрессионного анализа.
- •77. Метод наименьших квадратов.
- •78. Понятие доверительный интервал для среднего значения оценки.
- •79. Понятие интервала предсказаний
- •80. Понятие коэффициента корреляции
- •81. Понятие тренда во временном ряду.
- •82. Модель аддитивных компонентов.
- •83. Модель мультипликативных компонентов.
66. Вероятное динамическое программирование. Полная вероятность и функция состояния в задаче максимизации вероятности достижения цели.
Данная задача относится к задаче max-ции ожидаемой прибыли, но направленная на max-цию вероятности достижения определенного уровня дохода. Модель ДП:
1. Этап i представляет i-й год инвестирования;
2. Альтернативами на этапе i являются величины .
3. Состояние системы на этапе i описывается величиной ,
где – сумма денежных средств, доступных для инвестирования в начале i-го года ( =C), C – общая сумма инвестиций в год.
– сумма реальной инвестиции в начале i-го года ( ≤ )
Критерий - max-ция вероятности достижения некоторой накопленной денежной суммы S по истечению n лет. Определим функцию – вероятность накопления суммы S, если в начале года имеются денежные средства в сумме , и для последующих лет i, i+1, …, n используется оптимальное инвестирование. Рекуррентное уравнение ДП имеет вид:
где k – номер условия на рынке и – полученная прибыль.
Рекуррентная формула основана на формуле условной вероятности:
В данной задаче, играет роль вероятности .
67. Вероятное динамическое программирование. Пример этапа расчета в задаче максимизация вероятности достижения цели.
Некий индивидуум планирует инвестировать 2000$. Имеющиеся варианты позволяют удвоить эту сумму с вероятностью 0.3 или потерять ее с вероятностью 0.7. Акции продаются в конце года, а в начале следующего все деньги или их часть снова инвестируются. Это процесс повторяется на протяжении трех лет. Целью являться max-ция вероятности достижения суммы в 4000$ в конце третьего года.
Таким образом, c вероятностью 0.3; с вероятностью 0.7.
Этап №3. Состояние может изменяться от 0 до 8000$. Min-ое значение возможно, когда вся инвестиция потерянна, а max-ое – когда инвестиция удваивается в конце года из двух первых лет. Рекуррентное уравнение имеет вид:
где, x3 = 0,1,…8.
Вычисления приведены ниже в таблице. Все заштрихованные ячейки – являются не подходящими, так как не удовлетворяют условию y3≤x3. При выполнении вычислений можно заметить, что
В противном случае эти вероятности равны 1. Из таблицы видно, что существуют альтернативные оптимумы для x3 = 1,3,4,5,6,7 и 8, последний столбец которых содержит лишь наименьшее оптимальное значение y3. Это объясняется тем, что инвестор не собирается инвестировать больше того, что необходимо для достижения поставленной цели.
|
|
Оптимум |
|||||||||
x3 |
y3=0 |
y3=1 |
y3=2 |
y3=3 |
y3=4 |
y3=5 |
y3=6 |
y3=7 |
y3=8 |
f3 |
y3 |
0 |
0 |
|
|
|
|
|
|
|
|
0 |
0 |
1 |
0 |
0 |
|
|
|
|
|
|
|
0 |
0 |
2 |
0 |
0 |
0.3 |
|
|
|
|
|
|
0.3 |
2 |
3 |
0 |
0.3 |
0.3 |
0.3 |
|
|
|
|
|
0.3 |
1 |
4 |
1 |
0.3 |
0.3 |
0.3 |
0.3 |
|
|
|
|
1 |
0 |
5 |
1 |
1 |
0.3 |
0.3 |
0.3 |
0.3 |
|
|
|
1 |
0 |
6 |
1 |
1 |
1 |
0.3 |
0.3 |
0.3 |
0.3 |
|
|
1 |
0 |
7 |
1 |
1 |
1 |
1 |
0.3 |
0.3 |
0.3 |
0.3 |
|
1 |
0 |
8 |
1 |
1 |
1 |
1 |
1 |
0.3 |
0.3 |
0.3 |
0.3 |
1 |
0 |