- •Тема 1. Классификация моделей.
- •Тема 1. Классификация моделей.
- •Основные признаки классификации моделей.
- •Область использования.
- •Учет в модели временного фактора.
- •Способ представления модели.
- •Тема 2. Классификация языков компьютерного моделирования.
- •Тема 3. Этапы и цели компьютерного математического моделирования.
- •Раздел 1. Задачи линейного программирования.
- •Тема 1. Математическое программирование. Общий вид задач линейного программирования.
- •Формулировка задачи.
- •Геометрическая интерпретация задачи линейного программирования.
- •Найти минимальное значение линейной функции
- •Тема 2. Графический метод решения задач линейного программирования.
- •Примеры задач, решаемых графическим методом.
- •Обобщение графического метода решения задач линейного программирования.
- •Тема 3. Симплекс - метод.
- •Каноническая задача лп на максимум.
- •Вспомогательная задача лп.
- •Алгоритм метода искусственного базиса
- •Вспомогательная задача лп.
- •Алгоритм метода искусственного базиса.
- •Тема 4. Транспортная задача.
- •4.2 Составление опорного плана.
- •4.3 Метод потенциалов.
- •Раздел 2. Теория графов.
- •Тема 1. Основные понятия теории графов.
- •Элементы множества V называются вершинами графа g (или узлами), элементы множества u-его ребрами. Вершины и ребра графа называют также его элементами и вместо VV и u u пишут Vg и ug.
- •1.2 Операции над графами.
- •1.3.Связность графов.
- •1.4 Эйлеровы графы.
- •1.5 Гамильтоновы графы.
- •Тема 2. Поиск пути в графе.
- •2.2 Путь минимальной суммарной длины во взвешенном графе с неотрицательными весами (алгоритм Дейкстры).
- •2.3 .Путь минимальной суммарной длины во взвешенном графе с произвольными весами для всех пар вершин (алгоритм Флойда).
- •2.4 Путь с минимальным количеством промежуточных вершин (волновой алгоритм).
- •2.5 Нахождение k путей минимальной суммарной длины во взвешенном графе с неотрицательными весами (алгоритм Йена).
- •Тема 3. Задачи о минимальном остове.
- •3.1 Деревья.
- •3.1 Построение минимального остовного дерева (алгоритм Краскала).
- •3.1 Деревья.
- •3.1 .Построение минимального остовного дерева (алгоритм Краскала).
- •Раздел 3. Динамическое программирование.
- •Тема 1. Метод динамического программирования.
- •1.2 Идеи метода динамического программирования
- •1.3 Выбор состава оборудования для технологической линии.
- •Исходные данные для примера
- •Тема 2. Задача инвестирования.
- •Тема 3. Замена оборудования.
- •Тема 4. Задача о загрузке.
- •4.2 Рекуррентные соотношения для процедур прямой и обратной прогонки.
- •4.3 Решение задачи о загрузке.
- •Раздел 4. Системы массового обслуживания (смо). (8 часов).
- •Тема 1. Основные понятия теории массового обслуживания.
- •Тема 2. Простейшие смо и нахождение их параметров.
- •Перечень характеристик систем массового обслуживания можно представить следующим образом:
- •2. Одноканальная смо с неограниченной очередью
- •3. Одноканальная смо с неограниченной очередью, простейшим потоком заявок и произвольным распределением времени обслуживания
- •4. Одноканальная смо с произвольным потоком заявок и произвольным распределением времени обслуживания
- •Раздел 5. Имитационное моделирование.
- •Тема 1. Простейшие задачи, решаемые методом имитационного моделирования.
- •Тема 2. Основные понятия теории Марковских процессов.
- •Тема 3. Метод Монте – Карло.
- •Раздел 6. Прогнозирование.
- •Тема 1. Основная идея прогнозирования. Методы прогнозирования
- •Тема 2.Теории экспертных оценок.
- •Раздел 7. Теория игр.
- •Тема 1. Основные понятия теории игр.
- •1. 1 Понятие об играх и стратегиях
- •Тема 2. Простейшие методы решения задач теории игр.
- •Раздел 8. Элементы теории принятия решений. (2 часа).
- •Основные понятия.
- •Принятие решений в условиях полной неопределенности
- •Принятие решений при проведении эксперимента.
- •2. Принятие решений в условиях полной неопределенности
- •2.1 Максиминный критерий Вальда.
- •Критерий равновозможных состояний.
- •3. Принятие решений при проведении эксперимента.
- •3.1. Принятие решений в условиях неопределенности.
- •3.2. Использование смешанной стратегии
- •3.3. Принятие решений в условиях риска
3. Принятие решений при проведении эксперимента.
Допустим, что вероятности р(Q1), р(Q2), … , р(Qn) в принципе существуют, но вам неизвестны. Иногда в этом случае предполагают все состояния природы равновероятными (так называемый «принцип недостаточного основания» Лапласа), но вообще-то это делать не рекомендуется. Все-таки обычно более или менее ясно, какие состояния более, а какие - менее вероятны. Для того чтобы найти ориентировочные значения вероятностей р(Q1), р(Q2), … , р(Qn), можно, например, воспользоваться методом экспертных оценок. Хоть какие-то ориентировочные значения вероятностей состояния природы все же лучше, чем полная неизвестность. Неточные значения вероятностей состояний природы в дальнейшем могут быть «скорректированы» с помощью специально поставленного эксперимента. Эксперимент может быть как «идеальным», полностью выясняющим состояние природы, так и неидеальным, где, вероятности состояний уточняются по косвенным данным
3.1. Принятие решений в условиях неопределенности.
Человек, прежде чем принять решение, пытается получить некоторую информацию о состоянии природы экспериментальным путем. Предполагается, что проведение эксперимента не требует никаких затрат,
Пусть проведен эксперимент, имеющий t исходов – возможных прогнозов состояния природы,
Z=(z1, z2,…, zt), .
Известна условная вероятность Р(zβ/Qj) -го результата эксперимента при состоянии природы Qj,
Pj= Р(zβ/Qj), =1,2,…,t, j=1,2,…,n. (7)
Множество значений Pj можно представить в виде матрицы размера t·n, данной в табл. 5.
Для использования информации, полученной в результате эксперимента, введем понятие стратегии.
Таблица 5
Qj Z |
Q1 |
Q2 |
… |
Qn |
z1 |
P11 |
P12 |
… |
P1n |
z2 |
P21 |
P22 |
… |
P2n |
… |
… |
… |
… |
… |
zt |
Pt1 |
Pt2 |
… |
Ptn |
Стратегия - это соответствие последовательности t результатов эксперимента последовательности t операций,
(z1, z2,…, zt)→ (ai, aj,…, ak). (8)
Выражение (8) подразумевает, что
z1→ ai, ,
z2→ aj, ,
……………………
zt→ ak, .
Число возможных стратегий определяется формулой
= mt,
m – число операций, t - число результатов эксперимента. При m=2, t=3 всевозможные стратегии представлены в табл.6.
Таблица 6
-
Si
z
S1
S2
S3
S4
S5
S6
S7
S8
z1
a1
a1
a1
a1
а2
а2
а2
а2
z2
a1
a1
а2
а2
a1
a1
а2
а2
z3
a1
а2
a1
а2
a1
а2
a1
а2
Задача ПР формулируется так: какую одну из операций a1,a2,…, am следует выбрать в зависимости от одного из результатов эксперимента z1, z2,…, zt.
Для принятия решения находим усредненные полезности стратегий Si, i= 1,2, …, , при состояниях природы Qj, j=1, 2, …, n,
U(Si,Qj)=αi β j Pβ j , i= 1,2, …, , j=1, 2, …, n, (9)
где αiβj - полезность β-ой компоненты i-ой стратегии при состоянии природы Qj, Pβj – условная вероятность β-го результата эксперимента при состоянии природы Qj. Стратегия Si определена множеством операций, значения αi β j берутся из таблицы полезностей значения Pβj – из табл. 5. Полученные значения усредненных полезностей U(Si,Qj) можно записать в виде матрицы размера n·. Для принятия решения – выбора наилучшей стратегии можно воспользоваться уже рассмотренными критериями: максимина, минимакса сожалений и равновозможных состояний.
Рассмотрим конкретный пример. Предполагается лишь два состояния природы: Q1 - теплая погода, Q2 – холодная погода, и только две операции: a1 – одеться для теплой погоды, a2 – одеться для холодной погоды. Эта ситуация характерна для туристов. Матрица полезности дана в табл.7.
Таблица 7 Таблица 8
-
Qj
ai
Q1
Q2
Qj
z
Q1
Q2
a1
10
0
z1
0.6
0.3
z2
0.2
0.5
a2
4
7
z3
0.2
0.2
Критерий максимина гарантирует 4 ед. полезности и рекомендует выбирать операцию а2. Критерий минимакса дает этот же ответ.
Но есть возможность воспользоваться данными прогноза погоды (в этом и состоит эксперимент), которые могут быть трех видов:
z1 – ожидается теплая погода,
z2 – ожидается холодная погода,
z3 – прогноз неизвестен.
Из прошлого опыта известны условные вероятности этих трех видов прогноза для каждого состояния природы , =1,2,3, j =1,2, представленные в табл. 8.
Для каждой из 8–ми стратегий и каждого из 2–х состояний природы определим взвешенные суммы полезностей по формуле (9), используя данные таблиц 6 – 8,
U(S1,Q1) =100.6 + 100.2 +100.2 =10,
U(S2,Q1) =100.6 + 100.2 +40.2 = 8.8,
U(S3,Q1) =100.6 + 40.2 + 100.2 = 8.8,
........................................................
U(S8,Q1) = 40.6 + 40.2 + 40.2 = 4,
U(S1,Q2) = 00.3 + 00.5 +00.2 = 0,
.........................................................
U(S8,Q2) = 70.3 + 70.5 + 70.2 = 7.
Все вычисленные значения U(Si,Qj), i = 1,2,…8, j = 1, 2, помещены в табл.9.
Таблица 9
Si Qj |
S1 |
_ S2 |
S3 |
S4 |
_ S5 |
_ S6 |
S7 |
S8 |
Q1 |
10 |
8.8 |
8.8 |
7.6 |
6.4 |
5.2 |
5.2 |
4 |
Q2 |
0 |
1.4 |
5 |
4.9 |
2.1 |
5 |
5.6 |
7 |
Из табл. 9 предварительно следует исключить плохие стратегии –– те стратегии, обе компоненты которых не больше () соответствующих компонент какой–либо другой стратегии. Ввиду того, что , , S6 ≤ S7, то стратегии исключаются из рассмотрения (в табл. 9 они помечены знаком "–").
К оставшимся, допустимым стратегиям можно применить известные нам критерии. Используя критерий максимина, имеем:
, ,
, , ,
.
Следовательно, наилучшей стратегией является стратегия S7, гарантирующая 5.2 ед. полезности. Для сравнения максиминная операция гарантирует лишь 4 ед. полезности. Так как S7 = (a2, a2, a1), то в силу (8) имеем
.
Это значит, что при прогнозе z1 выбирается операция а2, при прогнозе z2 – a2, при прогнозе z3 – a1, т.е. максиминная стратегия S7 рекомендует одеваться тепло, если прогноз – теплая или холодная погода, и одеваться легко, если прогноз неизвестен. Последнее утверждение весьма непрактично.
Максиминная стратегия S7 при неблагоприятном стечении обстоятельств может привести и к худшему результату, чем максиминная операция . Например, имеет место холодная погода . Тогда согласно максиминной операции турист получит 7 ед. полезности (табл. 7). С другой стороны, если результат прогноза будет (прогноз неизвестен) и согласно стратегии S7 будет выбрана операция (одеться легко), то он получит 0 ед. полезности. Это явление –– типичное для теории игр и теории принятия решений. S7 гарантирует лишь среднюю полезность в 5.2 ед.