
- •Теория вероятностей и массового обслуживания
- •Часть 1
- •Часть II
- •Часть 1 тЕория вероятностей
- •1. Предмет теории вероятностей. Частота. Геометрическая вероятность
- •2. Условная вероятность. Независимость событий. Вероятность произведения событий. Теорема о полной вероятности. Формулы Байеса.
- •1) Классическое определение вероятности.
- •2)Геометрическое определение вероятности.
- •Элементы комбинаторики.
- •1.Правило произведения (умножения).
- •2. Размещения c повторениями.
- •3. Размещения без повторений.
- •4. Перестановки.
- •5. Сочетания.
- •Формулы Байеса
- •4. Числовые характеристики дискретных случайных величин. Математическое ожидание, его свойства. Дисперсия и среднеквадратическое отклонение, основные свойства и вычисление
- •Операции над случайными величинами
- •5. Числовые характеристики непрерывных случайных величин. Математическое ожидание, его свойства. Дисперсия и среднеквадратическое отклонение, основные свойства и вычисление.
- •6. Равномерное, показательное и нормальное распределения. Их числовые характеристики.
- •7. Функция Лапласа. Вероятность попадания в заданный интервал нормальной случайной величины. Вероятность отклонения от математического ожидания. Правило «трех сигм».
- •10. Закон больших чисел. Неравенство Чебышева. Теорема Бернулли. Теорема Чебышева.
- •12. Предельные теоремы Муавра-Лапласа.
- •1, Если в k-ом испытании был успех
- •0, Если в k-ом испытании была неудача
- •11.Система двух случайных величин. Условные законы распределения. Условные математические ожидания.
- •Часть II цепи маркова и элементы теории массового обслуживания
- •2. Случайные процессы.
- •2.Поток событий.
- •3. Нестационарный пуассоновский поток
- •5.Поток Пальма.
- •6.Потоки Эрланга.
- •7.Цепи Маркова.
- •8. Предельные вероятности
- •10.Марковские цепи с конечным числом состоянии и непрерывным временем
- •13. Марковские системы массового обслуживания
- •14. Показатели эффективности систем массового обслуживания
- •15.Замкнутые системы массового обслуживния
- •Литература
10.Марковские цепи с конечным числом состоянии и непрерывным временем
Пусть физическая система, возможные состояния которой А1,А2, .... , Аk может переходить из состояния в состояние не в определенные моменты времени, а в любой момент времени случайным образом. При этом возникает случайный процесс (цепь) с непрерывным временем.
Если процесс с непрерывным временем обладает отсутствием последействия, то его называют марковским случайным процессом с непрерывным временем или непрерывной цепью Маркова.
Для
непрерывной
цепи Маркова.
вероятность перехода из состояния Аi
в состояние Аj
в любой момент времени равна нулю.
Поэтому вместо вероятности перехода
Рij
рассматривают плотность
вероятности
перехода ij
которая определяется как предел
отношения вероятности перехода
Рij{t}
за время t
из состояния Ai
в состояние Aj;
к длине промежутка t
при t
0,
т. е.
ij
=
.
(1)
Плотность вероятности ij может быть как постоянной величиной, так и величиной, зависящей от момента времени t, с которого начинается промежуток t.
Если плотность вероятности перехода ij не зависит от t, марковский процесс(цепь) называется однородным.
В дальнейшем будем предполагать, что рассматриваемые процессы удовлетворяют условию ординарности: в один и тот же момент времени t система не может изменить свое состояние более чем один раз.
Из курса дифференциального исчисления известно, что соотношение (1) можно записать в виде Рij(t)=ijt + ij(t), где ij(t)— бесконечно малая высшего порядка по сравнению с t. Тогда с точностью до бесконечно малой имеем:
Pij(t) = ijt, i j (2)
т. е. вероятность перехода Рij(t) за малое время t равна произведению плотности вероятности перехода ij на t. Поэтому ij еще называют интенсивностью перехода системы из Аi в Aj.
Из величин ij составим квадратную матрицу интенсивностей переходов:
=
(3)
обладающую свойствами:
1) ij 0, i j, это следует из (2), так как Pij(t) 0;
2)
ij
0,
i=j, так как ii
=
(Pii(t)
– 1);
3)
= 0 действительно, (i1
+
i2
+ … ii
+
…
ik)t
= Pi1(t)
+ Pi2(t)
+…+( Pii(t)
– 1) + …+ Pik(t))
= 0.
Интенсивности переходов ij удобно задавать на графе состояний. На графе указывают обычно интенсивности ij >0.
Зная матрицу интенсивностей переходов или размеченный граф состояний, можно определить вероятности состояний:
p1
(t),
p2
(t), …, pk(t),
=
1, (4)
т. е. вероятности нахождения системы в состоянии А1, А2, … , Аk в момент времени t. Вероятности pi(t) как функции t удовлетворяют системе дифференциальных уравнении Колмогорова, которая в матричной форме имеет вид
p’(t) = p(t) (5)
где p’(t) = ( p1’(t), p2’(t),…, pk’(t)); p(t) = ( p1(t), p2(t),…, pk(t)), —
матрица интенсивностей переходов (З).
Распределение вероятностей состояний системы называется стационарным, если оно не меняется с течением времени, т. е. если
p(t) = p, (6)
где p = ( p1, p2, …, pk) = const, j = 1, 2, ..., k. Дифференцируя равенство (6) по t, получим: p’(t) = 0.
С учетом уравнения (5) приходим к выводу, что стационарное распределение удовлетворяет соотношению
p = 0, (7)
т. е. для получения стационарного распределения достаточно в системе дифференциальных уравнений Колмогорова положить p'j =0; j =1, 2,.., k.
Уравнения системы (7) не в матричной форме удобно выписывать непосредственно по размеченному графику состояний в соответствии со следующим правилом:
сумма произведений jipi, j i для стрелок, выходящих из i-го состояния, равна сумме произведений ijpj, j i для стрелок, входящих в i-е состояние.
Задача 2. Задана матрица
интенсивностей переходов непрерывной цепи Маркова. Составить размеченный граф состояний, соответствующий матрице ; выписать систему дифференциальных уравнений Колмогорова для вероятностей состояний; найти стационарное распределение вероятностей.
Решение. Размеченный граф должен иметь 3 состояния А1, А2, А3. Из матрицы находим интенсивности переходов ij>0, i j и отмечаем их над соответствующими стрелками (рис. 2). Имеем 12=5, соединяем состояния А1 и А2 стрелкой, направленной от А1 к А2, отмечая интенсивность перехода над стрелкой; 13=0, следовательно, состояния А1 и А3 стрелкой не соединяем и т. д. Составляем
уравнения Колмогорова: положим в уравнении (5); p(t) = (p1(t), p2(t), p3(t)); p’(t) = (p1’(t), p2’(t), p3’(t)),
тогда
(p1’(t),
p2’(t),
p3’(t))
= (p1(t),
p2(t),
p3(t))
умножая вектор p(t) на матрицу будем иметь:
p1’(t)
= - 5 p1(t)
+ p2(t)
+ p3(t);
p2’(t ) = 5p1(t) - p2(t) + p3(t);
p3’(t ) = -2 p3(t).
Для нахождения стационарного распределения достаточно в последней дифференциальной системе положить все производные pi’(t ) = 0, i = 1, 2, 3. Пусть p = (p1, p2, p3) есть стационарное распределение, тогда:
0
= - 5 p1
+
p2
+
p3;
0 = 5p1 - p2 + p3; (8)
0 = -2 p3.
Решая систему, получим p3 = 0, p2= 5p1. В силу уравнения (4) p1 + p2 + p3 = 1,следовательно, p = ( 1/6; 5/6; 0).
Заметим, что для определения стационарного распределения мы получили бы такую же систему, если бы воспользовались правилом, приведенным выше. Действительно, для состояния А1 имеем 5 p1 = 1 p2 + 1 p3 , для состояния А2: 1 p2 = 5p1 + 1 p3, для состояния A3: 1 p3 + 1p3 = 0. Составляя из этих уравнений систему, убедимся, что она эквивалентна системе (8).
Для
многих практических случаев важно
знать, как ведут себя вероятности pi(t},
i=l, 2,..., k при большом времени работы
системы, т. е. при t
.
Если при определенных условиях
существуют
предельные вероятности
состояний
pi
=
pi(t),
i = 1, 2, …, k, (9)
не зависящие от того, в каком состоянии система находилась в начальный момент, то это означает, что с течением времени в системе устанавливается предельный стационарный режим.
Система, для которой существуют предельные вероятности, называется эргодической, а возникающий в ней случайный процесс эргодическим.
Выясним условия, при которых существуют предельные вероятности состояний. Введем ряд понятий.
Состояние Аi называется несущественным, если найдется такое состояние Аj что из Ai в Аj, перейти можно, а из Aj в Ai — нельзя. Состояние Ai называется существенным, если оно не является несущественным. Например, для системы, граф состояний которой дан на рис. 2, состояние А3 несущественно (так как из него можно перейти в состояние А1 или А2 но обратно вернуться нельзя), состояния А1 и A2 — существенны. Два существенных состояния Ai и Aj называются сообщающимися, если из Ai можно попасть в Aj и из Aj в Ai. На рис. 2 представлены сообщающиеся состояния A1 и А2.
Теорема 1. Если Ai — несущественное состояние, то
pi(t) = 0. (10)
Смысл этой теоремы состоит в том, что в конечном итоге система выйдет из несущественного состояния Ai и больше в него не вернется.
Теорема 2. Чтобы цепь (процесс) с конечным числом состояний имела единственное стационарное распределение вероятностей, совпадающее с предельным, необходимо и достаточно, чтобы все ее существенные состояния сообщались между собой.
Пример. В условиях задачи 2 найти предельные вероятности состояний.
Решение. В рассматриваемой цепи состояния A1 и A2 являются существенными сообщающимися состояниями, A3 — несущественно. Следовательно, по теореме 2 предельное распределение совпадает со стационарным и имеет вид p = ( 1/6; 5/6; 0). Заметим, что результат p3(t) = 0 можно было получить непосредственно из теоремы 1, так как состояние A3 несущественно.
Пример. Задана матрица
интенсивностей переходов непрерывной
цепи Маркова. Составить размеченный
граф состояний, соответствующий
матрице
;
составить систему дифференциальных
уравнений Колмогорова для вероятностей
состояний; найти предельное распределение
вероятностей.
Дано:
Решение: Однородная цепь Маркова с конечным числом состояний A1,A2,…,Ak характеризуется матрицей интенсивностей переходов
,
где
- интенсивность перехода цепи Маркова
из состояния Ai
в состояние Aj;
- вероятность перехода Ai
Aj за
интервал времени
.
Переходы системы из состояния в состояние
удобно задавать с помощью размеченного
графа состояний, на котором отмечаются
дуги, соответствующие интенсивностям
.
Составим размеченный граф состояний для заданной матрицы интенсивностей переходов.
Пусть
- вектор вероятностей
,
нахождения системы в состоянии Aj
в момент t. Очевидно, что
и
.
Тогда по правилу дифференцирования
векторной функции скалярного аргумента
получим
.
Вероятности
удовлетворяют системе дифференциальных
уравнений Колмогорова (СДУК), которая
в матричной форме имеет вид
(6)
,
Если в начальный момент система находилась в состоянии Aj, то СДУК следует решать при начальных условиях
(7)
Совокупность СДУК (6) и начальных условий (7) однозначно описывает однородную цепь Маркова непрерывным временем и конечным числом состояний.
Составим
СДУК для заданной цепи Маркова. Поскольку
k=3, то j=1,2,3.
Из соотношения (6) получим
Отсюда будем иметь:
Последнее условие называется нормировочным.
Распределение
вероятностей по состояниям называется
стационарным, если оно не меняется с
течением времени, то есть
,
где pj=const,
j=1,2,…,k.
Отсюда
.
Тогда из СДУК (6) получаем систему для
нахождения стационарного распределения
,
где
.
Для данной задачи из СДУК будет иметь
Из нормировочного условия получим
Ответ: предельное распределение имеет
вид
.
Пример. Определить, существует ли стационарный режим для марковского случайного процесса, размеченный граф состояний которого изображен на рисунке. Если стационарный режим существует, то найти стационарное распределение вероятностей.
Указание. Проведите классификацию состояний системы и примените следствия из теоремы Маркова.
а) Состояние 6 - существенное. Остальные - несущественные состояния. Поэтому единственное стационарное распределение совпадает с предельным.
Для несущественных состояний предельные вероятности равны нулю. Учитывая, что сумма всех вероятностей = 1 получим искомое стационарное распределение:
б) Несущественные состояния 1, 2, 6. Состояния 3, 4, 5 - существенные сообщающиеся поэтому единственное стационарное распределение совпадает с предельным.
Приравнивая к каждую из строк-уравнений к 0 и учитывая, что сумма вероятностей = 1 получим:
11.Процесс гибели и размножения
Процессом гибели и размножения называется марковская цепь, размеченный граф состояний которой изображен на рис. 3. Здесь 0, 1, …,k-1— интенсивности переходов системы из состояния в состояние слева направо; 1, 2,…, k—
Рис. 3
интенсивности переходов справа налево. Очевидно, все состояния A0, A1, ..., Ak являются существенными сообщающимися состояниями. Следовательно, в силу теоремы 2 существует предельное распределение вероятностей состояний, которое имеет вид:
p0
=
;
p1
=
p0;
p2
=
p0;
… ; pk
=
p0.
(11)
12.Системы массового обслуживания и их классификация.
Математический аппарат для изучения закономерностей функционирования систем, удовлетворяющих массовый спрос, и образования очередей в такого рода системах называется теорией массового обслуживания.
Методы теории массового обслуживания все более широко применяются на транспорте для расчета рациональной организации подачи вагонов под разгрузку и погрузку, для расчета мощностей пунктов текущего ремонта вагонов, для выбора рационального числа кассовых аппаратов на вокзалах и станциях метрополитена. Поэтому современному инженеру железнодорожного транспорта необходимо знать основы теории массового обслуживания.
Заявкой (требованием) назовем спрос на удовлетворение какой-либо потребности. Далее будем подразумевать, что все заявки однотипные. Удовлетворение спроса назовем обслуживанием заявки.
Системой массового обслуживания (СМО) называется любая система, предназначенная для обслуживания каких-либо заявок, поступающих в нее в случайные моменты времени. Устройство, непосредственно обслуживающее заявку, называется каналом обслуживания. СМО может содержать одно такое устройство, тогда она называется одноканальной. Если СМО содержит несколько обслуживающих устройств, то она называется многоканальной.
Поступление заявки в СМО назовем событием. Последовательность событий, состоящих в поступлении заявок в СМО, назовем входящим потоком заявок. Последовательность событий, состоящих в выходе заявок из СМО, назовем выходящим потоком заявок.
В зависимости от поведения заявки в СМО различают СМО с отказами и СМО с очередью (или ожиданием). В СМО с отказами заявка, поступившая в момент занятости всех каналов, получает отказ и покидает СМО. В СМО с очередью (или ожиданием) заявка, поступившая в момент занятости всех каналов, становится в очередь и ожидает освобождения одного из каналов обслуживания.
Возможны СМО смешанного типа. Например, СМО с ограниченной очередью. В такой СМО заявка становится в очередь при занятости всех каналов, если очередь невелика, скажем, не достигла длины т. Если все т мест в очереди заняты, заявка покидает СМО. К СМО смешанного типа относятся СМО с ограниченным временем ожидания. Заявка, поступившая в момент занятости всех каналов, становится в очередь, но может уйти из СМО необслуженной, если время ожидания слишком велико.
СМО с очередью (или с ожиданием) могут быть открытого и замкнутого типа. В открытых СМО интенсивность поступающего на нее потока заявок не зависит от состояния самой СМО, так как круг «клиентов» (поступающих заявок) практически не ограничен. Примерами таких СМО являются вокзальные кассы, метрополитен, телевизионные ателье больших городов и т. д. В СМО с очередью замкнутого типа обслуживается ограниченный круг «клиентов», поэтому интенсивность потока заявок существенно зависит от состояния системы. Примерами таких СМО являются различные ремонтные системы в автопарках, цехах и т. д.
СМО с очередью и смешанного типа различаются также по дисциплине обслуживания; обслуживаются ли заявки в порядке поступления, или в случайном порядке, или есть заявки, которые обслуживаются вне очереди (СМО с приоритетом).