![](/user_photo/2706_HbeT2.jpg)
Sluchaynye_protsessy
.pdfЭто свойство следует из равенства (7.3) и того факта, что D(x(t) - x(u)) ³ 0 .
3. Функция F(t) определяет ковариационную функцию Rξ (s,u) процесса ξ(t) − ξ(t0 ):
ì F(min( s,u)), |
s > t0 ,u > t0 , |
|
|||
ï |
|
|
|
s < t0 ,u < t0 |
, |
ï- F(max(s,u)), |
|||||
Rξ (s,u) = í |
0, |
s |
£ t0 |
,u ³ t0 , |
(7.4) |
ï |
|
||||
ï |
0, |
s |
³ t0 |
,u £ t0. |
|
î |
|
||||
Докажем равенство (7.4) только для случая |
s > t0 ,u > t0 . Здесь возможны два варианта |
выбора t0 : t0 < s < u и t0 < u < s . Пусть t0 < s < u . Тогда
Rξ (s,u) = E((ξ(s) − ξ(t0 ))(ξ(u) − ξ(t0 ))) =
=E((ξ(s) − ξ(t0 ))((ξ(u) − ξ(s)) + (ξ(s) − ξ(t0 )))) =
=E((ξ(s) − ξ(t0 ))(ξ(u) − ξ(s))) + E((ξ(s) − ξ(t0 ))2 ) = F(t)
Если же t0 < u < s , то
Rξ (s,u) = E((ξ(s) − ξ(t0 ))(ξ(u) − ξ(t0 ))) =
=E(((ξ(s) − ξ(u)) + (ξ(u) − ξ(t0 )))(ξ(u) − ξ(t0 ))) =
=E((ξ(s) − ξ(u))(ξ(u) − ξ(t0 ))) + E((ξ(u) − ξ(t0 ))2 ) = F(u)
Таким образом, мы получили первую строку равенства (7.4). Аналогично доказываются ос- тальные строки этого равенства.
7.2. Процессы со стационарными некоррелированными приращениями
Определение 7.2. Случайный процесс x(t) с нулевым математическим ожиданием и ко-
нечной дисперсией приращений на любых отрезках времени называется процессом со ста- ционарными некоррелированными приращениями, если он имеет некоррелированные при- ращения и распределение приращения x(t) - x(u) зависит не от каждогоаргументов t,u , а
только от их разности t − u .
Стационарность приращений, в частности, означает, что дисперсия приращения (7.3) за- висит только от разности t − u :
F(t) - F(u) = G(t - u), u ≤ t ,
где G(t - u) – некоторая функция одной переменной v = t − u . Эта функция удовлетворяет
следующему условию: для всех положительных v и w |
|
G(v) + G(w) = G(v + w) . |
(7.5) |
Действительно, выберем три момента времени так, что t1 < t2 < t3 |
и обозначим t2 − t1 = v , |
t3 − t2 = w. Тогда получим: |
|
G(v) = F(t2 ) − F(t1) , |
|
G(w) = F(t3) − F(t2 ) , |
(7.6) |
G(v + w) = F(t3) − F(t1) . |
|
Сложив первые два из этих равенств, получим: |
|
G(v) + G(w) = F(t3) − F(t1).
Сравнивая последнее равенство с третьим из равенств (7.6), получим выражение (7.5).
51
Функциональное уравнение (7.5) является определением линейного оператора (линейной функции). Следовательно, единственным неотрицательным решением функционального уравнения (7.5) является линейная функция
G(t) = c2t ,
где c – константа. Таким образом, в случае стационарности приращений случайного процес- са ξ(t) дисперсия его приращения определяется формулой:
D(ξ(t) − ξ(u)) = E((ξ(t) − ξ(u))2 ) = c2 (t − u),
а для функции F(t) (7.2) справедливо выражение: |
|
F(t) = c2 (t − t0 ) . |
(7.7) |
Если подставить функцию F(t) (7.7) в формулу (7.4), то получим следующее выражение для ковариационной функции процесса ξ(t) − ξ(t0 ) с некоррелированными стационарными приращениями:
ì |
c2 |
(min(s,u) - t0 ), |
s > t0 ,u > t0 , |
|
||
ï |
|
|
|
s < t0 ,u < t0 , |
|
|
ï- c2 (max(s,u) - t0 ), |
(7.8) |
|||||
Rξ (s,u) = í |
|
0, |
s £ t0 ,u ³ t0 , |
|
||
ï |
|
|
|
|||
ï |
|
0, |
s ³ t0 ,u £ t0. |
|
|
|
î |
|
|
|
|||
Если же s > 0,u > 0 и t0 = 0 , то ковариационная функция (7.8) преобразуется к виду: |
|
|||||
R (s,u) = c2 min(s,u) = ìc2s, |
s < u, |
|
||||
|
ξ |
|
|
í |
s ³ u. |
|
|
|
|
|
îc2u, |
|
7.3. Процессы Маркова с непрерывным множеством значений
Процессы Маркова с непрерывным множеством значений (состояний) имеют прямое от- ношение к процессам с некоррелированными приращениями. Поэтому рассмотрим сейчас этот класс процессов.
Определение 7.3 Случайный процесс ξ(t) с непрерывным множеством значений называ- ется Марковским, если для любых моментов времени t1 < t2 < ... < tn ,где n – любое целое
число, условная функция распределения
F(xn ,tn / xn−1,tn−1, xn−2 ,tn−2 ,..., x1,t1) = = P(ξ(tn ) < xn / ξ(tn−1) = xn−1,...,ξ(t1) = x1)
для любых x1, x2 ,...,xn удовлетворяет равенству |
|
F(xn ,tn / xn−1,tn−1,..., x1,t1) = F(xn ,tn / xn−1,tn−1). |
(7.9) |
Свойство (7.9) называется свойством марковости. Оно означает, что условная функция распределения вероятностей, описывающая состояние системы в момент времени tn , зави-
сит только от значения процесса xn−1 в предыдущий момент времени tn−1 и не зависит от
значений процесса в более ранние моменты времени.
В терминах условной плотности вероятностей свойство марковости (7.9) записывается следующим образом:
f (xn ,tn / xn−1,tn−1,...,x1,t1) = f (xn ,tn / xn−1,tn−1) . |
(7.10) |
52
Функция F(xn ,tn / xn−1,tn−1) в (7.9) называется функцией распределения вероятностей перехода, а функция f (xn,tn / xn−1,tn−1) в (7.10) – плотностью распределения вероятностей перехода.
Как мы знаем (раздел 2.2), полное описание случайного процесса ξ(t) задается n -мерной функцией распределения F(x1,t1,..., xn ,tn ) или n -мерной плотностью вероятности f (x1,t1,...,xn ,tn ) . В связи с этим справедлива следующая теорема.
Теорема 7.1. Процесс Маркова с непрерывным множеством значений полностью опреде- ляется функцией распределения вероятностей перехода F(xn ,tn / xn−1,tn−1) и функцией
распределения вероятностей F(x1,t1) в начальный момент времени t1 , причем n
F(x1,t1,..., xn ,tn ) = F(x1,t1)Õ f (xi ,ti / xi −1,ti −1) .
i=2
В терминах плотностей вероятностей эта теорема формулируется следующим образом. Процесс Маркова с непрерывным множеством значений полностью определяется плотно-
стью распределения вероятностей перехода f (xn,tn / xn−1,tn−1) и плотностью распределе- ния вероятностей f (x1,t1) в начальный момент времени t1 , причем
n
f (x1,t1,...,xn ,tn ) = f (x1,t1)Õ f (xi ,ti / xi −1,ti−1) . (7.11)
i =2
Поскольку описание процесса n -мерной плотностью вероятности более приемлемо для практики, то докажем только равенство (7.11). По теореме умножения для непрерывных слу- чайных величин получим:
f (x1,t1,...,xn ,tn ) = f (x1,t1,..., xn−1,tn−1) f (xn ,tn / xn−1,tn−1,...,x1,t1) .
Учитывая свойство марковости (7.10), будем иметь |
|
f (x1,t1,...,xn ,tn ) = f (x1,t1,..., xn−1,tn−1) f (xn ,tn / xn−1,tn−1). |
(7.12) |
Снова раскрывая в последнем выражении плотность вероятности f (x1,t1,...,xn−1,tn−1) по теореме умножения,
f(x1,t1,...,xn−1,tn−1) = f (x1,t1,.., xn−2 ,tn−2 ) f (xn−1,tn−1 / xn−2 ,tn−2 ,...,x1,t1) ,
иучитывая свойство марковости, вместо (7.12) получим:
f (x1,t1,...,xn ,tn ) = f (xn ,tn / xn−1,tn−1) f (xn−1,tn−1 / xn−2 ,tn−2 ) f (x1,t1,...,xn−2 ,tn−2 ).
Продолжая этот процесс, мы придем к выражению (7.11).
Приведем еще одно свойство процессов Маркова. Если t1 < t2 < t3 , то
∞
f (x3,t3 / x1,t1) = ò f (x3,t3 / x2 ,t2 ) f (x2 ,t2 / x1,t1)dx2 .
−∞
Это уравнение является непрерывным вариантом (аналогом) уравнения Чепмена- Колмогорова (6.4) и получается применением формулы полной вероятности для непрерыв- ных случайных величин. Приведенная формула определяет плотность вероятности перехода
для промежутка времени (t1,t3 ) по известным плотностям вероятности перехода для мень- ших промежутков времени (t1,t2 ) и (t2 ,t3 ) .
7.4. Процессы с независимыми приращениями
Определение 7.4. Случайный процесс ξ(t) , приращение которого
53
z1 = ξ(t1) , z2 = ξ(t2) − ξ(t1) , ..., zn = ξ(tn ) − ξ(tn−1) |
(7.13) |
для непересекающихся промежутков времени t1,t2 − t1,...,tn − tn−1 взаимно независимы, называется процессом с независимыми приращениями.
Определение 7.5. Случайный процесс ξ(t) с независимыми приращениями в случае, когда распределение приращения ξ(t) − ξ(s) зависит только от разности t − s , называется про- цессом с независимыми стационарными приращениями.
Из определения 7.4 ясно, что при E(ξ(t)) = 0 и E(ξ2 (t)) < ∞ приращения процесса бу-
дут некоррелированными. В этих условиях процессы с независимыми приращениями обра- зуют подкласс в классе процессов с некоррелированными приращениями, и для них справед-
ливы результаты разделов 7.1,7.2. |
|
z1, z2 ,...,zn |
|
|||||
fz |
Обозначим |
плотности |
вероятностей |
приращений |
(7.13) как |
|||
(v1), fz |
(v2 ),..., fz |
(vn ) |
соответственно, а |
n -мерную плотность вероятности процесса |
||||
|
1 |
2 |
|
n |
|
|
|
|
ξ(t) как fξ (x1,.., xn ) , не показывая явно зависимость от t1,...,tn.
Теорема 7.2. Случайный процесс ξ(t) с независимыми приращениями полностью опре- деляется распределением приращений (7.13), причем
|
n |
|
|
fξ (x1,..., xn ) = fz1 |
(x1)∏ fzi (xi |
− xi −1). |
(7.14) |
Для доказательства обозначим ξ(ti ) = ξi , |
i =2 |
|
|
i =1,2,...,n . |
Тогда вместо (7.13) можно запи- |
||
сать: |
|
|
|
z1 = ξ1, z2 = ξ2 − ξ1 , ..., zn = ξn − ξn−1 . |
(7.15) |
||
Отсюда находим, что |
|
|
|
ξ1 = z1, ξ2 = z2 + z1, ..., ξn = zn+1 + zn . |
(7.16) |
||
Пусть fξ (x1,...,xn ) совместная плотность вероятности величин ξ1,...,ξn , а |
fz (y1,..., yn ) – |
совместная плотность вероятности приращений z1,...,zn . В силу независимости прираще-
ний
fz (y1,..., yn ) = fz1 (y1) fz2 (y2 )... fzn (yn ) . |
(7.17) |
Мы имеем задачу преобразования случайных величин: по известной плотности вероятности fz (y1,..., yn ) (7.17) и преобразованию (7.16) найти плотность вероятности fξ (x1,...,xn ) . При решении этой задачи используется якобиан обратного преобразования (7.15), который
равен: |
|
|
|
1 |
0 |
0 |
|
0 |
0 |
|
|
|
|
|
|
L |
|
||||||
|
|
|
|
− 1 |
1 |
0 |
L |
0 |
0 |
|
|
|
∂zi |
|
|
0 |
− 1 1 |
L 0 |
0 |
|
|||
J = |
|
= |
= 1 |
||||||||
∂ξ j |
M |
M |
M |
O |
M |
M |
|||||
|
|
|
|||||||||
|
|
|
|
0 |
0 |
0 |
L −1 |
1 |
|
||
|
|
|
|
|
|
|
|
|
|
|
В соответствии с теорией функций случайных величин получаем:
fz (x1,...,xn ) = fz1 (x1) fz2 (x2 − x1)... fzn (xn − xn−1)
54
Теорема 7.3. Случайный процесс ξ(t) c независимыми приращениями является процес-
сом Маркова, плотность вероятности перехода которого совпадает с плотностью вероятности соответствующего приращения:
fξ (xn / xn−1) = fzn (xn − xn−1) . |
(7.18) |
||
Докажем эту теорему. Поскольку для любой n -мерной плотности вероятности |
|||
fξ (xn / x1,...xn−1) = |
fξ (x1,...,xn ) |
, |
|
fξ (x1,...,xn−1) |
|||
|
|
||
то, раскрывая числитель и знаменатель по формуле (7.14), получаем |
|||
fξ (xn / x1,...,xn−1) = fzn (xn − xn−1), |
где fzn (xn − xn−1) – плотность вероятности приращения zn = ξ(tn ) − ξ(tn−1) . Так как она зависит только от xn−1 и не зависит от x1,..., xn−2 , то можно записать равенство (7.18).
7.5. Винеровский процесс
Траектория винеровского процесса представляет собой функцию изменения одной из ко- ординат маленькой частицы, погруженной в жидкость (броуновской частицы). Поэтому ви- неровский процесс называется также процессом броуновского движения. Строгий математи- ческий анализ броуновского движения был дан Н. Винером, откуда и происходит название этого процесса.
Броуновское движение можно описать следующим образом. Пусть x(t) − одна из коорди- нат частицы с начальными условиями, выбранными так, что x(0) = 0 . Движение частицы в
жидкости есть результат многих столкновений с молекулами жидкости. Поэтому согласно с центральной предельной теоремой разумно считать, что распределение этой координаты нормальное. Естественно также считать, что свойства распределения в интервале (t,t + τ)
такие же, как и в интервале (s, s + τ), и трение при движении отсутствует. В связи с этим винеровский процесс можно задать аксиоматически следующим образом.
Определение 7.6 Случайный процесс ξ(t) называется винеровским процессом, если он удовлетворяет следующим условиям:
1)ξ (0) = 0 ;
2)ξ (t) – нормальный (гауссовский) случайный процесс;
3)E(ξ(t)) = 0 для всех t ³ 0;
4)процесс ξ(t) имеет независимые стационарные приращения.
Выясним другие свойства винеровского процесса, вытекающие из данного определения. Поскольку это нормальный процесс, то он полностью характеризуется математическим ожиданием и ковариационной функцией, причем, согласно определению, математическое ожидание равно нулю, а ковариационная функция определяется также как для процесса с не-
зависимыми стационарными приращениями, т.е. имеет вид
R (s,u) = C 2 min(s, u) . |
(7.19) |
ξ |
|
Отсюда получаем, что ковариационная матрица винеровского процесса имеет вид:
55
![](/html/2706/349/html_OwOukcqgqp.IXi7/htmlconvd-dDUcqR56x1.jpg)
ét1
êêt1
R = c2 êêt1
ê . êët1
а дисперсия определяется формулой:
t |
t |
. . . |
t |
ù |
|
|
1 |
1 |
|
1 |
ú |
|
|
t2 |
t2 |
. . . |
t2 |
ú |
|
|
t2 |
t3 |
. . . |
t3 |
ú |
, |
(7.20) |
. |
. |
. . . |
. |
ú |
|
|
ú |
|
|
||||
t2 |
t3 |
. . . |
|
ú |
|
|
tn û |
|
|
D(x(t)) = sξ2 (t) = c2t .
В силу нормальности процесса его n -мерная плотность вероятности имеет следующее вы-
ражение: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
1 |
|
|
|
||
f |
ξ |
(x ,...,x |
n |
,t ,...,t |
n |
) = |
|
|
|
|
|
|
|
exp(- |
X T R−1X ) , |
(7.21) |
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||
|
|
|
1 |
|
|
1 |
|
|
|
|
|
|
|
|
(2p)n |
|
R |
|
|
|
|
2 |
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
где X T = (x ,..., x |
n |
) |
− |
|
|
вектор-строка аргументов |
|
|
плотности вероятности, |
R - |
|||||||||||||||||||||||
1 |
|
|
|
|
|
|
|
|
|
|
|
– определитель ковариационной матрицы, R−1 – мат- |
|||||||||||||||||||||
ковариационная матрица (7.20), | R | |
|||||||||||||||||||||||||||||||||
рица, обратная ковариационной матрице. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
При n =1 из (7.21) получаем для момента времени tk |
одномерную плотность вероятно- |
||||||||||||||||||||||||||||||||
сти: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
æ |
|
|
|
|
ö |
|
||||||||
|
|
|
|
|
f |
ξ |
(x |
k |
,t |
k |
) = |
|
|
|
|
expç |
- |
|
xk |
÷ . |
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
2pc2tk |
ç |
|
2c |
2 |
|
÷ |
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
è |
|
|
tk ø |
|
||||||||||||
При n = 2 и моментов времени tk −1,tk |
ковариационная матрица будет иметь вид |
|
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
R = c |
2 |
étk −1 |
|
|
|
tk −1 |
ù |
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ê |
|
|
|
tk |
ú , |
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ëtk −1 |
|
|
|
û |
|
|
|
|
|
|
|
ее определитель
R = c4tk −1(tk - tk −1) ,
и двухмерную плотность вероятности можно привести к виду
fξ (xk −1, xk ,tk −1,tk ) =
|
|
1 |
æ |
|
t |
k |
x2 |
−1 |
- 2t |
k −1 |
x |
k |
−1 |
x |
k |
+ t |
k −1 |
x2 |
ö |
|||
= |
|
|
|
expç |
- |
|
k |
|
|
|
|
|
|
k |
÷. |
|||||||
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
||||
|
|
(2p)2 c4tk −1(tk - tk −1) |
ç |
|
|
|
|
2c |
tk −1(tk |
- tk |
−1) |
|
|
÷ |
||||||||
|
|
è |
|
|
|
|
|
|
|
ø |
||||||||||||
Найдём также плотность вероятности |
fzk |
( y) приращения zk |
= ξ(tk ) − ξ(t |
(7.22)
k −1). По фор-
муле плотности вероятности суммы двух случайных величин получим:
|
∞ |
fzk (y) = |
ò fξ (xk −1, y + xk −1,tk −1,tk )dxk −1 . |
|
−∞ |
Подставим сюда плотность вероятности (7.22) и выполним определенные преобразования. В
результате будем иметь
fzk ( y) = |
|
1 |
|
× |
|
|
|
|
|||
(2p)2 c4tk −1(tk - tk −1) |
|||||
|
|
|
|
56
![](/html/2706/349/html_OwOukcqgqp.IXi7/htmlconvd-dDUcqR57x1.jpg)
∞ |
æ |
|
× ò |
ç |
- |
expç |
||
−∞ |
è |
|
2 |
−1 |
- 2tk −1xk −1(y + xk |
|
−1) + tk −1 |
( y + xk −1) |
2 |
ö |
|
||||||||||||||
tk xk |
|
|
÷ |
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
÷dxk −1 |
= |
|
|
|
|
2c |
2 |
tk −1(tk |
|
- tk −1) |
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
ø |
|
||||||||||
|
|
|
|
1 |
|
|
|
æ |
|
|
|
|
|
y2 |
ö |
|
|
|
|
|||
= |
|
|
|
|
|
|
|
|
expç |
- |
|
|
|
|
|
÷ |
× |
|
|
|
||
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|||||||
|
|
|
2c2 (tk - tk −1) |
ç |
|
|
|
2c |
(tk |
|
÷ |
|
|
|
|
|||||||
|
|
|
è |
|
|
|
|
- tk −1) ø |
|
|
|
|
||||||||||
|
|
|
|
1 |
|
∞ |
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
||
× |
|
|
ò |
exp(- |
|
|
xk −1 |
)dxk −1 . |
|
|
|
|
||||||||||
|
|
|
|
2c2tk −1 |
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
2pc2tk −1 −∞ |
|
|
|
|
|
|
|
|
|
|
|
Поскольку в последнем выражении по свойству нормировки для гауссовской плотности ве-
роятности имеем равенство
|
1 |
|
∞ |
æ |
|
|
2 |
−1 |
ö |
|
|
|
|
|
ç |
|
xk |
÷ |
|
||||
|
|
|
ò |
expç |
- |
|
|
|
|
÷dxk −1 |
=1, |
|
|
|
2c |
2 |
tk −1 |
||||||
|
|
||||||||||
|
2pc2tk −1 −∞ |
è |
|
|
ø |
|
то плотность вероятности приращения определяется формулой:
|
|
|
|
1 |
æ |
|
|
|
( y2 ) |
ö |
|
f |
zk |
(y) = |
|
|
|
expç |
- |
|
|
|
÷ . |
|
|
|
|
2 |
|
||||||
|
|
|
2pc2 (tk - tk −1) |
ç |
|
2c |
|
÷ |
|||
|
|
|
|
è |
|
|
(tk - tk −1) ø |
Винеровский процесс как процесс с независимыми приращениями является Марковским процессом с плотностью вероятности перехода
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
æ |
|
(x |
k |
- x |
k −1 |
)2 ö |
|
||
f |
ξ |
(x |
k |
,t |
k |
/ x |
k −1 |
,t |
k −1 |
) = |
|
|
|
expç |
- |
|
|
|
|
÷ . |
(7.23) |
||
|
|
|
|
2 |
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
2pc2 (tk |
- tk −1) |
ç |
|
2c |
(tk - tk |
÷ |
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
è |
|
|
|
−1) ø |
|
Это следует из теоремы 7.3 и формулы (7.22).
Наконец, n -мерная плотность вероятности (7.21) согласно теореме 7.2 может быть пред- ставлена в виде (7.14) с использованием плотности вероятности приращения (7.22).
Винеровский процесс находит применение при построении математических моделей про- цессов, протекающих в системах управления при случайных воздействиях.
57
8. ПОТОКИ ТРЕБОВАНИЙ В СИСТЕМАХ МАССОВОГО ОБСЛУЖИВАНИЯ
8.1. Определение простейшего (Пуассоновского) потока
Первичным понятием теории массового обслуживания является понятие потока требова- ний, поступающих в систему массового обслуживания (СМО). Так, на телефонную станцию в случайные моменты времени поступают вызовы, к кассовому аппарату супермаркета под- ходят в случайные моменты времени покупатели и т.д. С точки зрения специалиста по тео-
рии вероятностей поток требований представляет собой случайный процесс с дискретным множеством состояний и непрерывным временем и может изучаться на основе общей теории случайных процессов. Такой подход будет изложен в разделе 9. Однако исторически потоки требований первоначально изучались как дискретные случайные величины – количества требований, поступающих в СМО в различные отрезки времени. В силу случайности момен- тов поступления требований отрезки времени между соседними требованиями непрерывны- ми случайными величинами. В данном разделе мы рассмотрим этот подход, рассматриваю-
щий случайные количества требований в различные отрезки времени и случайные отрезки времени между соседними требованиями.
Потоком однородных событий (требований) называется конечная или счетная последова- тельность τn случайных величин, определенная на одном и том же вероятностном про- странстве, при условии, что в любой фиксированный интервал времени (a,b) с вероятно-
стью 1 попадает конечное число этих величин.
Если фиксированный момент времени t совпадает сразу с r элементами последователь- ности τn , то будем говорить, что в момент t происходит r событий потока.
Если τn ≤ τn+1 – два упорядоченных элемента последовательности, то будем говорить, что в полуинтервале [τn ,τn+1) происходит одно событие τn .
Поток требований в СМО называется простейшим, если он обладает свойствами стацио-
нарности, ординарности, отсутствия последействия.
Стационарность потока означает, что для любой группы из конечного числа n непере- секающихся отрезков времени вероятность появления в них соответственно k1,k2 ,...,kn требований зависит только от этих чисел и длин указанных промежутков времени, но не за- висит от их расположения на оси времени. В частности, вероятность pk появления k требо- ваний на отрезке [T,T + t] не зависит от T и является функцией только k и t :
pk = pk (k,t) .
Ординарность потока означает практическую невозможность появления двух или более требований в один и тот же момент времени. В математической форме ординарность запи- сывается следующим образом:
|
p>1(h) |
→ 0, |
|
|
h |
|
|
|
h→0 |
|
|
или, иначе, |
|
|
|
|
p>1(h) = o(h) , |
(8.1) |
где p>1(h) – вероятность появления на отрезке длиной h двух и более требований. Отсюда
сразу следует, что для простейшего потока
p>1(0) = 0 . (8.2)
Отсутствие последействия состоит в том, что вероятность поступления k требований в течение отрезка времени [T,T + t] не зависит от того, сколько требований и как поступали
58
![](/html/2706/349/html_OwOukcqgqp.IXi7/htmlconvd-dDUcqR59x1.jpg)
до этого отрезка. Иначе говоря, количества требований (случайные величины), поступающие в непересекающиеся отрезки времени, независимы в совокупности.
8.2. Свойства простейшего потока
Изучим свойства простейшего потока, вытекающие из его определения.
Будем обозначать pk (h) вероятность появления ровно k требований на отрезке времени
длиной h . |
|
|
|
Прежде всего докажем, что для простейшего потока |
|
||
|
p1(h) |
® l , |
|
|
h |
|
|
|
h→0 |
|
|
или, иначе, |
|
|
|
|
p1(h) = λh + o(h) , |
(8.3) |
где λ = const . Это значит, что вероятность поступления ровно одного требования на отрез- ке времени длиной h пропорциональна длине этого отрезка. Из (8.3) следует, что
p1(0) = 0 . (8.4)
Величина λ в выражении (8.3) называется параметром простейшего потока. Физический смысл этого параметра будет выяснен в разделе 8.5.
Для доказательства рассмотрим отрезок времени длиной 1 и обозначим p0 (1) вероят-
ность того, что на этом отрезке не поступит ни одного требования. Разобьем этот единичный отрезок на n равных частей с длиной каждого 1/ n . В силу стационарности вероятности от- сутствия требований на этих частичных отрезках одни и те же и равны p0 (1/ n) , а в силу
отсутствия последействия по теореме умножения вероятностей для независимых событий
p0 (1) = [p0 (1/ n)]n .
Отсюда
p0 (1/ n) = [p0 (1)]1/ n .
Опять из условия отсутствия последействия вероятность отсутствия требований на отрезке времени k / n равна
p0 (k / n) = [p0 (1)]k / n .
В последнем выражении длина отрезка времени – рациональное число k / n . Можно распро- странить это выражение на отрезок любой действительной длины t . Действительно, для лю- бого неотрицательного действительного числа t можно указать такое целое число k , что при заданном n будет выполняться неравенство
|
|
|
|
|
|
k −1 |
£ t £ |
k |
. |
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
n |
|
n |
|
|
|
|
||||
Так как p0 (t) есть невозрастающая функция, то |
|
|
|
|
|
|
|
|
|||||||||
|
æ k -1 |
ö |
|
|
k −1 |
|
|
|
k |
|
æ k ö |
||||||
|
|
|
|
|
|
|
|
|
|
|
|||||||
p0 |
ç |
|
|
÷ |
= [p0 (1)] |
n £ p0 |
(t) £ [p0 (1)]n |
= p0 |
ç |
|
÷, |
||||||
|
|
|
|||||||||||||||
|
è n |
ø |
|
|
|
|
|
|
|
|
|
|
è n ø |
т.е.
[p0 (1)]kn−1 £ p0 (t) £ [p0 (1)]kn .
Пусть n → ∞ . Тогда
59
lim |
k −1 |
= lim |
k |
= t |
|
|
n |
|
|
|
|||
n→∞ |
n→∞ n |
|
|
|||
и |
|
|
p0 (t) = [p0 (1)]t . |
|
||
|
|
|
(8.5) |
Итак, для любого действительного неотрицательного t выполняется равенство (8.5). Так как
должно быть
0 ≤ p0 (t) ≤ 1,
т.е. |
0 ≤ [p0 (1)]t |
|
|
|
≤ 1, |
|
|
то нетривиальный случай |
будет тогда, когда |
p0 (1) = e−λ , l = const , l ³ 0 . |
Случаи |
p0 (1) = 0 , p0 (1) = 1 малоинтересны. |
|
|
|
Таким образом, мы нашли, что для простейшего потока |
|
||
Представляя функцию e−λt |
p0 (t) = e−λt . |
(8.6) |
|
рядом Тейлора в окрестности точки t = 0, получим |
|
||
|
p0 (t) =1 − λt + o(t) , |
(8.7) |
|
|
p0 (0) =1. |
(8.8) |
Поскольку при любых t
p0 (t) + p1(t) + p>1(t) =1,
то при малых t с учетом условия ординарности (8.1) получаем
1 − λt + o(t) + p1(t) + o(t) = 1,
откуда следует (8.3).
Итак, мы доказали свойство (8.3). Кроме того, мы получили выражение (8.6), определяю- щее вероятность отсутствия требований на отрезке времени длиной t . Выражение (8.6) оп- ределяет также вероятность того, что случайный отрезок времени ξ между соседними тре-
бованиями простейшего потока будет не меньше t (см. рисунок):
P(x ³ t) = p0 (t) = e−λt .
Тогда |
|
|
P(ξ < t) = F (t) =1 − e−λt |
, |
(8.9) |
ξ |
|
|
а это есть функция распределения случайного отрезка времени ξ между соседними требова- ниями простейшего потока. Плотность вероятности этого распределения равна
f |
ξ |
(t) = |
d |
F (t) = λe−λt . |
(8.10) |
|
dt |
||||||
|
|
ξ |
|
Распределение вида (8.9), (8.10) называется экспоненциальным, т.е. отрезок времени ξ меж-
ду соседними требованиями простейшего потока является случайной величиной, распреде- ленной по экспоненциальному закону (8.9). Экспоненциальное распределение символически обозначается как E(λ) .
60