Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Sluchaynye_protsessy

.pdf
Скачиваний:
7
Добавлен:
11.05.2015
Размер:
763.29 Кб
Скачать

Это свойство следует из равенства (7.3) и того факта, что D(x(t) - x(u)) ³ 0 .

3. Функция F(t) определяет ковариационную функцию Rξ (s,u) процесса ξ(t) − ξ(t0 ):

ì F(min( s,u)),

s > t0 ,u > t0 ,

 

ï

 

 

 

s < t0 ,u < t0

,

ï- F(max(s,u)),

Rξ (s,u) = í

0,

s

£ t0

,u ³ t0 ,

(7.4)

ï

 

ï

0,

s

³ t0

,u £ t0.

 

î

 

Докажем равенство (7.4) только для случая

s > t0 ,u > t0 . Здесь возможны два варианта

выбора t0 : t0 < s < u и t0 < u < s . Пусть t0 < s < u . Тогда

Rξ (s,u) = E((ξ(s) − ξ(t0 ))(ξ(u) − ξ(t0 ))) =

=E((ξ(s) − ξ(t0 ))((ξ(u) − ξ(s)) + (ξ(s) − ξ(t0 )))) =

=E((ξ(s) − ξ(t0 ))(ξ(u) − ξ(s))) + E((ξ(s) − ξ(t0 ))2 ) = F(t)

Если же t0 < u < s , то

Rξ (s,u) = E((ξ(s) − ξ(t0 ))(ξ(u) − ξ(t0 ))) =

=E(((ξ(s) − ξ(u)) + (ξ(u) − ξ(t0 )))(ξ(u) − ξ(t0 ))) =

=E((ξ(s) − ξ(u))(ξ(u) − ξ(t0 ))) + E((ξ(u) − ξ(t0 ))2 ) = F(u)

Таким образом, мы получили первую строку равенства (7.4). Аналогично доказываются ос- тальные строки этого равенства.

7.2. Процессы со стационарными некоррелированными приращениями

Определение 7.2. Случайный процесс x(t) с нулевым математическим ожиданием и ко-

нечной дисперсией приращений на любых отрезках времени называется процессом со ста- ционарными некоррелированными приращениями, если он имеет некоррелированные при- ращения и распределение приращения x(t) - x(u) зависит не от каждогоаргументов t,u , а

только от их разности t u .

Стационарность приращений, в частности, означает, что дисперсия приращения (7.3) за- висит только от разности t u :

F(t) - F(u) = G(t - u), u t ,

где G(t - u) некоторая функция одной переменной v = t u . Эта функция удовлетворяет

следующему условию: для всех положительных v и w

 

G(v) + G(w) = G(v + w) .

(7.5)

Действительно, выберем три момента времени так, что t1 < t2 < t3

и обозначим t2 t1 = v ,

t3 t2 = w. Тогда получим:

 

G(v) = F(t2 ) − F(t1) ,

 

G(w) = F(t3) − F(t2 ) ,

(7.6)

G(v + w) = F(t3) − F(t1) .

 

Сложив первые два из этих равенств, получим:

 

G(v) + G(w) = F(t3) − F(t1).

Сравнивая последнее равенство с третьим из равенств (7.6), получим выражение (7.5).

51

Функциональное уравнение (7.5) является определением линейного оператора (линейной функции). Следовательно, единственным неотрицательным решением функционального уравнения (7.5) является линейная функция

G(t) = c2t ,

где c константа. Таким образом, в случае стационарности приращений случайного процес- са ξ(t) дисперсия его приращения определяется формулой:

D(ξ(t) − ξ(u)) = E((ξ(t) − ξ(u))2 ) = c2 (t u),

а для функции F(t) (7.2) справедливо выражение:

 

F(t) = c2 (t t0 ) .

(7.7)

Если подставить функцию F(t) (7.7) в формулу (7.4), то получим следующее выражение для ковариационной функции процесса ξ(t) − ξ(t0 ) с некоррелированными стационарными приращениями:

ì

c2

(min(s,u) - t0 ),

s > t0 ,u > t0 ,

 

ï

 

 

 

s < t0 ,u < t0 ,

 

ï- c2 (max(s,u) - t0 ),

(7.8)

Rξ (s,u) = í

 

0,

s £ t0 ,u ³ t0 ,

 

ï

 

 

 

ï

 

0,

s ³ t0 ,u £ t0.

 

 

î

 

 

 

Если же s > 0,u > 0 и t0 = 0 , то ковариационная функция (7.8) преобразуется к виду:

 

R (s,u) = c2 min(s,u) = ìc2s,

s < u,

 

 

ξ

 

 

í

s ³ u.

 

 

 

 

 

îc2u,

 

7.3. Процессы Маркова с непрерывным множеством значений

Процессы Маркова с непрерывным множеством значений (состояний) имеют прямое от- ношение к процессам с некоррелированными приращениями. Поэтому рассмотрим сейчас этот класс процессов.

Определение 7.3 Случайный процесс ξ(t) с непрерывным множеством значений называ- ется Марковским, если для любых моментов времени t1 < t2 < ... < tn ,где n любое целое

число, условная функция распределения

F(xn ,tn / xn−1,tn−1, xn−2 ,tn−2 ,..., x1,t1) = = P(ξ(tn ) < xn / ξ(tn−1) = xn−1,...,ξ(t1) = x1)

для любых x1, x2 ,...,xn удовлетворяет равенству

 

F(xn ,tn / xn−1,tn−1,..., x1,t1) = F(xn ,tn / xn−1,tn−1).

(7.9)

Свойство (7.9) называется свойством марковости. Оно означает, что условная функция распределения вероятностей, описывающая состояние системы в момент времени tn , зави-

сит только от значения процесса xn−1 в предыдущий момент времени tn−1 и не зависит от

значений процесса в более ранние моменты времени.

В терминах условной плотности вероятностей свойство марковости (7.9) записывается следующим образом:

f (xn ,tn / xn−1,tn−1,...,x1,t1) = f (xn ,tn / xn−1,tn−1) .

(7.10)

52

Функция F(xn ,tn / xn−1,tn−1) в (7.9) называется функцией распределения вероятностей перехода, а функция f (xn,tn / xn−1,tn−1) в (7.10) – плотностью распределения вероятностей перехода.

Как мы знаем (раздел 2.2), полное описание случайного процесса ξ(t) задается n -мерной функцией распределения F(x1,t1,..., xn ,tn ) или n -мерной плотностью вероятности f (x1,t1,...,xn ,tn ) . В связи с этим справедлива следующая теорема.

Теорема 7.1. Процесс Маркова с непрерывным множеством значений полностью опреде- ляется функцией распределения вероятностей перехода F(xn ,tn / xn−1,tn−1) и функцией

распределения вероятностей F(x1,t1) в начальный момент времени t1 , причем n

F(x1,t1,..., xn ,tn ) = F(x1,t1)Õ f (xi ,ti / xi −1,ti −1) .

i=2

В терминах плотностей вероятностей эта теорема формулируется следующим образом. Процесс Маркова с непрерывным множеством значений полностью определяется плотно-

стью распределения вероятностей перехода f (xn,tn / xn−1,tn−1) и плотностью распределе- ния вероятностей f (x1,t1) в начальный момент времени t1 , причем

n

f (x1,t1,...,xn ,tn ) = f (x1,t1)Õ f (xi ,ti / xi −1,ti−1) . (7.11)

i =2

Поскольку описание процесса n -мерной плотностью вероятности более приемлемо для практики, то докажем только равенство (7.11). По теореме умножения для непрерывных слу- чайных величин получим:

f (x1,t1,...,xn ,tn ) = f (x1,t1,..., xn−1,tn−1) f (xn ,tn / xn−1,tn−1,...,x1,t1) .

Учитывая свойство марковости (7.10), будем иметь

 

f (x1,t1,...,xn ,tn ) = f (x1,t1,..., xn−1,tn−1) f (xn ,tn / xn−1,tn−1).

(7.12)

Снова раскрывая в последнем выражении плотность вероятности f (x1,t1,...,xn−1,tn−1) по теореме умножения,

f(x1,t1,...,xn−1,tn−1) = f (x1,t1,.., xn−2 ,tn−2 ) f (xn−1,tn−1 / xn−2 ,tn−2 ,...,x1,t1) ,

иучитывая свойство марковости, вместо (7.12) получим:

f (x1,t1,...,xn ,tn ) = f (xn ,tn / xn−1,tn−1) f (xn−1,tn−1 / xn−2 ,tn−2 ) f (x1,t1,...,xn−2 ,tn−2 ).

Продолжая этот процесс, мы придем к выражению (7.11).

Приведем еще одно свойство процессов Маркова. Если t1 < t2 < t3 , то

f (x3,t3 / x1,t1) = ò f (x3,t3 / x2 ,t2 ) f (x2 ,t2 / x1,t1)dx2 .

−∞

Это уравнение является непрерывным вариантом (аналогом) уравнения Чепмена- Колмогорова (6.4) и получается применением формулы полной вероятности для непрерыв- ных случайных величин. Приведенная формула определяет плотность вероятности перехода

для промежутка времени (t1,t3 ) по известным плотностям вероятности перехода для мень- ших промежутков времени (t1,t2 ) и (t2 ,t3 ) .

7.4. Процессы с независимыми приращениями

Определение 7.4. Случайный процесс ξ(t) , приращение которого

53

z1 = ξ(t1) , z2 = ξ(t2) − ξ(t1) , ..., zn = ξ(tn ) − ξ(tn−1)

(7.13)

для непересекающихся промежутков времени t1,t2 t1,...,tn tn−1 взаимно независимы, называется процессом с независимыми приращениями.

Определение 7.5. Случайный процесс ξ(t) с независимыми приращениями в случае, когда распределение приращения ξ(t) − ξ(s) зависит только от разности t s , называется про- цессом с независимыми стационарными приращениями.

Из определения 7.4 ясно, что при E(ξ(t)) = 0 и E2 (t)) < ∞ приращения процесса бу-

дут некоррелированными. В этих условиях процессы с независимыми приращениями обра- зуют подкласс в классе процессов с некоррелированными приращениями, и для них справед-

ливы результаты разделов 7.1,7.2.

 

z1, z2 ,...,zn

 

fz

Обозначим

плотности

вероятностей

приращений

(7.13) как

(v1), fz

(v2 ),..., fz

(vn )

соответственно, а

n -мерную плотность вероятности процесса

 

1

2

 

n

 

 

 

 

ξ(t) как fξ (x1,.., xn ) , не показывая явно зависимость от t1,...,tn.

Теорема 7.2. Случайный процесс ξ(t) с независимыми приращениями полностью опре- деляется распределением приращений (7.13), причем

 

n

 

 

fξ (x1,..., xn ) = fz1

(x1)fzi (xi

xi −1).

(7.14)

Для доказательства обозначим ξ(ti ) = ξi ,

i =2

 

 

i =1,2,...,n .

Тогда вместо (7.13) можно запи-

сать:

 

 

 

z1 = ξ1, z2 = ξ2 − ξ1 , ..., zn = ξn − ξn−1 .

(7.15)

Отсюда находим, что

 

 

 

ξ1 = z1, ξ2 = z2 + z1, ..., ξn = zn+1 + zn .

(7.16)

Пусть fξ (x1,...,xn ) совместная плотность вероятности величин ξ1,...,ξn , а

fz (y1,..., yn )

совместная плотность вероятности приращений z1,...,zn . В силу независимости прираще-

ний

fz (y1,..., yn ) = fz1 (y1) fz2 (y2 )... fzn (yn ) .

(7.17)

Мы имеем задачу преобразования случайных величин: по известной плотности вероятности fz (y1,..., yn ) (7.17) и преобразованию (7.16) найти плотность вероятности fξ (x1,...,xn ) . При решении этой задачи используется якобиан обратного преобразования (7.15), который

равен:

 

 

 

1

0

0

 

0

0

 

 

 

 

 

L

 

 

 

 

 

− 1

1

0

L

0

0

 

 

zi

 

 

0

− 1 1

L 0

0

 

J =

 

=

= 1

∂ξ j

M

M

M

O

M

M

 

 

 

 

 

 

 

0

0

0

L −1

1

 

 

 

 

 

 

 

 

 

 

 

 

В соответствии с теорией функций случайных величин получаем:

fz (x1,...,xn ) = fz1 (x1) fz2 (x2 x1)... fzn (xn xn−1)

54

Теорема 7.3. Случайный процесс ξ(t) c независимыми приращениями является процес-

сом Маркова, плотность вероятности перехода которого совпадает с плотностью вероятности соответствующего приращения:

fξ (xn / xn−1) = fzn (xn xn−1) .

(7.18)

Докажем эту теорему. Поскольку для любой n -мерной плотности вероятности

fξ (xn / x1,...xn−1) =

fξ (x1,...,xn )

,

fξ (x1,...,xn−1)

 

 

то, раскрывая числитель и знаменатель по формуле (7.14), получаем

fξ (xn / x1,...,xn−1) = fzn (xn xn−1),

где fzn (xn xn−1) плотность вероятности приращения zn = ξ(tn ) − ξ(tn−1) . Так как она зависит только от xn−1 и не зависит от x1,..., xn−2 , то можно записать равенство (7.18).

7.5. Винеровский процесс

Траектория винеровского процесса представляет собой функцию изменения одной из ко- ординат маленькой частицы, погруженной в жидкость (броуновской частицы). Поэтому ви- неровский процесс называется также процессом броуновского движения. Строгий математи- ческий анализ броуновского движения был дан Н. Винером, откуда и происходит название этого процесса.

Броуновское движение можно описать следующим образом. Пусть x(t) одна из коорди- нат частицы с начальными условиями, выбранными так, что x(0) = 0 . Движение частицы в

жидкости есть результат многих столкновений с молекулами жидкости. Поэтому согласно с центральной предельной теоремой разумно считать, что распределение этой координаты нормальное. Естественно также считать, что свойства распределения в интервале (t,t + τ)

такие же, как и в интервале (s, s + τ), и трение при движении отсутствует. В связи с этим винеровский процесс можно задать аксиоматически следующим образом.

Определение 7.6 Случайный процесс ξ(t) называется винеровским процессом, если он удовлетворяет следующим условиям:

1)ξ (0) = 0 ;

2)ξ (t) нормальный (гауссовский) случайный процесс;

3)E(ξ(t)) = 0 для всех t ³ 0;

4)процесс ξ(t) имеет независимые стационарные приращения.

Выясним другие свойства винеровского процесса, вытекающие из данного определения. Поскольку это нормальный процесс, то он полностью характеризуется математическим ожиданием и ковариационной функцией, причем, согласно определению, математическое ожидание равно нулю, а ковариационная функция определяется также как для процесса с не-

зависимыми стационарными приращениями, т.е. имеет вид

R (s,u) = C 2 min(s, u) .

(7.19)

ξ

 

Отсюда получаем, что ковариационная матрица винеровского процесса имеет вид:

55

ét1

êêt1

R = c2 êêt1

ê . êët1

а дисперсия определяется формулой:

t

t

. . .

t

ù

 

 

1

1

 

1

ú

 

 

t2

t2

. . .

t2

ú

 

 

t2

t3

. . .

t3

ú

,

(7.20)

.

.

. . .

.

ú

 

 

ú

 

 

t2

t3

. . .

 

ú

 

 

tn û

 

 

D(x(t)) = sξ2 (t) = c2t .

В силу нормальности процесса его n -мерная плотность вероятности имеет следующее вы-

ражение:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

1

 

 

 

f

ξ

(x ,...,x

n

,t ,...,t

n

) =

 

 

 

 

 

 

 

exp(-

X T R−1X ) ,

(7.21)

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

1

 

 

 

 

 

 

 

 

(2p)n

 

R

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где X T = (x ,..., x

n

)

 

 

вектор-строка аргументов

 

 

плотности вероятности,

R -

1

 

 

 

 

 

 

 

 

 

 

 

определитель ковариационной матрицы, R−1 мат-

ковариационная матрица (7.20), | R |

рица, обратная ковариационной матрице.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

При n =1 из (7.21) получаем для момента времени tk

одномерную плотность вероятно-

сти:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

æ

 

 

 

 

ö

 

 

 

 

 

 

f

ξ

(x

k

,t

k

) =

 

 

 

 

expç

-

 

xk

÷ .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2pc2tk

ç

 

2c

2

 

÷

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

è

 

 

tk ø

 

При n = 2 и моментов времени tk −1,tk

ковариационная матрица будет иметь вид

 

 

 

 

 

 

 

 

 

 

 

 

 

R = c

2

étk −1

 

 

 

tk −1

ù

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ê

 

 

 

tk

ú ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ëtk −1

 

 

 

û

 

 

 

 

 

 

 

ее определитель

R = c4tk −1(tk - tk −1) ,

и двухмерную плотность вероятности можно привести к виду

fξ (xk −1, xk ,tk −1,tk ) =

 

 

1

æ

 

t

k

x2

−1

- 2t

k −1

x

k

−1

x

k

+ t

k −1

x2

ö

=

 

 

 

expç

-

 

k

 

 

 

 

 

 

k

÷.

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

(2p)2 c4tk −1(tk - tk −1)

ç

 

 

 

 

2c

tk −1(tk

- tk

−1)

 

 

÷

 

 

è

 

 

 

 

 

 

 

ø

Найдём также плотность вероятности

fzk

( y) приращения zk

= ξ(tk ) − ξ(t

(7.22)

k −1). По фор-

муле плотности вероятности суммы двух случайных величин получим:

 

fzk (y) =

ò fξ (xk −1, y + xk −1,tk −1,tk )dxk −1 .

 

−∞

Подставим сюда плотность вероятности (7.22) и выполним определенные преобразования. В

результате будем иметь

fzk ( y) =

 

1

 

×

 

 

 

(2p)2 c4tk −1(tk - tk −1)

 

 

 

 

56

æ

 

× ò

ç

-

expç

−∞

è

 

2

−1

- 2tk −1xk −1(y + xk

 

−1) + tk −1

( y + xk −1)

2

ö

 

tk xk

 

 

÷

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

÷dxk −1

=

 

 

 

 

2c

2

tk −1(tk

 

- tk −1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ø

 

 

 

 

 

1

 

 

 

æ

 

 

 

 

 

y2

ö

 

 

 

 

=

 

 

 

 

 

 

 

 

expç

-

 

 

 

 

 

÷

×

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

2c2 (tk - tk −1)

ç

 

 

 

2c

(tk

 

÷

 

 

 

 

 

 

 

è

 

 

 

 

- tk −1) ø

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

×

 

 

ò

exp(-

 

 

xk −1

)dxk −1 .

 

 

 

 

 

 

 

 

2c2tk −1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2pc2tk −1 −∞

 

 

 

 

 

 

 

 

 

 

 

Поскольку в последнем выражении по свойству нормировки для гауссовской плотности ве-

роятности имеем равенство

 

1

 

æ

 

 

2

−1

ö

 

 

 

 

ç

 

xk

÷

 

 

 

 

ò

expç

-

 

 

 

 

÷dxk −1

=1,

 

 

 

2c

2

tk −1

 

 

 

2pc2tk −1 −∞

è

 

 

ø

 

то плотность вероятности приращения определяется формулой:

 

 

 

 

1

æ

 

 

 

( y2 )

ö

f

zk

(y) =

 

 

 

expç

-

 

 

 

÷ .

 

 

 

 

2

 

 

 

 

2pc2 (tk - tk −1)

ç

 

2c

 

÷

 

 

 

 

è

 

 

(tk - tk −1) ø

Винеровский процесс как процесс с независимыми приращениями является Марковским процессом с плотностью вероятности перехода

 

 

 

 

 

 

 

 

 

 

 

 

1

 

æ

 

(x

k

- x

k −1

)2 ö

 

f

ξ

(x

k

,t

k

/ x

k −1

,t

k −1

) =

 

 

 

expç

-

 

 

 

 

÷ .

(7.23)

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

2pc2 (tk

- tk −1)

ç

 

2c

(tk - tk

÷

 

 

 

 

 

 

 

 

 

 

 

 

 

è

 

 

 

−1) ø

 

Это следует из теоремы 7.3 и формулы (7.22).

Наконец, n -мерная плотность вероятности (7.21) согласно теореме 7.2 может быть пред- ставлена в виде (7.14) с использованием плотности вероятности приращения (7.22).

Винеровский процесс находит применение при построении математических моделей про- цессов, протекающих в системах управления при случайных воздействиях.

57

8. ПОТОКИ ТРЕБОВАНИЙ В СИСТЕМАХ МАССОВОГО ОБСЛУЖИВАНИЯ

8.1. Определение простейшего (Пуассоновского) потока

Первичным понятием теории массового обслуживания является понятие потока требова- ний, поступающих в систему массового обслуживания (СМО). Так, на телефонную станцию в случайные моменты времени поступают вызовы, к кассовому аппарату супермаркета под- ходят в случайные моменты времени покупатели и т.д. С точки зрения специалиста по тео-

рии вероятностей поток требований представляет собой случайный процесс с дискретным множеством состояний и непрерывным временем и может изучаться на основе общей теории случайных процессов. Такой подход будет изложен в разделе 9. Однако исторически потоки требований первоначально изучались как дискретные случайные величины количества требований, поступающих в СМО в различные отрезки времени. В силу случайности момен- тов поступления требований отрезки времени между соседними требованиями непрерывны- ми случайными величинами. В данном разделе мы рассмотрим этот подход, рассматриваю-

щий случайные количества требований в различные отрезки времени и случайные отрезки времени между соседними требованиями.

Потоком однородных событий (требований) называется конечная или счетная последова- тельность τn случайных величин, определенная на одном и том же вероятностном про- странстве, при условии, что в любой фиксированный интервал времени (a,b) с вероятно-

стью 1 попадает конечное число этих величин.

Если фиксированный момент времени t совпадает сразу с r элементами последователь- ности τn , то будем говорить, что в момент t происходит r событий потока.

Если τn ≤ τn+1 два упорядоченных элемента последовательности, то будем говорить, что в полуинтервале n n+1) происходит одно событие τn .

Поток требований в СМО называется простейшим, если он обладает свойствами стацио-

нарности, ординарности, отсутствия последействия.

Стационарность потока означает, что для любой группы из конечного числа n непере- секающихся отрезков времени вероятность появления в них соответственно k1,k2 ,...,kn требований зависит только от этих чисел и длин указанных промежутков времени, но не за- висит от их расположения на оси времени. В частности, вероятность pk появления k требо- ваний на отрезке [T,T + t] не зависит от T и является функцией только k и t :

pk = pk (k,t) .

Ординарность потока означает практическую невозможность появления двух или более требований в один и тот же момент времени. В математической форме ординарность запи- сывается следующим образом:

 

p>1(h)

→ 0,

 

 

h

 

 

h→0

 

или, иначе,

 

 

 

p>1(h) = o(h) ,

(8.1)

где p>1(h) вероятность появления на отрезке длиной h двух и более требований. Отсюда

сразу следует, что для простейшего потока

p>1(0) = 0 . (8.2)

Отсутствие последействия состоит в том, что вероятность поступления k требований в течение отрезка времени [T,T + t] не зависит от того, сколько требований и как поступали

58

до этого отрезка. Иначе говоря, количества требований (случайные величины), поступающие в непересекающиеся отрезки времени, независимы в совокупности.

8.2. Свойства простейшего потока

Изучим свойства простейшего потока, вытекающие из его определения.

Будем обозначать pk (h) вероятность появления ровно k требований на отрезке времени

длиной h .

 

 

Прежде всего докажем, что для простейшего потока

 

 

p1(h)

® l ,

 

 

h

 

 

h→0

 

или, иначе,

 

 

 

p1(h) = λh + o(h) ,

(8.3)

где λ = const . Это значит, что вероятность поступления ровно одного требования на отрез- ке времени длиной h пропорциональна длине этого отрезка. Из (8.3) следует, что

p1(0) = 0 . (8.4)

Величина λ в выражении (8.3) называется параметром простейшего потока. Физический смысл этого параметра будет выяснен в разделе 8.5.

Для доказательства рассмотрим отрезок времени длиной 1 и обозначим p0 (1) вероят-

ность того, что на этом отрезке не поступит ни одного требования. Разобьем этот единичный отрезок на n равных частей с длиной каждого 1/ n . В силу стационарности вероятности от- сутствия требований на этих частичных отрезках одни и те же и равны p0 (1/ n) , а в силу

отсутствия последействия по теореме умножения вероятностей для независимых событий

p0 (1) = [p0 (1/ n)]n .

Отсюда

p0 (1/ n) = [p0 (1)]1/ n .

Опять из условия отсутствия последействия вероятность отсутствия требований на отрезке времени k / n равна

p0 (k / n) = [p0 (1)]k / n .

В последнем выражении длина отрезка времени рациональное число k / n . Можно распро- странить это выражение на отрезок любой действительной длины t . Действительно, для лю- бого неотрицательного действительного числа t можно указать такое целое число k , что при заданном n будет выполняться неравенство

 

 

 

 

 

 

k −1

£ t £

k

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

n

 

 

 

 

Так как p0 (t) есть невозрастающая функция, то

 

 

 

 

 

 

 

 

 

æ k -1

ö

 

 

k −1

 

 

 

k

 

æ k ö

 

 

 

 

 

 

 

 

 

 

 

p0

ç

 

 

÷

= [p0 (1)]

n £ p0

(t) £ [p0 (1)]n

= p0

ç

 

÷,

 

 

 

 

è n

ø

 

 

 

 

 

 

 

 

 

 

è n ø

т.е.

[p0 (1)]kn−1 £ p0 (t) £ [p0 (1)]kn .

Пусть n → ∞ . Тогда

59

lim

k −1

= lim

k

= t

 

n

 

 

 

n→∞

n→∞ n

 

 

и

 

 

p0 (t) = [p0 (1)]t .

 

 

 

 

(8.5)

Итак, для любого действительного неотрицательного t выполняется равенство (8.5). Так как

должно быть

0 ≤ p0 (t) ≤ 1,

т.е.

0 ≤ [p0 (1)]t

 

 

 

≤ 1,

 

то нетривиальный случай

будет тогда, когда

p0 (1) = e−λ , l = const , l ³ 0 .

Случаи

p0 (1) = 0 , p0 (1) = 1 малоинтересны.

 

 

Таким образом, мы нашли, что для простейшего потока

 

Представляя функцию e−λt

p0 (t) = e−λt .

(8.6)

рядом Тейлора в окрестности точки t = 0, получим

 

 

p0 (t) =1 − λt + o(t) ,

(8.7)

 

p0 (0) =1.

(8.8)

Поскольку при любых t

p0 (t) + p1(t) + p>1(t) =1,

то при малых t с учетом условия ординарности (8.1) получаем

1 − λt + o(t) + p1(t) + o(t) = 1,

откуда следует (8.3).

Итак, мы доказали свойство (8.3). Кроме того, мы получили выражение (8.6), определяю- щее вероятность отсутствия требований на отрезке времени длиной t . Выражение (8.6) оп- ределяет также вероятность того, что случайный отрезок времени ξ между соседними тре-

бованиями простейшего потока будет не меньше t (см. рисунок):

P(x ³ t) = p0 (t) = e−λt .

Тогда

 

 

P(ξ < t) = F (t) =1 − e−λt

,

(8.9)

ξ

 

 

а это есть функция распределения случайного отрезка времени ξ между соседними требова- ниями простейшего потока. Плотность вероятности этого распределения равна

f

ξ

(t) =

d

F (t) = λe−λt .

(8.10)

dt

 

 

ξ

 

Распределение вида (8.9), (8.10) называется экспоненциальным, т.е. отрезок времени ξ меж-

ду соседними требованиями простейшего потока является случайной величиной, распреде- ленной по экспоненциальному закону (8.9). Экспоненциальное распределение символически обозначается как E(λ) .

60

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]