Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Tom_2

.pdf
Скачиваний:
59
Добавлен:
18.02.2016
Размер:
3.2 Mб
Скачать

Отметим еще одно важное свойство корреляционной функции:

KX (τ ) ≤ KX (0) .

 

 

 

 

 

 

 

 

 

 

Оно вытекает из неравенства (1.7)

 

 

 

 

 

 

 

 

KX (τ ) ≤

DX (t2 )DX (t1) = KX (0).

 

 

 

Таким образом,

корреляционная

функция KX (τ )

при

τ = 0

имеет максимум. Типичный график корреляционной функции

стационарной случайной функции представлен на рис. 1.

 

 

 

 

 

 

 

 

KX (τ )

 

 

 

 

 

 

 

 

 

 

DX

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

τ

 

 

 

 

 

 

Рис. 1

 

 

 

 

 

 

 

Очень часто вместо корреляционной функции используется

нормированная корреляционная функция rX (τ ) :

 

 

 

 

 

 

 

rX (τ ) =

KX (τ )

=

KX (τ )

.

 

 

 

 

 

 

 

DX

KX (0)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 1. Случайная функция задается каноническим

разложением X (t) = t +V1 cosωt +V2 sinωt , где

V1 и V2 случайные

некоррелированные величины с математическими ожиданиями,

равными нулю,

и дисперсиями DX1 = DX2 = 2 . Определить, будет ли

эта случайная функция стационарной.

 

 

 

 

 

 

 

Решение.

Математическое

ожидание

X (t) равно t.

Корреляционная функция, согласно формуле (2.10), равна

 

 

KX (t1,t2 ) = 2(cosωt1 cosωt2 + sinωt1 sinωt2 ) = 2cos (ω (t2 t1 )),

т.е. зависит от разности t2 t1 .

 

 

 

 

 

 

 

 

Вывод: случайная функция X(t) не является стационарной, т.к

mX (t) –

переменная

величина.

Однако

 

легко

видеть,

что

 

 

 

 

 

0

 

 

 

 

 

центрированная случайная функция X (t) будет стационарной.

20. Каноническое разложение стационарной случайной

функции. Пусть имеем стационарную случайную функцию X(t) на

414

интервале (0;T ) и корреляционную функцию

KX (τ ) этой функции.

Переменная τ = t2 t1

будет меняться на интервале (−T;T ) . Так как

KX (τ ) – четная, то она может быть разложена на этом интервале в

ряд Фурье по косинусам:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

KX (τ ) = å Dk cosωkτ ,

 

(1)

где

 

 

 

 

 

 

 

k=0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ω =

π k

;

D =

1

T K

 

(τ )dτ ,

D =

2

T K

 

(τ )cosω τ dτ , k = 1,2,...

 

T

 

T

 

k

T

0

ò

X

 

k

ò

X

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

0

 

 

 

 

Подставим в (1) вместо τ

его значение t2 t1 . С учетом того, что

cosωkτ = cosωk (t2 t1) = cosωk t2 cosωk t1 + sinωk t2 sinωk t1 ,

 

получим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

KX (t1,t2 ) = å Dk (cosωk t1 cosωk t2 + sinωk t1 sinωk t2 ) .

(2)

k=0

Выражение (2) является каноническим разложением вида (2.10) корреляционной функции случайной функции X (t) . Ввиду теоремы 2.2,

можно записать каноническое разложение случайной функции X (t) :

 

 

X (t) = mX

+ å(Uk cosωkt +Vk sinωkt) ,

(3)

где Uk и Vk – взаимно

k=0

 

некоррелированные случайные

величины

с математическими ожиданиями, равными нулю, и дисперсиями

D(Uk ) = D(Vk ) = Dk .

Каноническое разложение (3), в котором координатными функциями являются sinωkt и cosωk t , называется спектральным

разложением. Из выражения (3) следует, что спектральное разложение (3) есть стационарная случайная функция, разложенная на гармонические колебания различных частот: ω1, ω2 ,..., ωk ,..., причем амплитуды этих колебаний являются

случайными величинами.

Используя (1), найдем дисперсию случайной функции, заданной спектральным разложением (3):

DX = DX (t) = KX (0) = å Dk .

k=0

Значит, дисперсия стационарной случайной функции равна сумме дисперсий всех гармоник ее спектрального разложения и распределена определенным образом по различным частотам, т.е.

415

образует дискретный спектр. Графически это можно показать следующим образом. По оси абсцисс будем откладывать частоты, а по оси ординат соответствующие дисперсии (рис.2).

Если корреляционная функция KX (τ ), τ , не является

периодической, то разложение (1), а, значит, и (3) уже невозможно. Поэтому стационарный случайный процесс X (t), t (0;+∞) , не является

процессом с дискретным спектром.

Обобщим идею спектрального разложения на случай, когда функция X(t) определена на (0;+∞) , т.е. при T → +∞ , через

распределение дисперсии по частотам непрерывного спектра.

 

 

На рис. 2 показан дискретный спектр дисперсий в виде ряда

Dk

 

 

 

 

 

 

 

 

отдельных линий, разделенных

 

 

 

 

 

 

 

 

р а в н ы м и п р о м е ж у т к а м и .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Очевидно, что чем больший

 

 

 

 

 

 

 

 

 

 

Dk

 

 

 

 

 

 

 

 

 

и н т е р в а л в р е м е н и б у д е м

 

 

 

 

 

 

 

 

 

D1

 

 

 

 

 

 

 

 

 

рассматривать, тем полней будут

D0

 

 

 

 

 

 

 

 

сведения о случайной функции.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рассмотрим

спектральное

ω0 ω1

 

ωk

 

ωk

 

 

разложение

на

произвольном

 

 

 

 

 

Рис. 2

 

 

участке

k k+1) ,

тогда

 

 

π (k +1)

π k =

π

 

ω =

. Отсюда видно, что если T → ∞ , то

ω → 0 .

 

 

 

T

 

T

T

 

 

 

 

 

При этом дискретный спектр будет стремиться к непрерывному, в

котором каждому как угодно малому интервалу частот

k k+1)

будет соответствовать элементарная дисперсия.

 

Опишем распределение дисперсии по частотам непрерывного

спектра.

 

Введем отношение

 

 

 

X k ) =

Dk

,

(4)

S

 

 

 

 

 

ω

 

характеризующее среднюю плотность дисперсии на интервале частот

k k+1) .

 

 

 

n

n

Отсюда Dk =

 

X k )

ω, å Dk

= å

 

X k ) ω , и, переходя к

S

S

 

 

 

k=0

k=0

пределу при n → ∞ (T → ∞,

ω → 0) , получаем

DX = ò SX (ω)dω .

0

416

Функция

SX (ω)

 

 

есть

 

предел

ступенчатой

 

функции

SX (ω) = S X k ) , ω Îk k+1) , когда T ® ¥ .

 

 

 

 

 

Функция SX (ω) называется спектральной

плотностью

стационарной случайной функции

 

X (t) .

Таким образом,

получили

еще одну характеристику стационарной случайной функции –

спектральную плотность, описывающую частотный состав

стационарного процесса. Спектральная плотность SX (ω) ,

ω ³ 0 , задает

распределение дисперсии

DX стационарной случайной функции

X (t)

по частотам непрерывного спектра (рис. 3).

 

 

 

 

 

 

Выразим спектральную плотность через корреляционную функцию.

Подставим в (1) вместо Dk

его значение SX k )Dω из (4):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

KX (τ ) = å SX k )cosωkτ × Dω.

 

 

 

 

(5)

 

 

 

 

 

 

k=0

 

 

 

 

 

 

 

π

 

 

 

 

 

 

 

 

 

 

 

 

 

æ

 

 

 

ö

Переходя в выражении (5) к пределу при T ® ¥ ç Dω =

T

® 0÷ ,

будем иметь

 

 

 

 

 

 

 

 

 

 

è

 

 

 

ø

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

KX (τ ) = lim å SX k )cosωkτ ×Dω = ò SX (ω)cosωτ dω.

 

(6)

 

T →∞ k=0

 

 

T KX

 

 

 

 

0

 

 

 

 

 

Ввиду (4),

SX k ) =

2

(τ )cosωkτ dτ × 1 ,k ¹ 0. Отсюда

 

 

 

 

 

 

T

ò

 

 

 

 

Dω

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

S

X

k

) = 2 T

K

X

(τ )cosω τ dτ.

 

 

 

 

(7)

 

 

 

 

π ò

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

При T ® ¥ из формулы (7) получаем

 

 

 

 

 

SX (ω)

 

 

SX (ω)dω

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

элементарная

дисперсия,

 

 

 

соответствующая

 

элементарному

 

участку

 

 

 

непрерывного спектра (ω;ω + dω)

 

 

 

 

 

ω ω+dω

 

 

 

 

ω

 

 

 

 

 

 

 

 

 

 

Рис. 3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

417

SX (ω) =

2

KX (τ )cosωτ dτ .

(8)

π

 

ò

 

 

 

0

 

Выражения (6) и (8) показывают, что функции KX (τ ) и SX (ω)

выражаются взаимно одна через другую. Причем, в силу (8),

S X (ω)

определена, как и KX (τ ) , на всей числовой оси: S(−ω) = S(ω) , ω ³ 0 , четным образом.

Упражнение 1. Обосновать формулы (6), (8), используя взаимно обратные косинус-преобразования Фурье и считая KX (τ ) абсолютно

интегрируемой на полуоси [0;).

Если разделить спектральную плотность SX (ω) на дисперсию DX ,

то получим нормированную спектральную плотность ρX (ω) :

 

ρX (ω) =

SX (ω)

.

 

 

 

 

 

 

 

DX

Разделим левые и правые части выражений (6), (8) на DX и получим

 

 

 

 

 

 

rX (τ ) = ò ρX (ω)cosωτ dω,

 

0

 

 

 

(9)

 

 

 

 

 

ρ (ω) =

2

r (τ )cosωτ dτ.

π

X

 

ò

X

 

 

 

 

 

 

 

 

 

 

0

 

 

 

Это значит, что нормированная спектральная плотность ρX (ω) выражается через нормированную корреляционную функцию rX (τ ) и

наоборот.

Пример 2. Найти корреляционную функцию стационарной ф у н к ц и и Х ( t ) , з н а я е е с п е к т р а л ь н у ю п л о т н о с т ь

ì

DX

,

 

ω

 

 

< ω ,

 

 

 

 

ï

ω0

 

 

 

 

 

0

SX (ω) = í

 

 

 

 

 

 

ï0,

 

 

ω

 

³ ω .

 

 

 

î

 

 

 

 

0

Решение. Отметим, что случайный процесс Х (t) с указанной спектральной плотностью называют низкочастотным белым шумом.

По формуле (6) имеем

DX

ω0

sinω0τ

 

KX (τ ) = ò SX (ω)cosωτ dω =

ò cosωτ dω = DX

.

ω

ω τ

0

0

0

0

 

 

§ 4. Марковские процессы

418

Марковским процессом, протекающим в физической системе, называется такой случайный процесс X(t), при котором для каждого момента времени вероятность любого состояния системы в будущем зависит только от состояния системы в данный момент и не зависит от того, каким образом система пришла в это состояние.

10. Марковский процесс с дискретными состояниями.

Марковский процесс называется процессом с дискретными состояниями, когда множество различных фазовых состояний системы конечно или счетно.

Когда переходы системы из состояния в состояние возможны только в фиксированные моменты времени t1,t2 ,..., то марковский

процесс X(t) называется процессом с дискретным временем или цепью Маркова. Когда же переходы системы из состояния в состояние возможны в любые случайные моменты времени t, то марковский процесс называется процессом с непрерывным временем.

Например, по оси абсцисс случайным образом перемещается точка X. В момент времени t = 0 точка находится в начале координат (x = 0) и остается там на протяжении 1 секунды. Через секунду

бросается монета: если выпал герб – точка X смещается на единицу длины вправо, если надпись – влево. Через секунду монета бросается снова и делается такое же перемещение точки X и т.д. Процесс изменения состояния X(t) точки представляет собой марковский процесс с дискретным временем (t = 0,1,2,...) (цепь Маркова) и

счетным множеством состояний (x0 = 0; x1 =1; x2 = −1;...) .

Пусть имеем физическую систему S, которая может находиться в различных фазовых состояниях: A1, A2 ,..., An , причем переходы системы из состояния в состояние возможны только в моменты времени t1,t2 ,...,tm . Будем называть эти моменты шагами процесса и

рассматривать марковский случайный процесс, который происходит в системе S, как функцию целочисленного аргумента 1,2,..., m (номера

шага). Тогда X(m) будет определять состояние системы S через m шагов цепи Маркова.

Обозначим Aik – событие, заключающееся в том, что на k-м шаге

система находится в состоянии Ai . Для любого k события Aik , i = 1,n ,

образуют полную группу событий, так как в процессе эксперимента система S обязательно займет одно из названных состояний. Цепи Маркова с дискретными состояниями принято описывать посредством переходных вероятностей.

Допустим, что после (m −1) -го шага система S оказалась в состоянии Aj . Каждой паре состояний (Aj , Ak ) поставим в

419

соответствие условную вероятность Pjkm = P(Akm / Amj −1 ) перехода на m-м шаге из состояния Aj в состояние Ak , называемую переходной в е р о я т н о с т ь ю .

20. Однородная цепь Маркова. Равенство Маркова. Марковская цепь называется однородной, если переходные вероятности не зависят

от номера шага: Pjki = Pjk . В противоположном случае она называется

неоднородной. Когда для каждого состояния физической системы S известна вероятность перехода в любое другое состояние за один шаг, то переходные вероятности Pij записывают в виде матрицы

 

éP11

P12

.

P1n ù

 

 

êP

P

.

P

ú

,

P = ê 21

22

 

2n ú

1

ê

.

.

.

ú

 

 

ê .

ú

 

 

êP

P

.

P

ú

 

 

ë n1

n2

 

nn û

 

которая называется матрицей перехода. Так как в каждой строке матрицы находятся вероятности всех возможных переходов из выбранного состояния, т.е. образующие полную группу событий, то

n

åPij = 1, i =1, 2, ..., n .

j=1

Если сумма элементов каждого столбца также равна единице, то матрица перехода называется двойной стохастической. Как видим, на главной диагонали переходной матрицы P1 находятся вероятности

Pii , которые соответствуют ситуации, когда система не выходит из состояния Ai .

Рассмотрим следующую задачу. Найти переходные вероятности Pij (m) перехода системы из состояния Ai за m шагов в состояние Aj ,

когда вероятности Pij известны. Для этого введем промежуточное (между Ai и Aj ) состояние Ar . Будем считать, что из первоначального состояния Ai за k шагов система перейдет в промежуточное состояние Ar с вероятностью Pir (k) , после чего за остальные m k шагов из промежуточного состояния Ar она перейдет в окончательное состояние Aj с вероятностью Prj (m - k) . Тогда, согласно формуле полной вероятности, вероятность Pij (m) будет равна

420

n

 

Pij (m) = åPir (k)Prj (m - k) .

(1)

r=1

 

Это равенство Маркова.

 

Докажем, что, зная все переходные вероятности Pij = Pij (1) , т.е. матрицу P1 перехода из состояния в состояние за один шаг, можно найти вероятности Pij (2) перехода из состояния в состояние за два шага, т.е. матрицу перехода P2 . По известной матрице P2 можно найти матрицу P3 перехода из состояния в состояние за три шага и т.д.

Действительно, пусть m = 2 ,

 

k = 1, тогда из равенства Маркова (1)

получим

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pij (2) = åPir (1)Prj (1)

 

 

 

 

 

или

 

 

 

 

r=1

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pij (2) = åPir Prj .

 

 

 

 

(2)

 

 

 

 

 

 

 

r=1

 

 

 

 

 

 

По формуле (2) можно найти все вероятности Pij (2) , а значит, и

саму матрицу P2 . Запишем формулу (2) в матричном виде:

 

 

 

 

 

P = P P = P2 .

 

 

 

 

 

 

 

 

2

 

1

1

1

 

 

 

 

 

При m = 3 ,

k = 1 аналогично получим P = P P = P3

. В общем

случае

 

 

 

 

 

 

 

3

1

2

1

 

 

 

 

 

 

P = Pn .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(3)

 

 

 

 

 

n

 

1

 

 

 

 

 

 

Пример 1.

Найти матрицу перехода P2 , если P1

æ

0,3

0,7ö

= ç

0,4

÷ .

Решение. Согласно формуле (3)

 

 

 

è

0,6ø

 

 

 

 

 

 

æ 0,3

0,7öæ 0,3

0,7

ö

æ

0,37

0,63ö

 

 

 

 

P2 = P12 = ç

 

֍

0,6

÷

= ç

0,36

÷ .

 

 

 

 

è0,4

0,6øè0,4

ø

è

0,64ø

 

 

 

 

 

30. Вероятности состояний цепи Маркова. Для описания случайного процесса, протекающего в цепи Маркова с дискретными

состояниями A1, A2 ,..., An ,

часто пользуются вероятностями

P1(k), P2 (k),...., Pn (k) , где Pi (k)

(k =1, 2, ..., m) – вероятность того, что

на k-м шаге система S будет находиться в состоянии Ai . Вероятности

421

n

Pi (k) удовлетворяют условию åPi (k) =1, так как кроме Ai , i =1, n ,

i=1

другие состояния невозможны.

Вероятности Pi (k) называются вероятностями состояний цепи Маркова. Распределение вероятностей состояний в начале процесса (на нулевом шаге) P(0) = (P1(0), P2 (0),..., Pn (0)) называется начальным распределением вероятностей цепи Маркова. Зная P(0) и матрицу перехода P1 в однородной цепи Маркова, можно найти P(1) = (P1(1),..., Pn (1)) :

n

 

 

 

 

Pi (1) = åPj (0)Pji , i =

1,n

, или в матричной форме

 

j=1

 

 

 

 

В общем случае

P(1) = P(0)P1 .

(4)

 

 

 

 

n

n

 

Pi (m) = åPj (0)Pji (m) = åPj (m -1)Pji , i =

1,n

, m = 1,2,...

 

j=1

j=1

 

В матричной форме эти равенства запишутся так:

 

P(m) = P(0)Pm

или P(m) = P(m -1)P1 , m = 1,2,... ,

(5)

где P(s) = (P1(s),..., Pn (s)) – вероятности состояний после s-го шага.

Пример 2. В результате проверки техническая система S (ЭВМ, станок, регулятор, транспортное средство и т.д.) может оказаться в одном из следующих состояний: 1) система полностью исправна; 2) система имеет незначительные неисправности, не препятствующие ее функционированию; 3) система имеет существенные неисправности, ограничивающие круг посильных ей задач; 4) система не работает.

В начальный момент t = 0

система полностью исправна. Система S

проверяется в моменты t1,t2 ,t3 .

Определить вероятность

P4 (3) того,

что после трех проверок система S не работает, если матрица

переходных вероятностей такова:

 

 

 

 

 

æ0,3

0,4

0,1

0,2

ö

 

 

ç

0

0,2

0,5

0,3

÷

 

P =

ç

÷ .

 

1

ç

0

0

0,4

0,6

÷

 

 

ç

0

0

0

1

÷

 

 

è

ø

марковский

Решение. Считаем, что процесс проверки системы

(однородная цепь). Тогда, по формулам (4), (5), получаем

 

422

P(1) = P(0)P1 = (1; 0; 0; 0) × P1 = (0,3; 0,4; 0,1; 0,2), P(2) = P(1)P1 = (0,09; 0,2; 0,27; 0,44),

P(3) = P(2)P1 = (0,027; 0,076; 0,217; 0,68). Значит, P4 (3) = 0,68.

40. Понятие об эргодичности. На практике, когда процесс в системе S протекает достаточно долго, возникает вопрос о предельном распределении вероятностей Pi (m) при m → ∞ . Если существуют

пределы p = lim

P (m), i =

1,n

, не зависящие от начального

i

m→∞

i

распределения вероятности P(0) , то для системы S существует

предельный стационарный режим. Другими словами, система переходит из состояния в состояние, но вероятности состояний

pi = P( Ai ), i = 1, n , практически не меняются. Эти вероятности

можно понимать как среднее относительное время пребывания с и с т е м ы в i - м с о с т о я н и и .

Система, для которой существуют положительные предельные вероятности, называется эргодической, а случайный процесс –

эргодическим.

Теорема 1 (эргодическая теорема). Если в однородной цепи Маркова при некотором k все Pij (k) > 0 , то существуют предельные

вероятности p = lim P (m), i =

1, n

, не зависящие от начальных

i

m→∞ i

 

 

 

 

 

 

вероятностей P(0) и являющиеся единственным решением системы

линейных уравнений:

 

 

 

 

 

 

 

n

 

 

 

 

n

 

pi

= å pj Pji , pi > 0,

 

i =

1,n

;

å pi =1.

(6)

 

j=1

 

 

 

 

i=1

 

Систему (6) можно записать в матричной форме:

 

 

 

 

n

 

 

 

p = p × P1,

å pi = 1,

 

(6’)

где p = ( p1,..., pn )

 

 

i=1

 

 

– стационарное распределение вероятностей.

Равенства (6), (6’) получаются предельным переходом из (5), когда m → ∞ .

Задания для самостоятельной работы

1.Найти математическое ожидание, дисперсию и корреляционную

функцию случайной функции

X (t) = ξ sin t +ν cost , где ξ, ν

некоррелированные случайные

величины, такие что Mξ =

2 ,

Mν = 3 , Dξ = Dν = 5 .

 

 

423

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]