Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

2003_-_Gmurman__TV_i_MS

.pdf
Скачиваний:
19
Добавлен:
27.03.2015
Размер:
16.8 Mб
Скачать

ная вероятность того, что в седьмом испытании насту­

пит событие А4, не зависит от того, какие события поя­

вились в первом, втором, ... , пятом испытаltиях.

Заметим, что независимые испытания являются част­

ным случаем цепи Маркова. Действительно, если испы­

тания независимы, от появление некоторого определенного

события в любом испытании не зависит от результатов

ранее произведенных испытаний. Отсюда следует, что

понятие цепи Маркова является обобщением понятия

независимых испытаний.

Далее используется терминология, которая принята

при изложении цепей Маркова. Пусть некоторая система

в каждый момент времени находится в одном из k состоя­

ний: первом, втором, ... , k-M. В отдельные моменты

времени в результате испытания состояние системы изме­ няется, т. е. система переходит из одного состояния.

например

{. в другое, например '.

В

частности. ПОCJIе

испытания

система

может остаться

в

том же состоянии

(<<перейти)

из сосroяния i в состояние

j = {).

Таким

образом,

события называют

состояниями си­

стемы, а испытания -изменениями ее состояний.

Дадим теперь определение цепи Маркова. используя

новую терминологию.

Цепью Маркова называют последовательность испы­

таний, в каждом из которых система принимает только

одно из k состояний полной группы, причем условная

вероятltость Ро (5) того, что В 5-М испытании система

будет находиться в состоянии " при условии. что после

(5-1)-го испытания она находилась в состоянии {. не

зависит от результатов остальных. ранее произведенных

испытаний.

Цепью Маркова с диcKpeтНblM временем называют

цепь. изменение состояний которой происходит в опре­

деленные Ф и к с и р о в а н н ы е моменты времени.

Цепью Маркова с непрерывным временем называют

цепь. изменение состояний которой происходит в любые с л у чай н ы е возможные моменты времени.

§ 2. Однородная цепь Маркова. Переходные

вероятности. h\aтрица перехода

Однородной называют цепь Маркова, если услов­

ная вероятность РU (s) (перехода из состояния i в состоя­ ние j) не зависит от номера испытания. Позтому вместо

Plj (5) пишут просто PIJ'

381

Пример.

Сл У ч а А н о е

б Л У ж д а н н е.

Пусть

на

прямой Ох

в точке с цt>лочисленноА координатой

= n находится материальная

частица. В

определенные

моменты

времени

t1 tl ,

t ••

'" частица

испытывает ТOJIчки. Под действием толчка частица с вероятностью р

смещается на единицу вправо и с вероятностью 1- р- иа единицу

влево. Ясно, что полоЖение (координата) частицы ПОСЛf' толчка зави­

сит от того, где находилась частица после непосредственно предшест­

вующего толчка, и не зависит от того, как она двигалась под деЙст·

вием остальных предшествующих толчков.

Таким образом, случайное блуждание - пример однородной цепи Маркова с дискретным временем.

далее ограничимся элементами теории конечных одно­

родных цепей Маркова.

Переходной вероятностью Рlj называют условную

вероятность того, что из состояния i (в котором система оказалась в результате некоторого испытания. безраз­ ЛИЧНО какого номера) в итоге следующего испытания система перейдет в состояние i.

Такнм образом, в обозначении Pi/ первый индекс ука­ зывает номер предшествующего, а второй-номер после­

дующего состояния. Например, Рll-вероятность «пере­

хода» из первого состояния в первое; Р28 - ьероятltость

перехода из второго состояния в третье.

Пусть число состояний конечно и равно k. Матрицей nерехода системы называют матрицу, ко­

торая содержит все переходные вероятности этой сис­

темы:

 

Рll

Р1.

• •

Рllе

 

fJS 1'=

Pll

P11

•••

Р.II

 

.

.

 

PII1

PII1

• •

PIIII

 

Так как в каждой строке матрицы помещены вероят­

ностн соБЫТИЙ (перехода ИЗ одного и

того же состояния

i в любое возможное состояние Л, которые образуют

ПОЛНУЮ группу. то сумма вероятностей этих событий

равна единице. Другими словами. сумма переходных

вероятностей каждой строки матрицы перехода равна

единице:

11

~ РIj = 1 (1 = 1. 2•...• k).

1=I

382

Приведем пример матрицы перехода системы, которак

может находиться в трех состояниях:

 

 

 

0,5

0,2

0'3)

 

 

5'1= (

 

 

 

 

 

0,4

0,5

0,1 .

 

 

 

0,6

0,3

0,1

Здесь

Рll = О,5-вероятность

перехода из состояния

i = 1 в

это

же состояние

i =

1;

Р21 = 0,4 - вероятность

перехода

из

состояния

i = 2

в

состояние j = 1. Анало­

гичный смысл имеют остальные элементы матрицы.

§ 3. Равенство Маркова

Обозначим через P ij (n) вероятность того, что

в результате n шагов (испытаний) система перейдет из

состояния i в состояние j. Например, Рi6 (10)-вероят­

ность перехода за 1О шагов из второго состояния в пятое.

Подчеркнем, что при n = 1 получим переходные веро­

ятности

РiI (l)=Ри'

Поставим перед собой задачу: зиая переходные веро­

ятности Pij'

найти вероятности

Рij (n) перехода системы

из состояния

i в состояние j за

n шагов. С этой целью

введем в рассмотрение промежуточное (между i и j)

состояние г. Другими словами, будем считать, что из

первоначального состояния i за т шагов система перей­

дет в промежуточное состояние r с вероятностью Рir (т),

после чего за оставшиеся n-т шагов из промежуточного

СОСТОЯНИЯ r она перейдет 8 конечное состояние i с веро­

ятностью Prj (n-т).

По формуле полной вероятности,

k

Ри (n) = ~ Р{Т (т) РТ! (n-т).

r =1

Эту формулу называют равенством Маркова.

П о я с н: е н и е. Введем обозltачения: А -интересую­ щее нас событие (за n шагов система перейдет из началь­

ного состояния i в конечное СОСТQяltие п, следовательно,

Р (А) = P ij (n); ВТ (г = 1, 2, ... , k) --гипотезы (за т шагов

система перейдет из первоначального состояния i в про­

межуточное состояние г), следовательно, Р (Вт) = Р/, (т);

з83

Рв, (А) -условная вероятность наступления А при усло·

вии, что имела место гипотеза В, (за n-m шагов СJI('тема

перейдет из промежуточного состояния r в конечное

состояние О, следовательно, Рв,(А)=Ргj(n-m).

По формуле полной вероятности,

k

р (А) = ~ р (В,) РВГ (А),

г=1

или в принятых нами обозначениях

k

Pij(n) = ~ Рiг(m)Ргj(n-m),

,= 1

что совпадает с формулой (*) Маркова.

Покажем, что. зная все перехоДные вероятности Ри=

=Pij(l), т. е. зная

матрицу :'Р1 перехода

из состояния

в состояние за один

шаг, можно найти вероятности

P ij (2)

перехода из состояния в состояние за два

шага.

следо·

вательно, и саму матрицу перехода 5\; по известной

матрице :'р2 можно найти матрицу tP 3

перехода из состоя­

ния в состояние за 3 шага, и т. д.

 

 

действительно.

положив

n = 2,

т = 1

в равенстве

Маркова

 

 

 

 

 

 

 

k

 

 

 

Ри (n) =

~ P ir (т) Prj (n-m),

 

 

r

= 1

 

 

 

получим

 

 

 

 

 

 

 

k

 

 

 

Ри (2) =

~ P ir (1) P rj (2-1),

 

 

,=1

 

 

 

или

 

 

 

 

 

 

 

 

k

 

 

 

Pij

(2) =

~ PirPrj'

 

 

 

 

г= I

 

 

Таким образом, по формуле (**) можно найти все

вероятности Ри (2),

следовательно, и

саму

матрицу :'Р2

Поскольку непосредственное

использование формулы (**)

оказывается утомительным, а матричное исчисление ведет

к цели быстрее. ltапишем вытекающее из (**) соотноше­ ние в матричной форме:

~'1 = ~/f\ = ~r.

Положив n = З. т = 2 в (*), аналогично получим

~8 = ~1!Р" = 5'15'~ = 5'~.

В общем случае

 

 

 

 

 

fi' n = !P~.

 

 

 

 

 

 

Пример. Задаиа матрица

 

Q.I

(0,4

0,6)

Н'"

перехода .Г1 =

о,

3

0,7'

а..ти мат-

 

 

Рl1 (2)

Р12 (2»)

 

 

 

 

 

 

рицу перехода !Р" = (Р21 (2)

Р22 (2) .

 

 

 

 

 

 

Реш е н и е.

Воспользуемся формулой !Р2=

!P~:

 

 

 

 

-

(0,4

0,6)

(

0,4

0,6)

 

 

 

 

 

2 -

0,3

0,7

0,3

0,7

 

 

Перемиожив

матрицы,

окончательио получим

 

 

 

 

 

 

ON:I

=

(0.34

0.66)

 

 

 

 

 

 

 

 

.1'2

,о. 33

О•67 .

 

 

 

 

3аАВЧИ

 

 

 

 

 

 

 

 

 

 

1.

Задана матрица

перехода !Р1=

(g:~

g:~). Найти мат-

рицу перехода !Ра.

 

 

 

 

 

 

 

 

 

 

Q.I

(0.60

0.40)

 

 

 

 

 

 

 

 

Отв. 0/2=

0,35

0.65 .

 

 

 

 

 

 

 

2Задана матрица

 

 

ON:I

=

(0,1

0,9)

.

Н'"

 

перехода 0/-1

0,3

0,7

аnти матрицу

перехода !Ра.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,244

0,756)

 

 

 

 

 

 

 

Оmв. !Ра= ( 0,252

0,748 •

 

 

 

 

 

 

 

25 - 273()

ЧАСТЬ ПЯТАЯ

СЛУЧАЙНЫЕ ФУНКЦИИ

Глава двадцать третья

СЛУЧАЙНЫЕ ФVНКЦИИ

§ 1. Основные задачи

Можно выделить два основных вида задач, ре­ шение которых требует ИСПОЛЬ30Вания: теории случайных

функций.

Пр я м а я з а Д а ч а (анализ): заданы параметры неко­

торого устройства и его верояТностные характеристики (математические ожидания, КОрреляционные функции,

законы распределения) поступающей на его «вход» функ­

ции (сигнала, процесса); требуется определить характе­

ристики на «выходе» устройства (по ним судят о «каче­

стве» работы устройства).

О б р а т н а я

3 а Д а ч а

(синтез): заданы вероятностные

характеристики

«входной»

и «выходной» функций; тре­

буется спроектировать оптимальное устройство (найти его параметры), осуществляющее преобразование заданной

входной функции в такую ВЫХодную функцию, которая

имеет заданные характеристики. Решение этой задачи требует кроме аппарата случайных функций привлечения

и других дисциплин и в наСтоящей книге не рассматри­

вается.

§ 2. Определение случаАllоА функции

Случайной функцией называют функцию неслу­

чайного аргумента t, которая при каждом фиксированном

значении аргумента является случайной величиной. DIy-

чайные функции аргумента t обозначают прописнымн буквами Х и), у (t) и т. д.

Например, если И-случайная величина, то функция Х и) = tSИ -случайная. Действительно, при каждом фик-

386

сированном значении аргумента эта функция ЯВJlяется

случайной

величиной: при

11 = 2 получим

случайную

величину

Х! = 4и, при 12 =

1,5-случайную

величину

Х, = 2,25и

и т. д.

 

 

Для краткости дальнейшего изложення введем понятие

сечения.

Сечением случайной функции называют случайную

величину, соответствующую фиксированному значению

аргумента случайной функции. Например, для случайной

функции Х (t) =

t 2U.

приведеиной выше, при значениях

аргумента

11 = 2

и I ! =

1,5 были получены соответственно

случайные

величины

ХI = 4и и Х2 = 2.25и, которые и

являются

сечениями заданной случайной функции.

Итак.

с л у чай н у ю Ф у н к ц и ю м о ж н о р а с с м а т­

ривать

как совокупность случайных вели­

ч и н {Х (t)}, з а в и с я щ и х о т пар а м е т р а 1. Воз­

можно и другое нстолкование случайной функции, если

ввести понятие ее реализации.

Реализацией (траекторией. выборочной функцией) слу­

чайной функции Х (t) называют неслучайную функцию

аргумента t, равной которой может оказаться случайная

функция в результате испытания.

Таким образом, если в опыте наблюдают случайную

функцию, то в действительности наблюдают одну из воз­

можных ее реализацнй; очевидно, при повторении опыта

будет наблюдаться другая реализация.

Реализации функции Х (t) обозначают строчными бук­

вами Х! и), Х2 и) и т. д., где индекс указывает номер испытания. Например, если Х (/) = U sin t, где U -непре­

рывная случайная величина, которая в первом испытании

приняла

возможное

значение

и

! = 3, а во втором испы­

тании и2

= 4,6, то реализациями

Х и) являются

соответ­

ственно

неслучайные

функции

 

Х1 (/) = 3 sin t н

X 1 (t) =

= 4,6 sin t.

 

 

 

 

Итак, с л у чай н у ю Ф у н к Ц и ю м о ж н о р а с с м а Т­

ривать как совокупность ее возможных

реализаций.

Случайным (стохастическим) nроцессом называют слу­

чайную функцию аргумента t. который истолковывается

как время. Например, если самолет должен лететь с за-

v

v

u

дан ноя

постояннои

скоростью, то В деиствительности

вследствие воздействия случайных факторов (колебание

температуры, изменение силы ветра и др.), учесть влияиие

которых заранее нельзя, скорость изменяется. В этом

387

примере скорость самолета-случайnая

функция от

н е­

пр еры в н о

изменяющегося аргумента

(времени),

т. е.

скорость есть случайный процесс.

 

 

Заметим,

что если аргумент случайной функции изме­

nяется диекретно, то соответствующие ему значения

случайной функции (случайные величины) образуют елу­

чайnую nоследовательnость.

Аргументом случайной функции может быть не только время. Например, еС.1JИ измеряется диаметр ткацкой нити

u

u

вдоль ее длины, то вследствие воздеиствия

случаиных

факторов диаметр нити изменяется. В этом примере

диаметр-случайnая функция от непрерывно изменяюще­

гося аргумента (длины нити).

Очевидно, задать случайную функцию аналитически

(формулой), вообще говоря, невозможно. В частных слу­

чаях, если вид случайной функции известен, а опреде­ ляющие ее параметры-случайные величины, задать ее аналитически можnо. Например, случайными являются функции:

Х (t) =

sin Qt,

где Q

-случайная

величина,

Х и) =

V sin t,

где и

-случайная

величина,

Х (t) =

и siп Qt. где Q и и -случайные величинЫ.

§ 3. Корреляционная теория случайных функциii

Как известно, при фиксированном значении ар­

гумента случайная функция является случайной величи­

ной. Для задания этой величииы достаточно задать закон

еераспределения, в частности одномерную плотность

вероятности. Например, случайиую величину X1 = Х иl) можно задать плотностью вероятности f 1); в теории

случайных функций ее обозначают через f1 1; 11); здесь

индекс 1 при f указывает, что плотность вероятности

одиомерная, t1-фиксированное значение аргумента t,

х1-возможное значеиие случайной величины X1 = Х иl)'

Аналогично, через 11 (х.; 1.), /1 8; t 8 ) и т. д. обозначают

одномерные плотности вероятности сечений Ха = Х и.),

х. = Х (/.) и т. д. Одномерную плотность вероятности

любого сечения обозначают через f1 (х; t), подразумевая,

что аргумент t принимает все допустимые значения.

Например, если случайная функция Х (t) распределена

нормально с параметрами т" и) = 4, 0'" (t) = 3, то

(х- f/)I

 

fl'' t) =Зltl1У2п е- 1(8 It1)"

388

Хотя функция f1 (Х; t) полностью характеризует каж­

дое отдельно взятое сечение, нельзя сказать, что она

полностью описывает и саму слу...аЙную функцию. (Ис­

ключением является случай, когда любой набор сечений

образует систему независимых случайных величии.)

Например, зная лиШь одномерную функцию распределения

сечения. невозможно выполнять над случайиой функцней

операции, требующие совместного рассмотрения совокуп­ иости сечений.

Впростейшем случае совместно рассматривают два

сечения: Х1 = Х (t 1) и Х2 = Х (t 2 ), т. е. изучают систему

двух случайных величин (Х1, Ха)' Известно, что эту

систему можно задать двумериым законом распределения,

в частности двумерной плотностью вероятности f 1Xs)'

В теории случайных функций ее обозначают через

f1 1, XS~ /1' t l ); здесь индекс 2 при f указывает, что

плотность вероятности двумерная; t1 и fz-значения ар­

гумента /; Х1' х2-возможные значения случайных вели­

чин, соответственно Х1 = Х (t 1 ) И Х2 = Х (ts)'

Хотя двумерный закон распределения описывает слу­

чайную функцию более полно, чем одномерный (по из­

вестному двумерному можно найт" одномерный закон), он

не характеризует случайную функцию исчерпывающим образом (исключеиием являются случаи, когда случайная

функция распределена нормально или представляет собой

марковекий случайный процесс).

Аналогично обстоит дело и при переходе к трехмер­

ным, четырехмерным распределениям и т. д. Поскольку

такой способ изучения случайных функций является.

вообще говоря, громозд-ким. часто идут по другому пути,

не требующему знания многомерных законов распределе­

ния, а именно изучают момеиты, причем ограничиваются

моментами первых двух порядков.

Корреляционной теорией случайных функций называют

теорию, основанную на изучении моментов первого и

второго порядка. Эта теория оказывается достаточ"ой

для решения многих задач практики.

В отличие от случайных величин. для которых моменты

являются ч и с л а м и и поэтому их называют числовыми

характеристиками, моменты случайной функции явля­

ются неслучайными функциями (их называют

характеристиками случайной функции).

Ниже рассматриваются следующие характеристики случайной функции: математическое ожидание (начальный

389

момент первого порядка), дисперсия (цеltтральный момент второго порядка), корреляциоltная функция (корреля­ ционный момент).

§ 4. Математическое ожидание случайной

функции

Рассмотрим случайную функцию Х (t). При

фиксированном значении аргумента, например при t = t1 ,

получим сечение-случайную величину Х (tl) с матема­

тическим ожиданием М [Х (t1)]' (Полагаем, что математи­

ческое ожидание любого сечения существует.) Таким

образом, каждое фиксированное значение аргумента опре­ деляет сечение-случайную величину, а каждой слу­

чайной величине соответствует ее математическое ожи­ даltие. Отсюда следует, что каждому фиксированному

значению аргумента t соответствует определенное мате­

матическое ожидание; ~TO означает, что математическое

ожидание случайной функции есть функция (неслучайиая)

от аргумента t;

ее обозначают через тх (t). В частном

случае функция

тх (t) может сохранять постоянное зна­

чение при всех допустимых значениях аргумента. Дадим

теперь определение математического ожидания.

Математически,," ожиданue.м случаЙНОЙ фун.rсчuи Х (t)

называют неслучайную функцию тх (t), значение которой

при каждом фиксированном значении аргумента t равно

математическому ожиданию сечения, соответствующего

этому же фиксированному знач~нию аргумента:

тх (t) = М [х. (t)].

Геометрически математическое ожидание случайной

фуикции можно истолковать как «среднюю кривую», около

которой расположены другие кривыереализации; при фиксированном значении аргумента· математическое ожи­ дание есть среднее зиачение сечения (<<средняя ордината»),

вокруг которого расположены его возможные значения

(ординаты).

§ 5. Свойства математического ожидания случайной функции

Используя свойства математического ожидания

случайной величины, легко получить свойства математи­

ческогЬ ожидания случайной функции.

З9О