Добавил:
Студент, если у тебя есть завалявшиеся работы, то не стесняйся, загрузи их на СтудентФайлс! Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Лекции по ТПС

.pdf
Скачиваний:
52
Добавлен:
16.07.2022
Размер:
5.31 Mб
Скачать

Если x2 x1 3 , то для вероятности пребывания случайной величины в интервале ( 3 3 ) получим

P( 3 3 ) 0,997 (12.14)

Таким образом, можно считать, что практически колебания случайного процесса вокруг среднего значения не превышают 3 , где σ - среднеквадратичное или эффективное значение помехи. Пик-фактор нормальной помехи, определяемый как отношение максимального значения к эффективному, принято считать равным 3 – 4,5.

Нормальный случайный процесс может быть разложен в ряд по любым ортогональным функциям. При этом некоррелированность коэффициентов разложения ck , имеющих нормальное распределение вероятностей, при выборе функций разложения будет означать их независимость. Сказанное в одинаковой мере справедливо и при представлении случайных процессов в виде рядов Фурье или Котельникова. Отметим здесь только следующее обстоятельство. Если нормальный процесс имеет равномерный и непрерывный энергетический спектр

G( ) 02 (белый шум), то коэффициенты Фурье будут независимыми случайными величинами с нулевыми средними значениями и одинаковыми дисперсия-

ми 2

2

. Средняя мощность такого процесса будет определяться выражени-

 

k

0

 

 

 

 

 

 

 

 

 

 

 

 

 

ем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 T

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

2 m

 

 

 

2 (t)dt

 

( k2 k2 )

(12.15)

 

 

 

 

 

 

 

 

T 0

 

2 k 1

 

Заметим, что величина

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( k2 k2 ) k2 02

(12.16)

 

 

 

 

 

 

 

2 k 1

 

 

 

 

 

 

 

 

 

 

 

 

 

определяет среднюю мощность процесса, отводимую отдельным частотным составляющим, расположенным друг от друга на расстоянии f T1 . С другой стороны мощность в полосе частот f равна

P 2 2

f 2

2

0

.

 

0

 

T

 

 

Следовательно

91

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

2

 

2

 

 

2

2

 

 

 

 

 

 

 

 

0

 

 

 

(12.17)

 

 

 

 

 

 

 

 

 

 

k

 

 

 

k

 

 

k

 

T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Многомерная плотность вероятностей коэффициентов разложения Фурье

для белого шума может быть записана в виде

 

 

( 1 , 2 ,... n ; 1 , 2 ,... n )

 

 

 

 

 

 

 

 

1

 

 

 

1

n

 

(12.18)

 

 

 

 

 

 

exp

( k2

k2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

( 2 0 )2n

 

02

 

 

 

 

 

 

 

k 1

 

 

В пределе при n , вместо последнего выражения получим

 

 

 

 

 

 

 

 

 

 

 

1

T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( (t)) C exp

 

2 (t)dt

(12.19)

 

2

 

 

 

 

 

 

 

 

 

 

 

 

0

0

 

 

 

где С – некоторая постоянная величина.

Узкополосный случайный процесс можно представить в виде модулированного колебания

(t) A(t) cos 0t B(t)sin 0t

(12.20)

a(t) cos[ 0t (t)]

 

с медленно меняющимися случайными огибающей a(t) и фазой (t) . Во многих практических приложениях необходимо знание законов распределения огибающей и фазы случайного процесса. Ограничимся здесь определением одномерных законов.

Если (t) - нормальный случайный процесс, то согласно (12.1) каждый из членов суммы и, следовательно, квадратурные огибающие A(t) и B(t) будут иметь также нормальное распределение вероятностей, нулевые средние значения и одинаковые дисперсии. В этом случае задача отыскания законов распределения огибающей и фазы узкополосного процесса совпадает с задачей о распределении модуля и фазы вектора, составляющие которого распределены нормально с нулевыми средними значениями. Следовательно, огибающая a(t) узкополосного нормального случайного процесса будет иметь рэлеевское распределение

92

a a2

(a) 2 e 2 2 , a 0 (12.21)

( ) 1 2

а фаза - равномерное в интервале 0 2 распределение вероятностей.

Рассмотрим теперь случай, когда на выходе узкополосной системы имеется смесь нормального случайного процесса (t) и детерминированного синусоидального сигнала

s(t) S(t) cos[ 0t s (t)]

(12.22)

u(t) cos 0t v(t)sin 0t

 

где

u(t) s(t) cos s (t)

 

v(t) s(t)sin s (t)

 

 

 

Суммарный процесс на выходе системы можно записать в виде

y(t) (t) s(t) (t)cos[ 0t (t)]

(12.23)

 

 

 

 

 

 

 

(t) [ A(t) u(t)]2 [B(t) v(t)]2

 

где

(t) arctg

B(t) v(t)

 

(12.24)

 

 

 

 

A(t) u(t)

 

 

 

 

 

Процессы

x1

(t) A(t) u(t)

(12.25)

x2 (t) B(t) v(t)

 

будут также независимыми нормальными процессами с дисперсиями 2 и

математическими ожиданиями

ax (t) u(t) и ax

(t) v(t)

(12.26)

1

2

 

Огибающая суммы синусоидального сигнала и нормального шума на выходе узкополосной системы будет иметь обобщенное рэлеевское распределение вероятностей

 

 

 

2

2

(t )

 

(t)

 

[ (t)]

 

2

2

 

 

 

 

e

 

 

 

I0

 

 

 

(12.27)

2

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

93

где 2 (t) u2 (t) v2 (t) . В отсутствии детерминированного сигнала из последнего выражения как частный случай следует выражение (12.21).

Отметим, что распределение огибающей суммы узкополосного случайного и детерминированного процессов не зависит от фазы сигнала s (t) . Следовательно, рэлеевское распределение будет иметь также огибающая суммы узкополосного случайного процесса и квазидетерминированного гармонического колебания со случайной фазой s (t) .

КОНТРОЛЬНЫЕ ВОПРОСЫ:

1.Какой случайный процесс называется нормально распределенным?

2.Какими свойствами обладает нормально распределенный случайный про-

цесс?

3.Какими параметрами полностью определяется нормальный случайный процесс?

4.Чему равен пик-фактор нормально распределенной случайной помехи?

5.Каким распределением обладает сумма узкополосного случайного процесса и гармонического колебания со случайной фазой?

ЛЕКЦИЯ 13. МАРКОВСКИЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ

ОПРЕДЕЛЕНИЕ ПРОЦЕССА МАРКОВА

В качестве примера случайных процессов без последействия рассмотрим марковские случайные процессы.

Сечения марковского процесса в общем случае зависимые, но эта зависимость определяется марковским принципом отсутствия последействия: будущее при известном настоящем не зависит от прошлого. Более точно принцип можно сформулировать следующим образом. Вероятностные законы, управляющие будущими значениями процесса при известном настоящем его значении, не изменяются от дополнительных знаний прошлых значений процесса.

94

Марковские процессы названы по имени российского математика А.А. Маркова, который впервые рассмотрел их частный случай – цепи Маркова. Основу общей теории марковских процессов изложил А.Н. Колмогоров.

Марковские процессы могут быть с непрерывным и дискретным временем, с непрерывным и дискретным множеством значений.

Определение. Случайный процесс X( t ) называется марковским, если условная одномерная функция распределения

F( ,t; x, y ) P X x, X t y , t ,

не изменяется от дополнительных знаний значений процесса в более ранние

моменты,

чем

,

т.е.

если

выполняется

равенство

P X t1 x1, X t2 x2 ,..., X tn xn , X x, X t y P X x, X t y , для

любых моментов t1 t2

tn t .

 

 

 

Функция F( ,t; x, y )

называется переходной функцией Марковского про-

цесса.

 

 

 

 

 

 

Определение. Марковский процесс с дискретным множеством значений называется цепью Маркова.

Определение. Цепь Маркова с дискретным временем называется дискретной цепью Маркова.

Цепь Маркова можно определить более точно.

Определение. Случайный процесс с дискретным множеством значений x1,x2 , ,xn ,... называется цепью Маркова, если для любых моментов време-

ни

t1

t2 tn t

выполняется

равенство

P X t1 x1, X t2

x2 ,..., X tn xn , X x , X t xt P X x , X t xt .

Вероятность pij ( ti ,t j ) P X ti xi , X t j x j называется переходной вероятностью цепи Маркова. Это вероятность того, что от значения xi в момент времени ti процесс перейдет к значению x j в момент времени t j .

Определение. Цепь Маркова называется однородной, если ее переходные вероятности pij ( ti ,t j ) зависят лишь от разности моментов t j ti .

95

t1,t2 , ,tn

Переходные вероятности и начальная вероятность состояний системы цепи Маркова являются ее полной вероятностной характеристикой в том смысле, что с их помощью можно построить любую конечномерную функцию процесса.

Теория марковских процессов – важный раздел теории случайных процессов, поскольку он описывает большое число задач, в частности, задачи теории массового обслуживания. Кроме того, некоторые процессы при выполнении определенных условий можно свести к марковским.

Функционирование широкого класса систем можно представить как процесс перехода из одного состояния в другое под воздействием каких-либо причин. Например, процесс функционирования некоторого сложного механизма характеризуется тем, что в каждый момент времени некоторые узлы работоспособны, а некоторые отказали и восстанавливаются. Если каждому возможному множеству работоспособных (или отказывающих) узлов поставить в соответствие множество состояний системы, то отказы и восстановления элементов будут отражаться переходом объекта из одного состояния в другое.

Пусть имеется некоторая физическая система S , например устройство ЖАТ (путевой генератор, трансмиттер и т.п.) которая в процессе функционирования может принимать различные состояния si . Если состояния системы меняются во времени случайным образом, то процесс смены состояний можно рассматривать как случайный процесс X( t ) . Множество состояний si исследуемой системы может быть либо конечным i 1, 2,...,n , либо бесконечным (счетным или нет). Большинство реальных систем имеют дискретное конечное пространство состояний.

Последовательность состояний такой системы и сам процесс переходов из состояния в состояние называется цепью. В зависимости от времени пребывания системы в каждом состоянии различают процессы с дискретным и непрерывным временем. Системы с непрерывным временем предполагают, что переход системы из одного состояния в другое может осуществляться в любой момент времени, т. е. время пребывания системы в каждом состоянии представляет непрерывную случайную величину.

Для систем с дискретным временем время пребывания системы в каждом состоянии фиксированное, а моменты переходов размещаются на временной оси через равные промежутки и называются шагами, или этапами. Время нахождения системы в некотором состоянии представляет дискретную случайную величину.

96

Таким образом, случайный процесс с непрерывными состояниями и непрерывным временем функционирования описывается непрерывной случайной функцией времени. Непрерывные и дискретные цепи описываются дискретными случайными функциями времени.

При исследовании непрерывных и дискретных случайных цепей обычно пользуются графическим представлением функционирования системы. Граф состояний системы представляет собой совокупность вершин, изображающих возможные состояния системы si , и совокупность дуг (ребер), изображающих возможные переходы системы из одного состояния в другое.

ДИСКРЕТНЫЕ ЦЕПИ МАРКОВА

Рассмотрим физическую систему S , в которой протекает случайный процесс X( t ) с дискретными состояниями s1,s2 ,s3 ,...,sk ,..., число которых конечно или счетно. Переходы системы из состояния в состояние возможны только в фиксированные моменты времени t1,t2 ,t3 ,...,tk ,..., которые называются шагами процесса. В промежутке времени между этими моментами система S сохраняет свое состояние. Марковский процесс с дискретным временем, происходящий в системе S , можно рассматривать как функцию целочисленного аргумента: 1, 2, 3, 4,..., k,..., показывающего номер шага перехода. Тогда X( k ) означает состояние системы S через k шагов. Последовательность переходов (событий) X (0), X (1), X (2),..., X (k),... называется марковской цепью.

Пример. В фиксированные моменты времени производится последовательность независимых испытаний, каждое из которых может быть успешным с ве-

роятностью р и неудачным с вероятностью q 1 p . Обозначим sk ,

k 1, 2, 3,...

число

успехов

в

первых

k

испытаниях.

Тогда последовательность {sk } является цепью Маркова.

 

 

Вероятности pij (k 1) P si

s j , определяющие возможные переходы системы

S на (k 1) -м шаге из состояния si

(независимо от предшествующих обстоя-

тельств) в состояние s j , называются переходными вероятностями.

 

Определение. Дискретная цепь Маркова называется однородной, если переходные вероятности не зависят от номера шага. Если переходные вероятности зависят от номера шага, то цепь называется неоднородной.

97

Замечание. В дальнейшем изложении будем рассматривать только однородные цепи Маркова.

Обычно цепь Маркова изображают в виде ориентированного графа, вершины которого соответствуют возможным состояниям системы si , а дуги (ребра) – возможным переходам системы из состояния si в состояние s j . Каждой дуге со-

ответствует переходная вероятность pij . Стрелка на ребре графа показывает

направление возможного изменения системы. Так, если стрелка ведет из состояния s1 в состояние s2 , то переход s1 s2 возможен.

Пример. Система S представляет собой техническое устройство, которое обслуживается в определенные фиксированные моменты времени. Каждое обслуживание является шагом процесса. Возможны следующие состояния системы: s1

– устройство полностью исправно; s2 – устройство требует профилактического ремонта, s3 – устройство неисправно и требует списания. Вероятность p12 определяет переход системы из исправного состояния в состояние профилактического ремонта, вероятность p21 определяет переход устройства из состояния профилактического ремонта в исправное состояние, вероятности p13 и p23 определяют переход устройства в состояние списания. Граф состояний, описывающий данный процесс, изображен на рис. 13.1.

Рис.13.1 Граф

состояний дискретной цепи

 

Маркова

Проведем классификацию состояний.

98

s j , то со-

Состояние si называется источником, если система может выйти из этого состояния, но не может в него вернуться. На графе состояний в него не ведет ни одна стрелка.

Состояние si называется поглощающим, если система может войти в это состояние, но не может из него выйти. На графе состояний из него не ведет ни одна стрелка.

Если из состояния si можно непосредственно перейти в состояние стояние s j называется соседним по отношению к состоянию si .

Состояние si называется транзитивным, если система может выйти из этого состояния и войти в него.

Состояние si называется изолированным если в него нельзя попасть ни из одного другого состояния системы, и из него нельзя попасть ни в одно из состояний. На графе состояний изолированное состояние не связано стрелками ни с каким другим.

Полным описанием однородной марковской цепи служит матрица переходных вероятностей за один шаг. Пусть система S может находиться в одном из n состояний s1,s2 ,s3 ,...,sn . Тогда матрица переходных вероятностей за один шаг имеет вид

p11

p12

 

p1n

 

 

 

 

p21

p22

p2n

( pij )

.

 

.

.

 

 

 

 

 

pn2

 

 

pn1

pnn

Особенностью матрицы перехода является то, что в каждой строке записаны вероятности всех возможных переходов из выбранного состояния, в том числе и вероятность того, что система останется в этом состоянии. Например, первая строка матрицы p11 p12 p1n описывает вероятности перехода за один шаг из состояния s1 во все другие состояния, в том числе и вероятность того, что система не выйдет из состояния s1. Очевидно, что эти переходы образуют полную группу событий, поэтому сумма вероятностей по строке равна

99

n

единице: pij 1. Таким образом, вероятность того, что система не выйдет из

j 1

 

 

n

состояния si , следующая: pii 1

pij .

 

j 1, j i

Можно составить матрицы переходных вероятностей за два, три и более шагов. Эти матрицы могут быть получены из матрицы переходных вероятностей за

один шаг путем возведения этой матрицы в соответствующую степень: ( pij )2 , ( pij )3 и т. д.

Для анализа случайных процессов в системах с дискретными состояниями вводятся вероятности состояний.

Определение. Пусть X (k) означает состояние системы S на k-м шаге. Вероятностью i-го состояния на шаге k называется вероятность события, состоящего в том, что на шаге с номером k система S будет в состоянии si :

Pi ( k ) P( X( k ) si ) .

n

Вероятности Pi ( k ) удовлетворяют условию Pi (k) 1. i 1

Определим для однородной марковской цепи вероятности всех состояний системы на каждом шаге по заданной матрице переходных вероятностей, если известно начальное состояние системы, т. е. начальное распределение вероятно-

стей P1 (0) , P2 (0) . …, Pn (0) .

Найдем вероятности состояний системы после первого шага: P1 (1) , P2 (1) . …, Pn (1) . Система после первого шага может оказаться в первом состоянии, если она была в этом состоянии и осталась в нем, или система была в каком-либо другом

состоянии, но перешла в состояние

s1: P1 (1) P1 (0) p11 P2 (0) p21 ... Pn (0) pn1 . Анало-

гично для состояния s2 : P2 (1) P1 (0) p12

P2 (0) p22 ... Pn (0) pn2 и для последующих со-

стояний. Заметим, что полученные формулы не что иное, как формулы полной вероятности, где гипотезами являются вероятности состояний системы на предыдущем шаге. Таким образом, если известно распределение вероятностей на предыдущем шаге, то распределение вероятностей на следующем шаге может быть найдено с помощью рекуррентной формулы

100

Соседние файлы в предмете Теория передачи сигналов