Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

МАРТ_Часть2_Главы4_8

.pdf
Скачиваний:
0
Добавлен:
21.03.2026
Размер:
1.81 Mб
Скачать

и, используя интегральное (фильтрующее) свойство дельта-функции, получим выражение для функционала плотности вероятности (ФПВ) нормального «белого» шума

 

 

 

T

W x(t) k exp

 

1

N0

 

 

 

 

0

2

x(t) a(t) dt .

Таким образом, вероятность появления реализации нормального «белого» шума x(t) зависит от ее евклидова расстояния относительно среднего значения a(t).

Контрольные вопросы

1.Дайте определение нормального СП.

2.Стационарный нормальный СП имеет K 2e 2 . Запишите од-

номерную ПВ производной для момента времени t .

3.Дайте определение винеровского процесса.

4.Дайте определение узкополосного нормального СП.

5.Как определяется комплексная огибающая СП? Какие свойства имеет огибающая (комплексная огибающая) СП?

6.Запишите квадратурное представление узкополосного СП.

7.Какие статистические характеристики имеют амплитуды квадратурных составляющих a t и b t для узкополосного нормального СП?

8.Какой будет совместная ПВ огибающей и фазы узкополосного СП? Будут ли и зависимыми СВ?

9.Как изменится ситуация при добавлении к узкополосному нормаль-

ному СП гармонического сигнала s t um cos 2 f0t , где f0 – центральная частота энергетического спектра СП?

10.В чем состоит методика определения совместных ПВ огибающей и фазы для отсчетов, разделенных промежутком ?

11.Что такое функционал плотности вероятности нормального СП?

12.Как выглядит ФПВ для нормального «белого» шума?

Глава 8. МАРКОВСКИЕ ПРОЦЕССЫ

Марковские процессы составляют весьма важный класс случайных процессов, давая возможность описывать многочисленные явления, встречающиеся в науке и технике. Как уже отмечалось, привлекательность марков-

- 112 -

ских процессов связана с возможностью получить полное статистическое описание на основе ПВ не выше второго порядка. Это связано с тем, что для

любых t1 < t2 < t3 при фиксированном значении процесса в момент t2, слу-

чайная величина x3 = x(t3) не зависит от того, какое значение принял процесс

в момент t1, т. е.

W (x3; t3 x2; t2 , x1; t1) W (x3; t3 x2; t2 ) .

Поэтому многомерная ПВ марковского процесса имеет вид

n

W (x1, x2 , xn ; t1, t2 , tn ) W (x1; t1) W (xi ; ti xi 1; ti 1) . i 2

В соответствии с общей классификацией случайных процессов, введенной ранее, марковские процессы с дискретными состояниями и дискретным временем называют цепями Маркова в честь русского математика А. А. Маркова; марковские процессы с дискретными состояниями и непрерывным временем называют дискретными марковскими процессами. Аналогично общей классификации определяются марковская последовательность (непрерывное состояние и дискретное время) и непрерывнозначный марковский процесс.

Начнем наше знакомство с марковскими процессами с цепей Маркова. Марковские цепи являются обобщением схемы независимых испытаний, в которой вероятности состояний s1, s2, sk pi Bep S si не зависят от того, в каком состоянии окажется система S в результате предыдущего испытания и от номера испытания. Вероятность того, что в результате N испытаний систе-

k

k

ма mi раз оказывалась в состоянии si ( pi 1 и

mi N ), определяется

i 1

i 1

мультиномиальным распределением, с которым мы познакомились ранее. При k = 2 мы получаем биномиальное распределение вероятности.

Для марковской цепи (простой марковской цепи) вероятность оказаться в состоянии si в l-м испытании является условной и зависит от того, в каком состоянии система оказалась в результате (l–1)-го испытания и не зависит от исходов, предшествовавших (l–1)-му испытанию. Классическим примером марковской цепи является задача перемещения (блуждания) частицы по прямой под действием сил, смещающих частицу на единицу перемещения вправо

свероятностью р и влево с вероятностью q = 1 – p. Ясно, что вероятность

-113 -

оказаться в точке с координатой k для частицы, находящейся после предыдущего испытания в точке с координатой l равна нулю, если k l 1; р, если

k – l =1; q, если k – l = –1 и не зависит от того, как частица попала в точку с координатой l.

Рассмотрим более подробно однородные цепи Маркова, для которых условная вероятность для системы оказаться в т-м испытании в состоянии sj

при условии, что она находилась в состоянии si, т. е. p(m) s j si , не зависит

от номера испытания т. Эту вероятность для краткости будем обозначать как pij p s j si и называть переходной вероятностью. Обратим внимание на

то, что первый индекс указывает, в каком состоянии находилась система, а второй – куда она перешла в результате испытания.

Полное вероятностное описание однородной марковской цепи дает век-

тор начальных вероятностей

 

p0

, p0

, , p0

, определяющий вероятность

p

 

0

1

2

k

 

пребывания системы в состоянии si, i = 1, 2, …, k до начала испытаний и матри-

ца перехода за один шаг (в результате одного испытания) P p , где вероят-

 

1

ij

ности перехода pij

были определены ранее. Так как в результате испытания си-

стема перейдет в

одно из k состояний (вероятности pii, стоящие на диагонали

матрицы Р1, дают вероятности того, что система, находясь в состоянии si, там и

k

остается), то по условию нормировки pij 1, i = 1, 2, …, k. Таким образом,

j 1

сумма элементов каждой строки матрицы Р1 равна единице.

Пусть система находится в состоянии si, i = 1, 2, …, k, и нам надо найти

вероятности перехода через п испытаний pij (п). Рассмотрим промежуточные испытания с номером 0 < m < n. В этом испытании система окажется в одном из возможных состояний sr(m) . Вероятность такого перехода в соответствии с введенными обозначениями будет равна pir (m) . Вероятность же перехода из

состояния sr в si за оставшиеся (п – т) будет равна prj(n – m). На основании формулы полной вероятности (переход в состояние j может происходить че-

k

рез любые состояния 1 r k) получим: pij (n) pir (m) prj (n m) .

r 1

- 114 -

Если обозначить через Рm и Pn–m матрицы перехода за т и п – т шагов соответственно, и учесть приведенное выше выражение для pij (n) , мож-

но записать, что Рn = PmPn–m, 0 < m < n. При п = 2, т = 1, п – т =1 и

P P P

P2 . Аналогично, P

P P

P3 , а в общем случае P

Pn .

2

1 1

1

 

3

1 2

1

n

1

Если начальные состояния системы s01, s02, , s0k

определяются век-

тором

 

p01, p02, , p0k , то вероятности состояний sn1, sn2, , snk по-

p0

 

 

 

 

 

 

 

 

 

сле п шагов будут равны p

n

p Pn .

 

 

 

 

 

 

 

0 1

 

 

 

Представляет интерес поведение матрицы Рп с ростом п. Справедлива следующая теорема. Если при некотором s > 0 все элементы матрицы перехода Рs положительны, то существуют такие постоянные числа pj, j = 1, 2, …, k,

что независимо от индекса i справедливы равенства lim pij (n) p j . Вероят-

 

n

 

ности, определяемые вектором P

lim pn , называются финальными.

 

n

Смысл полученного результата важен и прост. В условиях справедливости данной теоремы вероятность того, что система находится в состояниях s1, s2 , , sk по истечении большого числа переходов (п ), не зависит от

того, в каком она состоянии находилась в начале. Финальные вероятности

должны удовлетворять системе k линейных уравнений E Pn p 0 .

1

Эта теорема, доказанная А. А. Марковым, явилась первой в ряду эргодических теорем, играющих важную роль в науке и технике.

В качестве примера рассмотрим однородную марковскую цепь с двумя состояниями, под которыми будем понимать решения обнаружителя об от-

сутствии сигнала на входе

ˆ

и о его наличии

ˆ

 

H0

H1. Априорные вероятности

отсутствия и наличия сигнала задаются вектором

 

p(H0 ), p(H1) , а мат-

p0

рица одношаговых вероятностей перехода равна

 

 

 

 

p H H

p H H

 

P

ˆ

0

0

ˆ

1

 

0

,

ˆ

ˆ

 

1

 

 

H1

 

 

 

 

 

p H0

p H1

H1

 

или в принятых в статистической теории радиотехнических систем обозначениях (см. [11])

 

1

 

 

P

 

 

,

1

 

 

1

 

где – вероятность ложной тревоги, – вероятность пропуска сигнала.

- 115 -

Пользуясь методикой

отыскания

финальных вероятностей [12], получим

ˆ

ˆ

– вероятности состояния обнаружи-

p H0 и

p H1

 

 

ˆ

ˆ

теля после п шагов. Как и должно быть, p H0

p H1 1.

Заметим, что мы рассмотрели случайные блуждания обнаружителя.

При оптимальной организации его работы при п условные вероятности

ˆ

H0 и

ˆ

H1 стремятся к нулю, если q0

 

 

n , где q0 – пара-

p H1

p H0

метр обнаружения при однократном наблюдении.

В качестве второго примера рассмотрим квазислучайный телеграфный

сигнал, т. е. процесс, принимающий лишь два значения Um и – Um, причем изменения состояния происходят в фиксированные моменты времени tn t0 nT , где t0 – случайная величина, равномерно распределенная на отрезке [0, T], а Т – фиксированный временной интервал, п = 0, 1, 2, … – целые неотрицательные числа. Вероятности изменения состояния в моменты времени tn определяются матрицей перехода

p P

q

, p + q = 1.

p

В силу симметрии матрицы Р марковская цепь называется симметричной. На рис. 8.1 приведена реализация такого процесса при p q 12 .

Можно показать [12], что рассматриваемый процесс будет стационарным, если начало координат не совмещать с моментом возможного изменения состояния. Его корреляционная функция при p q будет иметь вид

U 2

1 T ,

 

 

 

T

 

 

 

 

Κ τ

m

 

 

 

 

 

 

 

 

 

.

0,

 

 

 

T

 

 

 

 

 

t

T

U m

0

t0

t1

t2

t3

t4

t5

t6

t

Um

Рис. 8.1 - 116 -

Выражение для СПМ, соответствующее произвольным значениям p и

q 1 p , приведено ниже:

 

 

 

 

 

 

 

S ω

 

U 2 T 1 p q 2

 

 

sin ωT

2

2

 

m

 

 

 

 

 

.

 

2 p q cosωT p

q 2

ωT 2

 

1

 

 

 

 

На рис. 8.2 приведены графики КФ и СПМ при различных значениях p и q . Как и следовало ожидать, наиболее широкополосным процесс будет при p q = 1/2.

Напомним, что условие факторизации многомерной ПВ, т.е. представле-

n

ния ее в виде Wξ x1, , xn ; t1, , tn Wξ x1; t1 Wξ xi ; ti xi 1; ti 1 , является

i 2

определением Марковского процесса. Условные ПВ Wξ xi ; ti xi 1; ti 1 по-

 

 

мимо условий неотрицательности и нормировки Wξ xi ; ti

 

xi 1; ti 1

dxi 1

 

 

 

должны также удовлетворять интегральному уравнению Колмогорова– Чепмена, называемому иногда уравнением Смолуховского, утверждающему,

что для любых t1 t2

t3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Wξ x3; t3

 

x1; t1

Wξ x3; t3

 

x2; t2

Wξ

x2; t2

 

x1; t1 dx2 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

R

 

 

 

 

S

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

UT0

 

 

p 3 4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

p 1 4

 

 

 

U 2

p 3 4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p 1 2

 

 

 

1

 

 

 

p 1 2

 

 

 

 

p 1 4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

2T0

4T0

 

 

0

 

T0

2 T0

3 T0

4 T0

 

 

 

 

 

 

Рис. 8.2

При определенных условиях гауссовский случайный процесс может быть и марковским. Так как полное вероятностное описание гауссовского

- 117 -

процесса определяется математическим ожиданием и корреляционной функцией, то уравнение Колмогорова Чепмена должно сводиться к соотношению, характеризующему корреляционную функцию.

Можно показать [13], что случайный процесс x t является гауссовским и марковским, если нормированная корреляционная функция (коэффициент корреляции) r t1, t2 процесса x t при t1 t t2 удовлетворяет условию r t1, t2 r t1, t r t, t2 .

Если x t стационарный СП, то r t τ r τ r t , t > 0, τ > 0. Можно показать [13, с. 125], что единственным решением записанного уравнения яв-

ляется r t e λ t , t > 0, λ > 0. Таким образом, стационарный центрированный гауссовский случайный процесс является марковским тогда и только то-

гда, когда его корреляционная функция имеет вид K σ2 e λ .

Для последовательностей центрированных гауссовских СВ эти условия

имеют вид rjk rjirik ,

j i k , а для стационарной последовательности

r

jk

r

 

k j

 

, где r

– коэффициент корреляции между соседними элементами

 

 

 

 

 

 

 

 

 

 

 

 

последовательности.

Решение уравнения Колмогорова Чепмена позволяет найти вид ПВ Wξ x; t x0; t0 , t > t0 . Однако его решение в общем случае представляет со-

бой чрезвычайно сложную задачу. Для частного случая марковских процессов, называемых диффузионными, интегральное уравнение Колмогорова Чепмена удается свести к дифференциальному уравнению в частных производных вида

Wξ x; t

 

x0; t0

 

 

 

 

 

 

 

 

 

 

2

A

 

 

 

 

 

, (8.1)

 

 

A

x; t W

x; t

 

x ; t

0

1

x; t W

x; t

 

x ; t

0

 

 

 

 

 

 

 

 

 

 

 

t

x

1

ξ

 

 

0

2

 

x2

2

ξ

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

которое называется прямым уравнением Колмогорова или уравнением Фок- кера–Планка. В приведенном уравнении

Ak x; t lim

 

z x k Wξ z; t | x; t t dz ,

 

t 0

 

z x

 

δ

 

 

 

 

 

причем при k 3

Ak x; t 0 .

 

A1 x; t и

A2 x; t называются соответственно

коэффициентом сноса и коэффициентом диффузии. Уравнение (8.1) является линейным дифференциальным уравнением в частных производных и относится к параболическому типу.

- 118 -

Решение уравнения должно:

быть неотрицательным;

подчиняться условию нормировки;

удовлетворять начальному условию Wξ x; t0 x0; t0 = δ x x0 .

Вряде задач значение марковского процесса в начальный момент времени t0 не фиксировано, как выше, а подчиняется ПВ Wξ x; t0 Wξ x .

Можно показать [9], что одномерная ПВ диффузионного марковского процесса для произвольного момента времени удовлетворяет уравнению

 

W

x;t =

 

A

x; t W

x; t

1

 

2

A

x; t W x; t

 

 

 

 

t

ξ

x

1

ξ

2

 

x2

2

ξ

 

 

 

 

 

 

 

Для решения этого уравнения необходимо кроме начальных условий, о которых шла речь при обсуждении уравнения (8.1), задать граничные условия, которые могут быть весьма разнообразными и определяются особенностями решаемой задачи. Подробнее с этой проблематикой можно познакомиться в [12].

Для винеровского СП

A1 x;t = 0,

A2 x; t = N0

2 , и уравнение (8.1)

примет вид

 

 

 

 

 

 

 

 

 

 

 

 

N

0

 

2

 

 

 

Wξ x;t =

 

 

 

Wξ x;t ,

(8.2)

 

t

 

 

 

 

 

 

 

4

 

x 2

 

где N0 2 СПМ нормального «белого» шума, интегрированием которого по-

лучается винеровский процесс. Если при t

= 0 x = x0 , т. е. Wξ x; 0 = δ x x0 ,

то решением уравнения (8.2) для бесконечного пространства (отсутствие границ) будет

 

 

1

 

 

 

2

 

W x;t

 

 

exp

 

x x0

.

 

 

 

ξ

π N0t

 

 

 

N0t

 

 

 

 

 

 

 

Контрольные вопросы

1.Дайте определение марковского процесса.

2.Как определяется простая цепь Маркова?

3.Что такое переходная вероятность?

4.Как определяется матрица перехода за m шагов?

5.Что такое финальные вероятности?

- 119 -

6.При каких условиях гауссовский процесс будет также Марковским?

7.Какому уравнению удовлетворяет ПВ диффузионного марковского процесса?

8.Как выглядит уравнение Колмогорова–Чепмена для винеровского процесса? Каким будет его решение?

Глава 9. ПРЯМЫЕ СПОСОБЫ ОПИСАНИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ

В рассмотренной классификации случайных процессов в основу были положены способы описания, опирающиеся на многомерные распределения значений процесса в различные моменты времени или их предельную форму – функционалы ПВ. Однако для многих приложений более продуктивным является способ описания, основанный на непосредственной функциональной связи значений процесса в данный момент времени с его предыдущими значениями, находящимися под действием случайных возмущений. Эта связь задается рекуррентными алгоритмами, разностными, дифференциальными, интегральными уравнениями или их комбинациями и называется прямым способом описания случайного процесса.

Примером прямого описания СП является его моделирование с помощью электронно-вычислительной машины (ЭВМ) с использованием датчиков случайных чисел.

Важным примером такого подхода являются случайные процессы, полученные на основе регрессионной модели, называемой также параметрической моделью случайного процесса. Это представление можно интерпретировать как выход цифрового фильтра, находящегося под действием возбуждающей случайной последовательности:

p

q

xn ak xn k

bk un k ,

k 1

k 0

где xn – элементы формируемой случайной последовательности, числа ak и bk являются параметрами модели, ul – входная возбуждающая случайная последовательность, в роли которой обычно выступает дискретный нормальный «белый» шум ( ul – независимые нормальные случайные величины с ну-

левым средним значением и дисперсией σ2n ).

- 120 -

Если возмущающая последовательность ul является дискретным «белым» шумом, то модель называется авторегрессионной – скользящего среднего (АРСС). Числа p и q определяют порядок модели.

Структурная схема формирования случайной последовательности (временного ряда) на основе АРСС приведена на рис. 9.1. Общепринятое обозна-

чение z 1 – элемент задержки последовательности на один такт.

u[n]

 

–1

 

–1

 

 

 

 

 

 

 

 

 

z

 

z

 

 

 

 

 

 

 

 

 

 

b[1]

 

b[2]

 

b[q]

+

x[n]

АРСС

 

 

a[p]

a[2]

 

a[1]

 

 

 

–1

 

–1

z

z

 

 

 

Рис. 9.1

Частными случаями АРСС-модели являются модель скользящего среднего (СС), для которой все коэффициенты ak равны нулю, и авторегрессионная (АР) модель, у которой, наоборот, все коэффициенты bk , кроме b0 1, равны нулю. Структурные схемы формирователей последовательностей СС и АР приведены на рис. 9.2 и 9.3 соответственно.

Рассмотренные модели формирования случайных последовательностей связаны друг с другом. Так, например, АРСС и СС модели можно записать с помощью АР модели в общем случае бесконечного порядка. Это позволяет использовать большое число эффективных моделей оценивания параметров АР модели с последующим вычислением параметров другой модели. С подробностями можно познакомиться с помощью [14, с. 221].

- 121 -