Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Чепиль А.М. Конспект лекций по элементам теории случайных процессов

.pdf
Скачиваний:
16
Добавлен:
23.10.2023
Размер:
4.71 Mб
Скачать

Решение. Найдем плотность распределения вероятностей случайной величины

 

 

 

 

т, = COS (bit -j- ®) ■

 

 

 

 

Функция

у = cos(x+

а)

кусочно-монотонна

в

интервале

— я <

А' <

2-

— а,

имеет однозначные

обратные

функции

х= arccos у— я

в

интервале

(0; т)

и

х = 2r. — arccos у + я

в интервале (-, 2-). Поэтому

 

 

 

 

 

 

Л (У) = А [4*1 (У)] I f i (У) I + А [Фа (У)1 I f a (У) I -

имеем

 

 

 

 

 

 

 

 

 

 

 

 

,

, X

 

1

 

1

,

1

 

1___________ 1

 

 

' J/T ^ y i +

У \ - у *

т. Y 1у-

 

 

 

 

 

( - 1

< У <

1) ,

 

 

 

 

так как

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

О

при

х <

0

и

х >

2ж ,

 

 

 

Л (*) =

1

 

при

0 <

дг <

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(arccos у — я)'

=» —

1

,

(2- —arccos у-\-а)' =

1

 

 

 

 

 

/ 1 - у

 

 

 

 

 

1 / 1 - у ^

Итак,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

О

при

|у |>

1 ,

 

 

 

 

 

Л (У)

=

 

----- 5

ПРИ I

У I <

1

 

 

 

 

 

 

 

 

 

 

 

 

 

TZУ 1 —у -

 

 

 

 

 

и плотность распределения гармоники со случайной фазой и постоянными амплитудой и частотой не зависит от времени t. Поэтому f 1(х; t) тоже не будет зависеть от t. В силу независи­ мости случайных величин Л и ® будут независимыми и слу­ чайные величины Л, т). Следовательно,

0 при

х <

0

и |у j >

I ,

/ ап(х, у) = / л ( х ) А ( у ) =

е

 

 

 

* ’

при х > 0

и |у|< 1.

•на- К 1у1

 

 

 

Найдем плотность распределения процесса £ (»') -=* Ац.:

10

Ймеем

 

 

 

 

 

 

 

 

 

 

 

 

 

- а у~

dy

 

 

 

 

 

 

 

 

У2 / 1 - у 2

 

 

 

 

 

ъ- у

 

dy

 

 

 

 

 

 

 

у ’ \ /

у ~

>

 

-

И

 

 

 

 

 

 

 

Введем подстановку

 

 

 

 

 

 

 

 

 

У

1 =

t .

 

 

Тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-- 4 -V2+l)

 

 

 

 

 

 

,

2с*

dt -

К - М /

г ? - - О - » !о

 

 

2Г£

 

 

d t — ze

а |/" 2тс

 

2a*

 

 

o V 2ic

 

 

 

 

 

 

2z

Заметим, что

при

любом

действительном

z

подстановка

7= ^ г =

и

приводит интеграл

 

 

 

V 2

 

 

 

 

 

 

 

 

 

 

dt

= ■

V 2

e_u

du.

V

2т.

 

 

2z

 

 

 

 

 

 

 

 

 

к интегралу Пуассона.

 

 

 

 

 

Итак, мы убедились,

что закон распределения случайной

гармоники не зависит от t и процесс

 

 

 

fj (t) A cos (со£ -f- w.)

имеет нормальное распределение

А (•«)■-

I

е 2 -

 

о У 2и

 

U

§ 3. ОСНОВНЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОГО ПРОЦЕССА

Знание /i-мерного закона распределения случайного про­ цесса £ (Л позволяет получать тем большую информацию о нем, чем больше п. Но если процесс £; (t) встречается при ре­ шении различных задач, возникающих в реальном мире, то ис­ следователь в общем случае не располагает достаточной ин­ формацией о всех его многомерных законах распределения, и никакие эксперименты не могут дать такую информацию. Кро­ ме того, многомерные законы распределения процесса (если даже они известны) мало пригодны для решения прикладных задач. Для большинства важнейших приложений теории слу­ чайных процессов к физике и технике не требуется знать мно­ гомерные законы распределения процесса. Для полного реше­ ния весьма обширного класса таких задач достаточно знать только моменты первых двух порядков случайного процесса £ (t), которые будем называть основными характеристиками случайного процесса.

Та часть теории случайных процессов, которая основана на изучении только первых двух моментов (начальных и цент­ ральных) процесса с (t), называется корреляционной теори­ ей случайных процессов. В этом пособии будем изучать случайные процессы только в рамках корреляционной теории.

Введем основные определения этой теории. Пусть £ (t) — произвольный случайный процесс. Рассмотрим сечение процес­

са при фиксированном t. В этом сечении имеем

обычную

случайную величину. Математическое ожидание

случай­

ной величины (в предположении, что оно существует)

обозна­

чим

« е (о = т с о .

Так как момент t произвольный, то /?и (0 будет неслучай­ ной функцией аргумента t.

Определение 1. Математическим ожиданием случайного процесса £ (t) называется такая неслучайная функция (t), которая при каждом значении аргумента t равна математиче­ скому ожиданию соответствующего сечения процесса £ (£).

Если известна одномерная плотность распределения веро­ ятностей процесса fi( х\ t), то его математическое ожидание определяется по формуле

0 )

и

Из формулы (1) видно, что математическое ожидание слу­ чайного процесса является первым начальным моментом этого процесса. Функцию ш; (/) также называют неслучайной со­ ставляющей процесса с ((), в то время как разность

? (/) = с (t) 1Щ

называют флуктуационной частью (пульсацией) данного про­ цесса или соответствующим центрированным процессом.

Очевидно, что

Щ( 0 = О

иу центрированного процесса отсутствует неслучайная состав­ ляющая.

Аналогично определяется дисперсия случайного процесса.

Определение 2. Дисперсией случайного процесса £ (t)

на­

зывается такая неслучайная функция Д (f) аргумента t,

кото­

рая при каждом значении t равна дисперсии соответствующего сечения процесса ? (t), т. е.

Д = (t) mt ( t ) ) - .

Если известна одномерная плотность распределения веро­ ятностей / 1(х; /), то дисперсия процесса определяется форму­ лой

Д

(t)

= j

(х -

те )3 Л (•*: 0 dx

(2)

и дисперсия Д

(t)

есть второй центральный момент случайно­

го процесса с (/).

 

 

 

 

 

Очевидно,

что для центрированного случайного процесса

 

 

Д (/) =

м Ь (Ц ■

 

 

Если процесс

<; (t) — случайный ток, то

(0 можно ис­

толковать как мгновенную мощность, рассеиваемую

на еди­

ничном сопротивлении, а Д

(t) — это среднее значение мощ­

ности флуктуационной части тока в момент t.

Очевидно, что

вся средняя мощность

случайного тока t (t )

равна

сумме

средней мощности пульсации и мощности неслучайной состав­ ляющей /«5 (£), так как

Л/Д(/) = Д Д ) - h m f ( t ) ,

Для выяснения вероятностного характера информации; о процессе £ (Д содержащейся в его математическом ожидании

13

тп* (/) и дисперсии D, (t), прибегнем к геометрической иллю­ страции. Пусть известно математическое ожидание тс (t) про­ цесса С (t). В системе координат tOx уравнение х = тс (t) бу­ дет описывать некоторую кривую, около которой группируют­ ся графики всех реализаций процесса § Линия х = mi. (t)

— это геометрическое место точек, соответствующих средним значениям всех сечений данного процесса. Таким образом, математическое ожидание процесса показывает «среднюю тенденцию» изменения во времени «почти всех» реализаций процесса.

Дисперсия каждого сечения процесса является мерой сте­ пени разброса значений этого сечения относительно математи­ ческого ожидания. По определению, Dc (() неотрицательная функция при всех t. Чтобы размерность характеристики степе­ ни разброса совпадала с размерностью процесса q (£), вводит­ ся понятие среднего квадратического отклонения

= V D i (£) .

(Согласно правилу «трех сигм» с вероятностью, близкой к единице, можно утверждать, что значения «почти всех» реали­ заций процесса q (t) не выйдут за пределы полосы шириной

Рис. 1

6 05 (£), симметричной относительно математического ожида­ ния m^{t). На рис. 1 тонкими линиями показаны возможные реализации процесса £; (£), жирной — его математическое ожидание (£) и пунктирными — линии

14 ^

■* =

(t) ± 3 a: (t) ,

ограничивающие полосу

ширины 6 <;<(£). Слова «почти все»

здесь следует понимать в том смысле, что в результате экспе­ римента смогли бы наблюдать реализацию процесса, вы­ ходящую за пределы указанной полосы, лишь с вероятностью, близкой к нулю. Таким образом, среднее квадратическое от­ клонение cj (/) процесса £ (/) является мерой степени точ­ ности, с которой его математическое ожидание характеризует изменение во времени «большинства» реализаций;

Математическое ожидание те (t) и дисперсия De (/) яв­ ляются весьма важными характеристиками процесса Е (t). Однако в общем случае они дают далеко неполную информа­ цию об этом процессе. Можно привести примеры случайных процессов, имеющих одинаковые математические ожидания и дисперсии, но протекающих совершенно различно. На рис. 1 и 2 изображаются графически своими «типичными» реализа­

циями два процесса t (с)

и д (t), у которых

математические

ожидания и дисперсии

тождественно равны

те (t) —

(t),

ио внутренняя структура этих процессов совершенно различ­ на. Все реализации процесса £ (t) суть быстро меняющиеся

Рис. 2

кривые, а у процесса д (t) — плавные, медленно меняющиеся кривые. Если зафиксировать два различных момента t\ и t2, то сечения Е (/,) и Е (t2) будут .слабо зависимыми случайными величинами, а сечения д (^) и д ((2) наоборот —г' будут до-

15

больно сильно зависимыми. В силу медленного и плавного ха­ рактера изменения во времени реализаций процесса т|(t ) из­ вестное значение одной из них в момент t\ определяет сравни­ тельно небольшой интервал возможных значений ее в момент /2. Для описания степени зависимости между двумя различ­ ными сечениями процесса вводится новая характеристика — корреляционная (или автокорреляционная) функция.

Определение 3. Корреляционной функцией случайного про­ цесса § (t) называется неслучайная функция двух аргумен­ тов К(. (ti, t2), которая при каждой паре значений А и t2 равна корреляционному моменту соответствующих сечений процес­ са £ (t), т. е.

Ъ (*„ t2) = М ( Л ff,) -

a (t2) - щ (t2)) .

Если известна двумерная плотность распределения вероят­ ностей М * 1, х2; t\, h) процесса ? (£). то его корреляционная функция вычисляется по формуле

оо

оо

 

 

К(. (/х, t2) = j

[ (xt- m i

(M )(*2—Ш(. (t2)) /2 (*„

х 2, tu t2) X

-— во — «О

 

 

 

х

dxt dx2 ,

(3)

т. е. Ki (t\, t2) — это второй смешанный центральный момент различных сечений процесса ? (О-

Следует отметить, что корреляционная функция характери­ зует не вообще степень зависимости между различными сече­ ниями процесса £ (t) в моменты t\ и t2, а является лишь ме­ рой силы корреляционной связи между ними, характеризует статистически среднюю зависимость между этими сечениями. Несмотря на указанный недостаток, изучение корреляционной функции существенно расширяет наши сведения о случайном процессе.

Отметим одно очевидное свойство корреляционной функ­ ции. Полагая t\ = t2 = t, получаем

К% (t, t) = M(Z (t) - ПН (О )2 = D i( t ) ,

т. е. при t\ = t2 корреляционная функция обращается в диспер­ сию случайного процесса. Поэтому отпадает надобность в вы­ числении дисперсии как отдельной характеристики процесса. В качестве основных характеристик случайного процесса € (t) будем рассматривать его корреляционную функцию /<е (и, i2) л математическое ожидание mi,(t).

Нетрудно убедиться, что корреляционная функция симмет­ рична относительно своих аргументов t\ и t2:

К\ (tv t2) = Ка (t2, t{) ,

16 Я

ибо корреляционный момент случайных величин I ( i{) и ? (t2) не зависит от того, в какой последовательности эти величины рассматриваются.

Иногда вместо корреляционной функции /<е [t\, t%) про­ цесса ? (t) пользуются его нормированной корреляционной функцией

к а ь , t2)

П (t 1, t2) =

(* i) °5 ( * 2)

которой в «классической» теории вероятностей соответствует коэффициент корреляции. Очевидно, что rj(zf, t) — l, так как

r a t, ,,

Ki (t, t)

p g t ) _ ,

 

Ы 0 ] 2

o a t )

В приложениях часто приходится рассматривать случай­ ные процессы, сечения которых являются случайными величи­ нами с комплексными значениями, т. е.

С (0 = I it) + ir, ( f ) ,

где £ (О и т] (t) — действительные случайные процессы и

I — Y 1. Основные характеристики комплексного случайного процесса определяются следующими равенствами:

MZ (t) — М (5, (0 +

it, (t)) = mg t )

Ч- ш , (t) ,

(4)

K a t u /3)

= M \ {tx) l { t 2)

,

(5)

где С (t2) — величина, комплексно сопряженная с величиной

О

£ (t2). Сопряженная величина берется для того, чтобы диспер­ сия Dc (t) комплексного процесса С (0 . как и всякая диспер­ сия, была действительной функцией и выполнялось равенство

Kz t) = Dc it) .

Действительно,

Kz (tv t.2) = M (£ (£,) — me, (£,)) (£ (/,) — mr (if,)) =

M ( ? j ( A ) +

h (t1) — m

(/ , ) — тц (if,)) ($

( / 2)

it, (t2) —

-mi (t2) +

im, (t2)) = M

{[(£ (if,) — mi (/,)) +

i (7, (it)

— да, (f,))l [5 (f2) —

(**)} - i (ч (*a) -

да» (£»)1U.

 

 

 

,

*11иifI Ги -----—

Зак. 525.

 

 

I

Гос. публичная

 

 

l

nayчно-t exничej «

•'лиотока

Если в этом равенстве положить t\ = U = t, получим

К- [t, t) = M [(? (t) - mt (t))- + (r, (0 — m, (*))2] —

=Di Щ + D, (()

идисперсия комплексного случайного процесса равна сумме дисперсий его действительной и мнимой частей.

Очень часто приходится рассматривать совместно два пли несколько случайных процессов, которые могут находиться в определенной зависимости между собой. Для характеристики степени связи между двумя случайными процессами вводится понятие взаимной корреляционной функции или корреляцион­ ной функции связи двух процессов.

Определение 4. Взаимной корреляционной функцией двух случайных процессов t (t) и ^ (т) называется такая неслу­ чайная функция К$т, (t , т), которая при каждой паре значе­ ний t и " равна корреляционному моменту соответствующих сечений этих процессов, т. е.

K i4 (t,

= М (t) ~ пц. {()) (г, (г) /пп (г)) .

Если известна двумерная плотность распределения веро­ ятностей f2 (x, у, t, т) процессов i (t) и у (т), то их взаим­ ная корреляционная функция определяется по формуле:

ее• •

K in {t, т) = j j ( x - n i i { t ) ( y - m n(x))M x, у; t, x )d x d y . (6)

Случайные процессы i (t) и f|(т) называются некорре­ лированными, если при всех t и т (t, т) = 0. По анало­ гии со случайными величинами для нормальных процессов не­ коррелированность совпадает с их независимостью.

§4. СВОЙСТВА МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ

ИКОРРЕЛЯЦИОННОЙ ФУНКЦИИ СЛУЧАЙНОГО ПРОЦЕССА

Рассмотрим свойства основных характеристик случайного процесса, знание которых значительно облегчает решение мно­ гих задач в рамках корреляционной теории случайных процес­ сов. Доказательства этих свойств основаны на известных свой­

ствах числовых характеристик случайных величин.

Поэтому

при чтении этого параграфа полезно

предварительно повто­

рить соответствующий материал из теории вероятностей.

1.

Если 5 (t) — случайный процесс,

<р(t)

неслучай

ФУНКЦИЯ,

Щ (/) =

(t) И Т) (/) =

(t) i

(t) , то

 

18

/Пт, (t) = 9 (£) щ (t) ,

(1)

т. е. неслучайный множитель выносится за знак математиче­ ского ожидания.

Доказательство.

,Щ (t) = М [с? (I) 5 (£)\ = 9 (0 M l (t) = ср(t) mi (0 .

2.

Если к случайному процессу

5 (0

прибавить неслучай­

ную функцию 9 (t), то к математическому

ожиданию пц (t)

прибавляется функция 9 (t),

т. е. если

 

 

 

 

ГI ( 0

=

€ (0 + 9 (*)

,

 

то

 

 

 

 

 

 

 

(0

=

( 0 + 9

(0

(2)

Справедливость этого утверждения следует из свойств ма­ тематического ожидания случайной величины.

Объединяя свойства I и 2, получаем свойство 3.

3. Если ^ (0 = 9 (0 § (0 + Ф(О. где 9 (О и Ф( 0 — не­ случайные функции, то

 

Mr, (0

=

<Р (0

«е (0

+ Ф(0

(3)

Действительно,

 

 

 

 

 

 

тп (/) =

[9 (0

g (0

+

ф(01

-

М [9 (0 5 (01 + ^Ф (0

=

 

= 9 (О Л'Д (0 + Ф(0 = 9 (0 «е (0 + ф(0 •

 

4. Если

 

 

 

 

 

 

 

 

 

С (0

= 5 (0

+ 4 (0 .

 

то

 

 

 

 

 

 

 

 

 

 

ОТс ( 0

=

( 0

+

/ич (/) .

(4 )

Действительно, математическое ожидание суммы случай­

ных величин равно сумме их математических ожиданий.

 

5.

Пусть

tk (О — последовательность случайных процес­

сов, ггщк (() — последовательность их математических ожида­

ний и

9k (t) — последовательность

неслучайных функций

(6= 1, 2, . . . , п).

 

 

 

 

 

 

 

Если

Ч W = S fc=l

h V ) I

19

Соседние файлы в папке книги из ГПНТБ