Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

1490

.pdf
Скачиваний:
5
Добавлен:
13.02.2021
Размер:
3.68 Mб
Скачать

4.2.1.Закон равномерной плотности.

Внекоторых практических задачах встречаются случайные непрерывные величины, о которых известно, что их возможные значения лежат в пределах некоторого определенного интервала, а в пределах этого интер-

вала все значения случайной величины одинаково вероятны. Так, напри-

мер, значения случайной фазы флуктуирующего сигнала равномерно за-

полняют интервал {π; π}, а значения координаты x рассеивающих цен-

тров сложного радарного объекта могут равномерно заполнять интервал

{xmin , xmax }.

Рассмотрим СВ ξ , подчиненную закону равномерной плотности на ин-

тервале α, β. (рис. 4.4) и запишем для нее выражение плотности распре-

деления f (x) . Плотность f (x) постоянна и равна C на интервале α, β.

Вне этого интервала она равна нулю. Из условия нормировки (4.11) следу-

ет, что C(β α) =1.Тогда C = (β α)1 и плотность распределения имеет вид

f (x) = (β α)1, f (x) = 0

f(x)

c

α < x < β;

 

(4.24)

.

x <α, x > β.

 

x

α β

Рис. 4.4. Равномерная плотность распределения случайной величины

Определим числовые характеристики CВ ξ , подчиненной закону (4.24).

Математическое ожидание ξ равно

152

m

= β

xdx

= α + β ,

(4.25)

 

ξ

2

 

 

σβ α

 

а дисперсия определяется выражением

 

1

β

α + β

2

(β α)2

 

 

Dξ =

 

x

 

 

dx =

 

,

(4.26)

β α

2

12

 

α

 

 

 

 

из которого следует, что среднеквадратичное отклонение имеет вид

σ

 

=

D =

β α

.

(4.27)

ξ

 

 

 

ξ

2

3

 

 

 

 

 

 

 

 

4.2.2. Нормальный закон распределения.

Нормальный закон распределения характеризуется плотностью вероятности вида

f (x) =

1

 

(x m)2

(4.28)

 

exp

2σ

2

.

σ 2π

 

 

 

 

 

График нормального распределения изображен на рис. 4.5.

Рис. 4.5. Нормальная плотность распределения случайной величины

Численные параметры m и σ входящие в выражение (4.28) есть не что иное как математическое ожидание и среднеквадратическое отклонение.

153

Покажем это, определив первый начальный и второй центральный моменты распределения (4.28). Так, первый начальный момент запишем в виде

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

(x m)2

 

M [ξ]= xf (x)dx =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xexp

2σ

2

dx.

 

σ 2π

 

 

 

 

 

−∞

 

 

 

 

 

 

−∞

 

 

 

 

 

Используя замену переменной

(x m) /σ

2 = t , получим

 

M [ξ]

 

1

 

 

 

2t + m)exp(t2 )dt =

 

 

 

=

−∞(σ

 

 

 

π

 

 

 

σ 2

 

 

(

 

2

)

 

 

m

 

 

 

(

 

2

)

 

 

=

 

t exp

t

 

+

 

 

exp

t

 

 

(4.29)

π

 

 

 

 

dt

π

 

 

 

 

 

dt .

 

 

−∞

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

Нетрудно видеть, что первый интеграл в выражении (4.29) равен нулю, а второй представляет собой интеграл Эйлера-Пуассона

 

(

 

)

 

(

 

)

exp

t2

exp

t2

 

 

dt = 2

 

 

dt = π .

−∞

 

 

 

 

0

 

 

 

 

Таким образом, первый начальный момент M [ξ]= m есть математиче-

ское ожидание нормально распределенной случайной величины. Определим теперь второй центральный момент случайной величины, распределенной по нормальному закону:

D[ξ]=

1

 

2

 

 

 

(x m)2

 

 

 

 

 

 

(x m)

 

exp

 

2

dx.

σ 2π −∞

 

2σ

 

 

 

 

 

 

 

 

Используя снова замену переменной (x m) /σ

 

2 = t , запишем

D[ξ]= 2σπ2

 

 

 

 

σ 2

 

 

 

−∞t2 exp(t2 )dt =

−∞t2t exp(t2 )dt .

π

Для интегрирования по частям полагаем, что

t = u, dv = 2t exp(t2 )dt, v = exp(x)dx = −exp(t2 ),

−∞

где x = t2 , dx = 2tdt.

Отсюда следует, что второй центральный момент (дисперсия) имеет вид

154

[

]

 

2σ

2

 

(

 

)

 

 

(

 

)

 

 

=

 

 

t2

−∞

+

exp

t2

 

(4.29а)

D ξ

 

 

= −t2 exp

 

 

 

 

 

dt

=σ 2

 

 

 

π

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

поскольку первое слагаемое в скобках равно нулю, а второе есть интеграл Эйлера-Пуассона. Таким образом, параметр σ плотности распределения (4.28) представляет собой среднеквадратическое отклонение случайной величины.

4.2.3. Нормальный закон распределения системы двух случайных величин

В общем виде плотность нормального распределения системы двух слу-

чайных величин {x, y}имеет вид

 

 

 

 

 

f (x, y) =

1

 

 

 

 

×

 

 

 

 

 

 

 

 

 

2πσXσY 1 r2

 

 

 

 

 

 

1

 

 

 

(x m

)

2

 

(x m )

2

 

2r(x m

 

 

 

 

 

 

 

 

 

 

 

 

)(x m )

 

×exp

 

 

 

 

X

 

 

+

 

Y

 

 

 

 

 

X

 

Y

. (4.30)

2(1r

2

 

2

 

 

 

2

 

 

 

 

 

 

 

 

)

σX

 

 

 

 

σY

 

 

 

 

 

σXσY

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Этот закон зависит от пяти параметров:

mX ,

mY , σX ,

σY , r. Определив

одномерные законы распределения величин

{

x,

y с использованием вы-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

}

 

 

 

 

ражений (4.16) и проводя вычисления, аналогичные проделанным выше, можно показать, что параметры mX , mY представляют собой математиче-

ские ожидания величин x, y, а σX , σX есть их среднеквадратические от-

клонения. Ключевым моментом анализа выражения (4.30) является демонстрация того факта, что параметр r представляет собой коэффициент корреляции случайных величин x, y . Для этого вычислим корреляционный

момент (4.23а). Подставляя в выражение (4.23а) плотность вероятности

(4.30), получим:

 

 

1

 

(x mX )(y mY )exp[A(x, y)]dxdy, (4.31)

KXY =

 

 

 

2πσX

σX 1

r2 −∞

 

 

155

где

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

A(x, y) =

1

 

 

(x m

)2

 

(x m )2

 

2r(x m

 

)(x m )

 

 

 

 

 

2 X

 

+

 

2 Y

 

 

 

X

Y

.

 

 

 

 

 

 

 

 

 

 

2 1r2

 

σX

 

 

 

σY

 

 

σXσY

 

Введем замену переменных в двойном интеграле (4.31):

 

 

 

 

 

 

x

m

X

= u;

1

 

 

 

( y m )

(x m

 

)

= v.

 

 

 

 

 

 

 

 

 

Y

σ

X

 

 

 

 

σX 2

 

 

 

 

 

 

 

 

 

 

2 (1r2 )

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Якобиан преобразования в данном случае равен 2σXσY 1r2 и, следова-

тельно,

 

 

1

 

 

 

ru

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

2

 

 

2

 

 

 

u v +

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

KXY

=

 

 

 

 

 

 

 

2σX ,σX

 

1r

 

exp

(u

 

+ w

) dudv =

π

 

1r

2

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2σX ,σX 1r2

 

 

 

 

 

 

(

 

 

 

2

)

 

 

 

 

 

 

 

(

 

 

 

2

)

 

 

 

=

 

 

 

π

 

 

 

 

 

u exp

u

 

du

v exp

w

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

dv +

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2σX ,σX

 

2

 

 

 

(

 

 

 

 

2

)

 

 

 

 

 

 

 

(

 

 

2

)

 

 

 

 

 

 

 

 

+

 

 

 

 

u exp

u

 

du

exp

v

 

 

 

 

 

 

 

 

 

 

π

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

dv.

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

Принимая во внимание, что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(

 

 

 

)

 

 

 

 

 

 

 

 

 

 

 

(

 

 

 

)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u exp

u2

du

=

v exp

 

 

 

 

 

= 0;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

v2 dv

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u2 exp(u2 )du =

 

π

 

;

 

exp(v2 )dv =

 

 

π,

 

 

 

 

 

2

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

получим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

KXY = rσX ,σY ,

 

 

 

или

 

 

 

r =

 

 

KXY

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σX ,σY ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом, параметр r

 

в выражении (4.20) представляет собой ко-

эффициент корреляции случайных величин x, y . Предположим теперь,

что эти случайные величины некоррелированы. Тогда, принимая r = 0 в выражении (4.30), получим

156

 

1

 

 

 

1

 

(x m

 

)

2

(x m )

2

 

 

f (x, y) =

 

 

 

 

 

 

 

 

 

 

 

exp

 

 

 

2

X

 

+

 

2

Y

 

.

(4.32)

2πσ

 

σ

 

2

σ

 

σ

 

 

X

Y

 

 

X

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4.3. Случайные процессы и одномерное распределение вероятностей случайных процессов. Моменты распределения

Функция какого-либо аргумента, принимающая случайные значения для каждого значения аргумента, называется случайной функцией [20, 21]. Случайная функция времени называется случайным процессом. Отдельное наблюдение над случайным процессом, который протекает при неизменных условиях, называется реализацией случайного процесса x(t). Каждое отдельное наблюдение будет давать новую непредсказуемую реализацию случайного процесса. Таким образом, множество реализаций случайного процесса можно описать только с использованием вероятностных характеристик. Рассмотрим достаточно большое число N реализаций случайного процесса x(t) и выделим из этого числа n реализаций, которые в некото-

рый момент времени t1 были меньше некоторого уровня x1. Обозначим эти

реализации как n(x1, t1) . При большом

 

n

отношение n(x1, t1) / N будет

представлять собой вероятность того что при t = t1

случайный процесс x(t)

находятся ниже уровня x , т.е.

P = x(t

)

x .

Используя соотношение

1

 

1

 

1

 

(4.6), нетрудно видеть, что упомянутая вероятность задаёт одномерную функцию распределения случайного процесса

F (x , t ) = P = x

t

x

,

(4.33)

1 1

 

( 1 )

1

 

 

где время t имеет смысл параметра. Функция (4.33) обладает всеми свойствами функции распределения (см. подраздел 4.1.3). Производная функция распределения (4.33) определяет плотность распределения вероятностей случайного процесса x(t)

157

dF(x1, t1) = f (x

, t ),

(4.34)

1

1

 

dx1

 

 

обладающую всеми свойствами плотности вероятности. Вероятность того, что случайный процесс x(t) в момент времени t1 принимает значение, на-

ходящееся в интервале x1 < x1(t) < x1 + dx определяется в соответствии с ре-

зультатами подраздела (4.1.3) как элемент вероятности

P[x1 < x1(t) < x1 + dx]= f (x1, t1)dx1.

Хотя одномерная функция распределения и одномерная плотность дают полное описание случайного процесса в момент времени t1 , в практиче-

ских случаях можно обойтись более простыми числовыми характеристиками, т.е. начальными и центральными моментами распределения, а именно: математическим ожиданием и дисперсией, как наиболее используемы-

ми:

 

m[x(t1)]= x(t1) = x(t1 ) f (x1, t1)dx,

(4.35)

−∞

 

D[x(t1 )]= [x(t1) x(t1)]2 f [x1, t1 ]dx.

(4.36)

−∞

 

В принципе, как это следует из выражений (4.35) и (4.36), значения математического ожидания и дисперсии могут изменяться в зависимости от положения точки t1 , в которой они определены. Изменение этих парамет-

ров приводит к изменению формы одномерного распределения вероятностей случайного процесса от точки к точке.

4.4. Полное статическое описание случайного процесса. Стационарные случайные процессы. Автокорреляционная функция

Поскольку между значениями случайного процесса может существовать статистическая связь (корреляция) и поскольку моменты случайного про-

158

цесса могут изменяться в зависимости от положения точки t1 на оси вре-

мени, полное статистическое описание случайного процесса может быть задано только многомерной функцией fn (x1, t1; x2 , t2 ; ...; xn , tn ) , описы-

вающей как изменение моментов процесса во времени, так и статистическую связь (корреляцию) между значениями процесса в несовпадающие моменты времени. Получение таких n - мерных распределений представляет собой весьма трудоемкий процесс. Однако существует такой класс случайных процессов, для которых определение n мерной плотности распределения не является необходимым. Это так называемые стационарные случайные процессы, составляющие значительную часть случайных процессов в радиотехнике. Случайный процесс называется стационарным, если многомерная плотность распределения вероятностей не зависит от перемещения всех точек наблюдения t1, t2 , ..., tn на одинаковую величину t

вдоль оси времени

fn (x1, t1; x2 , t2 ; ...; xn , tn ) = fn (x1, t1 + ∆t; x2 , t2 + ∆t; ...; xn , tn + ∆t).

Таким образом, статистический характер стационарного процесса не изменяется во времени. Эта неизменность (инвариантность во времени) определяется следующими обстоятельствами [ 20]:

Одномерная плотность вероятностей случайного процесса x(t) не зависит от времени, т. е. f1(x1, t1) = f1(x1, t1 + ∆t) = f1(x);

Двумерная плотность вероятности случайного процесса x(t) зави-

сит только от разноса во времени t1 t2 =τ точек, в которых она определена и при τ = const не изменяется для любых значений времени t1 и t2 :

f2 (x1, t1; x2 , t2 ;) = f2 (x1, t1 + ∆t; x2 , t2 + ∆t;) = f2 (x1, x2 , τ )

Указанные обстоятельства обуславливают следующие свойства стационарных случайных процессов [ 20]:

159

1.Математическое ожидание стационарного случайного процесс x(t) не зависит от времени (свойство инвариантности к сдвигу по оси времени) и является постоянной величиной:

m[x(t)]= [x(t1 )dx]= a.

(4.37)

−∞

 

2.Дисперсия стационарного случайного процесса x(t) не зависит от вре-

мени и является постоянной величиной:

 

2

2

 

= [x a] f1 (x)dx.

(4.38)

D[x(t)]= m x(t) a

 

−∞

3.Смешанный центральный момент второго порядка двумерной плотности вероятности f2 (x1, x2 , τ) (корреляционный момент) зависит только от разноса моментов времени τ точек, в которых определена двумерная плотность вероятности:

m2 (t1, t2 ) = m2 {[x(t1) a][x(t2 ) a]} = m2 {[x(t1 ) a][x(t1 +τ) a]} =

= (x1 a)(x2 a) f2 (x1, x2 , τ)dx1dx2 =

−∞ −∞

= x1x2 f2 (x1, x2 , τ)dx1dx2 a x2 f2 (x1, x2 , τ)dx1dx2

−∞ −∞ −∞ −∞

a x2 f2 (x1, x2 , τ)dx1dx2 +a2 f2 (x1, x2 , τ)dx1dx2 =

−∞ −∞ −∞ −∞

= x1x2 f2 (x1, x2 , τ)dx1dx2 a x2 f1(x2 )dx2 a x1 f1(x)dx1 + a2 =

−∞ −∞ −∞ −∞

= x1x2 f2 (x1, x2 , τ)dx1dx2 a2 = K (τ).

(4.39)

−∞ −∞

 

Здесь введено обозначение K (τ) для так называемой автокорреляцион-

ной функции (АКФ) стационарного случайного процесса, представляющей собой совокупность корреляционных моментов, найденных для различных

160

значений временного разноса τ . При исследовании корреляционных свойств случайного процесса интервал изменения величины τ обычно определяется промежутком от τ = 0 , где K (τ) = max и τ =τmax , где K (τ) 0. В точке τ = 0 второй смешанный центральный момент превращается в обычный второй центральный момент и значение автокорреляционной функции в этой точке определяется дисперсией случайного процесса:

K (0) = D = G2.

(4.40)

Нормирование автокорреляционной функции (4.39) к её значению в нуле приводит к нормированной функции

R(τ )=

K (τ)

,

(4.41)

D

 

 

 

имеющей значение единица в точке τ = 0 : K (0) =1. Поскольку статистиче-

ская зависимость между [x(t1 )] и x(t +τ) ослабевает при возрастании τ , то в пределе при τ → ∞, эти значения будут независимыми. Тогда математи-

ческое ожидание (4.39) произведение двух независимых случайных процессов будет равно нулю:

lim K (τ )= K ()= 0 .

(4.42)

τ→∞

Всилу стационарности рассматриваемых процессов плотность распределения вероятности инвариантна относительно начала отсчета времени, что влечет за собой четность автокорреляционной функции:

K (τ) = K (τ).

(4.43)

Автокорреляционная функция суммы независимых случайных процессов, как это нетрудно показать, равна сумме автокорреляционных функций этих процессов. Пусть x(t) и y(t) представляют собой независимые ста-

ционарные процессы. Тогда

K (x + y)(τ) = [x(t) + y(t)][x(t +τ) + y(t +τ)] = = x(t)x(t +τ) + y(t)x(t +τ) + x(t) y(t +τ) +

161

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]