Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Медич Д. Статистически оптимальные линейные оценки и управление

.pdf
Скачиваний:
86
Добавлен:
25.10.2023
Размер:
13.81 Mб
Скачать

Пример 3-5. Пусть X, х и s — скаляры, причем X — гауссовская случайная величина с плотностью распределения

а у 2п

где о">0 (гауссовское распределение вероятностей специально иссле­ дуется в § 3-5). Пусть X является входным сигналом квадратичного детектора, выходной сигнал которого имеет вид

У=аХ 2 , а > 0 .

Требуется определить плотность распределения f y (у) выходного

сигнала.

Из уравнения (3-20) и из соотношения У = аХг имеем:

Чу (s) = Е (e1Ys) = Е {е>аХЧ) = f е'ахЧ ~ е 2 Ф dx =

— 00

00 JC*_

О

Однако # = ах 2 и dy = 2axdx = 2 Кса/ rfx. Следовательно,

 

¥у (s) =

 

«'»•

1

 

1 2<ів»

ûf(/

 

 

 

 

і Т ^ " е

 

 

 

 

= 1

 

 

 

 

 

 

 

 

 

 

 

oo

 

 

2аа»

 

 

 

 

 

 

 

J

 

s к 2гса(/

 

 

 

 

 

 

 

О

 

 

 

 

 

 

Замечая, что из соотношения

Y =

аХ2

при а > 0 следует, что

Y Зг 0,

получаем:

 

 

 

 

 

 

 

 

 

 

 

 

I

 

2аи>

 

 

 

 

 

 

 

е

 

 

 

 

 

 

 

h (У) = {

I / O — •

Е С Л И

# > °;

 

 

 

 

 

0 в остальных

точках.

 

 

3-4. НЕЗАВИСИМОСТЬ И КОРРЕЛЯЦИЯ

 

 

 

Независимые

 

события,

случайные

величины

 

 

и случайные

 

векторы

 

 

 

 

 

Два события A,

B Œ Q

называют взаимно

независи­

мыми,

если

Р(АГ\В)

=

Р(А)Р(В).

 

 

 

 

 

 

100

Подставляя это определение в уравнение (3-9),полу­ чаем соотношение для взаимно независимых событий

А и В:

Иными словами, тот факт, что событие В произошло, не оказывает влияния на вероятностный закон появле­

ния

события

А; эти два

события

являются «несвязан­

ными».

 

 

множеств Аи Л2 , .. .

 

Конечное

или счетное

семейство

...,

Ап, .. . из Q называется независимым, если

Р | П Л г - ] = Р ( Д ) Р ( Л 2 ) . . . Р ( Л п ) . . .

Поэтому компоненты случайного я-вектора X назы­ вают статистически независимыми или кратко независи­ мыми, если функцию распределения F(x) можно пред­ ставить в виде

 

 

 

F{x) = f[Fi{Xi),

(3-25)

 

 

 

1=1}

 

 

где

Fi(Xi)

=Р(ХІ^ХІ).

Семейство

(Xi, ..., ХП)

назы­

вается системой независимых случайных величин.

 

 

Из уравнения (3-25) следует, что соответствующая

плотность

распределения имеет вид:

 

где

 

 

tel

 

 

 

 

 

 

 

для

і = 1 , ..., я в предположении,

что указанные

произ­

водные существуют.

 

 

 

Соответствующая характеристическая функция

 

 

 

М « ) = = П

 

( 3 " 2 7 )

где

 

 

tel

 

 

 

 

 

 

 

 

 

 

00 .

 

 

 

 

Vi (Si) =

j е*% (xi) dxi\

i = 1,..., п.

 

 

 

 

— 0 0

 

 

101

Заметим, что уравнения (3-25) — (3-27) эквивалентны определениям независимости системы п случайных ве­ личин.

По аналогии с определением независимых случайных величин можно сказать, что два случайных вектора X и Y независимы, если

где

 

 

F(x,

y)=Fx(x)Fr(y),

 

 

(3-28)

 

 

 

 

 

 

 

 

 

Fx(x)=P(X<X);

 

 

 

FY(y)=P(Y^y).

 

Отсюда следует,

что

 

 

 

 

где

 

 

f(x,

y)=fx(x)fY(y),

 

 

(3-29)

 

 

 

 

 

 

 

 

 

 

 

 

dnF

у

 

c W v

 

' * ѵ

'

 

Лс,...сЬгп

 

 

ду1...дут

 

если указанные частные производные существуют.

Соответствующая

характеристическая

функция имеет

вид:

 

 

ф(5, Г)=ф*(5)фу(г),

 

(3-30)

где

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

00

 

00

 

 

 

 

?x(s)=

 

 

J...

 

§eix'sfx{x)dx1...dxn;

 

 

 

 

—со

 

—оо

 

 

 

 

?,(/•)=

J . . .

 

^ew%{y)dy,...dym.

 

 

 

 

—00

 

—00

 

 

 

 

Здесь s — я-вектор;

r — m-вектор.

 

 

Для независимых

X и У имеем:

 

 

 

/

(

^

) =

 

fy (у)

=

f * { x ) '

 

 

так что

 

 

 

 

 

 

 

 

 

 

 

 

00

 

00

 

 

 

 

Е(Х\У)=

 

 

 

 

J^/(x|y)rfx, ...Й?Л;П =

 

 

 

 

—00

 

—00

 

 

 

 

СО

 

 

00

 

 

 

 

 

 

=

 

 

 

 

I" xfx{x)dx1...

dxn

— E

(Х)~х,

—оо

 

—оо

 

 

 

 

 

 

ианалогично

^= Р * х = £ [ ( Х - * ) ( Х - - * ) ' ] -

102

Пример 3-6. В примере 3-2

• /

і

/

для х 2 +

і/!

f I

 

 

 

 

 

 

 

V

О в

 

:

 

 

 

в

остальных точках.

Здесь случайные величины X и У зависимы. Независимые случай­ ные величины Хі и Хг иллюстрируются примером 3-3, где их совмест­ ную плотность распределения

 

 

 

4х,хг<?

1

2

для

X,,

х 2 ^ 0 ;

 

 

 

О в остальных точках

 

можно представить в виде

 

 

 

 

 

 

 

 

 

 

f (Xi. x2)

= fXi

 

 

 

г ),

 

где

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f

 

~ * i

 

 

 

 

 

 

fX i

(x,)

= < 2

j c

' e

 

д л

я

 

точках;

 

 

 

{.

 

О в

остальных

аналогично для fx

2 ) .

 

 

 

 

 

 

 

 

Легко

убедиться,

что

 

 

 

 

 

 

 

 

 

 

 

 

 

00

 

 

 

 

 

 

 

fx,

( * i ) ^ o ;

j

f*,

( * i ) « f c i

=

i ;

 

 

 

 

 

0

 

 

 

 

 

 

аналогично для fx

(x2 ).

 

 

 

 

 

 

 

 

К о р р е л я ц и я

 

 

 

 

 

 

 

 

 

Две

случайные

величины

Х{

И Ул-

называются не­

коррелированными,

если

 

(Хг)Еу5)

 

 

£

 

( Х , У , ) = £ ,

( 3 - 3 1 )

и коррелированными

в

противном

случае.

Если

X — случайный

n-вектор,

компоненты которого

некоррелированы,

то

 

 

 

 

 

 

 

 

Е [{ХІ -

Xi) (Xj]-

ХІ)] =

Е

(XtXi)

-[XiXs

 

=

Xtxf-ІХіХіЩО

для всех іфѵ], г, j=l, ..., п. Отсюда следует, что соот­ ветствующая корреляционная матрица

Р**Е[(Х—х)(Х—х)1

диагональна.

103

 

Если X и У— случайные

векторы с компонентами X,,

t =

l , ..., п и

У,-, / = 1 , ...,

т,

причем соотношение (3-31)

справедливо для всех і и /, то X и Y называются

взаим­

но

некоррелированными

случайными

векторами.

 

В этом

случае

 

EXY(XY')=E(X)E{Y')=xy'.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Из уравнения (3-16)

 

 

 

 

 

 

 

 

 

 

 

PXY

= E[(X-x)(Y-y)']

 

 

 

= E(XY')-xy'

= 0.

 

 

 

Взаимная корреляционная матрица двух некоррели­

рованных

случайных векторов является нулевой.

 

 

 

Две матрицы

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ѵ Х Х

=

Е(ХХ')

 

 

и W X Y

=

E(XY')

 

 

 

называются

соответственно

ковариационной

матрицей

X

и взаимной

 

ковариационной

матрицей

X и У.

 

 

 

 

Коэффициент

корреляции

двух случайных величин ХІ

и

Yj определяется

соотношением

 

 

 

 

 

 

 

 

 

р . . =

£ Г ( * І - * І )

Vi-Ч\

 

 

 

 

Yj

Этот коэффициент, очевидно, равен нулю,

если ХІ

и

взаимно

некоррелированы.

 

 

 

 

 

 

но

Докажем

неравенство

| р г 3 | ^ ' -

Д л я этого

достаточ­

рассмотреть

случай

Xi = jjj = 0-

Тогда,

если

с — ска­

лярная постоянная величина, то можно заметить, что

 

 

Е [(сХг -

Yjf] =

Е (X]) с2

-

( В Д ) с +

Е (У*) > 0.

 

 

Однако,

так

как выражение Е (X^)£s

( Х ^ ) с -f-

-+-£(У^) является квадоатным

трехчленом относительно с,

необходимые

и достаточные

 

условия

его

неотрицатель­

ности имеют вид:

 

 

 

 

 

 

 

 

 

 

 

 

 

Е(Х2)>0

и E(Y2\~

' £

™ 1 2

> 0 .

 

 

 

Первое условие, очевидно, выполняется всегда. Вто­ рое приводит к неравенству

1 _ _І£ИІГІ111_ > 0

£(Л-( ?)£(5ф

или, что то же самое, к доказываемому неравенству

1—р2>0.

104

В заключение заметим, что два независимых случай­ ных вектора некоррелированы, но обратное утверждение в общем случае неверно.

Если X и У независимы, то, очевидно.

 

 

ОО

00

 

 

 

ExY(XY')=

 

^xy'fx{x)}y(y)dx1...dxndy,...dym

=

 

 

— 0 0

— 00

 

 

 

 

00

00

 

СО

00

 

=

1'*'

\ x f x ( x ) d x t - d x *

J---

J y'fY{y)dy1...dym

=

 

— 0 0

— 0 0

=

— 0 0

—CO

 

 

 

 

E(X)E(Y').

 

Чтобы показать, что обратное утверждение неверно,

достаточно считать

X и

У скалярами.

Пусть функция

fx(x) симметрична

относительно х = 0

и

пусть Y=X2.

Тогда

 

 

 

 

E(XY) =

E(X3)=

Jx3f(x)dx

=

0,

 

 

—со

 

 

поскольку подынтегральное выражение—нечетная функ­ ция x. Так как Х=0, имеем:

Е(Х, У ) = Х У = 0 .

Эти две случайные величины, очевидно, некоррелиро­ ваны, но в силу соотношения Y=X2 они зависимы.

3-5. Г А У С С О В С К О Е РАСПРЕДЕЛЕНИЕ

Один из законов распределения вероятностей, чаще всего используемых при практическом изучении случай­ ных явлений в природе, называется гауссовским или нормальным распределением. Это распределение приоб­ рело особенную важность для теории связи, теории оце­ нок и теории управления начиная с 40-х годов.

Гауссовское распределение играет столь существен­ ную роль в приложениях в силу двух основных причин. Во-первых, было экспериментально показано, что гауссовская модель обеспечивает приемлемую аппроксима­ цию случайного поведения многих физических систем. Кроме того, частичное обоснование использования гауссовского распределения при описании случайных явле­ ний дает центральная предельная теорема, рассматри­ ваемая ниже.

105

Во-вторых, гауссовское распределение очень удобно с аналитической и вычислительной точек зрения. Это вы­ звано тем, что оно полностью определяется своими пер­ вым и вторым моментами, т. е. математическим ожида­ нием и корреляционной матрицей.

Описание вероятности

Для упрощения дальнейших выкладок здесь удоб­ но несколько изменить обозначения. Впоследствии для обозначения случайных векторов будут использоваться

строчные буквы

x, у, z, |

и £.

 

 

 

 

Случайный п-вектор называется распределенным

по

гауссовскому

закону

или

нормально

распределенным,

если его характеристическая функция

имеет вид:

 

 

 

ф ж ( 5 ) = е х р

(jx's

cj-s'Ps),

(3-32)

где

s — п-вектор; х = Е(х);

Р=[(х—х)

(х—х)'].

 

 

В этом параграфе будет показано, что соответствую­

щая плотность

распределения имеет вид:

 

 

 

1

ехріі

 

 

 

(3-33)

 

 

 

4

 

 

с * - * )

 

 

Ѵ ( 2 * ) " | Я |

 

 

 

где

\Р\—определитель

матрицы

Р.

Заметим, что f(x)

не существует, если матрица Р сингулярна. Поэтому га­ уссовское распределение обычно определяют с помощью его характеристической функции. В дальнейшем матрица Р считается положительно определенной и поэтому не­

сингулярной,

если рассматривается

гауссовская

плот­

ность распределения.

 

 

 

 

 

 

 

 

Два случайных вектора х и у соответственно

n-мер­

ный и /n-мерный имеют совместное

гауссовское

распре­

деление,

если

их совместная

характеристическая

функ­

ция выражается соотношением

s

 

1 s

 

?xy(s,

г) =

е х р | /

X

t

s

1

 

 

 

 

 

 

 

'7

 

г

2

г

1 г

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=ехр j / ( * ' s - f у'г)

 

где s — п-вектор; г /п-вектор; х = Е(х);

у = Е(у);

следующая матрица размера (п + m) X

(п+тп):

Р = \

ѵѵ I

106

(3-34)

Р-

Здесь

Р »

= £ [

( *

- * )

 

(х-х)'};

Рху = Е[{х-Х){у~у)');

 

 

 

Р, ух-

Руу =

 

Е[{у-у){у~у)'}.

Ясно, что вводя

два

(п + т)-мерных вектора

 

X

1

?

=

г

 

У

и

s

 

 

 

 

можно представить уравнение (3-34) в виде, аналогич­ ном уравнению (3-32). Совместная плотность распреде­ ления X Yi у тогда имеет вид:

1

exp

Vr(2n)n+m

I P

 

(3-35)

где матрица P положительно

определена.

При действиях с совместной гауссовской плотностью распределения двух случайных векторов зачастую удоб­

но иметь выражение Р~1 через Рхх,

Рху и Рѵу. Его можно

получить,

обозначая

 

 

 

 

 

 

 

 

 

 

1

! А

в

 

 

 

 

 

 

 

\В'

с

 

 

где

матрицы А, В и С имеют

соответственно

размеры

пХп,

пХт

и тХт

и

определены

таким образом, что

произведение РР~1 равно /, единичной матрице

размера

(п + т) X (п + т). Вычисления

предоставляются

читате­

лю

в качестве упражнения, результат их имеет вид:

А = (Рхх -

Я п Д у - ' Л , » ) - 1

= = < Р ^ +

р^рхуСРуХР^;

(3-36)

 

 

В = ~

АР^Р-1

= -

Р _ , Я ™ С ;

(3.37)

С =

;

РуХР~1Рху)-1

=

Я " ' +

 

Р^РуЛРхуР-1.

(3-38)

 

УУ

 

 

 

 

 

 

 

В предположении, что обратные матрицы в уравне­ ниях (3-36) — (3-38) существуют, используем эти соотно­ шения, чтобы получить выражение для условной гауссов­ ской плотности распределения,

107

Согласно

уравнениям

(3-33)

и

(3-35)

 

 

 

f(x,

у)

 

 

 

 

 

 

(

1

x x

X

 

V(2n)

 

+™\P

 

ехр {

-

 

 

 

n

 

\У — Ч

 

 

 

 

 

 

 

\

 

 

 

 

 

 

X

 

А

В

х

X

 

 

 

 

 

 

 

 

В'

С

 

 

 

 

 

 

 

 

 

У— Î

 

 

 

î(y)

=

 

 

I Ру

 

.ехр

 

—т{у-У)'руу

 

 

(У-У)

 

 

 

 

 

 

 

 

 

 

 

 

 

Далее,

с помощью формулы

Байеса

получим:

 

f(x\y)--

 

 

 

 

 

 

i

1

x X

X

 

| /

(2")2

 

"

 

ехр

-

У — '?

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

\Pvv\~

 

 

 

 

 

 

 

 

 

X

А

 

В

 

 

x x

 

 

(3-39)

 

 

 

В'

 

C-Prf

 

У —7

 

 

 

 

 

 

 

 

 

 

Раскрывая квадратичную форму в показателе сте­

пени и подставляя в нее уравнения (3-37)

и (3-38), по­

лучаем:

 

 

 

 

 

 

 

 

 

 

 

 

X

s

г

А

В

 

 

х

—X

•-{х — х)'А{х

— х)-\-

у — У

В'

 

 

1 У—у

 

 

 

 

 

 

 

+ 2(х-х)'В(у-у)

 

 

+

{у-у)'

 

(С-Р-])(у~у)

 

=

=

(х-х)'А(х-х)-2(х-

 

 

 

x)'

АРХУР-^ (у-у)

+

 

 

+ (У-

У)' Р-'Ру.АР^

 

(у-у)

=

 

= {

х -

х - РхуР-1

(у - у)]' А[х-х-

Р ^ Р - ' - у)].

Обозначая

 

 

 

 

 

 

 

 

 

 

 

 

 

Q

А

 

1 — Р х х

РхуР,... Р1ухі

 

 

приведем квадратичную форму к виду

 

 

 

Замечая,

что

(х—m) 'Q -1

(х—т).

 

 

 

 

 

 

 

 

 

 

 

 

 

Р

р

XX

РхѴ

 

Рхх -РхуР^Рух

 

Р

 

 

 

= 1

 

 

 

 

 

 

 

 

 

 

 

 

РѴх Руѵ

 

 

 

 

О

 

Рии

рру

 

108

где In — единичная матрица размера пХп, а Іт — раз­ мера mXtn, получим:

І Я Н І ^ - Р ^ Р - Ч - І І ^ І .

Следовательно,

^ 1 г \ Р х х - Р х у р - І Р у А = т

Уравнение (3-39) теперь можно представить в виде

\- (x - m)' Q-1 (x - m)J. (3-40)

Сравнивая этот результат с уравнением (3-33), мож­ но убедиться, что функция f(x\y) является гауссовской плотностью распределения с математическим ожиданием m и корреляционной матрицей Q. Условное математиче­ ское ожидание и условная корреляционная матрица, оче­ видно, имеют вид:

m = Е (х\у) =

z + РхуР-1 (у - у);

(3-41)

Q = Рх]и =

Р** - Р*уР^Ру*-

(3-42)

Ясно также, что соответствующая условная характе­ ристическая функция принимает вид:

T^Jf) = ец> pirn's — 4 " s'Qs^j,

(3-43)

где s — «-вектор. Заметим, что описание с помощью характеристической функции требует всего лишь неот­ рицательной определенности корреляционной матрицы; в этом случае ее обратная матрица может и не сущест­ вовать.

Важное свойство гауссовского распределения заклю­ чается в том, что оно полностью определяется своими математическим ожиданием и корреляционной матри­ цей. В частности, можно показать, что все моменты гаус­ совской случайной величины можно выразить через ее первых два момента [Л. 3-4].

109

Соседние файлы в папке книги из ГПНТБ