Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Литература / книга.pdf
Скачиваний:
148
Добавлен:
17.04.2013
Размер:
1.36 Mб
Скачать

 

f X (x) =

 

1

 

 

+∞

 

 

 

 

 

dy

 

 

 

 

 

=

 

 

1

 

+∞

 

 

 

dy

 

 

 

 

 

=

 

 

 

 

 

1 + x2 + y2 + x2

y2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

π2

 

 

 

 

π2

(1 + x2 ) (1+ y2 )

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

_

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

1

 

 

+∞

dy

 

 

 

1

 

 

 

1

 

 

 

1

 

 

 

 

 

 

+∞

 

1

 

 

 

 

1

 

 

=

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

arctg( y)

 

=

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

π(1

+ x2 )

 

π

 

1+ y2

 

 

 

 

 

π

1

+ x

2

 

 

π

 

 

 

 

 

 

−∞

 

π

 

 

(1 + x2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Полученная плотность соответствует распределению Коши.

 

Аналогично

 

f

( y) =

1

 

 

1

 

f

X ,Y

(x, y) = f

x

(x)

f

y

( y) и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

π

(1

+ y2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

компоненты X и Y независимы.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 8. Пусть Х1, Х2,…Хn

независимы и Xk N(mk,σk). Построить

плотностьсовместногораспределения компонентвектораХ= (X1,X2…Xn). В силу (3.5) для общего случая n-мерного вектора

f

 

(x , x ...x )

=

n

f

 

(x

) =

 

n

 

 

 

 

1

 

 

 

 

1

(x

 

m

)2

 

 

 

 

 

 

2π

exp

 

,

 

X

1 2

n

 

 

X k

 

 

k

σ

k

 

 

 

2

σ2

 

k

 

 

k

 

 

 

 

 

 

 

k =1

 

 

 

 

 

 

 

k =1

 

 

 

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

1

 

n

(x

m )

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

fX (x1...xn ) =

 

 

 

 

 

 

 

 

 

 

 

exp

 

 

 

k

 

 

k

 

 

-

 

 

 

 

 

n

 

 

 

 

 

 

2

 

σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k =1

 

 

 

 

 

 

 

 

 

 

 

 

 

(2π) 2 σ

 

...

σ

n

 

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

плотность n-мерного распределения с независимыми компонентами. Замечание. Если X и Y нормальны, но зависимы, то плотность век-

тора (X,Y) записывается следующим образом: f X ,Y (x, y) = C eQ(x, y) ,

где С - нормировочная константа; Q - неотрицательно определенная квадратичная форма двух переменных.

Более подробная запись двумерной плотности и свойства двумерного распределения приводятся в [2].

Глава 4. Функции от случайных величин

4.1. Теоремы о математическом ожидании функций

58

Определение. Пусть на вероятностном пространстве {Ω,F,P} заданы случайные величины X(w) и Y(w) и z = ϕ(x,y) - действительная функция от двух переменных. Тогда Z = ϕ(X,Y), при определенных условиях на случайные величины X и Y будет являться случайной величиной, определенной на том же вероятностном пространстве.

Теорема 4.1 (новая формула для математического ожидания).

Пусть X случайная величина дискретного типа с заданным законом распределения. Пусть математическое ожидание M[X] существует.

M [X ]= X (wi ) P(wi ).

(4.1)

i

 

Известна следующая формула, вытекающая из определения математического ожидания:

n

 

M [X ]= xk P{X = xk } .

(4.2)

k =1

Различие формул (4.1) и (4.2) состоит в том, что в (4.1) возможны повторные значения X(wi).

Разобьем все элементарные исходы на блоки:

Bk = {wi X(wi) = xk, i Ik},

где Ik множество индексов k-го блока.

По правилам теории вероятностей можем записать:

P{X = xk } = P(Bk ) = P(wi ).

i Ik

Преобразуем (4.2) следующим образом:

n

n

M [X ]= xk P(wi ) = ∑∑xk P(wi ) =

k =1 i Ik

k =1i Ik

n

 

= ∑∑X (wi ) P(wi ) = X (wi ) P(wi ),

k =1i Ik

i

что и требовалось доказать.

Теорема 4.2 (о математическом ожидании функции). Пусть Х -

СВДТ с заданным законом распределения и Z = ϕ(X) - новая случайная величина, где ϕ(х) - некоторая действительная функция действительной переменной.

59

n

Тогда M [Z ]= ϕ(xk )P{X = xk }.

k =1

Используем разбиение на блоки из теоремы 4.1.

M [Z ]= Z (wi ) P(wi ) = ϕ(X (wi )) P(wi ) = ∑∑ϕ(X (wi )) P(wi ) =

i

 

i

 

k i Ik

 

 

n

 

n

= ∑∑ϕ(xk ) P(wi ) = ϕ(xk ) P(wi ) = ϕ(xk ) P{X = xk },

k i Ik

 

k =1

i I

k =1

что и требовалось доказать.

 

 

Обобщение теоремы 4.2.

 

 

∑∑

ϕ(xi , y j ) pij , если(x, y) СВДТ;

 

 

i

j

 

 

(4.3)

M [ϕ(X ,Y )]= +∞+∞

 

 

ϕ(x, y) f X ,Y (x, y)dxdy, если(x, y) СВНТ.

−∞−∞

 

 

 

Замечание. Как показывает (4.3), для вычисления математического ожидания от функции Z = ϕ(X,Y) не обязательно знать закон распределения этой новой случайной величины, достаточно знать закон распределения того вектора, от которого она зависит.

Пример 1. На круговом индикаторе цели радиусом а наблюдается световое пятно - отраженный импульс от цели. Будем считать, что на этапе поиска цели пятно появляется наудачу в месте экрана. Найти среднее (по распределению) значение расстояния от центра экрана до светового пятна.

Формализуем задачу: пусть (X,Y) - случайные координаты центра пятна (случайная точка на плоскости). По описанию эксперимента

(X,Y) R (в круге радиусом a)

0, еслиточка внекруга(x2 + y2 z2 );

 

1

 

 

 

2

 

2

 

2

 

f X ,Y (x, y) =

 

, если

x

+ y

< a

.

 

π a

2

 

 

 

 

 

 

 

 

 

 

 

 

 

Нас интересует M[Z], где Z = ϕ(X ,Y ) = X 2 +Y 2 . По формуле (4.3)

60

 

X

2

+Y

2

 

 

x

2

+ y

2

 

dxdy

=

 

 

 

 

M

 

 

=

 

 

 

 

π a

2

 

 

 

 

 

 

 

 

 

 

Sкруга

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

переходимкполярнойсистемекоординат

 

 

1

 

2π

a

2

 

 

 

 

dϕr

dr =

= x = r cos(ϕ), y = r sin(ϕ),dxdy = rdrdϕ.

 

 

=

 

 

 

 

 

π a

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= 2 π

 

a3

 

1

=

 

2

a.

 

 

 

 

 

 

 

 

 

 

 

3

π a2

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Замечание. Формула (4.3) позволяет в записи моментов случайного вектора ввести оператор математического ожидания. Например, для начальных моментов СВНТ имеем

αk,s = M [X k Y s ]= {ϕ(x, y) = xk ys }= +∞+∞xk ys fX ,Y (x, y)dxdy,

−∞ −∞

что совпадает с определением из параграфа 3.4.

В частности, DX = M [(X mX )2 ], т.е. дисперсия - математическое ожидание квадрата центрированной случайной величины.

 

 

o o

,

 

 

KX,Y = M X Y

 

 

 

 

 

o

o

 

 

 

где X = X mX , Y

= Y mY - центрированные компоненты СВ, т.е.

ковариация, есть математическое ожидание произведения центрированных случайных величин.

4.2. Свойства числовых характеристик случайного вектора

Свойство 1. Линейность математического ожидания.

M [a X + b Y + c]= a M[X ] + b M[Y ] + c.

M [a X + b Y + c]= M[ϕ(X ,Y )] = {ϕ(x, y) = ax + by + c}=

проведемдоказательство

=

∑∑

(a xi +b y j + c)pij =

=

 

для дискретногослучая

 

 

 

 

 

 

i j

 

61

= a ∑∑xi pij + b ∑∑y j pij + c ∑∑pij = i j i j i j

= a xi pij +b yi pij + c = a xi pi+b y j pj + c =

i

j

i

j

i

j

= a M [X ] + b M[Y ] + c.

Следствия из свойства 1:

1)M[c] = c;

2)M[aX] = aM[X];

3)если X 0 M[X] 0 Y X M[Y] M[X].

Свойство 2.

D[a X +b Y + c]= a2 D[X ] + b2 D[Y ] + 2 a b KX ,Y .

По новому определению дисперсии:

 

 

o 2

 

 

 

 

 

 

 

 

 

 

D[Z ]=M[Z ] D[a X + b Y + c]=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

o

o

2

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=M[(a X +b Y + c M [a

X +b Y + c]) ] = M

 

 

 

=

a X +bY

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= M[a

2

o

2

2 o 2

o

o

раскрываемскобки

результат.

 

X

+b

Y

+ 2ab X Y ] =

 

 

 

 

 

 

 

 

 

 

посвойству1

 

 

 

 

 

 

Следствия из свойства 2:

1)D[aX ] = a2 D[X ] ;

2)D[X] 0;

3)D[c] = 0;

4)если D[X] = 0 X = const.

Свойство 2 в общей формулировке:

n

 

n

n n

D ak X k + c = ak2 D[X k ] + 2∑ ∑ai a j Ki, j ,

k =1

 

k =1

i=1 j=1

 

 

 

i< j

o o

где Ki, j = M[X i Y j ].

62

Определение 1. Случайные величины X и Y называются некорре-

лированными, если KX,Y = 0. Свойство 3.

M[XY] = M[X] M[Y] + KX,Y.

раскрываемскобки

 

 

K X ,Y =M[(X mX ) (Y mY )] =

 

 

ииспользуемсвойство1

 

результат. Напрактикеэтосвойствоиспользуется длявычисленияковариации:

K X ,Y = α1,1 mX mY .

Следствие из свойства 3.

Если KX,Y = 0, то M[XY] = M[X] M[Y].

Замечание. Для большего числа случайных величин ( 3) некоррелированности недостаточно для расщепления математического ожидания произведения в произведение математических ожиданий. В этом случае должна выполняться независимость в совокупности.

M[XYZ] = M[X] M[Y] M[Z], если X,Y,Z независимы в совокупности.

Свойство 4. Если X и Y независимы, то D[XY] = D[X] D[Y] +

+ m2X D[Y] + m2Y D[X].

Выразить дисперсии через математическое ожидание и воспользоваться свойствами 1, 3.

Свойство 5. Неравенство Коши-Буняковского:

M 2[XY] M[X 2] M[Y 2].

Рассмотрим неравенство M[(aX + Y)2] 0, а R или M[a2X 2+ + 2aXY + Y 2] = {по свойству линейности} = a2M[X 2] + 2aM[XY] + M[Y 2] 0

дискриминант = 4 M 2[XY] – 4 M[X 2]M[Y 2] 0 результат.

Следствия из свойства 5:

1) приY 1 M 2[X] M[X 2] (илиm2Y ≤ α2): если α2 α1 = mX;

2) если α4, то существуют и α1, α2, α3.

Для доказательства использовать неравенство КошиБуняковского);

3) Х,Y| ≤ σXσY

63

 

В неравенстве Коши-Буняковского

 

 

o

o

 

заменим XX , YY

M 2

o o

o 2

o 2

 

 

 

 

 

 

 

 

 

 

[X Y ]

M[X ]M[Y ] K 2

D

X

D |КХ,Y| ≤ σXσY.

 

 

 

 

X ,Y

 

 

 

Y

 

 

 

 

 

Определение 2. Число ρX ,Y =

 

K X ,Y

называется коэффициен-

 

σ

X

σ

 

 

 

 

 

 

 

Y

 

 

 

 

том корреляции случайных величин X и Y .

 

 

 

 

 

Определение 3. Пусть X - случайная величина с характеристиками

mX

и σX.

Тогда

преобразованная

величина

U =

X mX

 

называется

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

стандартизованной случайной величиной, так как M[U] = 0, D[U] = 1, а само преобразование называется преобразованием стандартизации.

Проверим, например, что D[U] = 1.

 

X mX

 

 

1

 

1

 

D[U ] = D

 

=

D[X mX ] =

D[x] =1.

 

 

 

 

σX

 

σ2X

σ2X

Свойство 6. Преобразуем случайный вектор (X,Y) в (U,V) по пра-

вилу преобразования стандартизации:

U =

X mX

 

, V =

Y mY

. Тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

ρU,V = ρX,Y.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

По определению

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

KU ,V

 

 

 

 

 

 

 

o o

 

 

 

X

m

 

 

 

Y

m

 

 

ρ

=

 

 

 

 

= K

 

 

 

=M[U V ] = M[UV ] = M

 

 

 

 

 

 

 

X

 

 

 

 

 

 

Y

 

=

σ σ

U ,V

 

 

σ

 

 

 

 

 

σ

 

 

 

U ,V

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

Y

 

 

 

 

U V

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

1

 

 

 

M[(X m

X

) (Y m )] =

K X ,Y

 

 

= ρ

X ,Y

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σY σY

 

 

 

 

 

Y

 

σX σY

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом, показано, что преобразование

 

 

стандартизации не

меняет коэффициента корреляции.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Свойство 7.

 

 

ρ X , Y

 

 

1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Следует из определения ρX,Y и следствия 2 из свойства 5.

K X ,Y ≤ σX σY ρX ,Y 1 .

64

Свойство 8. Пусть Y = aX + b ρX ,Y

 

a

1,

если a > 0;

=

 

=

если a < 0.

a

 

 

1,

Обратно. Если ρX ,Y = ±1 Y = aX + b,

где a > 0, если ρX ,Y = +1,

a < 0, если ρX ,Y = −1.

ПустьY = aX + b M[Y] = aM[X] + b, D[Y] = D[aX + b] = a2D[X].

o

o

 

o

 

 

 

o

= a DX = a σ2X .

K X ,Y =M X Y

= M X (a X )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ρX ,Y =

K X ,Y

=

 

a σ2X

 

 

=

 

 

a

= ±1.

σ

X

σ

σ

X

 

 

a

 

σ

 

 

 

a

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

Обратно. Пусть ρX ,Y = +1. Перейдем от (X,Y) к (U,V) путем преобразования стандартизации рассмотрим D[U V ] = D[U ] + D[V ] 2KU ,V =

=1+12 ρU ,V σU σV = 2 2 = 0 . Так как D[U V] = 0, то согласно следствию 4 из свойства 2 U V = const = c.

 

 

U V =

X mX

Y mY

= c

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

X

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

Y mY

=

X mX

 

c ;

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

 

σ

X

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

Y =

σY

X + m

 

σY

 

m

 

c σ

 

Y = aX + b, где a > 0.

σX

σX

 

 

 

 

Y

 

 

 

 

X

 

 

 

 

 

X

 

 

 

 

 

{

1444244443

 

 

 

 

 

a

 

 

 

 

 

b

 

 

 

 

 

 

 

 

 

 

 

Случай ρX ,Y = −1 рассматривается аналогично.

Пример 2. Пусть Y = –3X + 1. Вычислить ρX,Y.

Ответ: ρX,Y = –1.

Свойство 9. Из независимости X и Y следует некоррелированность

X и Y.

Пусть X и Y СВНТ и независимы fX ,Y (x, y) = f X (x) fY ( y)

65