Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Лекции по теории вероятностей

.PDF
Скачиваний:
63
Добавлен:
02.05.2014
Размер:
769.22 Кб
Скачать

Следствие 12.

Åñëè 6 ï.í., òî E 6 E .

Åñëè 6 ï.í., è ïðè ýòîì E = E , òî = ï.í.

E6. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий: если и независимы, то E ( ) = E E .

Доказательство.

Xk

X

X

E ( ) = (xkyn)P( = xk; = yn) =

xk

ynP( = xk)P( = yn) = E E :

k;n

 

n

Замечание 19. Обратное утверждение к свойству E6 неверно: из равенства E ( ) = E E не следует независимость величин и .

Пример 30. Пусть ' = U0;2 , = cos ', = sin ' — заведомо зависимые случайные величины (доказать!). Но математическое ожидание их произведения равно произведению их математических ожиданий: по свойству E1

2

1

 

 

2 1

 

 

2 1

 

E = Z0

 

cos x dx = 0;

E = Z0

 

 

sin x dx = 0;

E = Z0

 

 

cos x sin x dx = 0 = E E :

2

2

2

11.3Моменты старших порядков. Дисперсия

Определение 41. Åñëè E j jk < 1, то число

E k называется моментом порядка k (k-м моментом) случайной величины ;

E j jk называется абсолютным моментом порядка k (абсолютным k-м моментом) слу- чайной величины ;

E ( E )k называется центральным моментом порядка k (центральным k-м моментом) случайной величины ;

E j E jk называется абсолютным центральным моментом порядка k (абсолютным центральным k-ì моментом) случайной величины .

Число D = E ( E )2 (центральный момент порядка 2) называется дисперсией слу- чайной величины

Пример 31. Пусть, скажем, случайная величина принимает значение 0 с вероятностью 1 10 5, и значение 100 с вероятностью 10 5. Посмотрим, как моменты разных порядков реагируют на большие, но маловероятные значения случайной величины.

E = 0 (1 10 5) + 100 10 5 = 10 3;

E 2 = 02 (1 10 5) + 1002 10 5 = 10 1;

E 4 = 04 (1 10 5) + 1004 10 5 = 1000;

E 6 = 06 (1 10 5) + 1006 10 5 = 10000000:

60

Пример 32. Дисперсия D = E ( E )2 есть «среднее значение квадрата отклонения случайной величины от своего среднего». Посмотрим, за что эта величина отвечает.

Пусть случайная величина принимает значения 1 с вероятностью 1=2, а случайная величина — значения 10 с вероятностью 1=2. Тогда E = E = 0, поэтому D = E 2 = 1, D = E 2 = 100. Говорят, что дисперсия характеризует степень разброса значений случайной величины вокруг ее математического ожидания.

Если говорить о распределении случайной величины, как о распределении единичной массы

по невесомому стержню, то дисперсия есть в точности момент инерции этого стержня,

закрепленного в центре тяжести.

p

Определение 42. Если дисперсия величины конечна, то число = D называют

среднеквадратическим отклонением случайной величины .

Чтобы прояснить связь моментов разных порядков, докажем несколько неравенств.

Теорема 26 (Неравенство Йенсена).

Пусть функция g : R ! R выпукла (âíèç :-)) ). Тогда для любой случайной величиныс конечным первым моментом

E g( ) > g(E ):

Нам понадобится следующее свойство выпуклых функций (то есть таких, что для любых a < b при всяком 2 [0; 1] верно g(a) + (1 )g(b) > g( a + (1 )b)):

Лемма 8. Пусть функция g : R ! R выпукла. Тогда для всякого y найдется число c(y) такое, что при всех x

 

g(x) > g(y) + c(y)(x y):

 

 

 

 

 

 

Доказательство

(предложено Дебеловым Алексеем, гр.871).

Положим c(y) = inf

g(x) g(y)

. Тогда g(x)

 

g(y)

>

c(y)(x

 

y) ïðè x > y.

x>y x y

 

> 1

 

 

 

Докажем, что это неравенство верно и при x < y, и заодно покажем, что c(y) конечно. Пусть x1 < y. Тогда y принадлежит отрезку [x1; x2] для любого x2 > y, то есть существует

2 [0; 1] такое, что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y x1

 

 

 

 

 

 

 

 

 

y =

 

x

1

+ (1

 

)

 

x

;

èëè

 

 

x

2

=

:

 

 

 

 

(14)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

Но в силу выпуклости функции g

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g(y)

6

 

 

g(x

) + (1

 

)

 

g(x

);

 

 

èëè

 

g(x

)

>

g(y) g(x1)

:

(15)

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

2

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

g(x2) g(y)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Вспомним, что c(y) = infx2>y

 

и подставим вместо g(x2) è x2 выражения, стоящие

 

 

 

 

 

 

 

 

x2 y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

в правой части формул (15) и (14), соответственно:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g(x2) g(y)

 

 

 

 

g(y) g(x1)

 

g(y)

 

g(y) g(x1)

 

 

 

c(y) =

inf

>

 

 

 

 

1

 

 

 

 

 

 

=

 

:

 

 

 

 

 

x2>y

 

 

x2 y

 

 

 

 

 

 

 

 

 

 

 

y x1

 

y

 

 

 

 

 

 

 

 

y x1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

61

Последнее выражение заведомо конечно, то есть c(y) > 1. Более того, мы получили, что требуемое неравенство выполнено и для x < y:

c(y)

>

g(y) g(x1)

для любых x

 

< y; òî åñòü g(x

)

>

g(y) + c(y)(x

1

y):

 

y x1

 

1

 

1

 

 

 

Доказательство теоремы 26.

Возьмем в условиях леммы y = E , x = . Тогда

g( ) > g(E )+c(E )( E ). Вычислим математическое ожидание обеих частей неравенства. Так как E ( E ) = 0, и неравенство между математическими ожиданиями сохраняется по следствию 12, òî E g( ) > g(E ).

Следующее свойство показывает, что из существования моментов больших порядков следует существование моментов меньших порядков.

Следствие 13. Åñëè E j jt < 1, то для любого 0 < s < t

(E j js)t 6 (E j jt)s

Доказательство. Поскольку 0 < s < t, то g(x) = jxjt=s — выпуклая функция. По неравенству Йенсена для = j js,

g(E ) = (E )t=s = (E j js)t=s 6 E g( ) = E j jt=s = E j js t=s = E j jt:

Возведя обе части неравенства в степень s, получим требуемое неравенство.

В частности, конечность второго момента (или дисперсии) влечет существование математического ожидания.

q

Следствие 14. Åñëè E j jk < 1 при некотором k > 1, òî E j j 6 k E j jk.

11.4Свойства дисперсии

Все свойства дисперсии следуют из соответствующих свойств математического ожидания.

D1. D = E 2 (E )2.

Действительно,

D = E ( E )2 = E 2 2 E + (E )2 = E 2 2E E + (E )2 = E 2 (E )2:

D2. D (c ) = c2D . Доказать!

D3. D > 0;

D = 0 если и только если = const п.н.

Доказательство. Дисперсия есть всего-навсего математическое ожидание п.н. неотрицательной с.в.: D = E ( E )2, и неотрицательность дисперсии следует из свойства E5.

По тому же свойству, D = 0 если и только если ( E )2 = 0 ï.í., òî åñòü = ï.í.

D4. Дисперсия не меняется от сдвига с.в. на постоянную: D ( + c) = D . Доказать!

62

D5. Если и независимы, то D ( + ) = D + D .

Действительно,

D ( + ) = E ( + )2 (E ( + ))2 = E 2 + E 2 + 2E ( ) (E )2 (E )2 2E E = D + D ;

так как математическое ожидание произведения независимых с.в. равно произведению их математических ожиданий.

Замечание 20. См. замечание 19.

D6. Минимум среднеквадратического отклонения случайной величины от точек вещественной прямой есть среднеквадратическое отклонение от своего математического

ожидания: D = E ( E )2 = min E ( a)2.

a

Наименьший момент инерции стержня с распределенной на нем единичной массой получится,

если точка вращения — центр тяжести стержня, а не любая другая точка.

Доказательство.

E ( a)2 = E ( E ) + (E a) 2 =

2 2

= D + E a + 2 E ( E ) E a = D + E a > D ;

| {z }

0

причем равенство достигается только для a = E .

11.5 Математические ожидания и дисперсии стандартных распределений

Пример 33. Распределение Бернулли Bp

E = 1 p + 0 q = p; E 2 = 12 p + 02 q = p; D = E 2 (E )2 = p p2 = pq.

Пример 34. Биномиальное распределение Bn;p

Воспользуемся свойством устойчивости биномиального распределения относительно суммирования — леммой 5. Возьмем n независимых случайных величин 1; : : : ; n, имеющих распределение Бернулли Bp = B1;p.

Тогда их сумма Sn = 1 + : : : + n имеет распределение Bn;p.

n

X

E Sn = E i = nE 1 = np;

i=1

òàê êàê âñå i одинаково распределены и их математическое ожидание равно p;

n

X

D Sn = D i = nD 1 = npq;

i=1

поскольку i независимы и дисперсия каждой равна pq.

63

Пример 35.

Геометрическое распределение Gp

 

 

 

 

 

 

 

 

 

 

 

Ïðè p 2 (0; 1)

 

 

 

 

 

1 qk!0 =

 

 

 

 

 

 

 

 

 

E = 1 k pqk 1

= p

1

kqk 1 = p

1

(qk)0 = p

 

 

 

 

 

 

 

 

 

X

 

X

 

X

 

Xk

 

 

 

 

 

 

 

 

 

 

 

k=1

 

k=1

 

k=1

 

=1

!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= p

1

0

 

1

0

 

1

1

 

 

 

 

 

 

qk

= p

 

 

= p

=

 

:

 

 

 

 

 

1 q

 

(1 q)2

p

 

 

 

 

 

 

k=0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

Равенство (*) появилось из-за нежелания дифференцировать сумму геометрической прогрессии, начинающейся не с 1, а с q. Заметьте, что производная у добавленных слагаемых равна 0, так что производные от этих двух сумм равны.

 

1

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

1

 

 

 

 

E 2 =

X

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

Xk

 

 

 

 

 

X

 

 

 

 

k2 pqk 1 = p

 

 

 

k(k 1)qk 1 + p

kqk 1 = pq

 

k(k 1)qk 2 + E =

 

k=1

 

 

 

 

 

k=1

 

 

 

 

 

 

 

 

 

 

 

 

=1

 

 

 

 

 

 

k=1

 

 

 

 

= pq

1

 

@2

qk + E = pq

1 @2

(qk)! + E =

 

 

 

 

 

 

 

 

 

 

 

@q2

 

 

 

@q2

 

 

 

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

 

 

Xk

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k=1

 

 

 

 

 

 

 

 

=0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

@2

 

1

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

2q

1

 

 

 

 

 

= pq

 

 

 

 

+ E = 2pq

 

 

 

 

+ E =

 

 

+

 

:

 

 

 

 

@q2

1 q

(1 q)3

p2

p

 

 

 

 

Поэтому

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D = E 2

 

 

(E )2

=

2q

+

 

1 1

 

=

2q 1 + p

=

q

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p2

 

p

 

p2

 

 

 

p2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p2

 

 

 

 

 

 

Пример 36.

Распределение Пуассона

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

k

 

 

1

 

k

1

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

X

 

 

 

 

Xk

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(k

 

1)! =

 

 

 

 

 

 

 

 

 

 

 

 

E = k

k! e = e

k

 

k! = e

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k=0

 

 

 

 

 

 

k=1

 

 

 

 

=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

k 1

 

 

1

j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Xk

 

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= e

 

 

 

 

 

 

= e

 

= e e = :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=1

(k

 

 

1)!

 

 

j=0

j!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Доказать, что E 2 = 2 + ,

 

 

 

так что

 

D = .

 

 

 

 

 

 

 

 

 

 

 

 

Пример 37. Равномерное распределение Ua;b

 

 

 

 

 

1

 

Za

b

2 ;

 

 

 

 

 

 

 

 

E = Z

xf (x) dx =

x b a dx =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

a + b

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

E 2 =

1 x2f

(x) dx =

b x2

1

 

dx =

b3 a3

=

a2 + ab + b2

; D = E 2

 

(E )2 =

(b a)2

:

b a

3(b a)

 

 

 

Z

 

 

Za

 

 

3

 

 

 

 

12

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

64

Пример 38. Стандартное нормальное распределение N0;1

11

E = Z

xf (x) dx =

Z

x p2 e x

=2 dx = 0;

 

 

 

1

2

 

1

 

1

 

 

 

 

поскольку под интегралом стоит нечетная функция, и сам интеграл абсолютно сходится (за счет быстро убывающей e x2=2).

1

x2 p2 e x

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

=2 =

 

 

 

 

 

 

 

 

 

 

 

 

 

E 2 = Z

=2 dx = 2 Z x2 p2 e x

=2 dx = 2 Z x p2 de x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

2

 

 

 

1

2

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

2

 

1

 

 

1

 

1

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= 2x

p

 

 

e x

=2

0

+ 2 Z

 

p

 

 

e x

=2 dx = 1:

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 |

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

}

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

x2=2

 

 

 

{z

1

1} |x2

=2

 

 

 

{z

Последнее равенство следует из того, что 2

 

p

 

e

 

 

 

dx =

 

 

p

 

e

 

 

 

dx, а интеграл по

 

2

 

 

 

1

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

всей прямой от плотности любого распределенияR

равен 1. ПоэтомуR

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D = E 2 (E )2 = 1 0 = 1:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 39.

Нормальное распределение Na; 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Мы знаем, что если = N

2 , òî =

a

= N

, и E = 0, D = 1. Поэтому

 

 

 

 

 

 

 

 

a;

 

 

 

 

 

0;1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

E = E ( + a) = E + a = a;

 

 

D = D ( + a) = 2D = 2:

 

 

 

 

(16)

 

 

 

 

 

 

 

 

 

 

Какими свойствами математического ожидания и дисперсии мы воспользова-

 

 

лись в формуле (16)?

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 40.

Показательное (экспоненциальное) распределение E

 

 

 

 

 

 

 

 

 

Найдем для произвольного k 2 N момент порядка k.

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

:

 

 

 

 

 

 

 

 

E k = Z

xkf (x) dx = Z

xk e x dx = k Z

( x)k e x d( x) = k!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

1

 

 

0

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В последнем равенстве мы воспользовались гамма-функцией Эйлера:

1

(k + 1) = R uk e u du = k! Соответственно,

0

E =

1

;

E 2 =

2

;

D = E 2 (E )2 =

1

:

 

 

 

 

2

2

65

Пример 41. Стандартное распределение Коши C0;1

Распределение Коши. Говорят, что имеет распределение Коши с параметрами a, 2, где a 2 R, > 0, и пишут (по крайней мере мы так будем писать) = Ca; 2 , åñëè

f (x) =

 

äëÿ âñåõ x 2 R:

( 2 + (x a)2)

Распределение Коши имеет, например, абсцисса точки пересечения луча, посланного из точки (a; ) под наудачу выбранным углом ' = U =2; =2, ñ îñüþ OX. Это полезно доказать!

Математическое ожидание для распределения Коши не существует, поскольку

1

Z

1

E j j = jxj (1 + x2) dx

1

расходится (подынтегральная функция ведет себя на бесконечности как 1=x).

Пример 42. Распределение Парето

Распределение Парето. Говорят, что имеет распределение Парето с параметрами

x0, s, ãäå x0 > 0, s > 0, åñëè

 

 

 

 

8s

 

 

 

 

 

x0

s

 

 

 

xs

 

 

 

1

 

 

 

; x > x0;

èëè

 

0

;

x > x0; :

 

 

x

 

F (x) =

 

f (x) =

xs+1

 

(0;

 

x < x0:

 

 

 

<0;

 

x < x0:

У распределения Парето существуют только моменты порядка:u < s, поскольку

 

 

 

 

 

1

 

xs

 

 

 

 

 

 

 

 

 

 

E j ju = xZ0

xu s

0

dx

 

 

 

 

 

 

 

 

 

xs+1

 

 

 

 

сходится при u < s, то есть когда подынтегральная функция на бесконечности бесконечно мала по сравнению с 1=x.

Посчитать момент порядка u < s распределения Парето. При каких s у этого распределения существует дисперсия?

66

Раздел 12. Числовые характеристики зависимости случайных величин

12.1 Чем отличается дисперсия суммы от суммы дисперсий?

Мы знаем, что для независимых с. в. с конечными вторыми моментами дисперсия их суммы равна сумме их дисперсий. Чему равна дисперсия суммы в общем случае?

D ( + ) =

E ( + )2 E ( + )

2 = E 2 + 2 + 2 E

2 E

2 2E E =

=

D + D + 2

E ( )

E E

:

 

 

(17)

 

 

 

 

 

 

 

 

 

Величина E ( ) E E равняется нулю, если случайные величины и независимы (свойство E6 математического ожидания). С другой стороны, из равенства ее нулю вовсе не следует независимость, как показывает пример 30. Оказывается, что эту величину часто используют как «индикатор наличия зависимости» пары с. в.

Определение 43. Ковариацией cov(; ) случайных величин и называется число

cov(; ) = E ( E )( E ) :

Свойство 12. cov(; ) = E ( E )( E ) = E ( ) E E .

Упражнение 19. Доказать свойство 12, пользуясь свойствами математического ожидания.

Свойство 13. a) cov(; ) = D ;

á) cov(; ) = cov(; ).

Свойство 14. Дисперсия суммы нескольких случайных величин вычисляется по любой из следующих формул:

n

X

n

X

X

X

X

D ( 1 + : : : + n) =

D i +

cov( i; j) =

D i + 2 cov( i; j) =

cov( i; j):

i=1

i6=j

i=1

i<j

i;j

 

 

 

 

Упражнение 20.

Доказать свойство 14, пользуясь равенствами

 

(a + b)2 = a2 + b2 + ab + ba = a2 + b2 + 2ab = aa + bb + ab + ba

 

и получив аналогичные равенства для квадрата суммы n слагаемых.

Обсудим достоинства и недостатки ковариации, как величины, характеризующей зависимость двух с. в.

1.

Если ковариация cov(; ) отлична от нуля, то величины и зависимы!

2.

С гарантией о наличии зависимости мы можем судить, если знаем совместное рас-

пределение пары и , и можем проверить, равна ли (например) плотность совместного распределения произведению плотностей.

Но найти совместное распределение часто бывает сложнее, чем посчитать математическое ожидание произведения и . Если нам повезет, и математическое ожидание произведения и не будет равняться произведению их мат. ожиданий, мы скажем, что и

67

зависимы не находя их совместного распределения!

Пример 43. Покажем, что с помощью ковариации можно судить о зависимости даже когда для вычисления соместного распределения недостаточно данных.

Пусть и — независимые случайные величины, и дисперсия отлична от нуля (то есть?). Докажем, что и + зависимы.

( + )

= E

2

+ E ( ) = E

2

+

2

 

E

; E

E ( + ) = (E )

2

+ E E :

(18)

 

2

 

 

E

 

 

 

 

 

 

 

 

E

 

 

 

 

 

 

Поэтому cov(; + ) = E

 

+ E E

 

(E )

 

+ E E

= D > 0. Следовательно, и +

зависимы.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3. Жаль, что величина cov(; ) не является «безразмерной»: если – объем газа в сосуде, а – давление этого газа, то ковариация измеряется в кубометрах Паскали :). Иначе говоря, при умножении одной из величин , на какое-нибудь число ковариация тоже умножается на это число. Но умножение на число не сказывается на «степени зависимости» величин (они от этого «более зависимыми» не становятся), так что большое значение ковариации не означает более сильной зависимости.

Нужно как-то нормировать ковариацию, получив из нее «безразмерную» величину, абсолютное значение которой

а) не менялось бы при умножении или сдвиге случайных величин на число; б) свидетельствовало бы о «силе зависимости» с. в.

Говоря о «силе» зависимости между с. в., мы имеем ввиду следующее. Самая сильная зависимость — функциональная, а из функциональных – линейная зависимость, когда = a + b п. н. Бывают гораздо более слабые зависимости. Так, если по последовательности независимых случайных величин 1; 2; : : : построить величины= 1 +: : :+ 24 + 25 и = 25 + 26 +: : :+ 90, то эти величины зависимы, но очень «слабо зависимы»: через одно-единственное общее слагаемое 25. Сильно ли зависимы число гербов в первых 25 подбрасываниях монеты и число гербов в той же серии, но в испытаниях с 25-го по 90-е?

Итак, следующая величина есть всего лишь ковариация, нормированная нужным образом.

68

12.2 Коэффициент корреляции

Определение 44. Коэффициентом корреляции (; ) случайных величин и , дисперсии которых существуют и отличны от нуля, называется число

 

cov(; )

 

(; ) =

p

 

p

 

:

D

D

Замечание 21. Чтобы разглядеть «устройство» коэффициента корреляции, распи-

шем по определению числитель и знаменатель:

 

 

 

 

 

 

 

 

 

 

 

E

E

 

 

E

 

 

 

 

(; ) =

 

(

 

2

)(

 

 

 

)

 

2

:

 

 

 

 

 

qE E

qE E

 

 

Здесь математикам уместно провести аналогии с «косинусом угла» между двумя элементами гильбертова пространства, образованного случайными величинами с конечным вторым моментом, снабженного скалярным произведением cov(; ) и «нормой», равной корню

из дисперсии случайной величины, или корню из скалярного произведения cov(; ).

Пример 44. Рассмотрим продолжение примера 43, но пусть и будут не только независимыми, но и одинаково распределенными случайными величинами, и их дисперсия отлична от нуля. Найдем коэффициент корреляции величин и + . Согласно формуле (18),

Поэтому

cov(; + ) = E 2 + E E

(E )2 + E E

= E 2 (E )2 = D :

 

 

 

cov(; + )

 

 

 

 

 

D

 

 

D

1

 

 

(; + ) =

 

 

 

 

 

=

p

 

p

 

=

p

 

p

 

= p

 

:

 

p

 

p

 

 

 

D ( + )

 

D

D + D

D

2D

2

 

D

Иначе говоря, коэффициент корреляции величин и + равен косинусу угла 45 , образованного «векторами» и + , где « ? » и их «длина» одинакова.

Упражнение 21. Чтобы аналогия не заходила слишком далеко, и у читателя не возникло искушения любые случайные величины рисовать стрелочками на плоскости и вместо подсчета математических ожиданий измерять углы, предлагаю убедиться, например, что коэффициент корреляции величин и 2 равен:

а) нулю, если имеет нормальное распределение с нулевым средним; p

б) 2= 5, если имеет показательное распределение с любым параметром.

Определение 45. Случайные величины и называют некоррелированными, если cov(; ) = 0 (или если (; ) = 0, — в том случае, когда коэффициент корреляции существует).

Замечание 22. Если одна из величин и — постоянная, то эти величины независимы (проверить по определению!), è cov(; ) = 0 (проверить по определению!). Естественно в этом случае тоже полагать, что и «некоррелированы», хотя коэффициент корреляции не определен (дисперсия постоянной равна 0).

Упражнение 22. А что будет, если доопределить коэффициент корреляции нулем, если хотя бы одна из величин — постоянная? Предлагаю подумать, какими достоинствами и недостатками обладает такое «раскрытие неопределенности типа 00 ».

69