Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Лекции по теории вероятностей

.PDF
Скачиваний:
63
Добавлен:
02.05.2014
Размер:
769.22 Кб
Скачать

12.3Свойства коэффициента корреляции

Всюду далее специально не оговаривается, но предполагается, что коэффициент корреляции существует.

Теорема 27.

Коэффициент корреляции обладает следующими свойствами.

1.Если с. в. и независимы, то (; ) = cov(; ) = 0.

2.j (; )j 6 1.

3. j (; )j = 1, если и только если с. в. и с вероятностью 1 линейно связаны, т.е. существуют числа a 6= 0 è b такие, что P( = a + b) = 1.

Доказательство.

1.Свойство 1 мы уже много раз (сколько?) упоминали и один раз доказали.

2.Для доказательства 2 нам понадобится одно преобразование, называемое «стандартизацией» случайной величины: с его помощью из с. в. с конечным вторым моментом (не постоянной) получают с. в. с нулевым математическим ожиданием («центрированную») и единичной дисперсией («нормированную»).

Определение 46.

Пусть D конечна и отлична от нуля. Определим случайную ве-

~

 

 

 

 

 

 

личину так:

 

 

 

 

 

 

 

 

~ =

E

:

 

 

 

 

 

 

 

 

pD

 

~

 

 

 

 

Преобразование 7!

называется стандартизацией случайной величины , а сама с. в.

~

стандартизованной, или (слэнг!) центрированной и нормированной версией

называется

ñ. â. .

Упражнение 23. Обяснить, будет ли распределение ~

а) нормальным, если распределена по нормальному закону; б) равномерным, если имеет равномерное распределение; в) биномиальным, если имеет биномиальное распределение; г) показательным, если имеет показательное распределение;

(è ò.ä.)

Свойство 15. Стандартизованная с. в. ~ имеет нулевое математическое ожидание

и единичную дисперсию.

Доказательство. Воспользуемся свойствами математического ожидания и дисперсии:

E ~ = E

pD

= pD

E ( E ) = pD

(E E ) = 0;

 

 

E

1

1

 

70

~ E 1 1

D = D pD = D D ( E ) = D D = 1:

Не забудьте у каждого знака равенства написать, в силу какого свойства, утверждения или опре-

деления это равенство верно!

Возвращаясь к доказательству 2, заметим, что

(; ) =

 

pD pD

 

 

E (

 

E )( E )

 

( E )( E )

=E p p

D D

~~

= E ;

 

pD

 

pD

 

 

 

ãäå ~ =

E

è ~ =

E

— стандартизованные версии с. в.

è .

1

 

 

 

 

 

 

 

 

Теперь воспользуемся неравенством 0 6 (a b)2 = a2 2ab + b2, èëè ab 6

(a2 + b2).

 

2

~

 

 

~ вместо

b и возьмем математические ожидания от обеих частей

Подставим вместо a,

неравенства:

 

 

6 2 E

 

 

 

 

 

= 2

D ~+

 

 

 

 

 

 

 

 

 

=

2 2 = 1:

 

(; ) = E

~~

 

~

+ ~

2

 

E ~

2

+ D ~ + E ~

 

(19)

 

 

 

1

 

2

 

 

1

 

 

 

 

 

 

 

 

 

 

2

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

Пользуясь точно так же неравенством 0 6 (a + b)2 = a2

+ 2ab + b2, èëè ab >

 

(a2 + b2),

2

получим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

2

 

 

2

 

 

 

1

 

 

 

 

 

 

 

 

 

 

(; ) = E ~~

>

 

E ~ + ~

 

=

 

2 = 1:

 

 

 

 

 

 

(20)

 

2

 

2

 

 

 

 

 

 

Таким образом, j (; )j 6 1, что и требовалось доказать.

 

 

 

 

 

 

 

 

 

 

 

 

3. В одну сторону утверждение проверяется непосредственно:

 

 

 

 

 

 

 

 

Воспользоваться свойствами математического ожидания и дисперсии и доказать, что

 

 

 

 

 

 

 

 

(; a + b) = ( 1; a < 0:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1;

 

a > 0;

 

 

 

 

 

 

 

 

 

 

 

Не забудьте, что p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= jaj, а не просто a!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Докажем вторую часть: если j (; )j = 1, то

 

существуют числа a 6= 0 и b такие, что

P( = a + b) = 1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рассмотрим сначала случай (; ) = 1. Это возможно только если единственное нера-

 

 

 

 

 

 

 

 

 

 

1

 

 

 

2

 

 

 

2

 

 

 

 

 

 

венство в формуле (19) превращается в равенство: E ~~

=

 

 

 

 

E

~

+ ~

 

 

, èëè

2

 

 

 

 

 

 

E ~ ~ 2 = 0:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Но по свойству E5 математического ожидания равенство нулю мат. ожидания неотрица-

тельной с. в. означает, что эта величина п.н. равна нулю:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P ~ ~ = 0

= 1 = P pD

= pD = P = p

 

 

 

 

 

 

 

 

 

 

 

 

 

+ E :

D

pD

 

 

 

E

 

 

E

pD

 

 

pD E

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

|

 

{za

 

 

}

|

 

 

 

 

 

 

{zb

 

 

}

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

71

В случае (; ) = 1 нужно рассмотреть единственное неравенство в формуле (20) и повторить рассуждения. Тем самым теорема 27 доказана.

Полезно знать следующие часто употребляемые термины.

Определение 47. Говорят, что величины и отрицательно коррелированы, если(; ) < 0; говорят, что величины и положительно коррелированы, åñëè (; ) > 0.

Смысл знака коэффициента корреляции особенно ясен в случае (; ) = 1. Тогда знак равен знаку a в равенстве = a + b п.н. То есть (; ) = 1 означает, что чем больше , тем больше и . Напротив, (; ) = 1 означает, что чем больше , тем меньше. Похожим образом можно трактовать знак коэффициента корреляции и в случае, когда j (; )j < 1, помня при этом, что зависимость величин и теперь уже не линейная и, возможно, даже не функциональная.

Так, величины и + в примерах 43 è 44 положительно коррелированы, но их зависимость не функциональная.

Пример 45.

Если с. в. и есть координаты точки, брошенной наудачу в треугольник с вершинами (2; 0), (0; 0) и (0; 1), то коэффициент корреляции (; ) отрицателен. Это можно объяснить «на пальцах» так: чем больше , тем меньше у

возможностей быть большой. :-) Предлагаю убедиться в этом, проверив справедливость следующих высказываний. Во-первых,

f (x) =

(0;

2

иначе ;

E = 3

;

f (y) =

(0;

 

 

1

x

; 0 6 x 6 2;

2

 

 

2

2y;

Во-вторых,

 

 

 

 

 

 

 

 

 

 

1

6

 

 

( ; )

 

 

 

H

 

 

 

 

 

 

HH

y

 

 

 

 

 

 

 

H

=

 

 

 

 

 

 

H

 

1

 

 

 

 

 

 

HH

 

 

 

 

 

 

 

 

 

 

 

 

 

H x=

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

HHH

 

 

 

 

 

 

H -

 

 

 

 

 

 

2

0 6 y 6 1;

 

 

E =

 

1

:

 

 

3

иначе ;

 

 

 

 

 

совместное распределение координат точки, брошенной наудачу в произвольную (измеримую) область D на плоскости имеет постоянную плотность во всех точках области D. Это связано с понятием «наудачу»: вероятность попасть в любую область A D, с одной стороны, зависит только от площади A, и не зависит от формы и положения A внутри D, равняясь, с другой стороны, интегралу по области A от плотности совместного распределения координат точки.

Эти два качества возможно совместить, только если плотность совместного распределения постоянна внутри D.

1

Более того, эта постоянная, как легко видеть, есть просто площадь D (хотя бы потому, что интеграл от нее по всей области D должен равняться вероятности попасть в D, или единице).

Распределение точки, брошенной наудачу в область (все равно где), называют равномерным распределением.

Итак, плотность равномерного распределения в произвольной области на плоскости — постоянная, равная (1=площадь области) для точек внутри области и нулю — вне. Поэтому

72

(а также потому, что площадь этого треугольника равна 1)

 

2

0

1 x=2

E ( ) = ZZ x y 1 dy dx = Z

Z

x y dy1 dx = (кажется) 6:

 

 

 

 

1

B

0

@

0

A

То есть ковариация (а с ней и коэффициент корреляции) отрицательна (посчитать cov( ; )).

Упражнение 24. А верно ли, что коэффициент корреляции в примере 45 существует? Какие свойства случайных величин гарантируют конечность второго момента? А из ограниченности с. в. следует ли существование каких-нибудь моментов? Каких и почему?

Пример 46.

Найти коэффициент корреляции между числом выпадений единицы и числом выпадений шестерки при n подбрасываниях симметричного кубика.

Р е ш е н и е. Обозначим для i = 1; 2; 3; 4; 5; 6 через i случайную величину, равную числу выпадений грани с i очками при n подбрасываниях кубика. Посчитаем cov( 1; 6).

Каждая из случайных величин i имеет биномиальное распределение с параметрами n и 1=6, поэтому E i = n=6, D i = 5n=36.

Заметим, что сумма 1 + + 6 этих величин равна n. В силу симметрии кубика, все

математические ожидания E 1 2, E 1 3, : : : , E 1 6 одинаковы (но, скорее всего, отличаются от E 1 1 = E 12 = D 1 + (E 1)2 = 5n=36 + n2=36).

Посчитаем E 1( 1 + + 6). С одной стороны, это равно

E 1( 1 + + 6) = E 1 n = n2=6;

с другой стороны,

E 1( 1 + + 6) = E 12 + 5E 1 6 = 5n=36 + n2=36 + 5E 1 6:

Отсюда 5E 1 6 = n2=6 5n=36 n2=36, òî åñòü E 1 6 = (n2 n)=36. Следовательно, искомый коэффициент корреляции равен

(

; ) =

E 1 6 E 1E 6

=

(n2 n)=36 n2=36

=

 

1

:

 

 

 

 

 

1

6

pD 1D 6

5n=36

 

5

 

Интересно, что полученный коэффициент корреляции не зависит от n.

Почему коэффициент корреляции ( 1; 6) отрицателен?

73

... Откуда, наконец, вытекает то удивительное, по-видимому, следствие, что, если бы наблюдения над всеми событиями продолжать всю вечность, причем вероятность, наконец, перешла бы в полную достоверность, то было бы замечено, что в мире все управляется точными отношениями и постоянным законом изменений, так что даже в вещах, в высшей степени случайных, мы принуждены были бы признать как бы некоторую необходимость и, скажу я, рок.

ß ê î á Á å ð í ó ë ë è, Ars conjectandi (1713)

Раздел 13. Куда и как сходятся последовательности случайных величин

13.1Сходимость «почти наверное» и «по вероятности»

Напомню, что случайная величина есть (измеримая) функция из некоторого абстрактного множества в множество действительных чисел. Последовательность случайных величин есть, тем самым, последовательность функций (определенных на одном и том же пространстве элементарных исходов ). И если мы хотим говорить о сходимости последовательности случайных величин f ng1n=1, не будем забывать, что мы имеем дело не с последовательностью чисел, а с последовательностью функций. Существуют разные виды сходимости последовательности функций. Всякий раз давать определение какой-либо сходимости мы будем, опираясь на сходимость числовых последовательностей как на уже известное основное понятие.

В частности, при каждом новом ! 2 мы имеем новую числовую последовательность f n(!)g1n=1. Поэтому, во-первых, можно говорить о знакомой из математического анализа (почти) поточечной сходимости последовательностей функций: о сходимости «почти всюду», которую в теории вероятностей называют сходимостью «почти наверное».

Определение 48. Говорят, что последовательность с. в. f ng сходится почти наверное к с. в. при n ! 1, и пишут: n ! ï. í., åñëè P f! : n(!) ! (!) при n ! 1g = 1. Иначе говоря, если n(!) ! (!) при n ! 1 для всех ! 2 , кроме, возможно, ! 2 A, где множество (событие) A имеет нулевую вероятность.

Заметим сразу: чтобы говорить о сходимости «почти наверное», требуется (по крайней мере, по определению) знать, как устроены отображения ! 7!n(!). В задачах же теории вероятностей, как правило, известны не сами случайные величины, а лишь их распределения. Известно, то есть, какова вероятность тех элементарных исходов !, для которых n(!) принимает значения в заданном множестве.

Можем ли мы, обладая только информацией о распределениях, говорить о какой-либо сходимости последовательности случайных величин f ng ê ñ. â. ?

Можно, например, потребовать, чтобы вероятность («доля») тех элементарных исходов !, для которых n(!) не попадает в «"-окрестность» числа (!), уменьшалась до нуля с ростом n. Такая сходимость в функциональном анализе называется сходимостью «по мере», а в теории вероятностей — сходимостью «по вероятности».

Определение 49. Говорят, что последовательность с. в. f ng сходится по вероятно-

p

сти к с. в. при n ! 1, и пишут: n ! , если для любого " > 0

P (j n j > ") ! 0 ïðè n ! 1 èëè P (j n j 6 ") ! 1 ïðè n ! 1:

74

Пример 47. Рассмотрим последовательность с. в. 1; 2; : : : , в которой все величины имеют разные распределения: с. в. n, n > 1, принимает значения 0 и n7 с вероятностями P n = n7 = 1=n = 1 P( n = 0). Докажем, что эта последовательность сходится по вероятности к случайной величине, равной нулю п. н. (к нулю, проще говоря).

Действительно, зафиксируем произвольное " > 0. Для всех n начиная с некоторого n0 такого, что n70 > ", верно равенство ( ) ниже

P j n 0j > "

>0

P n > "

( )

P n = n7

 

1

 

n=

=

=

 

! 0 ïðè n ! 1:

n

Итак, случайные величины n с ростом n могут принимать все большие´ и большие´ значе- ния, но со все меньшей и меньшей вероятностью.

А сходится ли данная последовательность к нулю «почти наверное»? Вопрос не слишком

корректный, поскольку заданы не случайные величины, а лишь их распределения, и ответ на него, как правило, зависит от того, как сами величины взаимосвязаны. Если, скажем,

n(!) = 0 для ! 2 [0; 1 1=n] и n(!) = n7 для ! 2 (1 1=n; 1], то сходимость «почти наверное» имеет место, так как для всякого ! начиная с некоторого n0 все n(!) равны нулю. Попробуйте задать случайные величины n на [0; 1] так, чтобы сходимость «почти наверное» не имела место. Для этого нужно заставить отрезок длины 1=n, на котором n(!) = n7, «бегать» по отрезку [0; 1], чтобы любая точка ! 2 [0; 1] попадала внутрь этого отрезка бесконечное число раз. Воспользуйтесь тем, что гармонический ряд расходится. Если вам мешают концы отрезка, их можно склеить в окружность :)

Заметим однако, что если вероятности P( n = n7) сходятся к нулю достаточно быстро (например, равны 1=n2), то сходимость к нулю п. н. всегда имеет место (см., например, теорему 2 §1 гл. 6 на стр. 134 учебника А.А.Боровкова «Теория вероятностей»).

Замечание 23.

Сходимость по вероятности не обязательно сопровождается сходи-

 

 

 

 

 

 

 

 

 

p

 

мостью математических ожиданий или моментов других порядков: из n ! не следует,

÷òî E n ! E .

примере 47 имеет место сходимость

p

= 0, íî E = n6

E = 0.

Действительно, в

 

7

 

 

 

n !

n

6!

Если вместо значения n

 

взять, скажем, n (с той же вероятностью 1=n), получим E n =

1 6!E = 0.

 

 

 

 

 

 

 

 

 

À åñëè n принимает значения 0 и p

 

с теми же вероятностями, что и в примере 47, òî

n

2

 

!2

 

 

 

 

 

 

 

 

E n = 1=pn

E = 0, но уже вторые моменты сходиться ко второму моменту не будут:

E n = 1 6!E = 0.

Сходимость по вероятности обладает обычными для сходимостей свойствами. Например, такими.

p p

Свойство 16. Åñëè n ! è n ! , òî

p

1. n + n p ! + ; 2. n n ! .

Доказательство при первом прочтении можно пропустить.

1. В доказательстве мы будем пользоваться естественным свойством вероятности: если из события A следует событие B (всегда, когда выполнено A, выполнено и B), то вероятность A не превосходит вероятности B:

åñëè A B; òî P(A) 6 P(B):

Здесь я категорически требую остановиться и ответить на следующие «глупые вопросы»:

75

верно ли, что модуль суммы не превосходит суммы модулей?

верно ли, что если a > b, и c > a, то c > b?

верно ли, что если a + b > 2, то хоть одно из чисел a; b больше единицы?

верно ли, что вероятность объединения двух событий не превосходит суммы их вероятностей?

верно ли, что вероятность пересечения двух событий не превосходит вероятности любого из них?

Если на все вопросы вы ответили «да», можно двигаться дальше. Если не на все — ваш

контрпример ошибочен. Если вы вообще не поняли, о чем это, лучше вернуться сюда ...

Пусть " > 0. Требуется доказать, что P(j n + n j > ") ! 0 ïðè n ! 1. Íî

a) j n + n j 6 j n j + j n j, поэтому

á) åñëè j n + n j > ", òî è j n j + j n j > ", и вероятность первого события не больше вероятности второго. Далее,

â) åñëè j n j + j n j > ", то хотя бы одно из слагаемых больше, чем "=2.

Получаем следующую цепочку неравенств:

> "=2)

 

 

 

P(j n + n j > ")

6 P(j n

j

> j"=2) + P( n

 

0

6 P( n

+ n j > ") 6 P

j n j > "=2 èëè j n j > "=2

6

 

j

j

j

j

 

!

 

 

 

p

p

 

 

 

 

 

 

ïðè n ! 1, òàê êàê n ! è n

! .

 

 

 

 

 

2. Нам понадобится «хорошее свойство»: для любой случайной величины , просто по свойствам функций распределения, P(j j > M) ! 0 при M ! 1.

Представим j n n j êàê j( n )( n ) + ( n ) + ( n )j. Затем, как в 1, получим

P(j n n j > ") 6 P(j n j j n j > "=3) + P(j j j n j > "=3) + P(j j j n j > "=3):

Подумайте, что делать с первым слагаемым в правой части, а мы пока рассмотрим второе слагаемое (третье такое же). Обозначим за An = fj j j n j > "=3g событие под знаком вероятности. Зафиксируем некоторое M > 0 и разобьем событие An по полной группе событий fj j > Mg и fj j 6 Mg.

P(An) = P(j j j n j > "=3) = P An \ fj j > Mg + P An \ fj j 6 Mg

6 :::

Первую вероятность оцениваем в соответствии с последним «глупым вопросом», вторую

— пользуясь тем, что из j j j n j > "=3 и j j 6 M следует, что M j n j > "=3.

::: 6 P(j j > M) + P M n j > "=3 = P(j j > M) + P j n j > "=3M :

 

Осталось для любого фиксированногоj

M > 0 устремить n к бесконечности,

получив

äëÿ

верхнего предела оценку lim P(An) 6 P(j j > M), после чего мы можем устремить к беско-

n!1

нечности M, пользуясь «хорошим свойством».

Упражнение 25. Восполнить все пропущенные подробности в доказательстве.

76

Сходимость по вероятности, так же как и любая другая сходимость, не портится под действием непрерывной функции.

Свойство 17.

Åñëè n

p

è g — непрерывная функция, то g( n) p g( ).

 

p

p

 

!

!

Åñëè n ! c è g непрерывна в точке c, òî g( n) ! g(c).

Доказательство. Простое доказательство первого утверждения можно предложить в двух случаях (которыми мы и ограничимся, предоставив все остальное читателю, знакомому, например, с теоремой Егорова): если = c = const (и тогда достаточно, чтобы g была непрерывна в точке c) или если функция g равномерно непрерывна (а что это значит?).

И в том, и в другом случае для любого " > 0 найдется такое > 0, что для любого !, удовлетворяющего условию j n(!) (!)j < , выполняется неравенство jg( n(!)) g( (!))j < ".

То есть событие

j n j <

влечет событие

jg( n(!)) g( (!))j < " . Следовательно,

вероятность

первого не больше, чем вероятность второго. Но, какое бы ни было >

 

 

 

 

0, вероятность первого события стремится к единице по определению сходимости по

вероятности:

 

 

 

 

1P j n j < 6 P jg( n(!)) g( (!))j < " 6 1:

Следовательно, и вероятность второго события также стремится к единице.

Предлагаю поразмышлять на тему: в каком месте доказательства используется, что либо g равномерно непрерывна, либо — постоянная. И над тем, как доказывать первую часть свойства 17 в общем случае.

Чтобы доказывать сходимость по вероятности, можно просто уметь вычислять P (j n j > ") при больших n. Но для этого нужно знать распределение n, что не всегда возможно. Скажем, n может быть суммой (или еще хуже :-) нескольких других с. в., распределения которых не устойчивы по суммированию, и вычислить распределение их суммы по формуле свертки или как-то еще бывает слишком сложно.

Если бы мы имели неравенства, позволяющие оценить P (j n j > ") сверху чем-либо, что мы умеем устремлять к нулю и что проще вычисляется, то сходимость по вероятности мы получили бы по лемме о двух милиционерах: 0 6 P(:::) 6 ::: ! 0. Итак, неравенства П. Л. Чебыш¸ва.

13.2Неравенства Чебыш¸ва

Все неравенства в этом параграфе принято относить к одному классу, называемому «неравенствами Чебыш¸ва». Следующее неравенство часто называют собственно неравенством Чебыш¸ва, хотя в такой форме оно появилось впервые, видимо, в работах А. А. Маркова (например, Исчисление вероятностей, 1913 ã.).

Теорема 28 (Неравенство Маркова).

Åñëè E j j < 1, то для любого положительного x

P j j > x 6 Exj j:

77

Доказательство. Введем новую случайную величину x, называемую «срезкой» с. в. j j на уровне x:

 

;

åñëè

 

6 x;

Äëÿ íå¸

1)

x 6 ;

и, следовательно,

x = (x;j j

 

åñëè j j

> x:

2)

E x 6j

Ej

:

 

 

j

j

 

 

 

 

j

j

Нам потребуется следующее понятие.

Определение 50. Пусть A — некоторое событие. Назовем индикатором события A случайную величину I(A), равную единице, если событие A произошло, и нулю, если A не произошло.

По определению, I(A) имеет распределение Бернулли Bp с параметром p = P(I(A) = 1) = P(A), и ее математическое ожидание равно вероятности успеха p = P(A).

Случайную величину x можно представить в виде x = j j I(j j 6 x) + x I(j j > x)

(проверьте!).

Тогда

+ E x I j j > x > E x I j j > x = x P j j > x : (21)

E x = E j j I j j 6 x

|{z }

неотрицательно, отбросим

Вспомним, что E j j > E x, и оценим E x снизу согласно (21):

E j j > E x > x P j j > x :

Итак, x P j j > x 6 E j j, что и требовалось доказать.

Следующее неравенство мы будем называть «обобщенным неравенством Чебыш¸ва».

Следствие 15. Пусть функция g монотонно возрастает и неотрицательна на [0; 1).

Åñëè E g(j j) < 1, то для любого положительного x

 

 

P j j > x

 

E g

 

 

6

 

(j j)

:

 

 

 

 

g(x)

 

Доказательство. Заметим, что P j j > x

= P g(j j) > g(x) , поскольку функция g

монотонно возрастает, и оценим

последнюю вероятность согласно неравенству Маркова:

 

 

 

 

P g(j j) > g(x) 6

E g

 

(j j)

:

 

g(x)

 

В 1853 г. И. Бьенеме (I. Bienayme)´ и в 1866 г., независимо от него, П. Л. Чебыш¸в прямыми методами доказали неравенство, которое нам будет удобно получить в качестве следствия из неравенства Маркова.

Следствие 16 (Неравенство Чебыш¸ва-Бьенеме).

Åñëè E 2 < 1, òî

P j E j > x 6

D

 

 

 

 

 

 

 

:

 

 

 

 

x2

2

.

Доказательство. Воспользуемся следствием 15 с функцией g(x) = x

 

E E

 

2

 

 

D

 

 

P j E j > x 6

x2

 

 

=

 

:

 

 

 

x2

 

 

78

В качестве следствия получим так называемое «правило трех сигм», которое формулируют, например, так: вероятность случайной величине отличаться от своего математического ожидания более, чем на три корня из дисперсии, ìàëà. Разумеется, для каждого распределения величина этой вероятности своя: для нормального распределения, например, эта вероятность равна 0,0027 — см. свойство 11. Мы получим верную для всех распределений с конечной дисперсией оценку сверху для «вероятности с. в. отличаться

от своего математического ожидания более, чем на три корня из дисперсии».

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Следствие 17. Åñëè E 2 < 1, òî

P j E j > 3pD 6

 

.

 

 

 

 

 

 

 

 

 

 

9

 

 

D

 

1

Доказательство. Согласно следствию 16, P j E j > 3p

D

 

6

 

 

 

 

=

 

.

3p

 

2

9

 

D

 

 

 

 

 

 

 

 

 

 

 

Упражнение 26. Найти P j E j > 3 D , если с. в. имеет

 

 

 

 

 

 

 

 

а) равномерное распределение на каком-

нибудь отрезке;

 

 

 

 

 

 

 

 

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

б) показательное распределение с каким-нибудь параметром; в) распределение Бернулли с параметром 1/2.

13.3Законы больших чисел

Определение 51. Говорят, что последовательность с. в. f ig1i=1 с конечными пер-

выми моментами удовлетворяет закону больших чисел (ÇÁ×), åñëè

 

 

 

 

 

 

1 + + n

 

E 1 + + E n

p

 

0

 

ïðè n

 

:

(22)

 

 

 

 

 

!

 

! 1

 

 

 

 

n

 

n

 

 

 

 

 

 

 

Законами больших чисел принято называть утверждения об условиях, при которых

последовательность с. в. «удовлетворяет закону больших чисел».

 

 

 

Выясним сначала, что означает и когда выполнен ЗБЧ для последовательности незави-

симых и одинаково распределенных с. в.

 

 

 

 

 

 

 

 

 

 

Заметим, что если с. в.

одинаково распределены,

то математические ожидания у

них одинаковы (и равны, например, E 1), поэтому свойство (22) можно записать в ви-

äå

 

1 + + n

p

E .

 

 

 

 

 

 

 

 

 

 

 

 

 

!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

1

 

 

 

 

 

 

 

 

 

 

 

 

 

Итак, законы больших чисел.

 

 

 

 

 

 

 

 

 

 

 

 

Теорема 29 (ЗБЧ в форме Чебыш¸ва).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Для любой последовательности независимых и одинаково распределенных случай-

 

 

ных величин с конечным вторым моментом E 12 < 1 имеет место сходимость:

 

 

 

 

 

 

 

 

1 + + n

 

p

E

:

 

 

 

 

 

 

 

 

 

 

 

!

 

 

 

 

 

 

 

 

 

 

 

n

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ЗБЧ утверждает, что среднее арифметическое большого числа случайных слагаемых «стабилизируется» с ростом этого числа. Как бы сильно каждая с. в. не отклонялась от

79