1.3. Закон больших чисел. Теорема Бернулли
Рассмотрим случайную величину , имеющую конечную дисперсию2и среднее, равное. Для любого числаaмы можем записать:
Поскольку вне интервала величиназаведомо больше, получим:
Положив a=, получим
– |
(1.13) |
неравенство Чебышева.
Рассмотрим теперь случайную величину N, которая является средним арифметическим набора изNпопарно независимых случайных величинI
,
причем дисперсии этих величин конечны D()C. Очевидно, дисперсия величиныNтакже будет ограничена:
.
Используя неравенство Чебышева (1.13), мы можем записать
.
Тогда
.
Таким образом, для всякого > 0 выполняется равенство
. |
(1.14) |
Полученное выражение называется законом больших чиселилитеоремой Чебышева. Говорят, что если для всякого> 0
,
то последовательность Nсходится к числуaпо вероятности. Сходимость по вероятности обозначается следующим образом:
.
Вернемся к частотному определению вероятности, данному в п. 1.1. Рассматривая серию из Nиспытаний, появлению некоторого событияAв испытании с номеромiпоставим в соответствиеi= 1, в противном случае будем считатьi= 0. Тогда
–
частота появления события A. Поскольку
получим
.
Согласно теореме Чебышева (1.14), можно записать
или . |
(1.15) |
Таким образом, частота появления события Aсходится по вероятности к величинеp– вероятности событияAв математическом смысле. Доказанное утверждение носит названиетеоремы Бернуллии доказывает непротиворечивость теории вероятности, поскольку аксиома измерения (1.1) согласуется с математическим определением вероятности. Другими словами, частотное определение вероятности является вполне корректным способом установления соответствия между чисто математическим понятием (вероятностьюp), для которого вводятся утверждения и доказываются теоремы, и экспериментально наблюдаемой частотой появления событий.
Помимо (1.15), существует и другая запись теоремы Бернулли:
,
то есть среднее арифметическое сходится по вероятности к математическому ожиданию. Более сильным утверждением является теорема Бореля, выражающее которую равенство приведем без доказательства:
. |
(1.16) |
Помимо определенной выше сходимости по вероятности существует еще ряд определений сходимости. Если для последовательности случайных величин iвыполняется равенство
,
говорят, что последовательность сходится к числу aпочти наверняка. Если же
,
говорят, что последовательность iсходится к числуaвсреднеквадратичном смыслеи обозначают такой предел следующим образом:
.
Совместные и условные функции распределения
Рассмотрим две зависимые случайные величины – и. Пусть событиеAзаключается в том, чтоx, а событиеB– в том, чтоy. Тогда можно рассмотреть вероятность событияAB:P{AB}=P{x,y} =F2(x,y). Введенная здесь функцияF2(x,y) называетсядвумерной интегральной функцией распределения вероятностейи обладает очевидными свойствами:
F2(x, ) = F1(x), F2(, y) = F1(y), F2(– , y) = F2(x, – ) = 0.
Если F2(x,y) – дважды дифференцируема, можно ввести двумерную функцию плотности вероятности:
.
Приведем ряд выражений для двумерной плотности вероятности, которые либо очевидны, либо доказываются тривиально:
, ,
, где , , где . |
(1.17) |
Очевидно также, что если случайные величины инезависимы, тоF2(x,y) =F1(x)F1(y) и2(x,y) =1(x)1(y). Для зависимых величиниможно записать условную вероятность того, что одна из них находится ниже уровняy, если другая заключена в интервал. Опираясь на соотношения (1.2) и (1.17), получим:
.
В пределе при получим
.
Полученная функция F2(y|x) называетсяусловной интегральной вероятностьюраспределения величиныпри условии=x. Введем также двумерную условную функцию плотности вероятности:
. |
(1.18) |
Опираясь на выражения (1.17) и (1.18), можно получить формулу полной вероятности:
или . |
(1.19) |
Учитывая полученное соотношение, по аналогии с выражением (1.17) можно записать:
. |
(1.20) |
Мы получили аналог формулы Байеса (1.5) для двумерной условной функции плотности вероятности.
Перейдем к рассмотрению самого общего случая. Для совокупности из nслучайных величин1,…,nвведемn-мерную интегральную вероятность
и n-мерную функцию плотности вероятности
.
Очевидно, для nнезависимых случайных величин выполняется соотношение
.
Если трактовать совокупность случайных величин 1,…,nкак компоненты случайного векторав некоторомn-мерном пространстве, можно рассмотреть событиеA, заключающееся в том, что конец векторапопал в некоторую областьGэтого пространства. Тогда
.
Действуя так же, как при выводе формул (1.17) и (1.18), можно показать, что
,
.
Так же, как и для одной случайной величины, для их совокупности можно определить моменты
,
центральные моменты
и смешанные моменты
,
.
Смешанный центральный момент второго порядка называется ковариацией:
.
Очевидно, если 1и2независимы, тоcov(1,2) = 0.Коэффициентом корреляцииR(1,2) называется ковариация, нормированная следующим образом:
.
Ясно, что коэффициент корреляции безразмерен и |R(1,2)| < 1. ЕслиR(1,2) = 0, то говорят, что случайные величины1и2некоррелированы. Заметим, что независимые случайные величины всегда некоррелированы, а вот обратное утверждение неверно. Случайные величины1и2называютсяортогональными, еслиm2(1,2) = 0.
Наконец, определим условные моменты следующим образом
,
.
Рассмотрим классический пример – многомерное нормальное распределение
.
Здесь D– главный определитель корреляционной матрицы с элементамиdij=R(i,j) =dji(ij),dii= 1, |dij|1, аDij– алгебраическое дополнение элементаdij. Можно показать, что входящие в формулу числаиiсовпадают с первыми и вторыми центральными моментами соответствующих случайных величин, то есть
и .
Рассмотрим более подробно двумерное нормальное распределение:
, |
(1.21) |
где R = R(i, j). Расчет вторых центральных моментов такого распределения дает
.
Рис. 1.6. Распределение
Рэлея
Рис. 1.5. Случайная
точка на плоскости
.
Соответствующая этой интегральной вероятности функция плотности имеет вид
(1.22) |
и называется распределением Рэлея(рис. 1.6).