
- •А.В. Ряднов, в.В. Трубаев, т.В. Меренкова
- •Теория вероятностей
- •Учебное пособие
- •Москва - 2013
- •Оглавление
- •Глава I. Основные понятия и формулы теории вероятностей.
- •§1. Предмет теории вероятностей. Случайные события.
- •Задачи:
- •§4. Формула сложения вероятностей
- •§5. Аксиоматический подход к теории вероятностей
- •I. Аксиомы событий
- •II. Аксиомы вероятностей
- •§6. Классическая схема теории вероятностей
- •§7. Геометрические вероятности
- •§8. Условная вероятность. Независимость случайных событий.
- •§9. Формула полной вероятности. Формулы Байеса.
- •§10. Комбинаторика.
- •§11. Схема Бернулли
- •§12. Вероятности Pn(к) при больших значениях n. Приближённые формулы Лапласа и Пуассона.
- •Глава II. Случайные величины и их
- •Характеристики
- •§1. Случайная величина и её функция
- •Распределения
- •§2. Дискретные случайные величины
- •§3. Непрерывные случайные величины
- •§ 4. Функции от случайной величины.
- •§ 5. Системы случайных величин.
- •1. Двумерные дискретные случайные величины.
- •2. Непрерывные системы случайных величин.
- •§ 6. Независимые случайные величины.
- •§ 7. Математическое ожидание случайной величины.
- •1. Математическое ожидание дискретной случайной величины.
- •2. Математическое ожидание случайной величины, имеющей плотность вероятности.
- •§8. Дисперсия случайной величины.
- •§9. Корреляционный момент и корреляция случайных величин
- •Глава III. Закон больших чисел и центральная предельная теорема.
- •§ 1. Неравенство Чебышева.
- •§2. Закон больших чисел.
- •Полезное заключительное замечание о практическом значении изложенных выше теорем.
- •§ 3. Центральная предельная теорема Ляпунова и её следствия.
- •Задачи по теории вероятностей
- •Индивидуальные задания № 1 по Теории вероятностей
- •Задачи индивидуальных заданий № 1
- •Индивидуальные задания № 2 по Теории вероятностей
- •Задачи индивидуальных заданий № 2
- •Степени числа e
- •150048, Ярославль, Московский пр-т, д. 151,
§9. Корреляционный момент и корреляция случайных величин
Пусть
и
- две случайные величины. Положим,
=
+
По теореме сложения математических ожиданий будем иметь:
М=М
+М
Вычитая это равенство из предыдущего, получим:
=
+
где
обозначает отклонение величины
отm
,
то есть
-
m
.
Отсюда
2=
2+
2+ 2
Найдем
теперь дисперсию величины
+
:
D(+
)
=D
=M
2=M
2+M
2+ 2M
=
= D+D
+ 2M(
)
(1)
Число
M()
имеет особое значение для характеристики
системы (
,
).
Его называюткорреляционным моментом
случайных величин
и
и обозначают черезК(
,
).
Таким образом, по определению
К(,
)
=M(
).
Формула (1) принимает теперь следующий вид:
D(+
)
=D(
)
+D(
)
+ 2K(
)
(2)
- дисперсия суммы равна сумме дисперсий плюс удвоенный корреляционный момент.
Корреляционный
момент, как свидетельствует его название,
(от латинского слова correlation– соответствие, взаимосвязь), играет
определенную роль при оценке зависимостии
.
Основное свойство корреляционного
момента выражается следующим предложением.
Если
величины
и
независимы, то их корреляционный момент
равен нулю.
Действительно,
пусть
и
независимы. Тогда,
очевидно,
величины
и
будут тоже независимы. Отсюда вытекает,
что математическое ожидание произведения
будет:M(
)
=M
M
=
=
0.
Из
доказанного предложения следует: если
К(,
)
≠ 0, то величины
и
не могут быть независимыми. Таким
образом, неравенство нулю корреляционного
момента определенно свидетельствует
о наличии связи между величинами
и
.
Предположим, что
в некотором опыте наблюдаются две
случайные величины
и
.
То
обстоятельство, что
и
обусловлены одним и тем же опытом, вообще
говоря, создает между этими величинами
некоторого рода связь: как принято
говорить,
и
скоррелированы(согласованы) друг
с другом.
Одной из характеристик
корреляции, как мы уже знаем, служит
корреляционный момент
K()
=M(
)
=M((
-m
)
(
-
)),
где
mи
- математические ожидания величин
и
соответственно. Заметим, что справедлива
формула
K(,
)
=M(
)
-m
;
чтобы получить эту формулу, надо записать
(-m
)(
-
)
=
-m
-
+m
и приравнять друг к другу математические ожидания левой и правой частей.
Как
мы знаем, если величина
и
независимы, то их корреляционный момент
равен нулю. Поэтому неравенство нулю
величиныК(
,
)
свидетельствует о наличии связи между
и
.
Случайные величины
и
,
для которых корреляционный момент равен
нулю, называются некоррелированными.
Таким образом, из независимости величин
и
следует их некоррелированность. Обратное,
вообще говоря, неверно: можно привести
примеры
и
,
для которых корреляционный момент равен
нулю, между тем
и
связаны между собой (даже функционально).
Приведём пример
такого рода. Пусть величина
распределена непрерывно, причём плотность
вероятности
есть
чётная функция; величина
=
2.
ТогдаМ
= 0 и значит
K
∞ -∞,
)
=M(
)
=M(
)
=
3
dx= 0.
Корреляционный
момент, как следует из его определения,
зависит от выбора единиц измерения для
и
;
например, если при измерении
и
в килограммах было получено значениеК= 5 кг2, то, приняв за единицу
измерения 1 г, получим для корреляционного
момента значениеК= 5х106
г2. Это обстоятельство затрудняет
сравнение корреляционных моментов
различных систем случайных величин.
Чтобы преодолеть такое затруднение,
вводится другая характеристика связи
между
и
- коэффициент корреляции.
Определение.Коэффициентом корреляции случайных
величини
называется число
-
отношение корреляционного момента к
произведению средних квадратичных
отклонений величин
и
.
Очевидно, коэффициент
корреляции не зависит от выбора единиц
измерения для величин
и
(иначе говоря,r(
,
)
есть величина безразмерная). Он не
зависит также и от выбора начала отсчета
при измерении
и
.
Имеет место следующая теорема.
Теорема. Коэффициент корреляции всегда заключен между -1 и 1:
-1
r
1
В
случае, когда r= 1,
величиныи
связаны линейной зависимостью:
=
a
+b(a,b=const),
причем
a>0; приr= -1 между величинамии
имеет место линейная зависимостьca <0.
Доказательство. Рассмотрим математическое ожидание случайной величины
(+t
)2,
где
=
-
,
=
-m
,
аt– любое действительное
число. Имеем:
M(+
)2
= M(
2
+ 2t
+t2
2)
= M
2
+2t M(
)
+ +t2M
2
= D
+
2tK(
,
)
+ t2D
.
Мы получим равенство вида
M(+
)2=
t2+ 2
t+
(3)
где
=D
,
=K(
,
),
=D
.Квадратный трехчлен, стоящий в
правой части этого равенства, при любом
значенииtнеотрицателен
(ибо он равен математическому ожиданию
случайной величины, принимающей только
неотрицательные значения). Отсюда
вытекает, что дискриминант этого
трехчлена, т. е. выражение
2-
,
есть число не положительное. Итак,
К2(,
)
–D
D
0,
или
Мы
пришли к неравенству r21, означающему, что величинаrзаключена в промежутке от 1 до -1.
Предположим теперь, что r2– 1, т. е.rравно -1 или 1.
В
этом случае дискриминант указанного
выше квадратного трехчлена равен нулю.
Отсюда вытекает, что трёхчлен имеет
действительный корень, т. е. при некотором
действительном значении t= -aвыражениеt2
+ 2
t+
равно нулю. Но тогда в силу (3) мы должны
иметь:
M(+
)2= 0
а это в свою очередь означает:
-
a
= 0
или
=
a
+b.
Обратно, допустим,
что между случайными величинами
и
имеет место такого рода соотношение.
Изменив начало отсчёта величины
(что не влияет наr),
можно добиться, чтобы былоb= 0, т. е.
=a
.
В этом случае, как легко проверить,
величинаrбудет равна
-1, еслиa< 0, и 1, еслиa> 0.
Установленные
нами свойства коэффициента корреляции
дают основание для некоторого качественного
заключения, а именно: близость величины
r2к единице есть
признак того, что зависимость междуи
близка к линейной. Если при этомr> 0, то с возрастанием
возрастает всреднеми
,
тогда говорят о положительной корреляциимежду величинами
и
;
если жеr< 0, то при
возрастании
величина
в среднем убывает (отрицательная
корреляция).