
- •Оглавление
- •Предисловие
- •Определение и классификация случайных величин
- •Закон распределения дискретной случайной величины
- •Функция распределения случайной величины и ее свойства
- •Плотность вероятности
- •Функция от случайной величины
- •Понятие о системе случайных величин. Сумма и произведение случайных величин
- •Числовые характеристики случайных величин
- •Математическое ожидание случайных величин
- •Дисперсия и среднее квадратическое отклонение. Ковариация и коэффициент корреляции
- •Мода и медиана случайных величин
- •Некоторые важные законы распределения случайных величин
- •Биномиальный закон распределения
- •Распределение Пуассона
- •Равномерное распределение
- •Нормальное распределение
- •Закон больших чисел
Дисперсия и среднее квадратическое отклонение. Ковариация и коэффициент корреляции
Пройденное нами математическое ожидание случайной величины есть (как было выяснено) ее среднее значение, т.е. центр, вокруг которого группируются значения случайной величины. Но для описания поведения с.в. недостаточно знать ее математическое ожидание. Например, случайные величины Х и Y с законами распределения
Х |
−0.01 |
0.01 |
Р |
1/2 |
1/2 |
Y |
−100 |
100 |
Р |
1/2 |
1/2 |
имеют, как нетрудно посчитать, одинаковые средние значения: M(X)=M(Y)=0. Однако понятно, что поведение их совсем разное: значения с.в. Х тесно группируются вокруг своего среднего (центра), а значения с.в. Y разбросаны достаточно далеко от своего центра. Поэтому необходимо ввести еще одну числовую характеристику случайной величины (кроме математического ожидания), которая как раз бы и характеризовала степень уклонения этой величины от своего среднего значения. Попробуем.
Пусть имеется с.в. Х и пусть его среднее значение равно числу а : М(Х)= а . Надо характеризовать величину уклонения значений с.в. Х от среднего, т.е. от числа а. Можно ввести новую с.в. Y=Х−а , которая при каждом испытании будет нам показывать, на сколько и в какую сторону уклонилось значение с.в. Х от своего центра. Поэтому назовем с.в. уклонением случайной величины Х. Но нам удобнее было бы иметь для характеристики разброса не случайную величину, а только какое-нибудь одно число (как это было с математическим ожиданием). Какое? Казалось бы разумным в качестве такого числа взять среднее отклонение с.в. Х от своего центра, т.е. среднее значение уклонения Y, т.е. математическое ожидание с.в. Y. Посчитаем его, пользуясь свойствами математического ожидания:
М(Y) = М(Х−а) = М(Х) −М(а) = М(Х) −а = М(Х) −М(Х) = 0 !
(восклицательный знак здесь не факториал, а выражение эмоции). Итак, среднее значение уклонения любой случайной величины от своего среднего равно нулю, а потому не может быть взято в качестве меры отклонения различных случайных величин от своего среднего значения. Равенство нулю среднего отклонения от центра объясняется тем, что разные по знаку уклонения компенсируют друг друга (поэтому математическое ожидание действительно является центром случайной величины). Разумнее всего в качестве отклонения от центра взять не само уклонение, а его абсолютную величину, т.е. ввести случайную величину Y=|X−a|, которая при каждом испытании покажет абсолютную величину уклонения с.в. Х от своего среднего, а в качестве числовой характеристики разброса от с.в. Х от своего среднего взять среднее значение (т.е. математическое ожидание) этой величины Y, т.е. M(Y)=M(|X−a|). Это действительно было бы самым разумным, если бы не одно обстоятельство. Дело в том, что величина M(|X−a|), являясь действительно самой разумной мерой разброса, имеет мало хороших свойств, а потому неудобна как для практического применения, так для теоретических изысканий. В качестве компромиссного решения вопроса о мере уклонения с.в. от ее центра выбрано среднее значение квадрата отклонения, т.е. математическое ожидание случайной величины Y=(X−a)2. Эта величина обладает многими приятными свойствами (о них ниже), но для того, чтобы характеризовать все же само среднее уклонении от центра (а не его квадрат), придется далее ввести еще одну числовую характеристику (среднее квадратическое отклонение − об этом тоже ниже).
Дисперсией случайной величины Х ( обозначается D(X) ) называется среднее значение квадрата отклонения с.в. Х от своего среднего значения a=M(X):
D(X)=М{[X−M(X)]2}=M((X−a)2).
Как уже было сказано, дисперсия характеризует не само среднее отклонение с.в. Х от ее центра, а средний квадрат такого отклонения. Чтобы получить все же аналог самого среднего отклонения, нужно извлечь квадратный корень из дисперсии. Тогда получим новую числовую характеристику случайных величин − среднее квадратическое отклонение.
Средним квадратическим отклонением случайной величины Х (обозначается σ(Х), σ − греческая буква «сигма») называется квадратный корень из ее дисперсии:
.
Отметим тот приятный факт, что (в отличии от дисперсии) среднее квадратическое отклонение имеет ту же размерность, что и сама случайная величина.
Из формулы D(X)=М{[X−M(X)]2}, являющейся определением дисперсии, легко вывести следующую формулу
D(X)=М(X 2) − [M(X)]2,
которая более удобна для практического вычисления дисперсии. Вспоминая правило вычисления математического ожидания функции от случайной величины (в данном случае это М(X 2)), из этой формулы легко получить конкретные выражения для дисперсии как для дискретных, так и для непрерывных случайных величин.
Х |
х1 |
х2 |
… |
xn |
Р |
p1 |
p2 |
… |
pn |
Тогда
.
2) Пусть Х – непрерывная случайная величина с плотностью вероятности f(x). Тогда
.
Понятно, что если н.с.в. Х сосредоточена на некотором отрезке [a,b] (т.е. по принятому выше определению плотность ее вероятности f(x) обращается в 0 вне этого отрезка), то формула для дисперсии переходит в следующую:
.
Рассмотрим свойства дисперсии, которые справедливы как для дискретных, так и для непрерывных случайных величин. Некоторые из них аналогичны свойствам математического ожидания, а некоторые нет. Выводятся они из формулы D(X)=М(X 2) − [M(X)]2 и свойств математического ожидания.
Если С = const – постоянная величина, то ее дисперсия равна нулю:
D(C) = 0.
Постоянный множитель выносится за знак дисперсии с квадратом:
D(c ∙X ) = c 2 ∙D(X).
Отсюда при с = −1, в частности, следует, что D(−X) = D(X).
Дисперсия суммы двух случайных величин Х и Y вычисляется по формуле:
D(X+Y) = D(X)+D(Y)+2∙M{[X−M(X)]∙[Y−M(Y)]}.
Величина
cov(Х,Y) = M{[X−M(X)]∙[Y−M(Y)]},
стоящая в правой части формулы для дисперсии суммы случайных величин, называется корреляционным моментом или ковариацией случайных величин Х и Y. Учитывая введенное понятие, формула для дисперсии суммы случайных величин может быть записана в виде
D(X+Y) = D(X) + D(Y) + 2 ∙ cov(Х,Y).
Ковариация обладает следующим важным свойством.
Утверждение. Если случайные величины Х и Y независимы, то их ковариация равна 0.
Доказывается это утверждение достаточно просто, если вспомнить, что для независимых величин математическое ожидание их произведение равно произведению их математических ожиданий.
Из приведенного утверждения вытекает важное
Следствие. Если ковариация двух случайных величин не равна 0, то эти величины зависимы (в том смысле, что не являются независимыми случайными величинами).
Итак, ненулевая ковариация говорит о зависимости случайных величин. Обратное, к сожалению, неверно. Можно привести примеры как зависимых, так и независимых случайных величин, ковариация которых равна 0. Если ковариация двух случайных величин равна нулю, то они называются некоррелированными случайными величинами, а если не равна 0, то коррелированными. Таким образом, из независимости следует некоррелированность, а обратное, вообще говоря, неверно. Однако известно, что если с.в. Х и с.в. Y распределены по нормальному закону (этот важный закон распределения случайных величин будет разбираться позднее), то из их некоррелированности следует их независимость.
Ковариация случайных величин можно рассматривать как меру связи (точнее, меру коррелированности) случайных величин.
Из приведенного выше утверждения, а также формулы для дисперсии суммы случайных величин вытекает следующее свойство дисперсии.
Дисперсия суммы независимых случайных величин равна сумме их дисперсий: если Х и Y − независимые случайные величины, то
D(X+Y)=D(X)+D(Y).
Дисперсия разности независимых случайных величин тоже равна сумме их дисперсий: если Х и Y − независимые случайные величины, то
D(X−Y)=D(X)+D(Y).
Дисперсию произведения независимых случайных величин можно вычислить по формуле:
.
Пусть Х – случайная величина, k и b – числа. Тогда
D(kX+b)=k2D(X).
Пример. Даны законы распределения независимых случайных величин Х и Y:
Х |
1 |
2 |
Р |
1/2 |
1/2 |
Y |
0 |
1 |
3 |
Р |
1/2 |
1/4 |
1/4 |
Найти дисперсию случайной величины 2Х−Y+5.
Пример(снова к задаче об автосалоне). Найди дисперсию и среднее квадратическое отклонение введенных ранее случайных величин Х (число продаж в день) и Y (ежедневная прибыль автосалона).
Решение. Мы уже находили среднее ежедневное число продаж и среднюю ежедневную прибыль автосалона: M(X)=1, M(Y)=50 у.е. . Учитывая указанный ранее закон распределения с.в. Х:
Х |
0 |
1 |
2 |
3 |
Р |
0.4 |
0.3 |
0.2 |
0.1 |
по формуле для дисперсии д.с.в. получим:
D(X )= 02∙0.4+12∙0.3+22∙0.2+32∙0.1 − 12 = 1 .
Тогда среднее
квадратическое отклонение
.
Теперь исследуем ежедневную прибыль.
ПосколькуY=100
∙X
−
50, то, используя
свойства дисперсии, получим D(Y)=1002
∙D(X)=10000.
Тогда среднее квадратическое отклонение
у.е. . Попробуем проанализировать по
этим данным стабильность работы
автосалона. При средней ежедневной
прибыли в 50 у.е. среднее отклонение от
нее (в ту или иную сторону) составляет
100 у.е., т.е. 200% от средней прибыли . Казалось
бы предприятие работает крайне
нестабильно. Однако все не так плохо
(хотя и не очень уж хорошо), что показывает
следующий
Пример(напоследок к задаче об автосалоне). Найди дисперсию и среднее квадратическое отклонение с.в. Y − ежемесячной прибыли автосалона.
Решение. Пусть Y1
−
прибыль автосалона в 1-ый
день месяца, …, Y30
−
прибыль автосалона в последний 30-ый
день месяца. Все эти с.в. независимы
друг от друга, дисперсия каждой из них
была вычислена ранее (равна 10000),
и ясно, что месячная прибыль есть сумма
ежедневных прибылей: Y=Y1+…+Y30
. Пользуясь соответствующим свойством
дисперсии, получим D(Y)=D(Y1)+…+D(Y30)=30
∙10000=300000.
Тогда среднее квадратическое отклонение
ежемесячной прибыли автосалона
у.е.
. Посчитаем, какой процент теперь это
составляет от среднейежемесячной
прибыли M(Y).
Пользуясь
соответствующим свойством математического
ожидания, получим М(Y)=М(Y1)+…+М(Y30)=30
∙50=1500.
Теперь уже среднее отклонение от средней
прибыли составляет
%,
что, конечно, значительно меньше прежних
200%. Хотя тоже много и работа предприятия
оставляет желать лучшего.
Пример. В ящике 5 белых шаров и 7 черных. Наугад вынимаю 3 шара. Найти дисперсию и среднее квадратическое отклонение с.в. Х – числа белых шаров среди вынутых.
Рассмотрим теперь нахождение дисперсии в часто встречающихся ситуациях (аналогичных рассмотренным в свойствах матожидания). Пусть производится n независимых испытаний, в каждом из которых некоторое событие А может появиться с вероятностью, зависящей в общем случае от номера испытания. Пусть р1 – вероятность появления событий А в 1-oм испытании, …, рn – вероятность появления событий А в n-oм испытании. Обозначим q1=1–p1, …, qn=1–pn (это вероятности того, что событие А не произойдет в соответствующих испытаниях). Рассмотрим с.в. Х – число появлений события А во всех n испытаниях (число успехов в n испытаниях). Тогда дисперсия числа успехов:
.
Доказательство.
Отметим, что ранее уже была доказана
соответствующая формула для математического
ожидания:
.
Формулу для дисперсии получим тем же
способом. Рассмотрим вспомогательные
случайные величины:Х1
– число появлений события А
в 1-ом
испытании, …,
Хn
– число
появлений события А
в n-ом
испытании .
Все введенные с.в. могут принимать
значения 0
или 1
(событие А
в испытании может появиться или нет),
причем значение 1
по условию принимается в k-ом
испытании с вероятностью pk
(вероятность появления события А
в k-ом
испытании), а значение 0
с вероятностью (1–
pk)
(вероятность противоположного события
– не появления события А
в k-ом
испытании), k=1,…,
n.
Поэтому эти величины имеют следующие
законы распределения:
Х1 |
0 |
1 |
Р |
q1 |
р1 |
Хn |
0 |
1 |
Р |
qn |
рn |
, … ,
Поэтому средние значения этих величин: М(Х1)=0∙q1+1∙ р1= р1 , …, М(Хn)=0∙qn+1∙ рn= рn . Учитывая формулу для дисперсии д.с.в., получим D(Х1)=02∙q1+12∙ р1 – р12= р1∙(1–p1)= р1∙q1 , …, D(Хn)= рn∙qn . Ясно, что общее число появлений события А во всех испытаниях равно сумме сумме «успехов» по всем испытаниям: Х=Х1+Х2+…+Xn . Пользуясь свойством дисперсии суммы независимых случайных величин, получаем: D(Х)=D(Х1)+D(Х2)+…+D(Xn)= р1∙q1+…+ рn∙qn , что и требовалось доказать.
Пример (о тех же стрелках). Первый стрелок попадает в мишень с вероятностью р1=0.5, второй с вероятностью р2=0.6, а третий с вероятностью р3=0.7 . Найти дисперсию и среднее квадратическое отклонение числа попаданий в мишень при одном залпе этих стрелков по мишени.
Решение. Этот
пример в точности укладывается в
изложенную схему. Событие А
в данном случае – попадание в мишень.
В каждом из трех испытаний (выстрелы
стрелков) оно появляется со своей
вероятностью (р1=0.5
либо р2=0.6,
либо р3=0.7)
.
С.в. Х
– общее число попаданий в мишень есть
общее число появлений события А.
Поэтому D(Х)=
р1∙q1+р2∙q2+р3∙q3=0.5∙0.5+0.6∙0.4+0.7∙0.3=0.7
,
.
Математическое ожидание числа успехов в схеме Бернулли. Пусть производится n независимых испытаний, в каждом из которых некоторое событие А может появиться с одной и той же вероятностью р, а q=1–p. Рассмотрим с.в. Х – число появлений события А во всех n испытаниях. Тогда дисперсия числа успехов:
.
Эта формула следует из предыдущего свойства, так как в рассматриваемом случае вероятности успеха в каждом испытании одинакова: р1=р2=…=рn=р .
Сделаем важное
Замечание.
Из полученной формулы
получаем, что среднее квадратическое
отклонение числа успехов от среднего
их числа равно
,
а потому это отклонение неограниченно
растет с ростом числа испытанийn.
Однако из выведенной ранее формулы
видно,
что при этом неограниченно растет и
само среднее число успехов. Однако
относительное среднее отклонение
неограниченно убывает с ростом числа
испытаний, стремясь к 0.
Пример (о том же стрелке). Стрелок попадает в мишень с вероятностью р=0.6 . Найти дисперсию и среднее квадратическое отклонение числа попаданий в мишень при трех выстрелах.
Пример. Найти дисперсию с.в. Х – числа появлений события А в двух независимых испытаниях, если вероятности появления этого события одинаковы в каждом испытании, а среднее число появлений события в этих испытаниях равно 1.2 .
Пример. Д.с.в. Х принимает значения {–1, 0, 1} . Найти закон распределения этой с.в., если М(Х)=0, D(X)=2/3 .
Пример. Плотность вероятности н.с.в. Х задана формулой:
.
Найти значение параметра а, математическое ожидание, дисперсию и среднее квадратическое отклонение этой случайной величины.
Ответ: а=3, М(Х)=3/4, D(Х)=3/80.
Вернемся снова к вопросу о зависимости (точнее, коррелированности) произвольных случайных величин Х и Y, мерой которой, как сказано выше, может выступать их ковариация cov(Х,Y) = M{[X−M(X)]∙[Y−M(Y)]}. Из этой формулы для ковариации легко вывести более удобную формулу:
cov(Х,Y) = M(X∙Y)−M(X)∙M(Y).
В случае дискретной системы случайных величин Х и Y с законом распределения
Х \ Y |
y1 |
y2 |
y3 |
… |
ym |
x1 |
p11 |
p12 |
p13 |
… |
p1m |
x2 |
p21 |
p22 |
p23 |
… |
p2m |
… |
… |
… |
… |
… |
… |
xn |
pn1 |
pn2 |
pn3 |
… |
pnm |
математическое ожидание произведения случайных величин M(X∙Y) (это первое слагаемое в выражении для ковариации) вычисляется по формуле:
.
Поэтому формула для ковариации в этом случае имеет вид:
,
где вероятности принятия своих значений случайными величинами Х и Y вычисляются по формулам, которые ранее нами выводились (см. тему «Понятие о системе случайных величин»):
,
Оказывается, что в качестве меры зависимости случайной величины более удобной является другая величина (которая будет названа коэффициентом корреляции), тесно связанная с ковариацией и выражающаяся через нее. Коэффициентом корреляции случайных величин Х и Y (обозначается rXY) называется число, равное
.
Коэффициент корреляции действительно более удобен (по сравнению с ковариацией) для выражения тесноты связи между с.в. Х и Y, так как является безразмерной величиной и обладает следующими полезными свойствами.
Если с.в. Х и Y независимы, то rXY=0 ( потому если
, то с.в.Х и Y зависимы).
Это свойство полностью аналогично соответствующему свойству ковариации и сразу следует из формулы для коэффициента корреляции.
Коэффициент корреляции любых случайных величин Х и Y заключен между (−1) и 1: |rXY|≤1 .
Коэффициент корреляции случайных величин Х и Y равен (−1) или 1 (т.е. |rXY|=1 ) в том и только случае, когда между величинами Х и Y имеется линейная функциональная связь (что означает существование таких чисел а и b, что Y=a ∙X+b.
Относительный (и принципиальный) недостаток коэффициента корреляции состоит в том, что он точно показывает только наличие именно линейной связи между случайными величинами. Коэффициент корреляции может оказаться по модулю даже не близким к 1, однако между случайными величинами все равно может оказаться самая сильная связь − функциональная (хотя, конечно, не линейная).
Таким образом, коэффициент корреляции позволяет судить (хотя и не в полной мере) о степени зависимости случайных величин:
если Х и Y независимы, то rXY=0 ;
если rXY ≠ 0 , то Х и Y зависимы ;
если rXY = ±1 , то Х и Y линейно зависимы ;