
- •Содержание
- •Предисловие
- •1) Теория вероятностей;
- •I. Теория вероятностей
- •1.1. Случайные события
- •1.1.1. Предмет теории вероятностей
- •1.1.2. Классификация событий
- •1.1.3. Вычисление вероятности
- •1.1.3.1. Классическая вероятность
- •1.1.3.2. Элементы комбинаторики
- •1.1.4. Геометрическая вероятность
- •1.1.5. Частота события. Статистическое определение вероятности
- •1.1.6. Основные теоремы теории вероятностей
- •1.1.6.1. Операции над событиями
- •1.1.6.2. Условная вероятность. Теорема умножения вероятностей
- •1.1.6.3. Независимые события. Теорема умножения для независимых событий
- •1.1.6.4. События, независимые в совокупности. Вероятность появления хотя бы одного события
- •1.1.6.5. Теорема сложения вероятностей совместных событий
- •1.1.7. Формула полной вероятности
- •1.1.8. Вероятности гипотез. Формула Байеса
- •1.1.9. Схема независимых последовательных испытаний
- •1.1.9.1. Схема Бернулли. Формула Бернулли
- •1.1.9.2. Локальная теорема Муавра-Лапласа
- •1.1.9.3. Интегральная теорема Лапласа
- •1.2. Случайные величины
- •1.2.1. Дискретная случайная величина и ее закон распределения
- •1.2.2. Биномиальное распределение
- •1.2.3. Распределение Пуассона (пуассоновское приближение биномиального распределения)
- •1.3. Математическое ожидание дискретной случайной величины
- •1.4. Дисперсия дискретной случайной величины
- •1.5. Математические ожидания и дисперсии некоторых случайных величин
- •1.6. Непрерывные случайные величины
- •1.6.1. Функция распределения случайной величины
- •1.6.2. Плотность распределения вероятностей непрерывной случайной величины
- •1.6.3. Математическое ожидание, дисперсия и среднеквадратическое отклонение непрерывной случайной величины
- •1.6.4. Наиболее распространенные распределения непрерывных случайных величин
- •1.7. Закон больших чисел. Теорема Ляпунова
- •1.7.1. Неравенство Чебышева
- •1.7.2. Теорема Чебышева
- •1.7.3. Теорема Бернулли
- •1.7.4. Понятие о центральной предельной теореме (о теореме Ляпунова)
- •1.8. Понятие о случайном векторе и законе распределения его координат
- •1.8.1. Примеры случайных векторов
- •1.8.2. Закон распределения и функция распределения двумерной случайной величины
- •1.8.3. Функция распределения двумерной случайной величины и ее свойства
- •1.8.4. Плотность распределения двумерной случайной величины и ее свойства
- •1.8.5. Корреляционный момент и коэффициент корреляции
- •1.8.6. Двумерное нормальное распределение
- •1.8.7. Линейная регрессия. Прямые линии среднеквадратической регрессии
- •1.9. Элементы теории массового обслуживания
- •II. Математическая статистика
- •Список литературы
1.4. Дисперсия дискретной случайной величины
Рассмотрим следующие две случайные величины Х и Y: их законы распределения заданы таблицами
Х |
0,99 |
1,01 |
И |
Y |
–4 |
6 |
Р |
0,5 |
0,5 |
P |
0,5 |
0,5 |
Очевидно
М(Х)=0,990,5+1,010,5=0,5(0,99+1,01)=0,52=1,
М(Y)=–40,5+60,5=0,5(–4+6)=0,52=1.
Таким образом, обе величины имеют одинаковое математическое ожидание. Но характер этих величин явно различается: величина Х может принимать значения, незначительно отклоняющиеся от своего математического ожидания, в то время как отклонения Y от математического ожидания существенно больше. Другими словами, разброс случайных величин Х и Y относительно своего математического ожидания сильно различается. Этот пример показывает, что характеризовать случайные величины только их математическими ожиданиями явно недостаточно: математическое ожидание не дает информации о разбросе случайной величины.
Отклонением называют разность между случайной величиной и ее математическим ожиданием. Как записать закон распределения для отклонения, если задан закон для самой величины?
Пусть закон распределения для Х известен:
Х |
х1 |
х2 |
… |
хn |
Р |
p1 |
p2 |
… |
pn |
Если случайная величина принимает значение х1 с вероятностью р1, то отклонение ее от математического ожидания оказывается равным х1–М(Х) с той же вероятностью р1. Поэтому закон распределения для отклонения задается таблицей:
Х–М(Х) |
х1–М(Х) |
х2–М(Х) |
… |
хn–М(Х) |
Р |
p1 |
p2 |
… |
pn |
Теорема. Математическое ожидание отклонения равно нулю.
Доказательство.
М[X–M(X)]=M(X)–M[M(X)]=M(X)–M(X)=0.
Мы воспользовались тем, что математическое ожидание константы равно самой константе:
M[M(X)]=M(X), т.к. M(X)=const.
Замечание. Наряду с термином отклонение применяется термин центрированная случайная величина. Это такая случайная величина, математическое ожидание которой равно нулю.
Дисперсией (рассеянием) дискретной случайной величины называют математическое ожидание квадрата отклонения случайной величины от ее математического ожидания:
D(X)=M([X–M(X)]2). (1.4.1)
Как вычислить дисперсию, если задан закон распределения? Если закон имеет вид
Х |
х1 |
х2 |
… |
хn |
, |
Р |
p1 |
p2 |
… |
pn |
то квадрат отклонения имеет закон распределения
[Х–М(Х)]2 |
[х1–М(Х)]2 |
[х2–М(Х)]2 |
… |
[хn–М(Х)]2 |
Р |
p1 |
p2 |
… |
pn |
Теперь легко вычислить дисперсию:
D(X)=M([X–M(X)]2)=[x1–M(X)]2p1+[x2–M(X)]2p2+…+
+[xn–M(X)]2pn=
.
Пример 1. Вычислим дисперсии для величин Х и Y, заданных своими законами распределения в самом начале параграфа:
Х |
0,99 |
1,01 |
И |
Y |
–4 |
6 |
Р |
0,5 |
0,5 |
P |
0,5 |
0,5 |
Мы уже знаем, что М(Х)=М(Y)=1. Поэтому
D(X)=(0,99–1)20,5+(1,01–1)20,5=
=(–0,01)20,5+(0,01)20,5=0,0001.
D(Y)=(–4–1)20,5+(6–1)20,5=250,5+250,5=25.
Таким образом, случайные величины Х и Y имеют одинаковые математические ожидания, а их дисперсии отличаются в 250000 раз!
Пример 2. Найти дисперсию случайной величины Х, которая задана следующим законом распределения:
Х |
1 |
2 |
5 |
Р |
0,3 |
0,5 |
0,2 |
Решение. Найдем сначала М(Х):
М(Х)=10,3+20,5+50,2=2,3.
Найдем все значения квадрата отклонения:
[x1–M(X)]2=(1–2,3)2=1,69;
[х2–М(Х)]2=(2–2,3)2=0,09;
[х3–М(Х)]2=(5–2,3)2=7,29.
Запишем закон распределения квадрата отклонения:
[Х–M(X)]2 |
1,69 |
0,09 |
7,29 |
Р |
0,3 |
0,5 |
0,2 |
Теперь по определению
D(X)=1,690,3+0,090,5+7,290,2=0,507+0,045+1,458=2,01.
Приведенные вычисления довольно громоздкие. Существует более простая формула.
Теорема. Дисперсия равна разности между математическим ожиданием квадрата случайной величины Х и квадратом ее математического ожидания:
D(X)=M(X2)–[M(X)]2. (1.4.2)
Доказательство.
D(X)=M([X–M(X)]2)=M[X2–2XM(X)+M2(X)]=
=M(X2)–2M(X)M(X)+M2(X)=M(X2)–[M(X)]2.
Пример 3. Найти дисперсию случайной величины Х, которая имеет следующий закон распределения:
Х |
2 |
3 |
5 |
Р |
0,1 |
0,6 |
0,3 |
Решение. Сначала найдем М(Х):
М(Х)=20,1+30,6+50,3=3,5.
Запишем закон распределения случайной величины Х2:
Х2 |
4 |
9 |
25 |
Р |
0,1 |
0,6 |
0,3 |
Тогда
М(Х2)=40,1+90,6+250,3=0,4+5,4+7,5=13,3.
Теперь
D(X)=M(X2)–[M(X)]2=13,3–(3,5)2=13,3–12,25=1,05.
Свойства дисперсии (все свойства доказываются исходя из определения дисперсии и свойств математического ожидания).
1. Дисперсия постоянной величины С равна нулю:
D(C)=0.
2. Постоянный множитель можно вынести за знак дисперсии, возведя его в квадрат:
D(CX)=C2D(X).
3. Дисперсия суммы двух независимых случайных величин равна сумме дисперсий
этих величин:
D(X+Y)=D(X)+D(Y).
Для зависимых случайных величин это свойство не выполняется.
Следствие 1. Дисперсия суммы нескольких взаимно независимых величин равна сумме их дисперсий.
Следствие 2. Дисперсия суммы постоянной величины и случайной равна дисперсии случайной величины:
Величины Х и Х+С отличаются лишь началом отсчета, т.е. математическим ожиданием, а рассеяние вокруг математического ожидания одинаковое.
4. Дисперсия разности двух независимых случайных величин равна сумме
их дисперсий:
D(X–Y)=D(X)+D(Y).
Предлагается это свойство доказать самостоятельно.
Среднее квадратическое отклонение
Дисперсия имеет размерность, равную квадрату случайной величины. Иногда удобнее рассеяние выражать в долях от самой величины, т.е. в тех же единицах, что и случайная величина. В теории вероятностей для этой цели служит специальный термин: среднее квадратическое отклонение (или среднеквадратическое отклонение). Средним квадратическим отклонением случайной величины Х называется квадратный корень из ее дисперсии:
. (1.4.3)
Пусть имеется несколько взаимно-независимых случайных величин Х1, Х2, …, Хn с заданными среднеквадратическими отклонениями (Х1), (Х2), …, (Xn). Как найти среднеквадратическое отклонение для суммы Х=Х1+Х2+…+Хn? Ответ дает следующая теорема.
Теорема. Среднее квадратическое отклонение суммы конечного числа взаимно независимых случайных величин равно квадратному корню из суммы квадратов средних квадратических отклонений этих величин:
(Х1+Х2+…+Хn)=
.
(1.4.4)
Доказательство. Пусть Х=Х1+Х2+…+Хn. Тогда
D(X)=D(X1)+D(X2)+…+D(Xn),
,
(X)= .