
- •1. Классическое определение вероятности. Непосредственное вычисление. Статистическая оценка вероятности.
- •2. Алгебра событий. Вероятность противоположного признака.
- •3. Условная вероятность. Зависимые и независимые признаки.
- •4. Вероятность произведения двух и более признаков.
- •5. Вероятность суммы двух и более слагаемых. Совместные и несовместные признаки.
- •6. Элементы комбинаторики. Размещения, перестановки, сочетания
- •7.Геометрические вероятности. Аксиоматическое определение вероятности.
- •8. Формулы полной вероятности и Байеса.
- •9. Повторные независимые испытания. Формула Бернулли.
- •10. Формула Пуассона и локальная теорема Лапласа и их применение.
- •11.Интегральная теорема Лапласа. Работа с таблицами.
- •12.Понятие случайной величины. Дискретные величины. Ряд распределения вероятностей.
- •13. Математическое ожидание и его свойства.
- •14. Дисперсия и ее свойства.
- •15. Ковариация и ее свойства. Коррелированность и зависимость случайных величин.
- •16. Непрерывные случайные величины. Функция плотности. Примеры
- •17. Дисперсия и другие моменты непрерывно случайной величины
- •18. Функция распределения и ее свойства.
- •20. Устойчивость средних. Неравенство Чебышева.
- •21. Закон больших чисел. Теорема Чебышева.
- •22. Теорема Бернулли, усиленный закон больших чисел Бореля и Колмогорова.
- •Усиленный закон больших чисел
- •23. Центральная предельная теорема и интегральная теорема Лапласа
- •24. Совместное распределение случайных величин
- •25. Коэффициент корреляции и его свойства
- •28. Статистические оценки
- •29. Начальные и центральные моменты и их статистические оценки. Сходимость оценок.
- •31. Доверительные интервалы для дисперсии и среднего квадратичного отклонения
- •32. Проверка статических гипотез, гипотезы о средних.
- •34. Однофакторный дисперсионный анализ
- •35. Критерий согласия Пирсона, проверка гипотезы о законе распределения
- •36. Регрессия, как условная средняя. Оценка погрешности метода наименьших квадратов Суть метода наименьших квадратов (мнк).
- •Графическая иллюстрация метода наименьших квадратов (мнк).
- •37. Простая линейная регрессия.
- •38. Проверка значимости коэффициента регрессии по Фишеру и Стьюденту
- •39. Понятие о случайных процессах. Цепи Маркова и теорема Маркова.
- •40. Цепи Маркова. Предельные вероятности состояний
14. Дисперсия и ее свойства.
Дисперсией (рассеянием) дискретной случайной величины называют математическое ожидание квадрата отклонения случайной величины ее математического ожидания:
D(X)=M[X-M(X)]2
Пусть случайная величина задана законом распределения
-
X
x1
X2
…
xn
P
p1
P2
…
pn
Тогда квадрат отклонения имеет следующий закон распределения
-
[X-M(X)]2
[X1-M(X)]2
[X2-M(X)]2
…
[Xn-M(X)]2
P
p1
P2
…
pn
По определению дисперсии,
D(X)=M[X-M(X)]2=[x1-M(X)]2p1+[x2-M(X)]2p2... [xn-M(X)]2pn
Таким образом для того, чтобы найти дисперсию, достаточно вычислить сумму произведений возможных значений квадрата отклонения на их вероятности.
Для вычисления дисперсии часто бывает удобно воспользоваться следующей теоремой: Дисперсия равна разности между математическим ожиданием квадрата случайной величины Х и квадратом ее математического ожидания:
D(X)=M(X2)-[M(Х)]2
Доказательство. Математическое ожидание М(Х) есть постоянная величина, следовательно, 2М(Х) и М2(Х) есть также постоянные величины. Приняв это во внимание и пользуясь свойствами математического ожидания ( постоянный множитель можно вынести за знак математического ожидания, математическое ожидание суммы равно сумме математических ожиданий слагаемых), упростим формулу, выражающую определение дисперсии:
D(X)=M[X-M(X)]2=M[X2-2XM(X)+M2(X)]=M(X2)-2M(X)M(X)+M2(X)=M(X2)-2M2(X)+M2(X)=M(X2)-M2(X)
Итак, D(X)=M(X2)-[M(Х)]2
Свойства дисперсии.
Свойство 1. Дисперсия постоянной величины С равна нулю:
D(C)=0
Доказательство. По определению дисперсии,
D(C)=M{[C-M(C)]2}
пользуясь первым свойством математического ожидания (математическое ожидание постоянной равно самой постоянной), получим
D(C)=M[(C-C)2]=M(0)=0
Итак, D(C)=0
Свойство становится ясным, если учесть, что постоянная величина сохраняет одно и то же значение и рассеяния, конечно, не имеет.
Свойство 2. Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат:
D(CX)=C2D(X)
Доказательство. По определению дисперсии имеем
D(CX)=M{[CX-M(CX)]2}
Пользуясь вторым свойством математического ожидания ( постоянный множитель можно выносить за знак математического ожидания), получим
D(CX)=M{[CX-CM(X)] 2}=M{C2[X-M(X)] 2}=C2M{[X-M(X)] 2}=C2D(X)
Итак, D(CX)=C2D(X)
Свойство становится ясным, если принять во внимание, что при |C|>1 величина CX имеет возможные значение (по абсолютной величине), большые, чем величина Х. Отсюда следует, что эти значение рассеяны вокруг математического ожидания M(CX) больше, чем возможные значения Х вокруг М(Х), т.е. D(CX)>D(X). Напротив, если 0<|C|<1, то D(CX)<D(X).
Свойство 3. Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин:
D(X+Y)=D(X)+D(Y)
Доказательство. По формуле для вычисления дисперсии имеем
D(X+Y)+M[(X+Y)2]-[M(X+Y)]2
Раскрыв скобки и пользуясь свойствами математического ожидания суммы нескольких случайных величин и произведения двух независимых случайных величин, получим
D(X+Y)=M[X2+2XY+Y2]-[M(X)+M(Y)]2=M(X2)+2M(X)M(Y)+M(Y2)-M2(X)-2M(X)M(Y)-M2(Y)={M(X2)-[M(X)]2}+{M(Y2)-[M(Y)]2}=D(X)+D(Y).
Итак, D(X+Y)=D(X)+D(Y)
Следствие 1. Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме дисперсии этих величин.
Например, дл трех слагаемых имеем
D(X+Y+Z)=D[X+(Y+Z)]=D(X)+D(Y+Z)=D(X)+D(Y)+D(Z)
Для произвольного числа слагаемых доказательство проводится методом математической индукции.
Следствие 2. Дисперсия суммы постоянной величины и случайной равна дисперсии случайной величины: D(C+X)=D(X)
Доказательство. Величины С и Х независимы, поэтому, по третьему свойству,
D(C+X)=D(C)+D(X)
В илу первого свойства D(C)=0. Следовательно, D(C+X)=D(X)
Свойство становится понятным, если учесть, что величины Х и Х+С отличаются лишь началом отсчета и, значит, рассеяны вокруг своих математических ожиданий одинаково.
Свойство 4. Дисперсия разности двух независимых случайных величин равна сумме их дисперсий:
D(X-Y)=D(X)+D(Y)
Доказательство. В силу третьего свойства
D(X-Y)=D(X)+D(-Y)
По второму свойству, D(X-Y)=D(X)+(-1)2D(Y),
или D(X-Y)=D(X)+D(Y)
Дисперсия числа появлений события в независимых испытаниях
Пусть производится n независимых испытаний, в каждом из которых вероятность появления события А постоянна. Чему равна дисперсия числа появлений события в этих испытаниях? Ответ на этот вопрос дает следующая теорема:
Дисперсия числа появлений события А в n независимых испытаниях, в каждом из которых вероятность р появления события постоянна, равна произведению числа испытаний на вероятность появления и непоявления события в одном испытании: D(X)=npq
Доказательство. Рассмотрим случайную величину Х – число появлений события А в n независимых испытаниях. Очевидно, общее число появлений события в этих испытаниях равно сумме появлений события в отдельных испытаниях: Х=Х1+Х2+…+Хn ,
Где Х1 – число наступлений события в первом испытании, Х2 – во втором, …, Хn – в n-м.
Величины Х1, Х2, …, Хn взаимно независимы, так как исход каждого испытания не зависит от исходов остальных, поэтому мы вправе воспользоваться следствием 1:
D(X)=D(X1)+D(X2)+…+D(Xn) (*)
Вычислим дисперсию Х1 по формуле D(X1)= M(X12)-[M(X1)]2 (**)
Величина Х1 – число появлений события А в первом испытании, поэтому M(X1)=p.
Найдем математическое ожидании величины Х12, которая может принимать только два значения, а именно: 12 с вероятностью p и 02 с вероятностью q:
M(X12) =12p+02q=p
Подставляя найденные результаты в соотношение (**), имеем
D(X1)=p-p2=p(1-p)=pq
Очевидно, дисперсия каждой из остальных случайных величин также равна pq. Заменив каждое слагаемое правой части (*) через pq, окончательно получим D(X)= npq