
- •1.Случайные события. Действия над событиями.
- •2.Классическое определение вероятности и ее свойства.
- •3.Аксиоматическое определение вероятности.
- •4. Формулы комбинаторики. Гипергеометрическое распределение.
- •5. Условная вероятность. Независимость событий.
- •6. Формула полной вероятности. Формула Байеса.
- •7. Схема независимых испытаний Бернулли.
- •8. Предельные теоремы в схеме Бернулли.
- •9. Функция распределения вероятностей и её свойства.
- •10. Плотность распределения вероятностей и её свойства.
- •11. Математическое ожидание и его свойства.
- •12. Дисперсия и ее свойства.
- •13. Коэффициент корреляции и ковариация.
- •14. Моменты
- •15. Основные дискретные распределения случайных величин.
- •16. Равномерное и показательное распределение.
- •17. Нормальное распределение.
- •18. Двумерная функция распределения и ее свойства.
- •19. Двумерная плотность вероятности и ее свойства.
- •20. Независимость случайных величин
- •21. Условный закон распределения.
- •22. Неравенство Чебышева. Сходимость случайных последовательностей.
- •23.Теорема Чебышева. Теорема Бернулли.
- •24. Центральная предельная теорема.
- •25. Выборочный метод.
- •26. Эмпирическая функция распределения.
- •27. Гистограмма и полигон.
- •28. Числовые характеристики выборки.
- •29. Точечное оценивание.
- •33. Распределение , Стьюдента и Фишера.
- •1. Распределение (хи-квадрат).
- •Распределение Фишера.
- •34 Проверка статистических гипотез.
- •36. Критерий согласия Пирсона.
- •38. Сравнение дисперсий двух нормальных выборок.
- •39.Сравнение средних двух нормальных выборок.
- •40. Дисперсионный анализ.
- •41. Парная регрессия.
- •42. Парный коэффициент корреляции, его свойства.
- •43. Проверка гипотез о достоверности коэффициента корреляции.
- •44. Нелинейная парная регрессия
12. Дисперсия и ее свойства.
Для того чтобы оценить характеристики положения случайных величин вокруг математического ожидания, пользуются числовой характеристикой, которую называют дисперсией.
Дисперсией
называется
математическое ожидание квадрата
отклонения
от своего мат. ожидания.
Выполним преобразования: Dξ=M(ξ-Mξ)2=M(ξ2-2ξ*Mξ+(Mξ)2)=Mξ2-2(Mξ)2+(Mξ)2=Mξ2-(Mξ)2, т.е.
Dξ=Mξ2-(Mξ)2
Для дискретной случайной величины с законом распределения (xi,pi) дисперсия равна
D
=
Для
непрерывной
случайной
величины
с законом распределения
дисперсия равна
Для равномерного распределения дисперсия зависит от длины отрезка. Чем больше отрезок, тем больше длина дисперсии, ( тем > разбросаны значения вокруг середины отрезка)
Следовательно, дисперсия характеризует рассеяние возможных значений вокруг своего математического ожидания.
Дисперсия имеет размерность квадрата случайной величины. В связи с этим часто используются среднее квадратическое отклонение, выраженное в тех же единицах, что и случайная величина.
Средним квадратическим отклонением называется корень квадратный из дисперсии.
Свойства дисперсии
1.DC=0, c=const. Т.к. D(C)=M(C-M(C))2=M(C-C2)=0
2. Для независимых случайных величин дисперсия суммы равна сумме дисперсий. D ( +η) = D + D η
3
.
D(
η)=M
2M
η
2-(M
)2(M
η)2
Cследствие: постоянный множитель выносится за знак дисперсий с возведением в квадрат.D(C )2=C2D( )
13. Коэффициент корреляции и ковариация.
Ковариацией случайных величин 1, 2, называется математическое ожидание произведения отклонений случайных величин от своих математ. ожиданий
Раскрыв скобки в по свойствам мат.ожидания, получим
Свойства ковариации:
1.
2. Для независимых случайных величин ковариация равна 0
Обратное не верно. Можно привести пример, когда ковариация равна 0, но случайные величины зависимы.
3.
4. постоянный множитель выносится за знак ковариации
cov (C 1, 2)=C cov ( 1, 2)
Ковариация служит для качественной характеристики зависимости между случайными величинами.
Коэффициентом корреляции называется
p(
1,
2)=
Свойства
1.
2. если 1 и 2 независимы, то коэффициент корреляции равен 0. Обратное не верно. Если p=0, то говорят, что 1 и 2 некоррелированы.
3.если 1 и 2 связаны линейной функциональной зависимостью 2= a+b 1, то в этом случае [p( 1, 2)]=1
cov ( 1, 2) =M [ ( 1 - M 1)(a + b 1 – a - bM 1)]=bM( 1 - M 1)2=bD 1
Если
,
то говорят, что
1
и
2
связаны
корреляционной зависимостью, тем более
тесной, чем ближе
к 1.
Коэффициент корреляции служит для количественной характеристики зависимости между случайными величинами.
Если
,
то говорят, что зависимость близка к
линейной.
14. Моменты
Начальным моментом порядка k называется матожидание
Mk=M
Например первый случайный момент это обычное мат ожид.
Центральным
моментом ожидания порядка k
называется матожидание в степени k
отклонения случайной величины от своего
математического ожидания.
Например второй центральный момент это дисперсия.
Любой центральный момент можно выразить через начальный. Например, третий центральный момент