![](/user_photo/2706_HbeT2.jpg)
- •1.Случайные события. Действия над событиями.
- •2.Классическое определение вероятности и ее свойства.
- •3.Аксиоматическое определение вероятности.
- •4. Формулы комбинаторики. Гипергеометрическое распределение.
- •5. Условная вероятность. Независимость событий.
- •6. Формула полной вероятности. Формула Байеса.
- •7. Схема независимых испытаний Бернулли.
- •8. Предельные теоремы в схеме Бернулли.
- •9. Функция распределения вероятностей и её свойства.
- •10. Плотность распределения вероятностей и её свойства.
- •11. Математическое ожидание и его свойства.
- •12. Дисперсия и ее свойства.
- •13. Коэффициент корреляции и ковариация.
- •14. Моменты
- •15. Основные дискретные распределения случайных величин.
- •16. Равномерное и показательное распределение.
- •17. Нормальное распределение.
- •18. Двумерная функция распределения и ее свойства.
- •19. Двумерная плотность вероятности и ее свойства.
- •20. Независимость случайных величин
- •21. Условный закон распределения.
- •22. Неравенство Чебышева. Сходимость случайных последовательностей.
- •23.Теорема Чебышева. Теорема Бернулли.
- •24. Центральная предельная теорема.
- •25. Выборочный метод.
- •26. Эмпирическая функция распределения.
- •27. Гистограмма и полигон.
- •28. Числовые характеристики выборки.
- •29. Точечное оценивание.
- •33. Распределение , Стьюдента и Фишера.
- •1. Распределение (хи-квадрат).
- •Распределение Фишера.
- •34 Проверка статистических гипотез.
- •36. Критерий согласия Пирсона.
- •38. Сравнение дисперсий двух нормальных выборок.
- •39.Сравнение средних двух нормальных выборок.
- •40. Дисперсионный анализ.
- •41. Парная регрессия.
- •42. Парный коэффициент корреляции, его свойства.
- •43. Проверка гипотез о достоверности коэффициента корреляции.
- •44. Нелинейная парная регрессия
36. Критерий согласия Пирсона.
Критерий
проверки гипотез о предполагаемом виде
распределения называется критерием
согласия.
Наиболее распространенным из них
является критерий согласия Пирсона
или критерий
.
Пусть вид распределения изучаемого признака Х неизвестен и пусть есть основание предполагать, что он распределен по некоторой функции теоретического распределения . Обозначим
На основании данных выборки построим интервальный вариационный ряд. Для этого найдем:
1.
и размах варьирования
.
Весь
интервал наблюдаемых значений Х разделим
на k
частичных интервалов
одинаковой длины h=R/k
k=3,32lgn
Левую границу первого интервала возьмем
так чтобы хмин попало внутрь интервала
z0=xmin-
h/2
тогда правая гр последнего интервала
может быть zk=xmax
+h/2
В
результате получим следующий интервал
z0<z1<z2<….<zk
2.
Подсчитаем
число
вариант попавших в i-ый
интервал
3. Затем для каждого интервала вычислим
вероятности
попадания случайной величины в
построенные интервалы исходя из функции
распределения
.
4.
Теоретические частоты вычислим по
формуле
. Критерий
Пирсона позволяет ответить на вопрос,
значимо ли различаются теоретические
и эмпирические частоты. В качестве
критерия проверки нулевой гипотезы
принимается величина
.
Можно доказать, что при закон распределения случайной величины стремится к закону распределения с -степенями свободы =k-l-1, l-число параметров предлогаемого распр. Поэтому случайная величина обозначается через , а сам критерий называют критерием согласия «хи-квадрат».
Правило:
Для
того чтобы, при заданном уровне значимости
проверить гипотезу H0:
генеральная совокупность распределена
по закону
,
надо сначала вычислить теоретические
частоты, а затем наблюдаемое значение
критерия
и
по таблице критических точек распределения
, по заданному уровню значимости,
и числу степеней свободы
,
найти критическую точку
.
Если
,
то нет оснований отвергнуть H0,
следовательно, признак Х распределен
по закону
.
Если
,
то H0
отвергаем
и принимаем Н1,
следовательно, признак Х распределен
по другому законную. Замечание.
Для того чтобы эмперич ф-ция распр лучше
приближалась к теоретич число интервалов
к должно быть большим однако построение
критерия хи-квадрат основано на немалых
числах ni.Если
некоторые частоты малы <5то соседние
интервалы объединяються и соответствующие
частоты складываются в этом случае
число степеней свободы уменьшается на
1.
37. Вычисление
теоретических частот для нормального
распределения.Пусть
имеется выборка
объема n,
и есть основание предположить, что она
имеет нормальное распределение. Для
вычисления теоретических частот
необходимо выполнить действия, указанные
ниже.
1.по
данным выборки построить интервальный
вариационный ряд Для этого весь интервал
наблюдаемых значений Х надо разделитьь
на k
частичных
интервалов (хi,x
i+1)
одинаковой длины. Находим максимальное
и минимальные значения значение выборки,
размах варьирования.
Для
определения количества интервалов
группировки k
воспользуемся формулой Стерджеса:
. Тогда
ширину частичных интервалов
находим из формулы
.Число
k
округляется в сторону наибольшего
целого числа. Интервалы строятся таким
образом, чтобы
и
входили
внутрь интервалов. Для этого в качестве
левой границы первого интервала можно
взять
,
а в качестве правой границы последнего
интервала
.
В качестве частоты
вариационного
ряда записывают число наблюдений,
попавших в каждый
промежуток.
2.
Для того, чтобы получить оценки
параметров
и
перейдем
к дискретному ряду, взяв в качестве
варианты Х ряда середины построенных
интервалов
.
В итоге получим последовательность
равноотстоящих вариант и соответствующих
им частот:
|
|
|
… |
|
|
|
|
… |
|
![](/html/2706/988/html_Z6QnyMelo8.mA3z/htmlconvd-BBVLzJ_html_8b2b301c9edf2b71.gif)
,
или
.
3. Нормируем случайную величину Х, перейдя к величинам
и
,
.
Причем
наименьшее значение
будем
считать равным
,
а наибольшее значение -
,
так как теоретическое нормальное
распределение принимает значения на
числовой оси.
4.
Вычислим теоретические вероятности
pi
попадания
Х в интервалы
:
,
где
,
- функция Лапласа.
5.
Рассчитаем теоретические частоты
. Замечания
1Чтобы
эмпирическая функция распределения
лучше описывала теоретическую нужно,
чтобы число интервалов было больше.
2Для выполнения предельной теоремы
нужно, чтобы эмпирические частоты не
должны быть маленькими (>5).3Если
какой-то интервал содержит малые
значения mi,
то соседние интервалы объединяются, а
частоты складываются. Тогда число
степеней свободы критерия
2
уменьшается на 1.