- •1. Случайные события.
- •2. Классическое определение вероятности и ее свойства.
- •3.Аксиоматическое определенияе вероятности
- •4.Формулы комбинаторики. Гипергеометрическое распределение.
- •5. Условная вероятность. Независимость событий.
- •6. Формула полной вероятности. Формула Байеса.
- •7. Схема независимых испытаний Бернулли.
- •8. Предельные теоремы в схеме Бернулли. Теорема Пуассона.
- •10. Плотность распределения вероятностей и ее свойства.
- •11. Математическое ожидание и его свойства.
- •Свойства м
- •12. Дисперсия и ее свойства.
- •13. Коэффициент корреляции и ковариация.
- •14. Моменты.
- •15. Основные дискретные распределения случайных величин.
- •1. Биноминальное распределение.
- •2. Распределение Пуассона.
- •3. Геометрическое распределение.
- •16. Равномерное и показательное распределение.
- •17. Нормальное распределение.
- •18. Двумерная функция распределения и ее свойства.
- •19. Двумерная плотность вероятности и ее свойства.
- •20. Независимость случайных величин
- •21. Условный закон распределения.
- •22. Неравенство Чебышева. Сходимость случайных последовательностей.
- •24. Центральная предельная теорема.
- •25. Выборочный метод.
- •26.Эмпирическая функция распределения и её свойства.
- •27. Полигон и гистограмма.
- •28. Числовые характеристики выборки.
- •29. Точечное оценивание.
- •30.Стандартная ошибка точечной оценки
- •32. Доверительные интервалы.
- •33. Распределение х2 Стьюдента и Фишера.
- •34. Доверительные интервалы для оценки математического ожидания при известном .
- •35. Доверительные интервалы для оценки матожидания нормального распределения при неизвестном .
- •36. Проверка статистических гипотез.
- •37. Построение критической области.
- •38. Критерий согласия Пирсона.
- •40. Сравнение дисперсий двух нормальных выборок.
- •42. Дисперсионный анализ.
- •43. Парная регрессия.
- •44 .Парный коэффициент корреляции, его св-ва
- •45.Проверка гипотезы о достоверности выборочного коэффиц. Коррелеляции
- •46. Критерий Манна-Уитни.
43. Парная регрессия.
Пусть изучается
взаимосвязь между двумя количественными
признаками Х и У. Х и У могут быть
независимы, связаны между собой
функциональной зависимостью и
корреляционной. завис-тью. При корреляции
завис-ть изм-ний кажд. отд. знач-я Х
необязат-но влечет за собой изм-е Y,
однако изм-е
привод. к изм-ю
.
Завис-ть вида y=f(x)+, - ошибка оценки. Чтобы установить вид завис-ти строится поле корреляции. На ОхOу наносят координаты (xi, yj) и по располож-ю точек делают вывод о виде завис-ти. Пусть вид завис-ти линейный.
Коэф-ты
b0
и b1
найдем по методу наименьш. квадратов
х, у–выбор. знач-я , n–объем
выборки.
теорет.
знач-я y.
Найдем b0
и b1
такие, при кот. ф-я S
достиг. минимума.
Методика построения ур-я регрессии
44 .Парный коэффициент корреляции, его св-ва
Выборочным коэффициентом корреляции признаков Х и У называется величина:
.
Квадрат коэффициента корреляции называется коэффициентом детерминации
.
Свойства выборочного коэффициента корреляции:
1.
.
2. Если Х и Y независимы, то коэффициент корреляции равен 0.
3. Если X
и Y
связаны линейной зависимостью
,
то
причем при
,
при
.
Если
,
то говорят, что X
и Y
связаны
корреляционной зависимостью, тем более
тесной, чем ближе
к 1. Коэффициент корреляции служит для
количественной характеристики
зависимости между изучаемыми признаками.
45.Проверка гипотезы о достоверности выборочного коэффиц. Коррелеляции
Пусть по выборке
объема n
найден выборочный коэффициент корреляции,
причем
.
Но это еще не означает, что коэффициент
корреляции генеральной совокупности
будет также отличаться от нуля. Проверим
нулевую гипотезу Н0
о равенстве нулю коэффициента корреляции
генеральной совокупности
при конкурирующей гипотезе
.
Если нулевая гипотеза будет отклонена, то это будет означать, что коэффициент корреляции значимо отличается от нуля, а Х и Y коррелированны, т.е. связаны линейной корреляционной зависимостью. Если нулевая гипотеза принята, то величины не связаны линейной зависимостью.
В качестве статистики при проверке нулевой гипотезы принимается случайная величина
,
46. Критерий Манна-Уитни.
Пусть имеется две независимых выборки Х,У обьемами n1, n2.
Пусть по их законе распределения ничего неизвестно.
F(x)=F
G(y)=G
Поставим задачу сравнения этих ф-ций. Критерий проверки таких гипотез наз.- непараметрическим. Суть этих критериев состоит в том, что они не используют исходные количественные данные.
H0: F(x)= G(y)
H1: F(x)≠ G(y)
Критерий Манна-Уитни не использует количество данных, а основано на понятиях >< - оно наз. ранговым.
Две выборки Х,У объединяются в одну и упорядочиваются по возрастанию. Каждое исходное значение заменяется своим рангом – номером по порядку объединенной выборки.
R 1,i – ранг i-го значения из выборки х.
R 2,j – ранг j-го значения выборки y.
Подсчитаем сумму рангов 1 и 2 выборки:
R 1 = ∑ R 1,i . R 2 = ∑ R 2,j
Обозначим R=min { R 1, R 2 }
Статистика Манна-Уитни имеет вид: U =R – ½* n1 (n1 +1), R 1 < R 2.
MU= (n1 * n2)/2 DU= ((n1 + n2)/12 )* (n1 * n2 )
Распределение статистики U имеет спец. вид n1 / n2 =α< +∞, но при n1, n2 →+∞ распределение U быстро стремится к нормальному. Это сходимость настолько быстрая, что при n1 * n2 >8 можно пользоваться нормальным распределением при проверке H0. В этом случае нужно сделать преобразование стандартизации для нормального распределения.
Zнабл.=(U-MU)/√DU и по табл. норм. распред. на основании выбронного ур-ния значимости нах. Zкр.
Если Zнабл< Zкр, то нет основания отвергать H0,
Если ׀ Zнабл׀> Zкр, то отвергаем гепотизу H0 и принимаем H1.
