
- •1. Случайные события.
- •2. Классическое определение вероятности и ее свойства.
- •5. Условная вероятность. Независимость событий.
- •6. Формула полной вероятности. Формула Байеса.
- •7. Схема независимых испытаний Бернулли.
- •8. Предельные теоремы в схеме Бернулли.
- •10. Плотность распределения вероятностей и ее свойства.
- •11. Математическое ожидание и его свойства.
- •Свойства м
- •12. Дисперсия и ее свойства.
- •13. Коэффициент корреляции и ковариация.
- •14. Моменты.
- •15. Основные дискретные распределения случайных величин.
- •1. Биноминальное распределение.
- •2. Распределение Пуассона.
- •3. Геометрическое распределение.
- •16. Равномерное и показательное распределение.
- •17. Нормальное распределение.
- •18. Двумерная функция распределения и ее свойства.
- •19. Двумерная плотность вероятности и ее свойства.
- •20. Независимость случайных величин
- •21. Условный закон распределения.
- •22. Неравенство Чебышева. Сходимость случайных последовательностей.
- •23.Теорема Чебышева. Теорема Бернулли.
- •24. Центральная предельная теорема.
- •25. Выборочный метод.
- •26.Эмпирическая функция распределения и её свойства. Также как и в теории вероятности для описания изучаемого признака строится эмпирическая функция распределения.
- •27. Полигон и гистограмма.
- •28. Числовые характеристики выборки.
- •29. Точечное оценивание.
- •32. Доверительные интервалы.
- •33. Распределение х2 Стьюдента и Фишера.
- •34. Доверительные интервалы для оценки математического ожидания при известном .
- •35. Доверительные интервалы для оценки матожидания нормального распределения при неизвестном .
- •36. Проверка статистических гипотез.
- •37. Построение критической области.
- •38. Критерий согласия Пирсона.
- •39. Вычисление теоретических частот для нормального распределения.
- •40. Сравнение дисперсий двух нормальных выборок.
- •43. Критерий Манна-Уитни.
- •44. Парная регрессия.
- •45. Парный коэффициент корреляции, его свойства.
- •46. Проверка гипотез о достоверности выборочного коэффициента корреляции.
- •47. Нелинейная парная регрессия.
43. Критерий Манна-Уитни.
Пусть имеется две независимых выборки Х,У обьемами n1, n2.
Пусть по их законе распределения ничего неизвестно.
F(x)=F, G(y)=G
Поставим задачу сравнения этих ф-ций. Критерий проверки таких гипотез наз.- непараметрическим. Суть этих критериев состоит в том, что они не используют исходные количественные данные.
H0: F(x)= G(y), H1: F(x)≠ G(y)
Критерий Манна-Уитни не использует количество данных, а основано на понятиях >< - оно наз. ранговым.
Две выборки Х,У объединяются в одну и упорядочиваются по возрастанию. Каждое исходное значение заменяется своим рангом – номером по порядку объединенной выборки.
R 1,i – ранг i-го значения из выборки х.
R 2,j – ранг j-го значения выборки y.
Подсчитаем сумму рангов 1 и 2 выборки:
R 1 = ∑ R 1,i . R 2 = ∑ R 2,j
Обозначим R=min { R 1, R 2 }
Статистика Манна-Уитни имеет вид: U =R – ½* n1 (n1 +1), R 1 < R 2.
MU= (n1 * n2)/2 DU= ((n1 + n2)/12 )* (n1 * n2 )
Распределение статистики U имеет спец. вид n1 / n2 =α< +∞, но при n1, n2 →+∞ распределение U быстро стремится к нормальному. Это сходимость настолько быстрая, что при n1 * n2 >8 можно пользоваться нормальным распределением при проверке H0. В этом случае нужно сделать преобразование стандартизации для нормального распределения.
Zнабл.=(U-MU)/√DU и по табл. норм. распред. на основании выбронного ур-ния значимости нах. Zкр.
Если Zнабл< Zкр, то нет основания отвергать H0,
44. Парная регрессия.
Пусть изучается взаимосвязь м/д 2мя количественными признаками X и Y.
X и Y могут быть независимы, связаны между собой функциональной либо корреляционной зависимостью. При функцион зависимость изменения каждогознач Х влечет изменение каждого У.
При корреляции
зависимость изменений каждого отдельного
значения Х не обязательно влечет за
собой изменение Y,
однако изменение
приводит к изменению
.
Зависимость вида
y=f(x)+
,
- ошибка оценки.
Чтобы установить вид зависимости строится поле корреляции. На OXY наносят координаты (xi, yj) и по расположению точек делают вывод о виде зависимости.
Пусть вид зависимости линейный.
(1)
Коэффициенты b0 и b1 найдем по методу наименьших квадратов
теоретические
значения y.
Найдем b0 и b1 такие, при которых функция S достигает минимума.
{
Перейдем к средним значениям, поделив на n.
{
(2)
(3)
Методика построения уравнения регрессии
45. Парный коэффициент корреляции, его свойства.
(4)
Коэффициент обладает все теми же свойствами, что и теоретический коэффициент корреляции.
1.если x и y независимы, то 0.
2.-1<=
1
3.если x
и y
связаны линейной зависимостью, т.е. при
,
то
b1>0,
=1
B1<0, =–1
Таким образом
коэффициент является количественной
характеристикой зависимости x
и y.
Чем ближе
к единице, тем теснее и ближе к линейной
зависимости между X
и Y.