- •1. Что изучает теория вероятностей
- •2. Испытание. Событие. Классификация событий
- •3. Понятие вероятности события. Классическое определение вероятности
- •4. Относительная частота события. Статистическое определение вероятности
- •5. Понятие комбинаторики. Основные правила комбинаторики
- •6. Основные комбинаторные соединения
- •7. Алгебра событий
- •8. Условная вероятность. Теоремы умножения вероятностей
- •9. Теоремы сложения вероятностей. Вероятность появления хотя бы одного события
- •10. Формула полной вероятности
- •11. Вероятность гипотез. Формула Байеса
- •12. Формула Бернулли
- •13. Формула Пуассона
- •14. Наивероятнейшее число появления события
- •15. Понятие и виды случайных величин
- •16. Закон распределения вероятностей дсв. Способы задания
- •17. Биноминальное распределение
- •18. Пуассоновское распределение
- •19. Геометрическое распределение
- •20. Гипергеометрическое распределение
- •21. Математическое ожидание дсв и его свойства
- •22. Дисперсия дсв и её свойства. Формула для вычисления дисперсии. Среднее квадратическое отклонение
- •23. Функция распределения вероятностей и её свойства
- •24. Плотность распределения вероятностей и её свойства
- •25. Числовые характеристики нсв
- •26. Равномерное распределение и его свойства
- •27. Показательное распределение и его свойства
- •28. Нормальное распределение и его свойства
- •29. Правило трёх сигм. Центральная предельная теорема Ляпунова
- •30. Закон больших чисел
- •31. Задачи математической статистики
- •32. Выборочный метод
- •33. Типы выборок и способы отбора
- •34. Вариационные ряды
- •35. Эмпирическая функция распределения
- •36. Полигон и гистограмма
- •37. Точечные оценки параметров распределения
- •38. Генеральная и выборочная средние
- •39. Генеральная и выборочная дисперсии
- •40. Оценка генеральной средней по выборочной средней
- •41. Оценка генеральной дисперсии по исправленной выборочной дисперсии
- •42. Метод моментов для точечной оценки параметров распределения
- •43. Метод наибольшего правдоподобия для точечной оценки параметров распределения
- •44. Интервальные оценки параметров распределения
- •45. Доверительные интервалы для параметров нормального распределения
- •46. Виды зависимостей между случайными величинами
- •47. Выборочные уравнения регрессии
- •48. Коэффициент корреляции
- •49. Линейная корреляция
- •50. Статистическая гипотеза
- •51. Виды ошибок
- •52. Статистический критерий. Критическая область
- •53. Сравнение выборочной средней с математическим ожиданием
- •54. Сравнение двух дисперсий нормальных генеральных совокупностей
49. Линейная корреляция
КОРРЕЛЯЦИЯ ЛИНЕЙНАЯ - статистическая линейная связь (см.) непричинного характера между двумя количественными переменными (см.) х и у. Измеряется с помощью "коэффициента К.Л." Пирсона, который является результатом деления ковариации на стандартные отклонения обеих переменных:
,
где sxy - ковариация (см.) между переменными х и у;
sx, sy - стандартные отклонения (см.) для переменных х и у;
xi, yi - значения переменных х и у для объекта с номером i;
x, y - средние арифметические (см.) для переменных х и у.
Коэффициент Пирсона r может принимать значения из интервала [-1; +1]. Значение r = 0 означает отсутствие линейной связи между переменными х и у (но не исключает статистической связи нелинейной - см.). Положительные значения коэффициента (r > 0) свидетельствуют о прямой линейной связи; чем ближе его значение к +1, тем сильнее связь статистическая прямая (см.). Отрицательные значения коэффициента (r < 0) свидетельствуют об обратной линейной связи; чем ближе его значение к -1, тем сильнее обратная связь. Значения r = ±1 означают наличие полной линейной связи, прямой или обратной. В случае полной связи все точки с координатами (xi, yi) лежат на прямой y = a + bx.
"Коэффициент К.Л." Пирсона применяется также для измерения тесноты связи в модели регрессии линейной парной (см.).
50. Статистическая гипотеза
Статистическая гипотеза
Статистическая гипотеза, предположительное суждение о вероятностных закономерностях, которым подчиняется изучаемое явление. Как правило, С. г. определяет значения параметров закона распределения вероятностей или его вид. С. г. называется простой, если она определяет единственный закон распределения; в ином случае С. г. называется сложной и может быть представлена как некоторый класс простых С. г. Например, гипотеза о том, что распределение вероятностей является нормальным распределением с математическим ожиданием а = а0 и некоторой (неизвестной) дисперсией s2 будет сложной, составленной из простых гипотез а = а0, (а0 и — заданные числа).
51. Виды ошибок
Ошибки первого рода (англ. type I errors, б errors, false positives) и ошибки второго рода (англ. type II errors, в errors, false negatives) в математической статистике — это ключевые понятия задач проверки статистических гипотез. Тем не менее, данные понятия часто используются и в других областях, когда речь идёт о принятии «бинарного» решения (да/нет) на основе некоего критерия (теста, проверки, измерения), который с некоторой вероятностью может давать ложный результат.
Определения
Пусть дана выборка из неизвестного совместного распределения PX, и поставлена бинарная задача проверки статистических гипотез:
H0, H1 где H0 — нулевая гипотеза, а H1 — альтернативная гипотеза. Предположим, что задан статистический критерий , сопоставляющий каждой реализации выборки X=xодну из имеющихся гипотез. Тогда возможны следующие четыре ситуации:
Распределение PX выборки X соответствует гипотезе H0, и она точно определена статистическим критерием, то есть f(x)=Ho.
Распределение PXвыборки соответствует гипотезе H0, но она неверно отвергнута статистическим критерием, то есть f(x)=H1.
Распределение PXвыборки Xсоответствует гипотезе H1, и она точно определена статистическим критерием, то есть f(x)=H1.
Распределение Pxвыборки Xсоответствует гипотезе H1, но она неверно отвергнута статистическим критерием, то есть f(x)=H0.
Во втором и четвертом случае говорят, что произошла статистическая ошибка, и её называют ошибкой первого и второго рода соответственно.
Вероятности ошибок (уровень значимости и мощность)
Вероятность ошибки первого рода при проверке статистических гипотез называют уровнем значимости и обычно обозначают греческой буквой б (отсюда название б-errors).
Вероятность ошибки второго рода не имеет какого-то особого общепринятого названия, на письме обозначается греческой буквой в (отсюда в-errors). Однако с этой величиной тесно связана другая, имеющая большое статистическое значение — мощность критерия. Она вычисляется по формуле (1 − в). Таким образом, чем выше мощность, тем меньше вероятность совершить ошибку второго рода.
Обе эти характеристики обычно вычисляются с помощью так называемой функции мощности критерия. В частности, вероятность ошибки первого рода есть функция мощности, вычисленная при нулевой гипотезе. Для критериев, основанных на выборке фиксированного объема, вероятность ошибки второго рода есть единица минус функция мощности, вычисленная в предположении, что распределение наблюдений соответствует альтернативной гипотезе. Для последовательных критериев это также верно, если критерий останавливается с вероятностью единица (при данном распределении из альтернативы).
В статистических тестах обычно приходится идти на компромисс между приемлемым уровнем ошибок первого и второго рода. Зачастую для принятия решения используется пороговое значение, которое может варьироваться с целью сделать тест более строгим или, наоборот, более мягким. Этим пороговым значением является уровень значимости, которым задаются при проверке статистических гипотез. Например, в случае металлодетектора повышение чувствительности прибора приведёт к увеличению риска ошибки первого рода (ложная тревога), а понижение чувствительности — к увеличению риска ошибки второго рода (пропуск запрещённого предмета).