
- •11. Ковариация двух сл. Вел-н, ее св-ва, коэффициент корреляции двух сл. Вел-н и его св-ва.
- •12. Биноминальное распределен., вычисление мат. Ожид. И дисперсии бином-ой сл. Вел-ны.
- •13. Пуассоновское распределение
- •14. Непрерывные случайные величины
- •19. Постановка и решение задачи линейной регрессии. Метод наименьших квадратов.
- •20. Основные понятия математической статистики.
- •21. Методы получения оценок: метод моментов и метод наибольшего правдоподобия, функция правдоподобия( дискретный и непрерывный случаи), примеры.
- •24. Статистические гипотезы, постановка задачи построения критерия проверки статистической гипотезы. Уровень значимости и мощность критерия. Параметрический критерий. Теорема Неймана-Пирсона.
- •Вопрос 25
- •Вопрос 26
24. Статистические гипотезы, постановка задачи построения критерия проверки статистической гипотезы. Уровень значимости и мощность критерия. Параметрический критерий. Теорема Неймана-Пирсона.
Пусть случайная величина X имеет плотность p(x, θ), зависящую от параметра θ, одномерного или многомерного, принимающего значения из некоторого множества Θ. В частности, если p(x, θ) — одномерная плотность распределения и независимая выборка x1, x2,…xn(1) получена из распределения с этой плотностью, то n-мерная плотность, соответствует выборке (1) равна произведению
(С очевидными изменениями все это переносится и на дискретный случай, когда p(x, θ)= P{X=x}).
Значение
параметра θ
вполне определяет плотность p(x,
θ).
Те или иные гипотезы о виде неизвестного
распределения или о параметрах известного
распределения называются статистическими
гипотезами.
Статистическая гипотеза типа
θ
= θ0,
где θ0
— некоторое фиксированное значение,
называется простой;
гипотеза типа θ
Θ
называется сложной
(содержат конечное или бесконечное
число простых гипотез). Проверку гипотезы
проводят статистическим методом, поэтому
проверку
называют статистической.
Гипотезу проверяют на основании выборки
из ГС — это и есть статистический метод.
Из-за случайности выборки в результате
статистической проверки могут возникнуть
ошибки и приниматься неправильные
решения. Решение принимается по значению
некоторой функции от выборки, называемой
статистикой (это спец. статистика,
которая называется статистическим
критерием, который служит для отбора и
проверки).
Опр: Статистический критерий К — это случайная величина, т.е. функция на множестве случайного аргумента, которая служит для проверки нулевой гипотезы.
Множество значений критерия К можно разделить на два непересекающихсяподмножества:
подмножество значений К, при которых H0 принимается, называемое областью принятия гипотезы(допустимой областью).
подмножество значений критерия К, при которых основная гипотеза H0 отклоняется и принимается альтернативная гипотеза H1 , называемое критической областью.
К — одномерная случайная величина, т.е. его возможные значения некоторому интервалу. Обычно интервал — вся прямая или положительная полуось, поэтому критическая область критерия и допустимая область критерия также являются интервалами на числовой оси и, следовательно, существуют точки, которые их разделяют. Они называются критическими точками или границами критерия К.
Постановка задачи.
Относительно параметра θ имеется некоторая основная или, или проверяемая гипотеза H0 : θ Θ. Мы должны построить такой статистический критерий, который позволяет заключить, согласуется ли выборка x1, x2,…xn с гипотезой H0 , или нет.
Обычно критерий строится с помощью критического множества. Из n – мерного множества всех возможных значений (x1, x2,…xn) выделяется такое подмножество S, называемое критическим, что при (x1, x2,…xn) S гипотеза отвергается, а в пртивоположном случае — принимается. Полученный с помощью критического множества S статистический критерий иногда называют S-критерием.
Мы будем рассматривать главным образом две основные гипотезы:
H0: p(x)= p(x, θ0) — основная гипотеза;
H1: p(x)= p(x, θ1) — альтернативная гипотеза.
Есть задачи, в которых H0 и H1 — равноправны. Однако очень часто в реальных задачах эти гипотезы выступают наравнопрвно.
Уровень значимости и мощность критерия.
Рассмотрим две простые гипотезы: проверяемую H0: θ = θ0, и конкурирующую H1: θ = θ1. С каждым S-критерием связаны ошибки двух родов. Ошибка 1-го рода — отвержение гипотезы H0, когда она верна; ошибка 2-го рода — принятие H0, когда верна конкурирующая гипотеза H1. Обозначим
Тогда
вероятность ошибки первого рода
S-критерия
равна
,
а вероятность ошибки второго рода равна
.
В самом деле пусть гипотеза H0-верна,
тогда θ = θ0.
Гипотеза H0—
отвергается, если (x1,
x2,…xn)
S.
Вероятность
этого равна
Вероятностьошибки
второго рода равна
,
где
,
—
множество значений (x1,
x2,…xn).
Опр:
Вероятность
ошибки первого рода α называется уровнем
значимости
S-критерия.
Функция
аргумента θ
называется
функцией мощности S-критерия.
Из
определений следует, что
Отсюда видно, что чем больше мощность
в точке θ1,
тем меньше
вероятность ошибки второг рода.
Параметрические критерии для распознавания двух простых гипотез H0 и H1 строят следующим образом. Сначала задается уровень значимости α, затем из множества Sα всех S-критериев с уровнем значимости α выбирается критерий S*, для которого мощность при θ = θ1 принимает наибольшее значение, т.е.
Такой критерий называется оптимальным или наиболее мощным.
Теорема Неймана-Пирсона.
Для
любого 0≤α≤1
существует число С
такое, что
,
тогда
и эта вероятность минимальна среди всех
критериев с уровнем значимости α.