
- •Полные статистики.
- •Свойства условных математических ожиданий.
- •Теорема о построении эффективных оценок
- •Алгоритм нахождения эффективных оценок
- •Неравенство Рао-Крамера. Теорема Рао-Крамера
- •Пример 1.
- •Пример 2.
- •Пример 3.
- •Лемма Неймана-Пирсона ( нерэндомизированный вариант).
- •Лемма Неймана-Пирсона ( рэндомизированный вариант).
- •Статистика
- •Критерий
- •Критерий согласия Пирсона
- •Статистика критерия
- •Правило критерия
- •28) Критерий согласия Пирсона (Хи-квадрат)
- •Поведение, когда гипотезаверна.
- •Поведение, когда гипотезаневерна.
- •Критерий проверки.
- •Границы применимости критерия на практике.
- •Доверительный интервал и примеры. Доверительный интервал.
- •Примеры
- •Общая задача дисперсионного анализа.
- •Однофакторный, двуфакторный дисперсионный анализ. Однофакторный дисперсионный анализ
- •Двуфакторный дисперсионный анализ
- •Байесовская классификация.
- •Дискриминантный анализ
Поведение, когда гипотезаневерна.
Предположим теперь, что и
разбиение
таково,
что
где
вероятности вычислены
по функции распределения
.
Тогда можно показать (см., например, [13,
§ 10.4]), что
|
(52) |
Критерий проверки.
То обстоятельство, что поведение существенно
различно в зависимости от того верна
или нет гипотеза
,
дает возможность построить критерий
для ее проверки. Зададимся некоторымуровнем
значимости
(допустимой
вероятностью ошибки) и возьмем квантиль
,
определенную формулой (45):
Определим критическое
множество:
Таким образом,
наши действия по принятию (или отвержению)
гипотезы состоят
в следующем. Подстановкой имеющихся
данных
в
формулу (51)
вычисляется значение функции
,
которое затем сравнивается с
:
если
, то гипотеза
отвергается(при этом говорят, что выборка обнаруживаетзначимое отклонениеот гипотезы
),
если
, то гипотеза
принимается(говорят, что выборкасовместимас гипотезой
).
Действительно,
такое решающее правило соответствует
вышеизложенным фактам о поведении
функции .
Приведем аргументы, основанные на
здравом смысле, свидетельствующие в
пользу этого решающего правила. Если
значения функции
оказались
``слишком большими'', то, принимая во
внимание (52),
разумно считать, что гипотеза
не
имеет места. Если же значения
``не
слишком большие'', то, скорее всего,
гипотеза
верна,
поскольку это согласуется с теоремой
Пирсона.
При таком решающем правиле мы может
допустить ошибку, отвергнув верную
гипотезу .
Из теоремы Пирсона вытекает, что при
больших
величина
вероятности этой ошибки близка к
.
Границы применимости критерия на практике.
Утверждения теоремы Пирсона и (52)
относятся к пределам при.На
практике, конечно, мы имеем дело лишь
с выборками ограниченного объема.
Поэтому, применяя вышеописанный критерий,
необходимо проявлять осторожность.
Согласно рекомендациям, изложенным
в [7],
применение критерия дает хорошие
результаты, когда все ожидаемые частоты
.
Если же какие-то из этих чисел малы,
рекомендуется, укрупняя некоторые
группы, перегруппировать данные таким
образом, чтобы ожидаемые частоты всех
групп были не меньше десяти. Если
число
достаточно
велико, то, как указывается в книге,
порог для ожидаемых частот может быть
понижен до
или
даже до
,
если
имеет
порядок нескольких десятков.
Билет №30
Доверительный интервал и примеры. Доверительный интервал.
Существует
выборка x1 x2
…xnс плотностью распределенияP(x,)
надо построить интервал с произвольными
концамиP(())=1-надо выбрать интервал покороче.
Например
Хотим построить доверительный интервал
длm
2неизвестно
x– оценка дляm
отцентрируем (x–m), тогда дисперсия будет/m
(отнормировали)
распределение Т мы знаем
=>
=>
Примеры
2неизвестно
;
надо для tпостроить интервал
Если симметричен,
то легко ограничить и получить маленький
интервал
Можно брать по-разному, но сумма площадей хвостов=(т.е. 1/3и 2/3)
Пусть /2
;
= >
доверительный
интервал:
Рассмотрим схему Бернулли
выборка
хотим построить доверительный интервал
для Р
воспользуемся
законом больших чисел:
можно взять
=>
доверительный
интервал:
Асимптотический доверительный интервал
Пусть
n=2k+1
упорядочили
x(k+1) – выборочная медиана
Выборочная
медиана:
m
m совпадает с матожиданием
Какая оценка лучше?
x – лучшая оценка (x(k+1)- хуже)
Выборочная медиана при нарушении основных предположений меняется мало, а x – сильно.
Пример
Пусть
- плотность распределения Коши.
Характеристическая функция у x совпадает с характеристической функцией одного наблюдения (для Коши), т.е. информация о параметре вx такая же, как в одном наблюдении, т.е.x – несостоятельна. Ее нельзя применять, а- дает хорошую оценку.
Распределение Коши похоже на нормальное.
Сколько мы теряем, если распределение нормальное?
Построим доверительные интервалы. Какой короче?
1) По x
:
2) По :
,
еслиx=,
то
т.е. интервал
длявбольше, чем дляx.
Это асимптотически больше дляn.
Билет №31