Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекция 25. Статистическая проверка гипотез.doc
Скачиваний:
2
Добавлен:
01.07.2025
Размер:
986.11 Кб
Скачать

Раздел 25.3. Задачи статистики и соответствующие группы критериев

Вернемся к обсуждению задач статистики и соответствующих критериев.

Замечание 25.3.1. Мы рассмотрим постановку задачи в самом простом варианте. На самом деле ситуация с формулировкой статистической гипотезы, а также использования критерия более сложная.

(Гипотезы можно разделить на простые и сложные, направленные и ненаправленные, критерии, в том числе и на параметрические и непараметрические)

1.Задача согласия. Критерии согласия

Эта группа задач крайне важна, так как для решения многих других статистических задач требуется, для соответствия требуемым условиям, проверить вид распределения, в первую очередь это касается нормального закона распределения.

Рассмотрим постановку задачи на примере критерия Колмогорова.

Сформулируем сначала теорему Гливенко

Для произвольной функции распределения F(x) имеет место сходимость

Dn  0 (почти наверное)

Где Dn статистика Колмогорова

- эмпирическая (выборочная) функция распределения

IA (x) - функция индикатор, равная 1, если x A и x A.

На рисунке изображен случай равномерного распределения на [0, 1]

По §23 А.Н.Бородин «Элементарный курс теории вероятностей и математической статистики».

Значения статистики Колмогорова приводятся в соответствующих таблицах.

Также часто используемыми критериями согласия являются критерии Пирсона ( 2) и Фишера.

2. Задача однородности. Критерии однородности

Критерий Смирнова. (по М.Б.Лагутин «Наглядная математическая статистика»)

Т.е Dn,m – расстояние между эмпирическими функциями выборок.

Слишком большое расстояние противоречит основной гипотезе Н0.

Н.В,Смирнов в 1939 г. Показал, что, если гипотеза Н0 верна, то имеет место сходимость

где К(х) – функция распределения Колмогорова (см п.1)

При рассмотрении задачи однородности часто используются критерий знаков, критерии Уилкоксона, Манна-Уитни и др.

3. Задача симметрии. Критерий симметрии

Необходимость проверки гипотезы возникает в тех случаях, когда ничего не известно о характере распределения, а также в случаях оценки остатков регрессионной модели, в дисперсионном анализе. Обсудим задачу в самом общем виде.

H0 : F(x) = 1 – F(x-a), или ρ(х) = ρ(х-а)

H1 : F(x) ≠ 1 – F(x-a)

Иначе говоря, основная гипотеза утверждает, что плотность распределения симметрична и центром симметрии является точка а

Для решения задачи вводятся величины zi =|xia| - преобразования наблюдения, из них составляется вариационный ряд и его членам присваиваются («абсолютные относительно точки а») значения

Такое преобразование сводит рассмотрение задачи симметрии к проверке гипотезы однородности двух выборок, образованных, соответственно, левым и правым (относительно а) «хвостами» исходного распределения. Что достигается использованием ранговых критериев однородности (например, (одновыборочный) критерий Вилкоксона)).

4. Задача независимости. Критерии независимости. Данные вопросы рассмотрены в тексте следующей темы

В заключении приведем таблицу из книги Е.В.Сидоренко «Методы математической обработки в психологии». Наряду с названием задачи статистики, при выборе соответствующего критерия можно руководствоваться альтернативой: параметрический – непараметрический критерий. Например, решать вопрос о неразличии при известном классе распределения можно сравнением параметров распределения.

Параметрические критерии – это группа критериев, включающих в формулы для расчетов параметры распределения – математическое ожидание (например, t-критерий) и дисперсию (например, критерий Фишера)

Непараметрические критерии – не включают в расчетную формулу параметры, а основываются на частотах и рангах.

Замечание 25.3.1. Большая часть и соответствующих критериев относится , таким образом, к непараметрическим

Параметрические критерии

Непараметрические критерии

1. Позволяют прямо оценить различия в

средних, полученных в двух выборках (t -

критерий Стьюдента).

Позволяют оценить лишь средние

тенденции, например, ответить на

вопрос, чаще ли в выборке А

встречаются более высокие, а в выборке

Б - более низкие значения признака

(критерии Q, U, φ* и др.)

2. Позволяют прямо оценить различия в

дисперсиях (критерий Фишера).

Позволяют оценить лишь различия в

диапазонах вариативности признака

(критерий φ*).

3. Позволяют выявить тенденции изме-

нения признака при переходе от условия

к условию (дисперсионный

однофакторный анализ), но лишь при

условии нормального распределения признака

Позволяют выявить тенденции

изменения признака при переходе от

условия к условию при любом

распределении признака (критерии

тенденций L и S).

4. Позволяют оценить взаимодействие

двух и более факторов в их влиянии на

изменения признака (двухфакторный

дисперсионный анализ).

Эта возможность отсутствует.

5. Экспериментальные данные должны

отвечать двум, а иногда трем, условиям:

а) значения признака измерены по

интервальной шкале; б) распределение

признака является нормальным; в) в

дисперсионном анализе должно

соблюдаться требование равенства

дисперсий в ячейках комплекса.

Экспериментальные данные могут не

отвечать ни одному из этих условий: а)

значения признака могут быть пред-

ставлены в любой шкале, начиная от

шкалы наименований; б) распределение

признака может быть любым и

совпадение его с каким-либо

теоретическим законом распределения

необязательно и не нуждается в

проверке; в) требование равенства

дисперсий отсутствует.

6. Математические расчеты довольно

сложны.

Математические расчеты по большей

части просты и занимают мало времени

(за исключением критериев χ2 и λ).

7. Если условия, перечисленные в п.5,

выполняются, параметрические критерии

оказываются несколько более мощными,

чем непараметрические.

Если условия, перечисленные в п.5, не

выполняются, непараметрические

критерии оказываются более мощными,

чем параметрические, так как они менее

чувствительны к "засорениям'.

Дополнение. Немного истории.

Из книги Г.Секей «Парадоксы теории вероятностей и математической статистики», глава II «Парадоксы статистики»,