- •Глава 1 Случайные события
- •1.1. Вводные понятия
- •1.2. Алгебра событий
- •1.4. Схема геометрической вероятности
- •1.5. Условные вероятности. Независимость событий
- •1.6. Правила вычисления вероятностей сложных событий
- •1.8. Обобщения схемы Бернулли
- •Глава 2 Случайные величины
- •2.1. Основные понятия, связанные со случайной величиной
- •2.3. Закон распределения случайной величины дискретного типа
- •2.5. Случайные величины непрерывного типа и их законы распределения
- •2.7. Нормальное распределение
- •Глава 3Случайные векторы
- •3.1. Основные понятия. Свойства функции распределения
- •3.2. Случайные векторы дискретного типа и их законы распределения
- •3.4. Числовые характеристики случайного вектора дискретного типа
- •3.5. Случайные векторы непрерывного типа и их законы распределения
- •Глава 4. Функции от случайных величин
- •4.1. Теоремы о математическом ожидании функций
- •4.3. Характеристическая функция и ее свойства
- •4.4. Законы распределения функций
- •Глава 5 Законы больших чисел и предельные теоремы теории вероятностей
- •5.1. Законы больших чисел
- •5.2. Центральная предельная теорема
- •5.3. Следствия ЦПТ для схемы Бернулли
- •Глава 6. Статистическое оценивание
- •6.1. Первичная обработка выборки
- •6.2. Точечное оценивание неизвестных характеристик генерального
- •6.4. Интервальное оценивание
- •Глава 7.Проверка статистических гипотез
- •7.1. Общие понятия. Методика проверки
- •7.2. Выбор критической области
- •7.4. Проверка гипотез о законе распределения
- •Глава 8.Корреляционный анализ
- •Глава 9Регрессионный анализ
- •Глава 10.Однофакторный дисперсионный анализ
- •Литература
( p* − p)2 < |
1 |
u2 |
p( p −1). При постановке знака "равно" получим |
|
|
||||
|
n |
1+β |
|
|
|
|
2 |
|
|
|
|
|
||
уравнение эллипса, сильно вытянутое при n >> 1 вдоль биссектрисы p* – p = 0. Обозначим корни уравнения p1 и p2:
|
|
|
|
|
|
|
|
|
u2 |
|
|
p( p −1) |
|
|
|
|
|
|
|
|
|
|
|
|
1+β |
|
|
|
|||
|
|
|
|
|
|
( p* − p)2 = |
|
|
2 |
|
|
. |
(6.22) |
||
|
|
|
|
|
|
|
|
|
|
n |
|||||
При n >> 1 p1 и p2 близки к p*. Чтобы их определить, примем |
|||||||||||||||
|
* |
|
1 |
|
1 |
|
|
|
|
|
|
|
|
|
|
p = p |
+ γ |
|
|
, |
подставим |
в |
уравнение |
(6.22) и найдем γ . |
|||||||
|
n |
+ о |
n |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
После несложных преобразований и отделении членов, имеющих порядок
|
|
|
|
|
|
* |
|
|
|
p |
* |
(1− |
p |
* |
) |
|
1 |
|
|
||
|
1 |
, получим |
p1,2 = p |
± u1+β |
|
|
|
|
|
искомый |
|||||||||||
о |
|
|
|
|
n |
|
|
|
|
+ о |
|
|
|||||||||
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|||
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
доверительный интервал имеет вид: |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
p* −u1−β |
p*(1− p*) |
< p < p* + u1+β |
p*(1 − p*) . |
||||||||||||||||
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
Данное неравенство определяет искомый доверительный интервал при условии npq >>1. 
Замечание. Примеры построения доверительных интервалов для трех важнейших характеристик распределения (m, σ2 и p) рассматриваются на семинарских занятиях.
Глава 7.Проверка статистических гипотез
7.1. Общие понятия. Методика проверки
Проверка статистических гипотез - одна из основных задач математической статистики. Разрабатываемые здесь процедуры позволяют принимать или отвергать статистические гипотезы, возникающие при обработке или интерпретации результатов на-
118
блюдений во многих практически важных разделах науки и производства, связанных со случайным экспериментом. Ниже будет рассмотрена основная методология проверки так называемых параметрических инепараметрических гипотез.
Для проверки параметрических гипотез необходимы некоторые предположения о законе распределения генеральной совокупности (как правило, используется нормальность генерального). Для проверки непараметрических гипотез такие предположения не используются. Основные типы рассматриваемых ниже задач могут быть представлены в виде схемы на рис.7.1.
Пусть генеральная случайная величина X распределена по закону, определяемому семейством функций распределения FX (x
θ). Относи-
тельно параметра θ высказывается некоторая основная или проверяемая гипотезаH0 : θ θ0 . Необходимо построить такой статистический
критерий, который позволит нам заключить, согласуется ли высказанное в H0 предположение с тем, что наблюдается в выборке. Построе-
ние критерия определяется выбором подходящей статистики Z = Z(X1,..., X n ) , зависящей от выборки и набора параметров, утвер-
ждаемых в Н0. Наряду с основной гипотезой необходимо высказать так называемую альтернативную гипотезу Н1, противоречащую основной (но не обязательно отрицающую Н0).
Рассмотрим методологию процедуры проверки гипотезы на примере сравнения с эталоном.
Алгоритм проверки.
1. Сформулируем основную и альтернативную гипотезы.
Проверка гипотез:
о характеристиках или |
о законе распределения |
|
параметрах генерального |
||
|
||
сравнение характеристик |
сравнение характеристик в |
|
с эталоном |
двух независимых генеральных |
|
|
Рис.7.1. |
|
|
119 |
Основная гипотеза Н0: а = a0, a0 - эталон, (a {mX ,σ2X , p}).
Альтернативная гипотеза Н1:
a > a |
0 |
- правосторонняяальтернатива, |
конкретизируем |
|
- двусторонняяальтернатива, |
||
а ≠ a0 |
|
||
|
|
- левосторонняяальтернатива, |
одну из альтернатив. |
а < a0 |
|
||
2. Зададим уровень значимости α :
(α {0,05; 0,025; 0,01; ...}) ,
αимеет смысл малой вероятности редко осуществляемого события.
3.Выберем подходящую статистику. Она должна быть удобной мерой расхождения между гипотетическим значением, утверждаемым в
Н0, и тем, что наблюдается в выборке. Закон распределения этой статистики должен быть известен по крайней мере при условии Н0 и по возможности не зависеть от неизвестного параметра, но это не всегда возможно, поэтому различают простые и сложные гипотезы.
Определение. Гипотеза Н0 называется простой, если она полностью определяет закон распределения статистики. В противном случае гипотеза называется сложной.
4.Пусть Z - подходящая статистика, G - область возможных значений статистики Z. Разобьем множество G на две непересекающихся
подобласти: G = Gα G1−α , где Gα - критическая область; |
G1−α - |
допустимая область. При этом Gα должна удовлетворять условию: |
|
P{Z Gα / H0} = α . |
(7.1) |
5.Сформулируем следующее решающее правило: если Zвыб Gα
H0 отвергается в пользу Н1 как не соответствующее опытным данным. При Zвыб G1−α следует принять H0 на данном уровне значимости
α. Основа этого правила заключается в следующем. Мы сами задали столь малое α, чтобы событие {Z Gα} имело гарантированно малую вероят-
ность, если справедлива гипотеза Н0. Поэтому, если для данной выборки это событие реализовалось, следует считать, что расхождение между гипотетическим и выборочным значением превысило некоторый порог (стало "значимым"), и необходимо отвергнуть Н0. Прокомментируем некоторые моменты всей процедуры. Прежде всего заметим, что в результате проверки гипотезы нельзя установить ее абсолютную истинность. Любая проце-
120
дура проверки может привести к ошибкам, поскольку в основу решающего правила положено осуществление (или не осуществление) случайного события {Z Gα}. Возможныошибки двоякогорода.
Ошибка первого рода: "отвергнуть правильную гипотезу". Вероятность этой ошибки равна α и установлена нами до начала про-
верки. При этом уравнение (7.1) служит для определения критической областипо заданному α. Однако для однозначного решения уравнения (7.1) нужноещедополнительноеусловие, котороемысформулируемпозже.
Ошибка второго рода: "принять ложную гипотезу". Вероятностьэтойошибки(обозначимееβ) определяетсяуравнением
P{Z G1−α / H1}= β. |
(7.2) |
Очевидно, что данные ошибки не равноправны, так как могут приводить к различным последствиям. Чтобы проиллюстрировать это, рассмотрим две гипотезы, фигурирующее при конфликте между поставщиком и заказчиком некоторого вида радиоэлектронной продукции (например, интегральных схем). Поставщик утверждает (гипотеза Н0): "процент брака в данной партии интегральных схем находится в пределах нормы (т.е. соответствует некоторому общепринятому эталону)". Заказчик в противовес этому утверждает (гипотеза Н1): "процент брака превышает допустимую норму". Ошибка первого рода: забракована хорошая партия (интерпретируется как "ложная тревога"), следовательно, страдает поставщик. Ошибка второго рода: принята плохая партия (интерпретируется как "пропуск цели"), в результате этой ошибки страдает заказчик. Подробнее задача проверки указанных гипотез рассматривается в [5] (параграф 6.2, пример 5).
7.2. Выбор критической области
Как следует из формул (7.1) и (7.2), определяющих вероятности ошибок I и II рода, величинаβ не связана напрямую с величиной α ,
поскольку соответствующие вероятности вычисляются при различных условиях, но очевидно, что попытка уменьшить α за счет уменьшения
критической области Gα немедленно приведет к увеличению ошибки второго рода β , поскольку автоматически увеличится допустимая область G1−α . Отсюда следует, что одновременно уменьшить две эти
121
ошибки невозможно. Однако можно, не изменяя размеров критической области, менять ее расположение в G и тем самым уменьшить β . По-
этому задача выбора критической области ставится как следующая задача оптимизации:
|
|
|
|
|
Gα |
/ H0}= α фиксируется; |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
P{Z |
|
|
|
|
|
|
|
|
|
(7.3) |
|
||||||||||||||||
|
|
|
|
P{Z |
G |
/ H |
1 |
}=1−β max. |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
α |
|
|
|
|
|
Gα G |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
Вторая из этих вероятностей, равная 1−β (следствие фор- |
|
|
|
|
|
|
|||||||||||||||||||||||||
мулы (7.2)), называется мощностью правила (критерия). Таким |
|
|
|
|
|
|
|||||||||||||||||||||||||
образом, оптимизационная задача состоит в таком выборе кри- |
|
|
|
|
|
|
|||||||||||||||||||||||||
тической области Gα , чтобы при фиксированном α максими- |
|
|
|
|
|
|
|||||||||||||||||||||||||
зировать мощность критерия (минимизировать ошибку II рода). |
|
|
|
|
|
|
|||||||||||||||||||||||||
Заметим, что решение задачи (7.3) существенно зависит от двух |
|
|
|
|
|
|
|||||||||||||||||||||||||
обстоятельств: от формулировки альтернативы и характера |
|
|
|
|
|
Рис.7.3. |
|||||||||||||||||||||||||
распределения статистики Z. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
Приведем соответствующие результаты для важнейших видов рас- |
|
||||||||||||||||||||||||||||||
пределений, имея в виду задачу сравнения с эталоном. |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
I вид распределения статистики: нормальный, Стьюдента и т.п. - |
|
||||||||||||||||||||||||||||||
симметричный относительно начала координат (рис.7.2). |
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
Θ ≠ Θ0 Gα = { z > zα |
}, zα |
= t |
α ; |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
1− |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
H1 : Θ > Θ |
|
G |
|
= {z > z |
|
}, z |
|
= t |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
0 |
α |
α |
α |
; |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
1−α |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
Θ < Θ0 Gα = {z < zα |
}, zα = tα. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
На рисунке заштрихована правосторонняя критическая область, соот- |
|
||||||||||||||||||||||||||||||
ветствующаяальтернативеН0: Θ > Θ0. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
II видраспределениястатистики: типаχ2-распределения (рис.7.3). |
|
|
|||||||||||||||||||||||||||||
|
|
f (z/H ) |
|
|
|
|
|
|
Θ ≠ Θ0 Gα = { z / z > z2 } {z < z1}, |
|
|
||||||||||||||||||||
|
|
z |
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
}= P{Z |
|
|
|
|
|
|
}= |
α |
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
/ H |
|
< z / H |
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
где P{Z > z |
2 |
0 |
0 |
|||||||||||||||||
|
|
|
|
|
|
|
|
H1 |
|
|
|
|
|
|
α ; |
|
|
|
|
1 |
|
|
|
2 |
|
||||||
|
|
|
|
|
|
|
|
: z1 = t α , z2 |
= t |
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
1− |
2 |
|
|
}, z2 |
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
Θ > Θ0 |
Gα = {z / z > z2 |
= t1−α; |
|
|
||||||||||||||||
|
|
t1 α |
|
|
z |
|
|
|
|
Θ < Θ |
0 |
G |
α |
= {z |
< z |
2 |
}, z |
2 |
= t |
α |
. |
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
Рис.7.2. |
|
|
|
|
|
|
|
|
На |
рисунке |
|
заштрихована двусто- |
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
122 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ронняя критическая область, соответствующая альтернатива Н1:
Θ ≠ Θ0.
Приведем примеры тех статистик, которые используются для проверки гипотезы о сравнении с эталоном для трех основных параметров.
Сравнение с эталоном математического ожидания. H0: mX = m0,
m |
X |
> m |
, |
|
|
|
|
|
0 |
|
|
|
|
|
|
H1 : mX |
≠ m0 , |
|
|
|
|||
|
|
< m0 |
|
|
|
|
|
mX |
|
|
|
|
|
||
|
|
|
|
|
2 |
неизвестно используем статистикуW; |
|
1- й вариант:σ |
X |
||||||
|
|
|
|
|
известно используем статистику U. |
||
2 - й вариант:σ2 |
|||||||
|
|
|
|
|
X |
|
|
|
|
U = |
|
x −m |
~ N(0,1), W = x −m0 ~ St(n −1). |
||
|
|
|
|
σX / n |
S2 / n |
||
Сравнение с эталоном дисперсии. H0: σ2X = σ02 ,
1- йвариант: mX неизвестно используем статистикуV2 ,2 - йвариант: mX известно используем статистикуV1.
H1: любая из трех возможных альтернатив по аналогии с математическим ожиданием,
|
n S |
2 |
|
(n −1)S 2 |
|
V = |
1 |
~ χ2 (n) , V = |
2 |
~ χ2 (n −1). |
|
|
|
||||
1 |
σ2 |
|
2 |
σ2 |
|
|
0 |
|
|
0 |
|
При аналогичной постановке задачи для параметра р используем статистику:
Z = p − p0 |
~ |
N (0,1). |
|
|
p0 q0 np0q0 |
>>1 |
|
|
|
|
|
n
Пример 1. Время реакции на световой сигнал среди водителейпрофессионалов должно составлять ≈ 3 с для безопасной езды в темное время суток (m0 = 3 с). Тестирования проведенные среди 16 водителей
дали следующие результаты: x = 4,5 с, S22 =16 с2.
1) Следует ли из этих данных, что время реакции испытуемых значимо больше номинального на уровне значимости α = 0,05?
123
2)Что изменится, если выбрать α = 0,1?
3)Что изменится, если известно, что σx = 4 с?
4)Можно ли считать, что время реакции водителей значимо
отличается от номинального?
Формулируем задачу проверки следующим образом:
1. H0 : mx = m0 = 3,
H1 : mx > m0 подходящейстатистикойявляетсяW = x −3 ~ St(15).
S2
n
Как было показано выше, критическая область - правосторонняя По таблице распределения Стьюдента находим квантиль:
t0,95(15) =1,75 ;
W |
= |
4,5 −3 |
=1,566 |
G |
|
||
|
4 |
|
|||||
выб |
|
|
|
1−α |
|
||
|
|
4 |
|
|
|
|
|
H0 принимается на этом уровне значимости.
2.Если α = 0,1 то H0 отвергается (проверить!)
3.Изменяется статистика (можно использовать U) и квантиль
t0,95 =1,645 (из таблицы нормального распределения). |
Так как |
||||||||
uвыб =1,566 G1−α , то Н0 принимается. |
|
|
|
|
|||||
|
|
4. |
Постановка: |
|
|
|
|
||
H0 : mX = m0 = 3, |
|
|
|
|
|||||
H : m |
X |
≠ m , подходящая статистика W = |
x −3 |
~ St(15). |
|
||||
|
|
||||||||
|
1 |
0 |
|
S2 |
|
|
|
||
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
n |
|
|
|
t |
|
α (15) = t0,975(15) = 2,13 H0 подтверждается с большей |
степенью |
||||||
1− |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
надежности. 
7.3. Проверка гипотез о сравнении характеристик двух независимых генеральных
124
Теорема (Фишера.) Пусть V1 ~ χ(n1), V2 ~ χ(n2 ), причем V1 и V2
независимы. Q = V1 : V2 ~ Fi (n1,n2 ) - распределение Фишера с n1 и n1 n2
n2 степенями свободы.
Доказательство см., например, в [4]. 
Распределение Фишера похоже на распределение хи-квадрат. Графики плотности, характеристики, квантили и другая информация обэтомраспределениисм. в[2, 5].
Сравнение дисперсий
Постановка задачи. Пусть Х ~ N (mX ,σ2X ) , Y ~ N (mY ,σY2 ) ,
причем X и Y независимы (все параметры неизвестны). Основная гипотеза H0 утверждает, что дисперсии σ2X и σY2 значимо не отличаются, т.е. H0 : σ2X = σY2 .
|
|
|
|
2 |
|
2 |
; |
|
|
|
|
|
|
|
|
|
σX |
|
> σY |
|
|
|
|
|
|
H |
|
= |
σ2 |
|
≠ σ2 |
; |
α задано. |
|
||||
1 |
|
|
|
|||||||||
|
|
X |
|
Y |
|
|
|
|
|
|
||
|
|
|
|
2 |
|
2 |
, |
|
|
|
|
|
|
|
|
σX |
|
< σY |
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
Имеются выборки: |
x , x ,..., x |
|
→ x, S2 |
(x), |
||||||||
|
|
|
|
|
|
|
|
1 2 |
n |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
y , y |
2 |
,..., y |
n2 |
→ y, S 2 |
(y). |
|
|
|
|
|
|
|
1 |
|
2 |
|
|
|
|
|||
Теорема 7.1. При условиях, наложенных на генеральные сово-
купности, статистика
Q = |
S22 (x) |
|
H0 |
~ F (n −1, n −1). |
||
|
||||||
|
|
|||||
|
2 |
|
|
i 1 |
2 |
|
|
S2 |
( y) |
|
|
|
|
|
|
|
|
|
||
Составим две известные статистики:
125
|
S 2 |
( y) (n |
−1) |
~ χ2 (n −1), |
|
|
S 2 |
(x) (n −1) |
~ χ2 (n −1). |
||||||||
V ( y) = |
2 |
2 |
|
|
|
|
V (x) = |
2 |
1 |
||||||||
|
|
σ2 |
|
|
|
|
σ2 |
||||||||||
2 |
|
|
|
|
|
|
|
2 |
|
|
2 |
|
|
1 |
|||
|
|
|
Y |
|
|
|
|
|
|
|
|
|
|
|
X |
|
|
Ясно, что V2 (x) |
и V2 ( y) независимы по теореме Фишера |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
имеем: |
|
|
|
|||
|
|
|
V (x) V ( y) |
|
S 2 |
(x) σ2 |
|
|
|
||||||||
|
|
|
2 |
|
: |
2 |
|
|
= |
2 |
|
|
Y |
~ F (n |
−1, n −1). |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
n2 −1 |
|
n1 |
−1 |
|
S22 |
( y) |
|
σ2X |
|
|
|
|||
При условии Н0 дисперсии в выражении для Q сокращаются.
Теорема доказана. 
Замечание 1. Критическая область для проверки гипотезы Н0
выбирается в соответствии с правилами оптимизации ошибок I и II рода для несимметричных распределений. При этом следует учитывать, что в таблице квантилей распределения Фишера приводятся лишь значения, превышающие 1. Чтобы получить значение квантили, меньшее единицы (это необходимо, например, при использовании левосторонней альтернативы), следует воспользоваться следующим соотношением между квантилиями, вытекающим из свойств фишеровского распределения (рис.7.4):
t p (n1 −1, n2 |
−1) = |
|
1 |
|
. |
|
t1− p (n2 |
− |
1, n1 −1) |
||||
|
|
|
V
< 1 |
X |
Рис.7.4.
Замечание 2. Если в постановке задачи математические ожидания mX и mY известны, то следует использовать статистику
S 2 (x)
Q1 = 1 ~ Fi (n1, n2 ).
S12 ( y)
126
Сравнение средних (математических ожиданий)
Пусть две генеральные случайные величины X и Y удовлетворяют тем же условиям, что и при сравнении дисперсий. Проверяется основная гипотеза H0 : mX = mY против одной из альтернатив:
mX > mY ;
H1 = mX ≠ mY ;
mX < mY .
Случай 1. σ2X и σY2 известны.
Теорема 7.2. |
Статистика U = |
x − y |
H |
|
~ N(0,1) является |
||
σ2 |
σ2 |
0 |
|||||
|
|
|
|
||||
|
|
X |
+ Y |
|
|
|
|
|
|
n |
n |
|
|
|
|
|
|
1 |
2 |
|
|
|
|
подходящей для решения поставленной задачи. |
|
|
|
||||
|
|
|
x − y |
|
|
|
|
Рассмотрим статистику U = D[x − y]. |
Поскольку U явля- |
||||||
ется стандартизованной линейной комбинацией независимых нормальных случайных величин, то очевидно, что U распределена нормально.
Вычислим основные характеристики M[U] и D[U] в предположении, что Н0 верна. Имеем
M[U / H0 ] = |
|
1 |
(M[x / H0 ] − M[ y / H0 ])= 0; |
||
|
|
||||
|
D[x − y] |
|
|||
D[U |
/ H0 |
] = |
1 |
D[x − y] =1. |
|
D[x |
|||||
|
|
|
− y] |
||
Далее имеем
127
|
|
всилу |
|
|
|
= |
D[x / H0 ] + D[ y / H0 ] = |
σ2 |
+ |
σ2 |
|||||
D[x − y / H0 ] = |
|
|
|
|
|
|
X |
Y . |
|||||||
|
|
независимости |
|
|
|
n |
|
n |
2 |
||||||
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
Таким образом, |
|
|
|
|
|
|
|
|
|
|
|
||||
U = |
x − y |
H |
0 |
= |
x − y |
|
|
H |
0 |
~ N(0,1) и теорема доказана. |
|||||
|
D[x − y] |
|
|
2 |
|
|
2 |
|
|
|
|
|
|
||
|
|
|
|
|
σX |
+ σY |
|
|
|
|
|
|
|
||
|
|
|
|
|
n |
|
n |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
Случай 2. σ2X и σY2 неизвестны. В этом случае статистику U,
определенную в теореме 7.2, использовать нельзя. Гипотеза о равенстве математических ожиданий проверяется в два этапа. На пер-
вом этапе необходимо проверить вспомогательную гипотезу H0' о
равенстве дисперсий. Далее возможны два случая.
Случай 2.1. Дисперсии неизвестны, но подтверждается гипо-
теза об их равенстве. |
H ' |
: σ2 |
= σ2 - подтверждается на уровне α. |
||||||||||||
|
|
|
|
|
|
0 |
X |
|
Y |
|
|
|
|
|
|
Случай 2.2. Гипотеза H0' |
отклоняется. |
|
|
|
|||||||||||
Рассмотрим случай 2.1. H ' |
: σ2 = σ2 |
= σ2 U запишем так: |
|||||||||||||
|
|
|
|
|
|
|
|
0 |
X |
|
Y |
|
|
|
|
U = |
x − y |
|
~ N(0,1), |
но σ - |
мешающий параметр, поэтому его |
||||||||||
|
1 |
|
1 |
||||||||||||
σ |
|
+ |
|
|
|
|
|
|
|
|
|
|
|
||
|
n |
|
|
|
|
|
|
|
|
|
|
||||
|
|
n |
|
|
|
|
|
|
|
|
|
|
|||
|
1 |
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
придется оценивать по выборке. |
|
|
|
|
|
|
|
||||||||
Теорема 7.3. Обозначим дисперсию объединенной выборки |
|
||||||||||||||
|
|
|
|
|
S 2 = |
(n −1) S 2 (x) + (n |
2 |
− |
1) S 2 |
( y) |
|
|
|||
|
|
|
|
|
1 |
|
2 |
|
|
2 |
|
. |
(7.4) |
||
|
|
|
|
|
|
|
(n1 + n2 − 2) |
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
||||
128 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Статистика W = |
x − y |
|
~ St(n1 + n2 − 2). |
||
|
1 |
|
1 |
||
S |
+ |
|
|||
|
n |
n |
|||
|
|
|
|||
|
1 |
|
2 |
|
|
Заметим, что выборочная объединенная дисперсия (7.4) является несмещенной и состоятельной оценкой неизвестной дисперсии
σ2 - общей для обеих совокупностей (гипотеза H0' принята на уровне значимостиα) (проверитьнасеминарских занятиях !).
Покажем, что статистика V = S 2 (n1 +2n2 −2) ~ χ2 (n1 + n2 − 2).
σ
Действительно, используя (7.4), получаем:
|
(n |
−1) |
S2 |
(x) |
|
(n |
−1) |
S2 |
(y) |
|
|
причем V ~ χ2 |
|
V = |
1 |
|
2 |
|
+ |
2 |
|
2 |
|
=V |
+V , |
(n −1), |
|
|
|
|
|
|
|
|
|
||||||
|
|
σ2 |
|
|
|
|
σ2 |
|
|
1 |
2 |
1 |
1 |
|
|
|
|
|
|
|
|
|
|
|
|
V2 ~ χ2(n2 −1) и независимы. Вследствие композиционной устойчи-
вости хи-квадрат получаем, что V ~ χ2 (n1 + n2 − 2).
Преобразуем тождественно статистику W:
|
x − y |
|
|
|
σ |
x − y |
|
|
|
σ2 (n |
+ n |
−2) |
(n |
+ n |
−2) |
|
||||||||||||
W = |
|
|
|
|
|
|
|
|
σ = |
|
|
|
|
|
|
1 |
|
|
1 |
2 |
−2) =U |
1 |
2 |
|
, |
|||
1 |
|
|
|
1 |
|
|
|
1 |
|
|
S2 (n |
+ n |
|
V |
|
|||||||||||||
S |
|
|
+ |
|
|
|
|
|
|
σ |
|
|
|
+ |
|
|
|
|
1 |
2 |
|
|
|
|
|
|||
|
n |
n |
|
|
|
n |
n |
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
1 |
|
|
|
2 |
|
|
|
|
|
1 |
|
2 |
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
x − y |
|
|
|
|
|
S 2 |
(n + n |
2 |
− 2) |
|
|
|
|
|
|
||||||||||
где U = |
|
|
|
|
|
|
|
|
, |
V = |
|
|
|
1 |
|
|
|
по теореме Стьюдента |
||||||||||
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
σ |
|
+ |
1 |
|
|
|
|
|
|
|
|
σ2 |
|
|
|
|
|
|
|
|
|
|
|||||
|
|
n |
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
1 |
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
W H0 ~ St(n1 + n2 − 2).
129
Рассмотрим случай 2.2.
H0' : σ2X = σY2 = σ2 отклоняется на данном уровне значимости α
статистика W неприменима используется так называемая стати-
стика Уэлча:
|
|
|
|
|
|
|
|
|
|
|
|
W = |
x |
− y |
|
~ St(ν) , |
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
S22 (x) |
|
|
S22 ( y) |
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
+ |
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
n |
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
S |
2 (x) |
|
|
S 2 ( y) 2 |
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
2 |
|
+ |
|
2 |
|
|
|
|
|
|
|
|
|||
|
' |
|
|
|
|
|
|
|
n |
|
|
n |
2 |
|
|
|
|
' |
|
||||
где ν |
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
. |
|||||
|
= |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
, |
|
ν = round ν |
|||
|
|
|
S |
4 |
(x) |
|
|
|
|
S 4 |
( y) |
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
n2 |
|
(n |
−1) |
+ n2 |
(n −1) |
|
|
|
|
|
|
|||||||||
|
|
|
|
1 |
|
|
|
1 |
|
|
2 |
|
2 |
|
|
|
|
|
|
|
|||
Сравнение вероятностей
Пусть генеральные случайные величины X и Y представляют собой два индикатора: X ~ B(1,p1), Y ~ B(1,p2). Проверяется основная гипотеза о равенстве вероятностей:
H0 : p1 = p2.
p1 > p2; H1 = p1 ≠ p2;
p1 < p2.
Имеем выборки из X и Y:
x1, x2,..., xn1 ;→ p1* - относительная частота: p1* = mn1 ,
1
130
y , y |
2 |
,..., y |
n2 |
;→ p* |
- относительная частота: |
p* |
= |
m2 |
, где m1 и m2 - |
|
|||||||||
1 |
|
2 |
|
2 |
|
n2 |
|||
число единиц в соответствующих выборках. |
|
|
|||||||
|
|
|
|
||||||
|
|
Подходящая статистика: Z = |
p* − p* |
|
|
|
1 |
2 . |
|
|
|
|
D [ p* |
− p* ] |
|
|
|
1 |
2 |
|
|
Теорема 7.4. При условиях |
n1 p1q1 >>1 и n2 p2q2 >>1 |
|
|
~ N(0,1) . |
|
|
|
Z |
H |
|
|
|
|
|
0 n>>1 |
|
|
|
|
|
|
|
Так как Z - стандартизованная линейная форма, а p1* и p2*
асимптотически нормальны по теореме Муавра-Лапласа, то распределение Z асимптотически нормально. Остается проверить характеристики и упростить выражение для Z. Для этого вычислим M[Z] и D[Z] в предположении, что справедлива H0:
M[Z |
|
|
свойства |
|
= ... = 0. |
|
|
||||
|
H0 |
] = |
|
||
|
|
оператора М |
|
||
|
|
|
|||
D[Z H0 ] = ... =1. Далее, учитывая, что свойства
частоты нам хорошо известны, получаем:
D p* − p* |
|
H0 |
|
= D p* |
|
H0 |
|
+ D p* |
|
H0 |
|
= |
p1q1 |
+ |
|||
|
|
|
|||||||||||||||
|
|
|
|
||||||||||||||
|
1 2 |
|
|
|
1 |
|
|
|
2 |
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n1 |
|
|
|
|
|
|
|
|
|
|
|||||||||
p1 = p2 = p, |
|
|
1 |
|
|
|
|
|
|
= q1 = q2 =1 − p |
|
|
+ |
|
= p (1 − p) n |
||||
всоответствиис H |
|
|
1 |
|
|
0 |
|
|
|
относительной
|
p2q2 |
|
H |
0 |
= |
|||
|
||||||||
|
|
|||||||
|
n2 |
|
|
|
|
|||
|
|
|
|
|||||
1 |
|
|
|
|
|
|
||
|
, |
|
|
|
||||
|
|
|
|
|
||||
|
n2 |
|
|
|
|
|||
|
|
|
|
|
|
|
||
131
