Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Учебное пособие 2003

.pdf
Скачиваний:
3
Добавлен:
30.04.2022
Размер:
3.84 Mб
Скачать

Пусть Х – наблюдаемая дискретная или непрерывная случайная величина.

Статистической гипотезой (или просто гипотезой) Н

называется любое предположение относительно параметров или вида распределения СВ Х.

Статистическая гипотеза Н называется простой, если она однозначно определяет распределение СВ Х, в противном случае гипотеза Н называется сложной.

Пример. Простой будет гипотеза Н: Fχ(x)=F(x), где F(x) – фиксированная функция распределения, например, N(0,1). Гипотеза

F x

F

x a

,

a

,b 0 ,

b

 

 

 

 

 

где F(x) – фиксированная функция распределения, является сложной.

Гипотеза называется параметрической, если вид распределения СВ Х известен и по выборке наблюдений необходимо проверить предположение о значении параметров этого распределения.

Наряду с выдвинутой гипотезой обычно рассматривают одну или несколько альтернативных (конкурирующих) гипотез. Если выдвинутая гипотеза будет отвергнута, то ее место занимает альтернативная.

Основную (выдвинутую) гипотезу называют нулевой и обозначают через Н0.

Альтернативную гипотезу обозначают через Н1.

Выбор альтернативной гипотезы определяется конкретной формулировкой задачи.

Пример. В теории надежности для многих классов изделий установлен экспоненциальный закон отказов: если Х – время безотказной работы изделия, то

P X x e x /T , x 0 ,

151

где Т – среднее время безотказной работы изделия. Допустим, что техническими условиями предусмотрено обеспечение безотказной работы с надежностью 1-α в течение времени Т0.

P X T 1

e T0 /T 1

или T

 

 

T0

T .

 

 

 

0

 

 

 

 

1

1

 

 

 

ln

 

 

 

 

1

 

Тогда

H

0

F x 1 e x /T , T T .

 

1

Альтернативная гипотеза

H

F x 1 e x /T , T T .

1

1

Задача проверки статистических гипотез состоит в том, чтобы сформулировать такое правило, которое позволяло бы по результатам соответствующих наблюдений принять или отклонить выдвинутую гипотезу.

Правило, согласно которому проверяемая гипотеза Н0 принимается или отвергается, называется статистическим критерием или просто (критерием) К проверки гипотезы Н0.

Разработка таких правил и их обоснование с точки зрения требований оптимальности и составляет предмет теории проверки статистических гипотез.

Рассмотрим общий метод построения критериев. Пусть о распределении СВ X, описывающей результат изучаемого эксперимента, сформулирована некоторая гипотеза Н0. Так как решение принять или отклонить гипотезу Н0 принимается на основе выборки наблюдений, то, чтобы построить критерий проверки этой гипотезы, в большинстве случаев поступают следующим образом: пытаются найти такую статистику Z=Z(X12,…,Хп), характеризующую отклонение эмпирических данных от соответствующих (гипотеза Н0) гипотетических значений, распределение которой в случае справедливости Н0 можно было бы определить. Ее называют

статистикой критерия К.

152

Проверка статистической гипотезы основывается на принципе, в соответствии с которым маловероятные события считаются невозможными, а события, имеющие большую вероятность (близкую к единице), считаются достоверными. Этот принцип может быть реализован следующим образом.

Предположим, что указанная выше статистика и ее распределение при гипотезе Н0 найдены. Пусть V - множество значений статистики Z. Зафиксируем некоторую малую вероятность α и обозначим через Vk V такое подмножество

V, что при условии истинности гипотезы Н0 вероятность попадания статистики критерия в Vk, равна α, то еcть

P Z Vk / H0

, P Z V \ Vk / H0

1 .

Обозначим

выборочное

значение

Z(x1,х2,...,xn)

статистики Z через Zв. Тогда правило проверки гипотезы H0

можно сформулировать следующим образом.

 

Гипотезу H0 следует отклонить, если Zв

Vk. Гипотезу

следует принять, если Zв V\Vk.

 

 

Критерий, основанный на использовании заранее заданной вероятности α, именуемой уровнем значимости,

называют критерием значимости.

Множество Vk всех значений статистики Z критерия, при которых принимается решение отклонить гипотезу H0, называется критической областью. Область V\Vk называется

областью принятия гипотезы Н0.

Итак, согласно описанной методике, критерий определяется "размером" критической области в множестве значений статистики Z, а "размер" критической области определяется уровнем значимости α.

Для практики может быть рекомендована следующая схема проверки статистической гипотезы при помощи критерия значимости:

1. Сформулировать проверяемую (Н0) и альтернативную (Н1) гипотезы.

153

2.Назначить уровень значимости α.

3.Выбрать подходящую статистику Z критерия для проверки гипотезы Н0.

4.Определить выборочное распределение статистики

Z(X1,X2,...) при условии, что верна гипотеза H0.

5.В зависимости от формулировки альтернативной

гипотезы определить критическую область Vk одним из неравенств Z>Z1-(α/2), Z<Zα или совокупностью неравенств

Z>Z1-(α/2) и Z<Zα , где Zp – квантили порядка р распределения статистики Z при условии, что верна гипотеза Н0.

6.Получить выборку наблюдений х1,х2,...,хп и вычислить выборочное значение Zв=Z(х1,х2,...,хп) статистики критерия.

7.Принять статистическое решение: если Zв Vk, то отклонить гипотезу H0 как не согласующуюся c результатами наблюдений; если Zв V\Vk, то принять гипотезу Н0, т.е. считать, что гипотеза Н0 не противоречит результатам наблюдений.

Замечание. Решение, принимаемое на основе того или

иного критерия значимости для гипотезы Н0, может быть ошибочным. Выборочное значение Zв статистики критерия может попасть в критическую область не потому, что нулевая гипотеза ложна, а по некоторым другим причинам: малый объем выборки, имеются недостатки в методике проведения эксперимента и другие. В этом случае, опровергнув гипотезу, мы совершаем ошибку.

Ошибка, совершаемая при отклонении правильной

гипотезы Н0, называется ошибкой первого рода.

Очевидно, что вероятность ошибки первого рода равна вероятности попадания выборочной статистики критерия в

критическую область при условии, что верна гипотеза Н0, т. е. равна уровню значимости α:

P Z Vk / H0

.

Ошибкой второго рода называется ошибка,

совершаемая в том случае, если гипотеза Н0 принимается, но в

154

действительности верна альтернативная гипотеза Н1. Вероятность ошибки второго рода в случае простой

гипотезы Н1 определяется по формуле

P Z V \ Vk / H1

.

При заданной вероятности α ошибки первого рода, вероятность β ошибки второго рода может быть уменьшена путем увеличения объема выборки. Если при этом вероятность ошибки второго рода не должна превышать заданного значения β, то минимальный объем выборки п можно найти, решив систему

P

Z

Vk / H0 ,

P

Z

V\Vk /H1 .

Аналитически система решается только в простых случаях.

18.2. Статистическая проверка гипотезы о виде распределения генеральной совокупности. Критерий χ2

Пусть имеется выборка x1,x2,…,xn наблюдений СВ X с неизвестной ФР Fχ(x), о которой выдвинута простая гипотеза Н0: Fχ(x)=F(x), где F(x) - известная функция. Наиболее часто применимым критерием проверки этой гипотезы является критерий, введенный К.Пирсоном. Его можно использовать для любых распределений, в том числе и многомерных.

Чтобы воспользоваться этим критерием, выборочные данные предварительно группируют следующим образом. Разбивают множество значений СВ X на r непересекающихся множеств Si с помощью (r-1) чисел a0 <a1<a2<…<ar:

S1

S2

S3

Sr 1

 

Sr

 

a0

a1

a2

a3

ar 2

ar 1 ar

155

Обозначим: pi=P(ai-1<X<ai)=F(ai)-F(ai-1) - вероятность

попадания X в интервал ai 1, ai

в случае, когда предложенная

 

 

 

 

 

 

r

 

 

 

гипотеза справедлива. Очевидно, что

pi

1. Пусть пi, i=1,...,r

 

 

 

 

 

 

i

1

 

 

- количество элементов выборки, попавших в интервал

 

r

 

 

 

 

 

 

 

 

 

ai 1, ai ,

ni

1.

Тогда

ni/n

есть

относительная

частота

i

1

 

 

 

 

 

 

 

 

попадания

величины

X

в интервал Si

ai 1, ai

при п

наблюдениях.

 

 

 

 

 

 

 

 

 

r

 

 

 

 

 

 

 

 

Очевидно, что

ni

/ n

1.

 

 

 

 

 

 

i

1

 

 

 

 

 

 

 

Для приведенного на рисунке разбиения рi есть приращение гипотетической ФР F(x)на интервале Si, а ni/n - приращение эмпирической ФР F*(x) на том же интервале Si. В качестве статистики принимают следующую величину:

2

n

 

ni

2

r

ni

np

2

 

 

r

 

 

 

 

 

 

 

 

 

 

 

 

 

pi

 

 

 

 

,

(1)

i 1

pi

 

n

i 1

 

npi

 

 

 

 

 

 

 

являющуюся мерой отклонения эмпирической ФР от теоретической, а критическую область задают в виде

Vk Z Z .

Величина χ2, определенная формулой (1), является СВ, и нужно знать ее распределение, вычисленное в предположении, что принятая гипотеза верна. Точное распределение статистики χ2 неудобно для вычисления критической границы Zα при заданном уровне значимости α. Нo для больших объемов п-выборок статистика χ2 имеет при гипотезе Н0 простое предельное распределение, не зависящее от гипотезы (т.е. oт чисел рi). Справедлива следующая теорема.

Теорема Пирсона. Какова бы ни была ФР F(x) СB X, при п→∞ распределение величины χ2 стремится к "хи-квадрат" распределению с (r-1) степенями свободы, то есть

156

 

 

 

x

 

 

 

 

 

P

2

x

kr 1

t dt при n→∞,

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

где kr-1(t) - плотность распределения

2

 

 

 

r 1 .

 

 

 

На практике

предельное

распределение

2

 

можно

r

1

 

 

 

 

 

 

 

использовать c хорошим приближением уже при п≥50 и ni ≥5.

При

 

выполнении

этих

условий в соответствии с

теоремой

Пирсона критическую границу Zα выбирают равной

2

,r 1 , то

1

есть

 

квантили

 

порядка

(1-α)

распределения

2

.

 

 

 

 

 

 

 

 

 

r 1

 

Действительно, в этом случае критерий χ2 имеет вид

 

 

 

P

2

Vk / H0

P

2

2

/ H0

kr 1 x dx

 

.

 

 

 

1 ,r 1

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

1

,r 1

 

 

 

Пусть задан уровень значимости α и выборка x1,x2,…xn объемом n, причем выполняются условия п≥50, а частота ni ≥5, i=1,2,...,n. Тогда, если наблюдавшееся значение статистики χ2=Z(x1,x2,…xn)=Z0, определяемое формулой (1), удовлетворяет неравенству

2

2

,

 

 

в

1 ,r 1

 

 

то гипотезу Н0 отвергают, в противном случае

2

2

в

1 ,r 1

гипотеза Н0 не противоречит результатам испытаний.

Замечание. С небольшими изменениями критерий χ2 применяется и в том случае, когда ФР F(x, θ1, θ2,…, θk) зависят от неизвестных параметров и по выборке надо оценить эти параметры.

157

Темы для самостоятельного изучения Тема 1.

Простейший поток событий и связанные с ним распределения: Пуассона и показательное.

Закон Пуассона в схеме независимых испытаний с различными вероятностями и его применение в теории надежности.

Литература [1], стр. 50-57, 73-76; [4], стр. 100-108.

Из рассмотренного выше материала видим, что при определенных условиях формула Пуассона может быть использована для приближенного вычисления вероятностей биномиального распределения. Но формула Пуассона

 

 

e

m

Pn

(m)

 

 

 

 

m!

 

 

 

имеет и более широкое применение. Рассмотрим схему независимых испытаний с различными вероятностями. Предположим, как и ранее, что мы имеем систему из независимых испытаний, причем в испытании с номером i

 

 

 

 

исхода Ai

 

 

 

вероятностями P( Ai )

pi

возможны

два

и Ai с

 

 

 

 

pi . Если все вероятности pi равномерно малы,

и P(Ai ) qi

1

т.е. величина

max( p1

, p2 ,..., pn )

стремится к нулю

при

возрастании n, то при постоянном m для вероятности Pn(m) справедливо следующее приближенное равенство:

 

 

e

m

be

m 2

2

 

2

 

 

 

 

 

 

Pn (m)

 

 

 

 

 

 

 

 

 

1

при m

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m!

2(m

2)! (m 1)m

m

1

 

 

 

 

 

 

 

 

Pn (1)

e

 

b(

2)

 

, Pn (0)

e

1

 

b

,

(1)

 

 

 

 

 

 

 

 

 

 

 

2

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где

p

 

p ...

p ,

b p2

p2 ...

p2 .

 

 

 

 

 

 

 

1

 

2

 

 

n

1

2

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

158

 

 

 

 

 

 

 

 

При рассмотрении работы системы, состоящей из n независимых элементов, с определенными вероятностями отказа за фиксированный промежуток времени, формулы (1) позволяют существенно упростить расчет вероятностей заданного числа m, отказавших элементов и вероятностей Rmn

получения числа отказов, большего заданного числа m:

Rmn Pn (m 1) Pn (m 2) ... Pn (n) .

Знание этих вероятностей существенно уточняет представление о надежности системы за фиксированный промежуток времени. Рассмотрим пример. Пусть система состоит из семи элементов, отказы каждого из которых не

зависят от отказов остальных. Вероятности отказов элементов имеют значения:

Вероятность

 

 

Номера элементов

 

 

 

 

 

 

 

 

 

 

 

1

2

3

4

5

6

7

Отказа qi

0,01

0,037

0,052

0,009

0,047

0,066

0,075

 

3

 

 

 

 

 

 

Безотказной

0,98

0,963

0,948

0,991

0,953

0,934

0,925

работы pi

7

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Требуется определить вероятность отказа m элементов системы за фиксированный промежуток времени, где m=1, 2, …, 7. Обозначим эту вероятность через P7 (m) .

 

7

 

 

 

 

 

7

 

 

Тогда

p

6, 701

b

p2

(0,987)2

(0,963)2 ...

 

i

 

 

 

 

 

i

 

 

 

i 1

 

 

 

 

 

i 1

 

 

1, 643 ;

P7 (0)

e 1

 

b

0, 73544 ;

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

P7 (1)

e

 

b(

2)

0, 23214;

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

159

 

 

 

 

e

2

 

be

0

 

2

2

 

 

P7

(2)

 

 

 

 

 

 

 

1 0, 03041;

 

 

 

 

 

 

 

 

 

 

 

 

2!

2

0!

 

1 2

1

 

 

 

 

 

 

 

P7

(3) 0, 00199; P7 (4)

0, 00003.

 

Предлагается самостоятельно вычислить вероятности P7(m) m=1, 2, 3, 4, 5, 6, 7 по формуле Пуассона.

Если сравнить вероятности P7(m), вычисленные по формуле Пуассона и по формулам (1), то станет очевидным, что формулы (1) значительно точнее, приближают вероятности P7(m). Однако при m=5, 6 и 7 вычисления по формулам (1) приводят к малым по абсолютной величине, но отрицательным величинам. Данное несоответствие объясняется тем, что формула (1) представляет сумму только начальных членов бесконечного ряда.

Содержание задания.

1. Усвоить определение простейшего потока событий (ППС), привести примеры.

2.Разобрать свойства, характеризующие простейший поток событий.

3.Вывести закон распределения Пуассона на основе

ППС.

4.Вывести показательный закон распределения на основе

ППС.

5.Вывести математические ожидания для распределения Пуассона и показательного распределения и сравнить их.

6.Решить задачи: [5] №185, 186, 359, 365, 366.

7.Рассмотреть схему независимых испытаний с различными вероятностями.

Тема 2.

Преобразование случайного вектора. Распределение суммы независимых случайных величин.

Литература: [3], стр. 121-123; [1], стр. 99-106, 170.

160