Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Дрейзин В.Э., Кочура А.В. - Управление качество...doc
Скачиваний:
4
Добавлен:
01.03.2025
Размер:
3.62 Mб
Скачать

5.7.4. Сравнение выборочных средних и дисперсий

Помимо точечного и интервального оценивания параметров генерального распределения по выборочным данным при выборочном контроле часто возникают задачи сравнения выборочных средних значений и выборочных дисперсий (или выборочных среднеквадратических отклонений).

Сравнение выборочных средних приходится делать в двух случаях. В первом случае выборочное среднее значение сравнивается с известным математическим ожиданием генеральной совокупности и требуется определить значимо ли расхождение между ними или вызвано случайностью выборки, т.е. принадлежит ли данная выборка к генеральной совокупности с известными параметрами М(х) и ? Такие задачи приходится решать, чтобы определить не сбилась ли настройка технологического процесса на номинальное значение контролируемого параметра качества продукции х0 = М(х)? Нулевая гипотеза при этом формулируется в виде Н0: М(х) = х0. Если величина  известна, то проверка этой гипотезы проводится по критерию

, (5.39)

где za зависит только от Р и берется из таблицы 5.1.

Если же величина  неизвестна, то вместо неё приходится использовать её выборочную оценку S, а вместо критерия Za (5.39) – критерий Стьюдента

. (5.40)

Таблица 5.1

Р

0,95

0,99

0,9973

0,999

Za

1,960

2,576

3,000

3,291

Если расчётные значения этих критериев меньше соответствующих табличных значений, то есть неравенства (5.39) и (5.40) выполняются, то нулевая гипотеза подтверждается. В противном случае она должна быть отвергнута. Это будет говорить о том, что с вероятностью Р можно утверждать, что данная выборка не принадлежит генеральной совокупности с М(х) = х0.

Второй случай сравнения выборочных средних возникает, когда имеются две выборки, по которым найдены и и требуется определить, принадлежат ли эти выборки одной и той же генеральной совокупности или нет.

Если дисперсия этой генеральной совокупности известна, а объёмы выборок неодинаковы, то Z-критерий подсчитывается по формуле

. (5.41)

Если объёмы выборок равны, то формула (5.41) упрощается

. (5.42)

Если же данные выборки принадлежат разным генеральным совокупностям с известными среднеквадратическими отклонениями 1 и 2, то условие равенства их математических ожиданий, оцениваемых средними значениями, взятыми по выборкам n1 и n2, будет определяться следующим неравенством

. (5.43)

Если же дисперсия генеральной совокупности неизвестна и вместо неё используются её выборочные оценки и , то критерий Стьюдента подсчитывается по выражению

, (5.44)

где обобщенная дисперсия S2 определяется по формуле

, (5.45)

но, при этом, число степеней свободы m при определении табличного значения t(Р, m) будет равно

m = n1+n2 2 . (5.46)

В частном случае, при n1= n2= n выражение (5.44) упрощается

, (5.47)

где m = 2n – 2. (5.48)

При сравнении дисперсий, прежде всего, возникает задача сравнения выборочной дисперсии S2 с известной дисперсией генеральной совокупности 2 с тем, чтобы выяснить значимо или незначимо их различие. Гипотеза незначимости отклонения выборочной дисперсии S2 от известной дисперсии 2 генеральной совокупности проверяется по критерию 2 («хи-квадрат»), для чего подсчитывается значение выборочной функции

(5.49)

и сравнивается с критическим табличным значением этой функции (Р, m) для доверительной вероятности Р (или уровня значимости ) и числа степеней свободы m = n – 1.

Здесь табличные значения критерия определяются из условия одностороннего ограничения сверху, так как в данной ситуации лишь большее значение S2 может повлечь отклонение нулевой гипотезы.

Если же для нас существенно отклонение S2 от  как в большую, так и в меньшую сторону, то применяется двустороннее ограничение, чтобы отсекаемые критические области распределения функции (5.49) имели равные вероятности:

.

Учитывая, что распределение функции 2 (5.49) несимметрично, нижние и верхние граничные значения: и окажутся разными (рис. 5.6). На этом рисунке буквой k обозначены критические области критерия для двустороннего ограничения, а символом k1 – для одностороннего.

Табличные значения и часто используют для интервальной (доверительной) оценки выборочной дисперсии вместо функции (5.32), т.е. вместо (5.33) интервальная оценка  задаётся в виде

. (5.50)

Если же нам необходимо сравнить две выборочные дисперсии и , определяемые по выборкам в общем случае разного объёма n1 и n2 , то для этого используется критерий Фишера, базирующийся на распределении выборочной функции

, (5.51)

где в числитель всегда ставится бóльшая из этих двух дисперсий. Данная выборочная функция также имеет несимметричное распределение, близкое к 2-распределению (рис. 5.7).

С помощью этого критерия мы можем определить существенно или несущественно отличаются друг от друга две выборочные дисперсии, то есть можно ли считать, что обе выборки взяты из одной и той же генеральной совокупности (или двух генеральных совокупностей) с одной и той же дисперсией . Поэтому здесь следует использовать одностороннее ограничение

, (5.52)

где F(P,m1,m2) – табличное значение критерия Фишера для выбранной доверительной вероятности Р и числа степеней свободы m1 = n1 –1 и m2 = n2 1.

Если же надо сравнить не две, а более выборочных дисперсий с целью проверки их однородности (то есть определения принадлежности выборок, по которым они подсчитаны, к одной и той же генеральной совокупности, характеризуемой дисперсией 2), то для этого используется критерий Кохрена. Для этого из всех выборочных дисперсий выделяют наибольшую и посчитывают её отношение к сумме всех дисперсий (включая и максимальную):

. (5.53)

Это расчётное отношение сравнивают с табличным значением G, взятым для выбранного значения доверительной вероятности Р и двух видов степеней свободы: т = n – 1, где n – объём каждой выборки (все выборки одинакового объёма) и k – число выборок. При дисперсии считаются однородными, то есть все они характеризуют генеральную совокупность с одной и той же генеральной дисперсией 2.