
- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
3.7. Проверка статистических гипотез
3.7.1. Проверка соответствия гипотезы и экспериментальных данных
Задача проверки гипотез состоит в том, чтобы установить, противоречит выдвинутая гипотеза экспериментальным данным или нет. Так как результаты измерений сопровождаются погрешностями, то обычно они не могут с абсолютной достоверностью ни подтвердить, ни отвергнуть никакую гипотезу, т.е. всегда существует не равная нулю вероятность того, что принятое решение ошибочно.
Алгоритм, в соответствии с которым экспериментальным данным ставится в соответствие решение принять или отвергнуть гипотезу, называется решающим правилом, или правилом решения.
Предположим, что относительно некоторого параметра распределения случайной величины х выдвинута гипотеза, заключающаяся в том, что его значение равно = 0. В результате измерений получена оценка этого параметра, на основе которой экспериментатор должен либо принять, либо отвергнуть выдвинутую гипотезу. Для этого необходимо ответить на вопрос: как сильно оценка должна отличаться от 0, чтобы принять или отвергнуть выдвинутую гипотезу?
При этом следует учитывать, что отличие оценки от значения 0 может быть вызвано, во-первых, случайным характером оценки и, во-вторых, неравенством истинного значения значению 0. Таким образом, если отличие от 0 может быть объяснено чисто случайными причинами, то выдвинутая гипотеза принимается, в противном случае она отклоняется.
Пусть
известна плотность распределения
оценки
.
Изобразим ее графически (рис. 3.7.1),
предполагая, что выдвинутая гипотеза
= 0
верна, т.е. М[
] = 0.
Установим две границы 1
и 2
и сформулируем следующее решающее
правило: если 1
2,
то гипотеза принимается; если
< 1
или
> 2,
то гипотеза отклоняется. При этом может
быть принято ошибочное решение, причем
вероятность ошибки равна
(3.7.1)
Рис. 3.7.1. Плотность распределения оценки
Вероятность ошибки называется уровнем значимости и при расчетах принимается обычно равной 0,05 или 0,01.
Будем
считать, что
.
Тогда для
установления границ 1
и 2
достаточно задаваться только значением
уровня значимости
и воспользоваться таблицами известного
распределения
.
Рассмотрим другой пример проверки гипотез. Пусть некоторый параметр распределения случайной величины может принимать только одно из двух значений: 0 или 1. На основании экспериментально полученной оценки необходимо решить, какое значение имело место в эксперименте. Для этого необходимо проверить гипотезу = 0 против альтернативной гипотезы = 1. На рис. 3.7.2 изображена плотность распределения как при условии справедливости нулевой гипотезы М[ ] = 0, так и при условии справедливости альтернативной гипотезы M[ ] = 1.
Рис. 3.7.2. Плотность распределения оценки
Установим границу Г и сформулируем решающее правило: если Г, то принимается нулевая гипотеза = 0, если > Г, то принимается альтернативная гипотеза = 1.
Обозначим следующие вероятности:
При принятии решения в соответствии с указанным решающим правилом возможны четыре ситуации:
1. нулевая гипотеза верна, но отклоняется. При этом имеет место ошибка 1-го рода, вероятность которой равна – уровню значимости;
2. альтернативная гипотеза верна, но отклоняется. При этом имеет место ошибка 2-го рода, вероятность которой равна ;
3. нулевая гипотеза верна и принимается. Вероятность такого исхода равна 1-;
4. альтернативная гипотеза верна и принимается. Вероятность этого равна 1- и называется мощностью решающего правила.
Следует помнить, что решающее правило должно включать в себя критерий, по которому устанавливается граничное значение. В качестве такого критерия может, в частности, использоваться критерий максимального правдоподобия.
Пример
3.7.1. Случайная
величина х
распределена
нормально. Необходимо проверить
гипотезу относительно значения ее
математического ожидания. Выдвинутая
гипотеза состоит в том, что
= 6,8.
Выполнено n = 10
измерений, обработка результатов которых
дала следующие оценки:
6,5;
S = 0,5.
Решение.
Как известно, величина
распределена по закону Стьюдента с
п –
1 степенями свободы. Поэтому условием
принятия гипотезы будет выполнение
неравенства
В случае невыполнения
этого неравенства гипотеза отклоняется.
Задаемся уровнем значимости
= 0,05. Для вероятности
0,025
и числа степеней свободы k
= n-1
= 9 по таблице t-распределения
находим t = 2,262.
Вычисляем
=
0,3,
0,377.
Так как указанное неравенство выполняется, то можно считать, что гипотеза не противоречит экспериментальным данным.
Пример
3.7.2. При
условиях, заданных в предыдущем примере,
необходимо проверить гипотезу,
состоящую в том, что 2 =
= 0,9.
Решение.
Как известно, величина
распределена по закону 2
с n-1
степенями свободы. Поэтому условием
принятия нулевой гипотезы будет
выполнение неравенства
где
и
– значения величины 2
(см. таблицу 2-распределения),
соответствующие вероятностям
и
и числу степеней свободы
.
Задаемся уровнем значимости
= 0.05. Тогда при
= 9 по таблицe
2-распределения
находим
= 19,023
и
= 2,700.
Таким образом, условием принятия нулевой
гипотезы будет в данном случае
0,131 < < 0,926.
Так
как это условие выполняется, то можно
считать, что гипотеза
не противоречит экспериментальным
данным.