- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
3.7. Проверка статистических гипотез
3.7.1. Проверка соответствия гипотезы и экспериментальных данных
Задача проверки гипотез состоит в том, чтобы установить, противоречит выдвинутая гипотеза экспериментальным данным или нет. Так как результаты измерений сопровождаются погрешностями, то обычно они не могут с абсолютной достоверностью ни подтвердить, ни отвергнуть никакую гипотезу, т.е. всегда существует не равная нулю вероятность того, что принятое решение ошибочно.
Алгоритм, в соответствии с которым экспериментальным данным ставится в соответствие решение принять или отвергнуть гипотезу, называется решающим правилом, или правилом решения.
Предположим, что относительно некоторого параметра распределения случайной величины х выдвинута гипотеза, заключающаяся в том, что его значение равно = 0. В результате измерений получена оценка этого параметра, на основе которой экспериментатор должен либо принять, либо отвергнуть выдвинутую гипотезу. Для этого необходимо ответить на вопрос: как сильно оценка должна отличаться от 0, чтобы принять или отвергнуть выдвинутую гипотезу?
При этом следует учитывать, что отличие оценки от значения 0 может быть вызвано, во-первых, случайным характером оценки и, во-вторых, неравенством истинного значения значению 0. Таким образом, если отличие от 0 может быть объяснено чисто случайными причинами, то выдвинутая гипотеза принимается, в противном случае она отклоняется.
Пусть известна плотность распределения оценки . Изобразим ее графически (рис. 3.7.1), предполагая, что выдвинутая гипотеза = 0 верна, т.е. М[ ] = 0. Установим две границы 1 и 2 и сформулируем следующее решающее правило: если 1 2, то гипотеза принимается; если < 1 или > 2, то гипотеза отклоняется. При этом может быть принято ошибочное решение, причем вероятность ошибки равна
(3.7.1)
Рис. 3.7.1. Плотность распределения оценки
Вероятность ошибки называется уровнем значимости и при расчетах принимается обычно равной 0,05 или 0,01.
Будем считать, что . Тогда для установления границ 1 и 2 достаточно задаваться только значением уровня значимости и воспользоваться таблицами известного распределения .
Рассмотрим другой пример проверки гипотез. Пусть некоторый параметр распределения случайной величины может принимать только одно из двух значений: 0 или 1. На основании экспериментально полученной оценки необходимо решить, какое значение имело место в эксперименте. Для этого необходимо проверить гипотезу = 0 против альтернативной гипотезы = 1. На рис. 3.7.2 изображена плотность распределения как при условии справедливости нулевой гипотезы М[ ] = 0, так и при условии справедливости альтернативной гипотезы M[ ] = 1.
Рис. 3.7.2. Плотность распределения оценки
Установим границу Г и сформулируем решающее правило: если Г, то принимается нулевая гипотеза = 0, если > Г, то принимается альтернативная гипотеза = 1.
Обозначим следующие вероятности:
При принятии решения в соответствии с указанным решающим правилом возможны четыре ситуации:
1. нулевая гипотеза верна, но отклоняется. При этом имеет место ошибка 1-го рода, вероятность которой равна – уровню значимости;
2. альтернативная гипотеза верна, но отклоняется. При этом имеет место ошибка 2-го рода, вероятность которой равна ;
3. нулевая гипотеза верна и принимается. Вероятность такого исхода равна 1-;
4. альтернативная гипотеза верна и принимается. Вероятность этого равна 1- и называется мощностью решающего правила.
Следует помнить, что решающее правило должно включать в себя критерий, по которому устанавливается граничное значение. В качестве такого критерия может, в частности, использоваться критерий максимального правдоподобия.
Пример 3.7.1. Случайная величина х распределена нормально. Необходимо проверить гипотезу относительно значения ее математического ожидания. Выдвинутая гипотеза состоит в том, что = 6,8. Выполнено n = 10 измерений, обработка результатов которых дала следующие оценки: 6,5; S = 0,5.
Решение. Как известно, величина распределена по закону Стьюдента с п – 1 степенями свободы. Поэтому условием принятия гипотезы будет выполнение неравенства
В случае невыполнения этого неравенства гипотеза отклоняется. Задаемся уровнем значимости = 0,05. Для вероятности 0,025 и числа степеней свободы k = n-1 = 9 по таблице t-распределения находим t = 2,262.
Вычисляем = 0,3, 0,377.
Так как указанное неравенство выполняется, то можно считать, что гипотеза не противоречит экспериментальным данным.
Пример 3.7.2. При условиях, заданных в предыдущем примере, необходимо проверить гипотезу, состоящую в том, что 2 = = 0,9.
Решение. Как известно, величина распределена по закону 2 с n-1 степенями свободы. Поэтому условием принятия нулевой гипотезы будет выполнение неравенства
где и – значения величины 2 (см. таблицу 2-распределения), соответствующие вероятностям и и числу степеней свободы . Задаемся уровнем значимости = 0.05. Тогда при = 9 по таблицe 2-распределения находим = 19,023 и = 2,700. Таким образом, условием принятия нулевой гипотезы будет в данном случае
0,131 < < 0,926.
Так как это условие выполняется, то можно считать, что гипотеза не противоречит экспериментальным данным.