- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
3.9. Критерии согласия
Допустим, что имеющееся статистическое распределение выровнено с помощью теоретической кривой f(х). Между теоретической кривой и статистическим распределением неизбежны некоторые расхождения. Объясняются ли эти расхождения только случайными обстоятельствами, связанными с ограниченным числом наблюдений, или они являются существенными и связаны с тем, что подобранная кривая плохо выравнивает данное статистическое распределение? Ответ на этот вопрос дают критерии согласия.
Их сущность заключается в следующем. На основании имеющегося статистического материала необходимо проверить гипотезу Н, состоящую в том, что случайная величина X подчиняется некоторому определенному закону распределения. Пусть закон задан в виде F(х). Чтобы принять или отбросить гипотезу H, необходимо выбрать некоторую величину W, характеризующую степень расхождения теоретического и статистического распределений. Ее можно выбрать различными способами; например, в качестве W взять сумму квадратов отклонений теоретических вероятностей Pi от соответствующих частот или сумму тех же квадратов с некоторыми весовыми коэффициентами, или максимальное отклонение статистической функции распределения от теоретической F(х) и т.д.
Пусть величина W выбрана.Она является случайной с законом распределения, зависящим от закона распределения величины X и числа опытов п. Допустим, что этот закон известен. Тогда мера расхождения результатов опыта равна и. Если вычислить вероятность события W u и она окажется малой, то гипотезу Н следует отвергнуть как мало правдоподобную; если же эта вероятность значительна, следует принять, что экспериментальные данные не противоречат гипотезе Н.
3.9.1. Критерий согласия Пирсона
Критерий Пирсона (критерий χ2-квадрат) – наиболее часто употребляемый критерий для проверки гипотезы о законе распределения. В качестве меры расхождения выбрана величина
(3.9.1)
где ; – число значений в i-м разряде; r – число разрядов.
При n закон распределения W приближается к распределению 2. Распределение 2 зависит от параметра k – числа степеней свободы распределения. Число степеней свободы k равно числу разрядов r минус число независимых условий (связей s), наложенных на частоты . Обычно в качестве условий выбирают следующие:
(3.9.2)
Схема применения критерия 2 к оценке согласованности теоретического и статистического распределений сводится к следующему:
1) определяют меру расхождения 2 по формуле (3.9.1);
2) определяют число степеней свободы k по формуле:
k = r-s; (3.9.3)
3) по k и 2 с помощью таблиц для 2 находят вероятность того, что величина, имеющая распределение 2 с k степенями свободы, превзойдет данное значение 2.
Если эта вероятность весьма мала (меньше 0,1), гипотеза H отбрасывается как неправдоподобная. Если вероятность относительно велика, гипотезу можно признать не противоречащей опытным данным.
Пример 3.9.1. Проверить согласованность теоретического и статистического распределений для примера 3.8.1 § 3.8.
Решение. Пользуясь теоретическим нормальным законом распределения с параметрами
= 0,168; = 1,448,
находим вероятности попадания в разряды по формуле
где и – границы i-го разряда.
Составляем сравнительную таблицу чисел попаданий в разряды mi и соответствующих значений nPi (n = 500).
Ii |
-4; -3 |
-3; -2 |
-2; 1 |
- 1; 0 |
0; 1 |
1; 2 |
2; 3 |
3; 4 |
mi |
6 |
25 |
72 |
133 |
120 |
88 |
46 |
10 |
nPi |
6,2 |
26,2 |
71,2 |
122,2 |
131,8 |
90,5 |
38,2 |
10,5 |
По формуле (3.9.1) определяем значение меры расхождения
Определяем число степеней свободы как число разрядов минус число наложенных связей s (в данном случае s = 3):
k = r-s = 8-3 = 5.
По таблице «Значения 2 в зависимости от k и p» k = 5:
при 2 = 3,000 р = 0,70;
при 2 = 4,351 р = 0,50.
Следовательно, искомая вероятность р при 2 = 3,94 приближенно равна 0,56. Эта вероятность малой не является; поэтому гипотезу о том, что величина X распределена по нормальному закону, можно считать правдоподобной.
Пример 3.9.2. Проверить согласованность теоретического и статистического распределений для условий примера 3.8.2 § 3.8.
Решение. Значения Pi вычисляем как вероятности попадания на участки (20; 30), (30; 40) и т.д. для случайной величины, распределенной по закону равномерной плотности на отрезке (23,6; 96,9). Составляем сравнительную таблицу значений ni и nPi (п = 400):
Ii |
20; 30 |
30; 40 |
40; 50 |
50; 60 |
60; 70 |
70; 80 |
80; 90 |
90; 100 |
mi |
21 |
72 |
66 |
38 |
51 |
56 |
64 |
32 |
nPi |
34,9 |
54,6 |
54,6 |
54,6 |
54,6 |
54,6 |
54,6 |
38,0 |
По формуле (3.9.1) определяем значение меры расхождения
Число степеней свободы:
k = r-s = 8-3 = 5.
По таблице «Процентные точки -распределения» при k = 5 имеем:
при 2 = 20,517 р = 0,001.
Следовательно, наблюденное расхождение между теоретическим и статистическим распределениями могло бы за счет чисто случайных причин появиться лишь с вероятностью р 0,001. Так как эта вероятность очень мала, следует признать экспериментальные данные противоречащими гипотезе о том, что величина X распределена по закону равномерной плотности.