- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
3.9.2. Критерий согласия Колмогорова
Критерий согласия Колмогорова (также известный, как критерий согласия Колмогорова-Смирнова) используется для того, чтобы определить, подчиняются ли два эмпирических распределения одному закону, либо определить, подчиняется ли полученное распределение предполагаемой модели. Критерий Колмогорова-Смирнова уместно применять в тех случаях, когда нужно проверить, подчиняется ли наблюдаемая случайная величина некоторому закону распределения, известному с точностью до параметров. Например, все исходы, выдаваемые рулеткой казино, должны быть равновероятны. В качестве меры расхождения между теоретическим и статистическим распределениями рассматривается максимальное значение модуля разности между статистической функцией распределения и соответствующей теоретической функцией распределения (рис. 3.9.1):
Рис. 3.9.1. Проверка согласия по критерию Колмогорова
(3.9.4)
Величина определяется по формулам:
Колмогоров показал, что какова бы ни была функция распределения F(х) непрерывной случайной величины х, при k вероятность сохранения условия
(3.9.5)
стремится к пределу
(3.9.6)
Значения вероятности , подсчитанные по формуле (3.9.6), представлены в табл. 3.9.1.
Таблица 3.9.1
|
P() |
|
P() |
|
P() |
|
P() |
0,0 0,1 0,2 0,3 0,4 0,5 |
1,000 1,000 1,000 1,000 0,997 0,964 |
0,6 0,7 0,8 0,9 1,0 |
0,864 0,711 0,544 0,393 0,270 |
1,1 1,2 1,3 1,4 1,5 |
0,178 0,112 0,068 0,040 0,022 |
1,6 1,7 1,8 1,9 2,0 |
0,012 0,006 0,003 0,002 0,001 |
Схема применения критерия Колмогорова следующая:
1) строят статистическую функцию распределения и предполагаемую теоретическую функцию распределения ;
2) определяют максимум Dn модуля разности между этими распределениями;
3) определяют величину и по табл. 3.9.1 находят вероятность P().
Величина P() есть вероятность того, что за счет чисто случайных причин максимальное расхождение между и будет не меньше, чем фактически наблюдаемое. Если эта вероятность весьма мала, то гипотезу Н следует отвергнуть как неправдоподобную; при сравнительно больших ее можно считать совместной с опытными данными.
Пример 3.9.3. Дана выборка объемом n = 10 , извлечённая из генеральной совокупности X:
X |
2 |
4 |
6 |
8 |
10 |
12 |
mi |
1 |
2 |
2 |
2 |
2 |
1 |
При уровне значимости q = 0,01 проверить с помощью критерия Колмогорова гипотезу о равномерном распределении генеральной совокупности X в интервале (2; 12). Гипотетическая функция распределения
Решение. По данным выборки найдем и во всех точках , и оценим . Результаты вычислений сведем в таблицу
i |
|
mi |
|
|
|
1 |
2 |
1 |
0,0 |
0,0 |
0 |
2 |
4 |
2 |
0,1 |
0,2 |
0,1 |
3 |
6 |
2 |
0,3 |
0,4 |
0,1 |
4 |
8 |
2 |
0,5 |
0,6 |
0,1 |
5 |
10 |
2 |
0,7 |
0,8 |
0,1 |
6 |
12 |
1 |
0,9 |
1,0 |
0,1 |
Вычисляем:
.
Зная , по табл. 3.9.1 находим что , следовательно, предположение о равномерном распределении генеральной совокупности не отвергается.
Достоинство критерия Колмогорова в отличие от критерия 2 состоит в том, что он достаточно прост, а недостаток – в том, что этот критерий можно применять, когда функция распределения F(х) известна полностью (т.е. известны не только вид распределения, но и входящие в него параметры), что сравнительно редко встречается на практике. Для критерия Пирсона этот недостаток отсутствует, так как он учитывается соответствующим изменением числа степеней свободы распределения 2.