
- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
6.1.6. Основные положения теории информации для характеристики процесса измерения
Точность измерений
обычно характеризуется числовым
значением полученных при измерении или
предполагаемых погрешностей. При этом
используются понятия абсолютной и
относительной приведенной погрешностей.
Если измерительное устройство имеет
диапазон измерения от Х1
до Х2,
т.е. может
измерять величины, находящиеся в пределах
от Х1
до Х2
с абсолютной
погрешностью ±,
не зависящей от текущего значения х
измеряемой
величины, то, полученный результат
измерения в виде показания ХП
записывается
как ХП
±
и характеризуется относительной
приведенной погрешностью
.
Рассмотрение этих же самых действий с позиций теории информации носит несколько иной характер, отличающийся тем, что всем перечисленным понятиям придается вероятностный, статистический смысл, а итог проведенного измерения истолковывается как сокращение области неопределенности измеряемой величины. В теории информации тот факт, что измерительный прибор имеет диапазон измерений от Х1 до Х2, означает, что при использовании этого прибора могут быть получены показания ХП только в пределах от Х1 до Х2. Другими словами, вероятность получения отсчетов, меньших Х1 и больших Х2 равна нулю. Вероятность же получения отсчета где-то в пределах от Х1 до Х2 равна единице.
Если предположить, что плотность вероятности распределения различных значений измеряемой величины вдоль всей шкалы прибора одинакова, то с точки зрения теории информации наше знание о значении измеряемой величины до измерения может быть представлено графиком распределения плотности вероятности р(х) вдоль шкалы значений х, показанным на рис. 6.1.1.
Так как полная
вероятность получить отсчет где-то в
пределах от Х1
до Х2
равна единице, то под кривой р(х)
должна быть
заключена площадь, равная единице. При
равномерном распределении плотности
вероятности это приводит к
.
После проведения измерения получаем показание прибора, равное ХП. Однако вследствие погрешности прибора, равной ±, утверждать, что измеряемая величина точно равна значению ХП нельзя. Поэтому результат измерения записываем в виде ХП ± . Это означает, что действительное значение измеряемой величины X лежит где-то в пределах от ХП + до ХП – , т.е. в пределах участка 2, как показано на рис. 6.1.1.
Рис. 6.1.1. График распределения плотности вероятности р(х)
С точки зрения
теории информации результат измерения
состоит лишь в том, что до измерения
область неопределенности простиралась
от Х1
до Х2
и характеризовалась малой плотностью
вероятности
,
а после измерения она сократилась до
величины 2
и характеризуется намного большей
плотностью вероятности
.
Получение какой-либо информации об
интересующей величине заключается,
таким образом, в уменьшении неопределенности
ее значения.
Формальный
прием для математической записи этого
логического заключения достаточно
состоит в определении количества
информации q
как
уменьшения энтропии от значения
,
которое характеризует неопределенность
измеряемой величины перед измерением,
до значения
,
которое остается после получения
показания прибора
,
т.е. как
(6.1.10)
Величина представляет собой исходную энтропию, а значение характеризует ту неопределенность, которая остается после получения показания прибора и называется условной энтропией (при условии, что известно).
В приведенном примере с равномерным законом распределения плотности вероятности как до, так и после измерения исходная, или безусловная, энтропия составляет
(6.1.11)
а оставшаяся, или условная, энтропия результата измерения получения отсчета равна
. (6.1.12)
Отсюда полученное количество информации, равное разности исходной и оставшейся энтропии, записывается как
(6.1.13)
В этой замене
операции деления
на
,
используемой обычно при определении
относительной погрешности измерения,
на операцию вычитания исходной и
оставшейся неопределенностей,
характеризуемых соответствующими
значениями энтропии, и заключается
основной прием анализа теории информации.