- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
6.1.6. Основные положения теории информации для характеристики процесса измерения
Точность измерений обычно характеризуется числовым значением полученных при измерении или предполагаемых погрешностей. При этом используются понятия абсолютной и относительной приведенной погрешностей. Если измерительное устройство имеет диапазон измерения от Х1 до Х2, т.е. может измерять величины, находящиеся в пределах от Х1 до Х2 с абсолютной погрешностью ±, не зависящей от текущего значения х измеряемой величины, то, полученный результат измерения в виде показания ХП записывается как ХП ± и характеризуется относительной приведенной погрешностью .
Рассмотрение этих же самых действий с позиций теории информации носит несколько иной характер, отличающийся тем, что всем перечисленным понятиям придается вероятностный, статистический смысл, а итог проведенного измерения истолковывается как сокращение области неопределенности измеряемой величины. В теории информации тот факт, что измерительный прибор имеет диапазон измерений от Х1 до Х2, означает, что при использовании этого прибора могут быть получены показания ХП только в пределах от Х1 до Х2. Другими словами, вероятность получения отсчетов, меньших Х1 и больших Х2 равна нулю. Вероятность же получения отсчета где-то в пределах от Х1 до Х2 равна единице.
Если предположить, что плотность вероятности распределения различных значений измеряемой величины вдоль всей шкалы прибора одинакова, то с точки зрения теории информации наше знание о значении измеряемой величины до измерения может быть представлено графиком распределения плотности вероятности р(х) вдоль шкалы значений х, показанным на рис. 6.1.1.
Так как полная вероятность получить отсчет где-то в пределах от Х1 до Х2 равна единице, то под кривой р(х) должна быть заключена площадь, равная единице. При равномерном распределении плотности вероятности это приводит к .
После проведения измерения получаем показание прибора, равное ХП. Однако вследствие погрешности прибора, равной ±, утверждать, что измеряемая величина точно равна значению ХП нельзя. Поэтому результат измерения записываем в виде ХП ± . Это означает, что действительное значение измеряемой величины X лежит где-то в пределах от ХП + до ХП – , т.е. в пределах участка 2, как показано на рис. 6.1.1.
Рис. 6.1.1. График распределения плотности вероятности р(х)
С точки зрения теории информации результат измерения состоит лишь в том, что до измерения область неопределенности простиралась от Х1 до Х2 и характеризовалась малой плотностью вероятности , а после измерения она сократилась до величины 2 и характеризуется намного большей плотностью вероятности . Получение какой-либо информации об интересующей величине заключается, таким образом, в уменьшении неопределенности ее значения.
Формальный прием для математической записи этого логического заключения достаточно состоит в определении количества информации q как уменьшения энтропии от значения , которое характеризует неопределенность измеряемой величины перед измерением, до значения , которое остается после получения показания прибора , т.е. как
(6.1.10)
Величина представляет собой исходную энтропию, а значение характеризует ту неопределенность, которая остается после получения показания прибора и называется условной энтропией (при условии, что известно).
В приведенном примере с равномерным законом распределения плотности вероятности как до, так и после измерения исходная, или безусловная, энтропия составляет
(6.1.11)
а оставшаяся, или условная, энтропия результата измерения получения отсчета равна
. (6.1.12)
Отсюда полученное количество информации, равное разности исходной и оставшейся энтропии, записывается как
(6.1.13)
В этой замене операции деления на , используемой обычно при определении относительной погрешности измерения, на операцию вычитания исходной и оставшейся неопределенностей, характеризуемых соответствующими значениями энтропии, и заключается основной прием анализа теории информации.