
- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
6.5. Энтропийное значение погрешности
В случае распределения вероятностей погрешности, близком к равномерному, при многократном повторении измерений величины, соответствующей показанию измерительного устройства ХП, погрешностей, больших, чем +, и меньших, чем -, практически не встречается, а внутри этого интервала все значения погрешностей равновероятны. В этом случае интервал неопределенности просто 2, и указание максимальной величины погрешности ± полностью характеризует возможные погрешности прибора.
В случае распределения погрешностей с плавными спадами плотности вероятности по мере возрастания величины погрешностей (нормальный закон) указать интервал неопределенности простым рассуждением нельзя. Такое распределение можно охарактеризовать только среднеквадратическим значением погрешности, значения же максимальной погрешности нельзя указать, так как при этом распределении теоретически, хотя и редко, но могут встречаться сколь угодно большие величины погрешностей. Так, если относительная среднеквадратическая погрешность при нормальном распределении , то в среднем на каждые три испытания будет попадаться погрешность, достигающая 0,5%, на каждые 22 испытания в среднем будет встречаться одна погрешность, достигающая 2. А один раз на 370 или 15000 испытаний будут встречаться погрешности 3 и 4.
Чтобы
определить эквивалентный интервал
неопределенности, надо произвольно
приписать ширине полосы погрешностей
какое-то условное значение .
Эта погрешность может быть принята
равной средневероятной погрешности
.
При этом, если закон распределения
погрешностей действительно является
нормальным, то половина из всех
встречающихся погрешностей будет меньше
этого значения, а вторую половину будут
составлять погрешности, большие этого
значения.
В
этом случае указывают, что определяющая
погрешность выбрана с доверительной
вероятностью, равной 0,5, так как
вероятность того, что любая встретившаяся
погрешность будет меньше выбранной,
равна 0,5. Если определяющую погрешность
выбрать равной
,
2
или 3
,
то при нормальном законе распределения
это будет соответствовать доверительной
вероятности, равной 0,67, 0,95 или 0,997.
Не пользуясь теорией информации, обоснованно выбрать ширину достоверно различимой полосы результата измерения не представляется возможным.
Иногда это затруднение пытаются обойти, указывая не условную величину , а определенное значение доверительной вероятности появления той или иной величины максимальной погрешности. Однако это не устраняет возникшего затруднения, так как произвольное назначение ширины полосы 2 просто заменяется столь же произвольным назначением доверительной вероятности.
6.5.1. Математическое определение энтропийного значения погрешности
Количество информации, получаемое в результате любого сообщения (в том числе и измерения), равно убыли неопределенности
,
т.е. разности энтропии до и после получения сообщения. При этом исходная неопределенность, т.е. безусловная энтропия , зависит только от распределения вероятностей различных значений измеряемой величины (различных сообщений) и не зависит от распределения вероятностей погрешности, Неопределенность, остающаяся после получения сообщения (результата измерения), т.е. условная энтропия , равна энтропии распределения вероятностей погрешностей. Поэтому каждый из членов основного соотношения теории информации может исследоваться отдельно и независимо от другого члена.
В связи с этим дезинформационное действие шума, помехи или погрешности зависит только от их закона распределения и может быть однозначно указано путем вычисления энтропии этого закона распределения. Поэтому единственным эффективным критерием дезинформационного действия любого шума, помехи или погрешности является их энтропия.
Однозначного соответствия между мощностью помехи (т.е. ее дисперсией ) и вносимой ею дезинформацией (то есть значением ее энтропии) не наблюдается, так как при одной и той же мощности помехи вносимая ею дезинформация различна и зависит от закона распределения вероятностей этой помехи. При определенном среднеквадратическом значении помехи наибольшим дезинформационным действием (наибольшей энтропией) обладает помеха с нормальным законом распределения вероятностей. При любом другом законе распределения вероятностей помехи ее энтропия (при том же среднеквадратическом значении) оказывается меньшей.
Таким образом, при произвольном законе распределения вероятностей дезинформационное действие помехи определяется не всей мощностью помехи, а только ее некоторой частью, которая называется энтропийной мощностью помехи.
При исследовании измерительных устройств удобнее оперировать энтропийным значением погрешности, которое однозначно определяет дезинформационное действие этой погрешности. Определим энтропию для равномерного и нормального законов распределения вероятностей погрешности.
Значение условной энтропии определяется выражением (6.1.11)
.
Плотность вероятности р(х) для равномерного закона распределения может быть записана как:
при х < -
и х > +,
т.е. при |
х| > ;
при
,
т.е. при |
х| < .
Отсюда энтропия погрешности при равномерном законе распределения равна
. (6.5.1)
Видно, что энтропия погрешности равна логарифму интервала неопределенности.
Величина интервала неопределенности может быть выражена также через значение среднеквадратической погрешности. Для равномерного распределения дисперсия равна
. (6.5.2)
Отсюда
для равномерного распределения
,
и интервал неопределенности
,
а, следовательно, энтропия
.
Плотность вероятности р(х) для нормального закона распределения может быть записана как:
.
Тогда условная энтропия, т.е. неопределенность, оставшаяся после измерения, равна
(6.5.3)
Так как
,
а по определению понятия дисперсии
,
то
. (6.5.4)
Полученное
выражение для нормального распределения
(6.5.4) отличается от выражения для
равномерного распределения (6.5.1),
ограниченным шириной 2,
распределением погрешности только
произведением, стоящим под знаком
логарифма. Следовательно, с информационной
точки зрения неограниченное распределение
вида пологой кривой приводит к получению
точно такого же количества информации,
как и резко ограниченное равномерное
распределение, если
.
Другими словами, эффективный интервал
неопределенности, вызываемый погрешностью
с пологой кривой распределения, совершенно
эквивалентен по количеству вносимой
им дезинформации интервалу неопределенности,
вызываемому равномерной и резко
ограниченной полосой погрешностей
с шириной
.
Если
прибор с равномерным распределением
погрешностей с информационной точки
зрения характеризуется погрешностью
±,
равной
,
то прибор с распределением погрешности
по нормальному закону характеризуется
эффективным значением погрешности
. (6.5.5)