- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
6.11. Энтропийное значение результирующей погрешности
Энтропийное значение результирующей погрешности связано с ее среднеквадратическим значением соотношением . Рассмотренные правила суммирования позволяют найти . Однако каждая из независимых составляющих характеризуется своим законом распределения вероятностей. Закон распределения вероятностей результирующей погрешности является композицией законов распределения составляющих и может значительно от них отличаться. Поэтому величина энтропийного значения результирующей погрешности определяется не только величинами суммируемых погрешностей, но и их законами распределения. Использование приемов, основанных на исходных положениях теории информации, позволяет относительно легко это учесть.
Действительно, энтропийный коэффициент непосредственно связывает для каждого закона распределения энтропийную погрешность со значением среднеквадратической погрешности соотношением вида . Для статистически независимых случайных величин дисперсия их суммы независимо от законов распределения равна сумме дисперсий, т.е.
. (6.11.1)
Таким образом, если после суммирования погрешностей по группам измерительное устройство характеризуется рядом энтропийных значений погрешностей , , , ..., , распределенных по законам с энтропийными коэффициентами , , , ..., , то среднеквадратические отклонения , характеризующие каждое из распределений, равны
; ; ; ...; , (6.11.2)
а результирующая энтропийная погрешность всего устройства , где и – характеристики результирующего закона распределения погрешностей всего устройства.
Отсюда
(6.11.3)
В частном случае, когда законы распределения вероятностей всех составляющих, например, равномерны, а число составляющих настолько велико, что закон распределения результирующей погрешности можно считать нормальным, полученное соотношение упрощается. В этом случае и
. (6.11.4)
Если все составляющие распределены по нормальному закону, то
. (6.11.5)
В измерительных устройствах могут встречаться распределения с различными энтропийными коэффициентами. Поэтому в общем случае следует пользоваться общим соотношением (6.11.3), правомерным при любом сочетании законов распределения, как составляющих погрешности, так и их композиции. Трудность при этом заключается в определении вида законов распределения составляющих и закона суммарного распределения.
В существующей практике законы распределения составляющих погрешности задаются весьма упрощенно: обычно оговаривается только верхний Хmax и нижний Хmin пределы погрешности или отклонения дестабилизирующего фактора. Закон распределения в этих случаях принимается условно равномерным. Однако для отыскания результирующей погрешности используются только максимальные по абсолютной величине отклонения, т.е. практически принимается наиболее вероятным появление лишь максимальных отклонений (Хmax или Хmin).
Гарантировать соответствие Хmax и Хmin реальным величинам отклонений дестабилизирующего фактора удается только для ограниченного числа параметров. В большинстве случаев предел Хmax или Хmin указывает только порядок ожидаемой величины действующего фактора и весьма приближенно характеризует конкретные условия работы аппаратуры.
Для более точного определения погрешностей следует рассматривать не только границы Хmax и Хmin, но и реальный закон распределения погрешности или дестабилизирующего фактора в этих границах. Учитывая, что с позиций теории информации мешающее действие помехи определяется ее энтропийным значением, при рассмотрении законов распределения погрешностей целесообразно отыскивать именно это значение погрешности или случайного дестабилизирующего фактора и характеризовать им помеху.