
- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
Раздел 6 введение в информационную теорию измерений
6.1. Основные положения теории информации
Основные положения теории информации были разработаны К. Шенноном в его работах 1948, 1949 и 1950 гг. «Основная идея теории информации состоит в том, что с информацией можно обращаться почти так же, как с такими физическими величинами, как масса или энергия» – писал К. Шеннон. Поэтому система транспортировки информации может рассматриваться подобно системам транспортировки массы или энергии.
В первой из этих работ Шеннон формулирует основные соотношения теории информации в виде 23 теорем. Во второй работе приводится пять теорем, которые в основном соответствуют теоремам 13, 17, 18, 11 и 23 первой работы. По тематике эти 23 теоремы Шеннона можно подразделить на три группы. Первая группа (теоремы 2, 10, 11, 13, 15, 16, 17) обосновывает систему общих оценок процесса передачи информации. Вторая (теоремы 18 23) – это ряд попыток получения приближенных оценок для некоторых частных случаев. И, наконец, наибольшую группу составляют 10 теорем (1, 3, 4, 5, 6, 7, 8, 9, 12 и 14), посвященных вопросам оптимального кодирования передаваемой информации.
В этой связи разработанную Шенноном теорию часто называют не «теорией информации», а «шенноновской теорией оптимального кодирования информации». Однако взгляд на теорию информации как на «теорию оптимального кодирования» весьма ее обедняет, так как теория совокупных информационных оценок систем приема и передачи информации и, в частности, измерительных систем является столь же важным разделом теории информации, как и теория кодирования.
6.1.1. Энтропия
В теории вероятностей в качестве критериев, описывающих законы распределения, используются начальные моменты: математическое ожидание (первый начальный момент), начальный момент s-порядка; центральные моменты: центральный момент s-порядка, дисперсия (второй центральный момент), коэффициент асимметрии (третий центральный момент). Для теории информации К. Шеннон предложил свою систему критериев, кратко описывающих законы распределения. Для характеристики систематической составляющей используется, как и прежде, первый начальный момент, т.е. значение математического ожидания, а для характеристики центрированной случайной составляющей вместо всех моментов более высоких порядков используется своеобразный момент, равный для закона распределения р(х) интегралу
(6.1.1)
и называемый энтропией. Таким образом, энтропия является функционалом закона распределения случайной величины и учитывает особенности этого закона. Вывод этого соотношения К. Шеннон сформулировал в виде теоремы 2. Смысл этой теоремы можно пояснить следующим образом.
Пусть некоторый ряд значений случайной величины X имеет нормированные вероятности Р1, Р2, ..., Рn, т.е. известен закон распределения этих значений. Можно ли найти меру того, насколько неопределенна эта величина? Если имеется такая мера H (Р1, Р2, ..., Рn,), то Шеннон утверждает, что разумно потребовать, чтобы она обладала следующими свойствами:
1. Величина H должна быть непрерывной относительно Pi.
2. Если все п
значений Pi
равны между
собой, т.е.
,
то H
должна монотонно возрастать по мере
увеличения числа п,
так как
неопределенность при этом, естественно,
увеличивается.
3. Если выбор данного значения х может быть сделан путем двух или более последовательных выборов, то величина H не должна зависеть от этой последовательности, т.е. общая H должна быть взвешенной суммой индивидуальных значений H.
Теорема 2. Существует единственная функция H, удовлетворяющая перечисленным свойствам. Эта функция имеет вид
(6.1.2)
Энтропию непрерывного распределения р(х) Шеннон определяет как
На основании этого
соотношения энтропия, например,
равномерного распределения, когда
в полосе шириной
и равно нулю
вне этой полосы, составляет
(6.1.3)
Энтропия дискретной случайной величины не зависит от того, какие именно значения принимает эта величина (важны количество этих значений и их вероятности), и равна
(6.1.4)
Если рассмотреть случайную дискретную величину X, которая имеет n равновероятных значений, то вероятность каждого из них будет равна и
(6.1.5)
т.е. энтропия системы с равновероятными состояниями равна логарифму количества этих состояний. Чем больше число возможных состояний системы при равновероятности их появления, тем больше неопределенность системы или возможность выбора. Иначе можно сказать, что энтропия есть мера свободы выбора.