
- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
6.1.4. Суммирование нескольких погрешностей
Рассматривая энтропию непрерывных случайных функций можно сказать, что максимальная энтропия при заданной средней мощности (т.е. при данном значении ) имеет шум или погрешность с нормальным распределением. Исходя из этого, для характеристики помех с законом распределения, отличным от нормального, используется энергетически информационное понятие энтропийной мощности. Она определяется как мощность шума с нормальным распределением, имеющим то же самое значение энтропии, что и данный шум с произвольным законом распределения.
Располагая понятиями полной и энтропийной мощности помехи или погрешности, в 15-й теореме формулируется основное соотношение, характерное для случая суммирования ряда случайных погрешностей с различными законами распределения.
Из теории вероятностей
известно, что при суммировании нескольких
независимых случайных величин с
дисперсиями
дисперсия их суммы равна сумме дисперсий,
т.е.
. (6.1.7)
Однако форма закона распределения при суммировании случайных величин сохраняется лишь для небольшого числа законов распределения (например, нормального, закона Пуассона и некоторых других). В общем же случае при суммировании случайных величин законы их распределения деформируются и закон распределения суммы оказывается отличным от закона распределения слагаемых. Так, например, при суммировании двух погрешностей с равномерными законами распределения закон распределения суммы является трапецеидальным или даже треугольным. А так как энтропия зависит именно от формы закона распределения (в то время как дисперсия суммы равна сумме дисперсий независимо от формы закона распределения), то соотношения между дисперсией и энтропией могут оказаться достаточно разнообразными. Задача о поиске этого соотношения и указания на некоторые его ограничения формулируются в виде 15-й теоремы.
Теорема 15.
Пусть средние
мощности двух ансамблей равны
и
,
а их энтропийные
мощности пусть равны
и
.
Тогда энтропийная мощность суммы
ограничена неравенствами
+
≥
≥
+
.
Теорема 15 утверждает, что энтропийная мощность суммы случайных погрешностей не меньше суммы их энтропийных мощностей и не больше суммы полных мощностей, а, следовательно, не может быть найдена ни путем суммирования энтропийных мощностей, ни путем суммирования полных мощностей. Таким образом, 15-я теорема Шеннона является не решением, а лишь постановкой задачи точного суммирования случайных погрешностей.
6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
Вопрос об учете явления «краевого эффекта» рассматривается при доказательстве 11-й и 17-й теорем. Сущность «краевого эффекта» состоит в следующем. Пусть по каналу передачи информации передается случайная величина X, которая может принимать ряд значений в пределах от X = Х1 до X = Х2.
В
результате измерения получаем показание
прибора, например, в виде точки Хп.
Из-за случайной погрешности прибора
этому показанию с теми или иными
вероятностями может соответствовать
целый ряд действительных значений X.
Не
учитывая маловероятных случаев, такую
ситуацию можно изобразить веером лучей,
сходящихся в точке Хп.
Неопределенность,
вносимая в результат измерения этим
веером, обусловленным случайной
погрешностью прибора, и описывается
условной энтропией
,
т.е. энтропией действительных значений
X
при
известном значении Хп.
Но
наличие случайной погрешности прибора
создает и другое явление. При передаче
по каналу крайних значений Х1
и
Х2
передаваемой
величины X
полученные
показания прибора могут быть и за
границами Х1
и
Х2.
Поэтому распределение различных значений
Хп
будет
шире распределения X.
Точное определение
этого «расширенного» распределения и
его энтропии пока точно не известно,
однако можно установить возможные
пределы результата. Считая как вносимую
погрешность, так и измеряемую величину
X
независимыми
случайными величинами, для их суммирования
между собой можно использовать 15-ю
теорему. В любом частном случае
результирующий закон распределения
может быть найден как свертка заданных
законов распределения
и
,
а затем может быть вычислено значение
его энтропии и энтропийной мощности.
Вследствие сложности
подобного точного решения, теоремы 17,
18, 19, 22 и 23 посвящаются поиску приближенных
решений проблемы «краевого эффекта» и
дают ряд рекомендаций. В теореме 17 он
показывает, что число различимых градаций
полученного результата Хп
может быть
оценено приближенно не по энтропийной
мощности, а по соотношению полных
мощностей сигнала Рх
и шума Рш.
Если считать,
что полная ширина разброса значений Хп
(от Хп
max
до Хп
min)
пропорциональна
,
а ширина веера лучей вокруг данного
значения X
соответственно
пропорциональна
,
то число различимых градаций Хп
равно
, (6.1.8)
где
– коэффициент Шеннона. Этот коэффициент
должен быть порядка единицы. Если
полагать
= 1, то
количество информации, получаемое при
данной мощности
сигнала и
мощности
шума, равно
логарифму числа А
различимых
градаций, т.е.
(6.1.9)
Грубость
приближения состоит в том, что оба его
члена выражаются не через понятия
энтропии и энтропийной мощности, а через
полные мощности. Таким образом, приближение
заключается в том, что точное выражение
заменяется
выражением
,
где
не равен
,
a
не
равен
.
Поэтому
в теоремах 18, 19, 22 и 23 Шеннон рассматривает
ряд дальнейших приближений. В 18-й теореме
он показывает, что лучшими приближениями
вместо дроби
являются соотношения
и
где
– значение энтропийной мощности шума.
Теорема 19 рекомендует в знаменателе
этой дроби всегда использовать
,
а в числителе
заменять на
при
>
.
В
22 и 23 теоремах он приходит к заключению,
что если под
понимать
допустимую дисперсию ошибки передачи,
то рассматриваемую дробь лучше писать
в виде
вместо
,
где
– энтропийная мощность сигнала, а
– его полная мощность.
Таким образом, от различных приближенных методов учета «краевого эффекта» в виде соотношений: , или , Шеннон приходит к выражению , т.е. вообще к отказу от использования поправки на «краевой эффект», однако с заменой полных мощностей сигнала и шума их энтропийными значениями. Это существенное обстоятельство. Упрощение в виде замены энтропии или энтропийной мощности значением средней мощности или дисперсии равносильно отказу от энтропийного подхода. Это просто возврат к обычным методам теории вероятности и отказ от основного рационального зерна теории информации. Однако пренебрежение «краевым эффектом» при >> вполне правомерно и весьма упрощает математические преобразования, и, наоборот, сохранение под знаком логарифма вместо отношения суммы резко усложняет их, так как логарифм суммы не раскрывается, и дальнейшие преобразования становятся затруднительными.