- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
5.8. Цифровое представление информации
Теоретической основой проектирования шкал метрологического кодирования измерительного сигнала являются: цифровое представление измерительной информации и теория алгоритмов кодирования измерительного сигнала.
Основной единицей информации в ЭВМ служит бит, принимающий значения 0 или 1. Очевидно, что 1-битовые данные не подходят для выполнения числовых расчетов, так как позволяют осуществлять последовательный счет только от 0 до 1. Однако бит является очень полезным типом данных, если использовать его значения (0 и 1) для представления двух логических величин – «истинно» и «ложно». Полученный таким образом тип данных называют логическим или булевым. Логический тип данных широко используется в программах для различных целей, например для сохранения результатов операций сравнения, указания особых случаев и вообще для определения двух возможных исходов или условий выполнения операций.
Последовательность, состоящую из двух или большего числа битов, применяют для представления более чем двух величин и условий. Если число битов в последовательности равно п, то имеется возможность составить 2n различных комбинаций их значений, при этом группе битов можно присваивать как числовые, так и нечисловые значения.
Совокупность битов, которыми вычислительная машина оперирует одновременно, называют словом. Длина слова у различных ЭВМ обычно находится в пределах 4÷64 бит. Для большого числа мини- и микроЭВМ термин «слово» обозначает 16-битовые цепочки.
Операнды и команды являются той информацией, которая обрабатывается в вычислительных устройствах. Эта информация представляет собой числа, буквы, знаки препинания, математические и другие знаки, а также комбинации двоичных разрядов с закодированными в них данными. Форматы информации различны. Вид обработки и способ, по которому должна обрабатываться информация, содержатся в командах.
Подлежащие обработке операнды (данные) и команды представляют собой цифровую информацию. Последняя состоит из некоторого числа двоичных выражений или бит. Стандартную установленную длину группы двоичных разрядов называют информационным форматом. Наиболее целесообразный информационный формат для вычислительных устройств определяется в основном обрабатываемой информацией.
В общем случае пользуются двоичной системой счисления. Количество разрядов определяется длиной слова. Программист или оператор работает в отличие от ЭВМ с десятичными числами, а при известных условиях – с восьмеричными или шестнадцатеричными числами. Преобразование систем счисления в ЭВМ выполняет специальная подпрограмма при считывании программы. При изображении чисел в различных системах счисления различают числа с фиксированной и плавающей запятой.
В преобразователях информации и в ЭВМ используют позиционные и непозиционные системы счисления. Некоторое конечное число в позиционной системе счисления можно записать в следующем виде:
(5.8.1)
где В – основание в виде целого числа; – значение разрядов цифр.
Развитие цифровой техники обнаружило по меньшей мере три принципиальных недостатка классической двоичной системы счисления.
1. В (5.8.1) каждому числу z соответствует один и притом единственный двоичный код. На языке теории кодирования это означает, что классическая двоичная нумерация (5.8.1) обладает «нулевой» избыточностью. Так как в реальных условиях всегда возможны сбои и отказы в работе цифровой аппаратуры, реализующей двоичную нумерацию (5.8.1), то в силу «нулевой» избыточности кода такие сбои и отказы не обнаруживаются, следствием чего является низкая информационная надежность цифровой техники, использующей классический двоичный код.
2. Второй недостаток носит сугубо вычислительный характер и состоит в том, что при сложении двух чисел возникают длинные цепочки переносов с младших разрядов в старшие, что принципиально ограничивает быстродействие современных ЭВМ.
3. Третий недостаток составляет проблема «соседнего» кодирования. Ее суть состоит в том, что двоичные коды соседних чисел (например, 3110 = 0111112 и 3210 = 1000002) различаются в большом количестве разрядов. Для перехода от кода числа 31 к коду числа 32 нужно изменять все разряды на противоположные (это имеет место на стыке чисел 2n-1, 2n, 2n+1). Но в силу естественных законов производства всегда имеет место разброс по скорости переключения двоичных электронных элементов. В результате «состязаний» между электронными элементами в момент перехода возникает ситуация неопределенности, которая может служить источником сбоев в цифровой аппаратуре.
Особенно остро эта проблема проявляется в АЦП и ЦАП. Так как физически невозможно точно реализовать выполнение следующих тождеств для соседних кодов:
,
где n = 1, 2, 3 ..., то нарушение этих тождеств является источником весьма сложного (скачкообразного) закона распределения погрешностей по шкале метрологического кодирования АЦП и ЦАП, что значительно усложняет проблему нормирования погрешностей и метрологического контроля современной цифровой измерительной техники.
Преодоление указанных недостатков стимулировало развитие теории систем счисления и теории избыточного кодирования информации. Одним из подходов в этом направлении являются системы счисления с иррациональными основаниями типа золотой пропорции.