
- •200106 «Информационно-измерительная техника и технологии»
- •Введение
- •1.2. Сигналы
- •1.3. Преобразование измерительных сигналов
- •1.4. Спектр периодических сигналов
- •1.5. Модуляция
- •1.5.1. Амплитудная модуляция
- •1.5.2. Частотная модуляция
- •1.5.3. Фазовая модуляция
- •1.5.4. Двукратные виды модуляции
- •1.6. Квантование
- •1.6.1. Квантование по уровню
- •1.6.2. Квантование по времени
- •1.6.3. Квантование по уровню и времени
- •1.7. Кодирование
- •1.7.1. Цифровые коды
- •1.7.2. Помехи
- •1.8. Модель канала
- •Раздел 2 измерительные каналы и их разделение
- •2.1. Канал связи и его характеристики
- •2.2. Согласование канала с источником информации
- •2.3. Линии связи для передачи измерительной информации
- •2.4. Структуры линий связи
- •2.5. Многоканальные системы для передачи измерительной информации
- •2.6. Погрешность систем с частотным разделением каналов
- •2.7. Погрешности систем с временным разделением каналов
- •Раздел 3 принципы обработки данных
- •3.1. Виды погрешностей
- •3.2. Обработка результатов измерений. Оценки измеряемой величины
- •3.3. Обработка результатов прямых равноточных измерений
- •3.4. Обработка результатов косвенных измерений
- •3.5. Обработка результатов совместных измерений
- •3.6. Обработка результатов неравноточных измерений
- •3.7. Проверка статистических гипотез
- •3.7.1. Проверка соответствия гипотезы и экспериментальных данных
- •3.7.2. Исключение резко отклоняющихся значений
- •3.8. Построение эмпирических распределений
- •3.9. Критерии согласия
- •3.9.1. Критерий согласия Пирсона
- •3.9.2. Критерий согласия Колмогорова
- •Раздел 4 планирование многофакторного эксперимента
- •4.1. Задачи планирования эксперимента
- •4.2. Пассивные эксперименты
- •4.3. Дисперсионный анализ
- •4.4. Регрессионный анализ
- •4.5. Активный эксперимент
- •4.6. Полный факторный эксперимент
- •4.7. Дробный факторный эксперимент
- •4.8. Устранение влияния временного дрейфа
- •4.9. Проведение факторного эксперимента и обработка его результатов
- •4.10. Оптимизация
- •4.11. Рандомизация
- •Раздел 5 введение в алгоритмическую теорию измерений
- •5.1. Вводные замечания
- •5.2. Развитие понятий числа и измерения величин
- •5.3. Теория шкал и алгоритмические измерения
- •5.4. Алгоритмы измерения в номинальной шкале, аддитивной и порядка
- •5.5. Моделирование цифровых алгоритмических измерений
- •5.6. Эквивалентность между фильтрацией и алгоритмическим измерением
- •5.7. Моделирование сигналов. Дискретизация
- •5.7.1. Модели дискретизации аналогового сигнала
- •5.7.2. Дискретизация с усреднением
- •5.7.3. Дискретизация сигналов конечной длительности
- •5.8. Цифровое представление информации
- •5.9. Системы счисления с иррациональными основаниями
- •5.9.1. Золотая пропорция
- •5.9.2. Числа Фибоначчи
- •5.9.4. Код золотой p-пропорции
- •5.10. Общий алгоритм метрологического кодирования
- •5.10.1. Алгоритм Стахова
- •5.10.2.Фибоначчиевы алгоритмы цифрового метрологического кодирования
- •Раздел 6 введение в информационную теорию измерений
- •6.1. Основные положения теории информации
- •6.1.1. Энтропия
- •6.1.2. Единицы измерения энтропии
- •6.1.3. Условная энтропия (энтропия помехи)
- •6.1.4. Суммирование нескольких погрешностей
- •6.1.5. Явление «краевой эффект». Приближенность информационных оценок каналов передачи информации
- •6.1.6. Основные положения теории информации для характеристики процесса измерения
- •6.2. Сущность измерения
- •6.2.1. Понятие натурального ряда однородных величин
- •6.2.2. Понятие шкалы реперов измеряемой величины
- •6.2.3. Измерение как сужение интервала неопределенности
- •6.3. Измерительные преобразования, функциональные шкалы, единицы измеряемой величины
- •6.3.1. Функциональная шкала измеряемой величины
- •6.3.2. Понятие единицы измерения
- •6.3.3. Метод построения измерительных устройств
- •6.4. Измерительные преобразования и преобразователи
- •6.5. Энтропийное значение погрешности
- •6.5.1. Математическое определение энтропийного значения погрешности
- •6.5.2. Эффективное значение погрешности
- •6.6. Сравнение энтропийного и среднеквадратического значений погрешности для плавных симметричных одномодальных законов распределения погрешностей
- •6.7. Энтропийное значение погрешности – основной критерий точности приборов и измерений
- •6.8. Определение энтропийного значения погрешности на практике
- •6.9. Суммирование погрешностей измерительных устройств
- •6.10. Статистическое суммирование погрешностей при наличии корреляции
- •6.11. Энтропийное значение результирующей погрешности
- •6.12. Суммирование погрешностей с равномерными законами распределения вероятностей
- •6.13. Суммирование погрешностей при равномерном и нормальном законах распределения составляющих результирующей погрешности
- •6.14. Суммирование погрешностей при произвольной степени корреляции и произвольных законах распределения вероятностей составляющих результирующей погрешности
- •И объемов (n) выборок
- •Интервала
- •Оглавление
Раздел 2 измерительные каналы и их разделение
2.1. Канал связи и его характеристики
Под каналом связи понимают совокупность технических средств, обеспечивающих независимую передачу сообщений. В эту совокупность входят: физическая среда, по которой передается сигнал, линия связи и устройства для передачи и приема сигнала.
В зависимости от характера передающей среды и физической природы сигналов линии связи (как и каналы), используемые в ИИС, можно разделить на электрические, радио, акустические и оптические. В электрических линиях сигнал передается по проводам, в остальных – посредством излучения. Наиболее распространенные линии связи – электрические и радиолинии. Акустические каналы применяются в таких областях техники, как гидролокация, дефектоскопия и т.д.
В последнее время с появлением лазеров все большее развитие получают оптические каналы связи для передачи сигналов на большие расстояния.
Основными характеристиками канала связи являются емкость канала связи и скорость передачи информации (пропускная способность).
Емкость канала Vk представляет собой произведение трех величин:
где
– время, в течение которого канал занят
передаваемым сигналом;
–
полоса частот, пропускаемая каналом;
– характеристика, показывающая превышение
мощности сигнала Рс,
которую может пропустить канал над
мощностью помех Рп
в канале.
Скорость передачи информации U определяет количество информации, передающееся в единицу времени:
Максимально возможную скорость передачи информации по каналу называют пропускной способностью канала
(2.1.1)
где
– энтропия источника сигнала;
1
– условная энтропия, определяемая
помехой и зависящая от ее уровня и
характера.
Иначе говоря, пропускная способность определяет максимальное количество информации, которое можно передать в единицу времени.
Для того чтобы определить, насколько скорость передачи информации близка к пропускной способности канала, вводят характеристику , которая называется коэффициентом использования канала.
. (2.1.2)
Пропускная способность канала определяется только свойствами канала и не зависит от источников сигнала.
При передаче сигнала, представляющего собой непрерывную функцию времени x(t) и при условии, что:
1) ширина полосы частот ограничена частотой F;
2) средняя мощность сигнала задана величиной Рс;
3) помеха в канале распределена по нормальному закону;
4) помеха в полосе F имеет равномерный спектр, и мощность помехи задана как Pп;
5) сигнал и помеха статистически независимы, выражение (2.1.1) принимает вид
. (2.1.3)
Следует заметить, что пропускная способность канала не обязательно растет пропорционально F, так как с увеличением полосы пропускания может возрасти и мощность помехи Рп.
При передаче сообщений с помощью двух символов – «нуля» и «единицы» – условная или остаточная энтропия
. (2.1.4)
Поэтому выражение (2.1.1) принимает вид
, (2.1.5)
где U – скорость передачи двоичных символов.
Пропускная
способность достигает максимального
значения в двух случаях: когда в канале
отсутствует помеха (т.е.
=0)
и когда
=1
( т.е. заранее известно, что переданная
«единица» превращается в «нуль», и
наоборот). В этих случаях C=Ulog2.
При = 0,5 равновероятен прием искаженного и неискаженного символов. Поэтому ничего достоверного о переданном сообщении сказать нельзя и C = Cmin = 0.