- •Кафедра «Неразрушающего контроля и технической диагностики на железнодорожном транспорте» в. В. Бурченков, о.В. Холодилов
- •1 Информационные характеристики измерительных систем
- •1.1 Определение параметров источников цифрового сообщения.
- •1.2 Временные характеристики сигналов
- •1.3 Уровни передачи для линий связи
- •1.4 Физические параметры каналов связи
- •1.5 Частотные характеристики измерительных преобразователей
- •2. Диагностические характеристики телеметрических систем
- •2.1 Выбор измерительных средств для диагностики
- •2.2 Структура видов и классификация методов измерений параметров устройств телеметрии
- •Электрические измерения в устройствах телеметрии
- •2.3 Автоматизация процессов измерения параметров
- •2.4 Информационно – измерительные системы и перспективы их применения
- •2) Определяется перечень или классы возможных
- •2.5 Особенности и задачи технического диагностирования систем железнодорожной автоматики
- •2.6 Диагностирующие тесты и алгоритмы определения состояния телеметрических систем
- •2.7 Прогнозирование технического состояния телеметрических систем
- •3 Принципы построения цифровых устройств телеметрии
- •3.1 Структурная схема многоканальной системы телеизмерений.
- •3.2 Счетчики импульсов
- •3.3 Шифраторы и дешифраторы кодовых комбинаций.
- •3.4 Распределители импульсов
- •3.5 Мультиплексоры и демультиплексоры
- •3.6 Радиопередатчики автономных измерительных систем
1 Информационные характеристики измерительных систем
1.1 Определение параметров источников цифрового сообщения.
Современные системы телеизмерений обычно используют конечное множество возможных сообщений с различными вероятностями их возникновения. Вероятность появления события тесно связано с количеством информации. В сообщении о событии большой вероятности содержится меньше информации, чем в сообщении с маловероятным событием. Если сообщение несет достоверное событие, т.е. его вероятность равна единице (1), то оно не несет никакой информации и нет смысла передавать его по каналу связи [11].
Неожиданность событий является результатом неопределенности, и чем она больше, тем больше информации содержит сообщение.
Вероятность события является мерой его неожиданности и определяет информационную содержательность события.
Ансамбль возможных сообщений представляется конечной схемой вида А:
А=
;
в
котором
– знаки ансамбля;
–
вероятности появления этих знаков в
сообщениях.
Ансамбль цифрового сообщения содержит 10 знаков, а ансамбль русской азбуки содержит 33 знака. Из схемы А следует, что вероятность появления знака а1→ Р(а1); а2→ Р(а2) тогда в знаке аi будет содержаться информация определяемая выражением:
I(ai)=
log2
;
Из этого выражения следует, что в ансамбле А разные знаки несут разное количество информации.
Энтропия - это количество информации, содержащаяся в среднем в одном знаке сообщения. Она характеризует меру неопределенности совокупности знаков сообщения, составляющих конечную схему А, содержащую знаки алфавита ак и вероятности их появления на выходе источника Р(ак).
Энтропия источника сообщения будет максимальной в том случае, если все знаки сообщения будут равновероятны и независимы
Н max = log 2 К.
В остальных случаях
Н < lоg2 К.
Поэтому количество информации, приходящееся на один знак, обычно меньше того количества информации, которое мог бы этот знак нести. При этом информационная нагрузка на знак часто оказывается меньше максимально возможной. Если знаки К – значного источника встречаются на выходе неравновероятно и независимо друг от друга, то энтропия рассчитывается по формуле, представленной в виде табулированной функции
,
для которой значения η[P(ak)] приведены в Приложении А [10].
Степень недоиспользования информационных возможностей сообщения характеризуется избыточностью, т.е. наличием сообщений большего числа знаков, чем это минимально необходимо для передачи определенного количества информации.
Численно избыточность χ определяется относительной разностью максимально возможной и реальной энтропии:
Коэффициент сжатия ķ определяется отношением реальной энтропии к максимально возможной:
Избыточность изменяется от 0 до 1. Ее численное значение показывает, насколько можно сократить объем сообщения без потери информации за счет более рационального использования знаков источника сообщения. Если, например, χ = 0,2, то это означает, что после устранения избыточности объем сообщения уменьшается на 20 %. Коэффициент сжатия показывает насколько уже сжато сообщение. Количество информации I, содержащейся в цифровом сообщении, определится из выражения
I = H ∙ C,
где H – энтропия источника, бит/знак;
С – общее количество знаков в сообщении.
