Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Экзамен ПДС.doc
Скачиваний:
40
Добавлен:
25.11.2018
Размер:
2.39 Mб
Скачать

4. Определения информации, сообщения и сигнала

Информация - это совокупность сведений или данных о каких-либо событиях, явлениях или предметах, то есть это совокупность знаний об окружающем нас мире.

Сообщение - это совокупность знаков, отображающих ту или иную информацию. Передача сообщений (а, следовательно, и информации) на расстояние осуществляется с помощью какого-либо материального носителя, например, бумаги или магнитной ленты или физического процесса, например, звуковых или электромагнитных волн, тока и т.д.

Сигнал - это физический процесс, отображающий (несущий) передаваемое сообщение. В качестве сигналов в настоящее время в основном используются электрические и оптические сигналы. В электронике сигналом может быть все - от компьютерных цифровых импульсов и до импульсов, модулированных радиоволнами УКВ-диапазона. Сигнал передаёт (развёртывает) сообщение во времени, то есть всегда является функцией времени. Сигналы формируются путём изменения тех или иных параметров физического носителя в соответствии с передаваемым сообщением.

5. Информационные характеристики источника сообщений

а). Количество информации в отдельных символах

Количество информации в передаваемом символе (Символы – буквы из которых составляются слова и цифры) определяется в битах. Чем меньше вероятность появления того или иного символа (сообщения), тем большее количество информации извлекается при его получении.

Предложено определять количество информации, которое приходится на один символ а1, выражением:

I (ai) = log2 1/p (ai) = - log2 p (ai)

б). Энтропия

Это мера неопределенности в поведении источника сообщений. Она равна нулю, если с вероятностью единица источником выдается всегда одно и то же сообщение (в этом случае неопределенность в поведении источника сообщений отсутствует). Энтропия максимальна, если символы источника появляются независимо и с одинаковой вероятностью.

2

Н (А) = - E p (ai) log2 p (ai)

i=1

Формула Шеннона для энтропии источника дискретных сообщений.

в). Производительность источника сообщений

Среднее количество информации, выдаваемое источником в единицу времени, называют производительностью источника и определяют по формуле:

Н| (А)=Н(А)/Т,

где Т – среднее время, отводимое на передачу одного символа, с.

6. Передающее устройство телеграфного аппарата

- вводное устройство (ВУ);

- кодирующее устройство (КУ);

- запоминающее устройство (ЗУ);

- распределитель передачи (Р пер);

- датчик служебных сигналов (ДСС);

- выходное устройство (Вых.У).

7. Приемное устройство телеграфного аппарата

- входное устройство (Вх.У);

- устройство регистрации (УР);

- распределитель приема (Рпр);

- устройство синхронизации (УС);

- запоминающее устройство (ЗУ);

- декодирующее устройство (ДУ);

- печатающее устройство (ПУ).