Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Posobie_chast5.doc
Скачиваний:
1
Добавлен:
01.05.2025
Размер:
837.12 Кб
Скачать

5.3 Характеристики канала связи

К основным характеристикам канала связи относят следующие:

1) время действия канала, – время, в течении которого канал выполняет свои функции;

2) полоса пропусканияf к – полоса частот колебаний, пропускаемых каналом без значительного ослабления;

3) динамический диапазон Dк,

, (5.15)

зависит от чувствительности приемника и допустимых нагрузок аппаратуры канала связи;

4) емкость канала связи – произведение вышеупомянутых величин:

Vкк f к Dк. (5.16)

Если объем сигнала превышает емкость канала связи, то такой сигнал не может быть передан без искажений (без потери информации).

Общее условие согласования сигнала с каналом передачи информации определяется соотношением:

(5.17)

Это соотношение выражает необходимое, но не достаточное условие согласования сигнала с каналом. Достаточным является условие согласования по всем параметрам:

;∆fc fк; DcDк. (5.18)

Если при выполнении условия (5.17) не обеспечивается часть условий (5.18). то можно добиться согласования трансформаций сигнала при сохранении его объема. Например, если отсутствует согласование сигнала с каналом по частоте, т.е. ∆fc fк, то согласование достигается при записи сигнала на магнитофон при одной скорости движения ленты, а при воспроизведении его при передаче с меньшей скоростью в раз. При этом длительность сигнала увеличивается в раз и в раз уменьшается ширина его спектра, при этом объем сигнала не изменяется.

5) количество информации означает количество переданной информации, содержащейся в сигнале источника , о состоянии объекта (Х), и определяется количеством снятой в результате приема сигнала неопределенности, т.е. разностью априорной (до принятия сигнала) апостериорной (после принятия сигнала) энтропий:

(5.19)

Отсюда вытекают следующие свойства:

а) количество информации измеряется в тех же единицах, что и энтропия, чаще всего в битах;

б) количество информации всегда неотрицательно: ≥0;

в) никакое преобразование сигнала не увеличит содержащейся в нем информации;

г) количество информации о каком-либо источнике Х, содержащейся в сигнале Y, не больше энтропии этого источника: ≤H(X).

д) количество информации, содержащейся в источнике X о самом себе, равно его энтропии:

В частном случае, когда m возможных состояний источника равновероятны и независимы друг от друга, каждое его состояние несет информацию , а последовательность, состоящая из n состояний (например, телеграмма, длинной в n знаков, составленная из m равновероятных символов), несет информацию . В данном случае количество информации, содержащееся в источнике информации, определяется логарифмом числа возможных последовательностей состояний источника (числа возможных равновероятных событий), из которых осуществляется выбор при получении информации.

Количество информации при неполной достоверности дискретных сообщений равно разности безусловной энтропии H(X), характеризующей начальную неопределенность сообщения, и условной энтропии, характеризующей остаточную неопределенность сообщения:

, (5.20)

где – количество информации, содержащейся во всей совокупности принятых сообщений X, относительно всей совокупности переданных сообщений ;

, где – априорная вероятность;

, где – условная вероятность, характеризующая неопределенность в сообщении xi относительно переданного сообщения . Вероятность совместного появления событий и xi, равную , можно записать как:

(5.21)

Вероятность равна априорной вероятности появления сообщения yi умноженной на условную (апостериорную) вероятность появления сообщения yi при условии, что принято сообщение xi .

Приведем пример передачи сообщения о состоянии выхода источника напряжения, принимающего с равной вероятностью значения напряжения от 1 до 10 В. В этом случае сообщение несет большую информацию. Нетрудно заметить, что чем меньше вероятность события, тем большее количество информации содержится в сообщении об этом событии. Например, сообщение о том, что в июле будут заморозки, содержит много информации, т.к. такое событие редкое и его вероятность очень мала.

Количество информации имеет выражение:

(5.22)

Несмотря на совпадение формул, количества информации и энтропии, количество информации определяется после получения сообщения.

Единицы измерения количества информации и энтропии зависят от выбора основания логарифма: при использовании десятичных логарифмов – Дит; натуральных – Нит; двоичных – Бит.

6) скорость передачи информации – среднее количество информации, передаваемое по каналу в единицу времени. В общем случае скорость передачи зависит от длительности передаваемого сообщения . При достаточно длинных сообщениях, скорость передачи остается постоянной. Скорость передачи информации имеет следующее выражение:

, (5.23)

где – количество информации, передаваемое за время работы канала.

7) пропускная способность канала – максимальная теоретически допустимая для данного канала скорость передачи информации:

. (5.24)

Скорость ввода информации в канал не должна превышать пропускную способность канала, иначе информация будет утеряна. Аналитически скорость ввода информации выражается следующим образом:

, (5.25)

где – среднее количество информации на входе канала;

– длительность сообщения.

Одним из основных вопросов в теории передачи информации является определение зависимости скорости передачи информации и пропускной способности от параметров канала и характеристик сигналов и помех, действующих в нем.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]