Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы-ТЭС-1.doc
Скачиваний:
1
Добавлен:
01.03.2025
Размер:
2.09 Mб
Скачать

6.Информационные характеристики дискретного канала .

-Основной характеристикой дискретного канала является количество информации, которое переносит в среднем по каналу связи один произвольный символ J(B;A).

количество информации, переданное одним произвольным символом по каналу

(3.5)

Среднее количество информации, переносимое произвольным символом, получается путем усреднения по всем возможным парам i, k:

(3.6)

Учитывая две формы записи p(bk;ai), можно получить два окончательных выражения для J(B;A).

Учитывая, что первое слагаемое это условная энтропия помех в канале связи H(B/A) , взятая с обратным знаком, а во втором слагаемом

перепишем последнее выражение

но первое слагаемое есть ни что иное, как энтропия принятого сообщения и окончательно получим

бит/символ.

Среднее количество информации, переносимое по каналу связи одним произвольным символом равно разности энтропии источника информации и среднего количества информации, потерянной в дискретном канале из-за ошибок – энтропии потерь в канале.

-Второй основной информационной характеристикой дискретного канала является скорость передачи информации по каналу связи:

бит/сек(3.9)

где vk – скорость передачи символов в канале в Бодах.

Один Бод – это один символ в секунду.

-Третьей информационной характеристикой дискретного канала является пропускная способность - максимально возможная скорость передачи информации по каналу связи.

бит/сек

7.Пропускная способность двоичного симметричного канала связи.

Максимизация этого выражения возможна лишь за счет увеличения энтропии принятого сигнала H(В), поскольку энтропия помех в канале является заданной величиной и определяется вероятностью ошибки при приеме одиночного символа p0.

Поскольку канал двоичный, максимальная энтропия принятого сигнала  бит/символ и потому получаем:

, бит/символ.

Энтропия помехи в двоичном канале может быть найдена из общего определения энтропии:

Для симметричного канала условные вероятности ошибочных переходов , а вероятности безошибочной передачи символов (рис.3.5)

Рис. 3.5. Двоичный симметричный канал.

Следовательно, получаем:

Пропускная способность реального двоичного симметричного канала без памяти будет

бит/сек. (3.11)

График пропускной способности как функции от вероятности ошибки изображен на рисунке 3.6.

Рис. 3.6. C двоичного симметричного канала

8.Вероятность ошибки при приеме одиночного символа в двоичном канале без памяти .

Вероятность ошибочных переходов p12 и p21, в случае нормально распределенной помехи (t) и известных значениях амплитуды сигнала A и порогового уровня , могут быть найдены согласно рис. 3.14:

Рис. 3.14. Определение вероятности ошибки в двоичном канал

Если амплитуды положительных и отрицательных импульсов передаваемого сигнала одинаковы, то удобно принять =0 в этом случае p12 = p21 = p0, и канал становиться симметричным. Вероятность появления ошибки в симметричном канале

где – соотношение сигнал/шум по напряжению (току).

Величина называется кратностью ошибки. Если все элементарные сигналы в кодовой комбинации независимы, то вероятность -кратной ошибки в кодовом слове из n символов при известной вероятности ошибочного перехода p0 будет определяться формулой Бернулли:

где – число сочетаний из n по .

При этом среднее число ошибок в кодовой комбинации длиной n будет:

С ростом функция pn(p0;) монотонно убывает, поэтому, в первую очередь, обращают внимание на обнаружение и исправление ошибок малой кратности.