
- •1. Основные понятия.
- •2.Схема дискретного канала.
- •3.Количественное опред инф. Энтропия
- •4.Оптимальное эффективное кодирование.
- •5.Матнматическая модель дискретного канала
- •6.Информационные характеристики дискретного канала .
- •7.Пропускная способность двоичного симметричного канала связи.
- •8.Вероятность ошибки при приеме одиночного символа в двоичном канале без памяти .
- •9.Статистические свойства случайных процессов .
- •10.Информационные характеристики источников аналоговых сообщений
6.Информационные характеристики дискретного канала .
-Основной характеристикой дискретного канала является количество информации, которое переносит в среднем по каналу связи один произвольный символ J(B;A).
количество информации, переданное одним произвольным символом по каналу
(3.5)
Среднее количество информации, переносимое произвольным символом, получается путем усреднения по всем возможным парам i, k:
(3.6)
Учитывая две формы записи p(bk;ai), можно получить два окончательных выражения для J(B;A).
Учитывая,
что первое слагаемое это условная
энтропия помех в канале связи H(B/A) ,
взятая с обратным знаком, а во втором
слагаемом
перепишем последнее выражение
но первое слагаемое есть ни что иное, как энтропия принятого сообщения и окончательно получим
бит/символ.
Среднее количество информации, переносимое по каналу связи одним произвольным символом равно разности энтропии источника информации и среднего количества информации, потерянной в дискретном канале из-за ошибок – энтропии потерь в канале.
-Второй основной информационной характеристикой дискретного канала является скорость передачи информации по каналу связи:
бит/сек(3.9)
где vk – скорость передачи символов в канале в Бодах.
Один Бод – это один символ в секунду.
-Третьей информационной характеристикой дискретного канала является пропускная способность - максимально возможная скорость передачи информации по каналу связи.
бит/сек
7.Пропускная способность двоичного симметричного канала связи.
Максимизация этого выражения возможна лишь за счет увеличения энтропии принятого сигнала H(В), поскольку энтропия помех в канале является заданной величиной и определяется вероятностью ошибки при приеме одиночного символа p0.
Поскольку
канал двоичный, максимальная энтропия
принятого сигнала
бит/символ
и потому получаем:
,
бит/символ.
Энтропия помехи в двоичном канале может быть найдена из общего определения энтропии:
Для
симметричного канала условные вероятности
ошибочных переходов
,
а вероятности безошибочной передачи
символов
(рис.3.5)
Рис. 3.5. Двоичный симметричный канал.
Следовательно, получаем:
Пропускная способность реального двоичного симметричного канала без памяти будет
бит/сек. (3.11)
График пропускной способности как функции от вероятности ошибки изображен на рисунке 3.6.
Рис. 3.6. C двоичного симметричного канала
8.Вероятность ошибки при приеме одиночного символа в двоичном канале без памяти .
Вероятность ошибочных переходов p12 и p21, в случае нормально распределенной помехи (t) и известных значениях амплитуды сигнала A и порогового уровня , могут быть найдены согласно рис. 3.14:
Рис. 3.14. Определение
вероятности ошибки в двоичном канал
Если амплитуды положительных и отрицательных импульсов передаваемого сигнала одинаковы, то удобно принять =0 в этом случае p12 = p21 = p0, и канал становиться симметричным. Вероятность появления ошибки в симметричном канале
где
–
соотношение сигнал/шум по напряжению
(току).
Величина называется кратностью ошибки. Если все элементарные сигналы в кодовой комбинации независимы, то вероятность -кратной ошибки в кодовом слове из n символов при известной вероятности ошибочного перехода p0 будет определяться формулой Бернулли:
где
– число сочетаний
из
n
по .
При этом среднее число ошибок в кодовой комбинации длиной n будет:
С ростом функция pn(p0;) монотонно убывает, поэтому, в первую очередь, обращают внимание на обнаружение и исправление ошибок малой кратности.