Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЧТОТО ПОХОЖЕЕ НА ШАЛИМОВА.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
406.02 Кб
Скачать

21

Дискретные каналы

1. Собственная информация. Взаимная информация Описание дискретного канала

Дискретным называется такой канал, сигналы на входе и выходе которого являются последовательностями дискретных случайных величин (символов).

Для полного описания канала на интервале времени, соответствующем передаче одного символа, необходимо задать ансамбли символов на входе X и выходе Y и условные вероятности переходов p(yk/ xj)

В дальнейшем будем обозначать:

X

x1, x2, …, xj, …., xn

– ансамбль сообщений на входе,

p(x1), …, p(xj), …, p(xn)

y

y1, y2, …, yk, …., ym

– ансамбль сообщений на выходе.

p(y1), …, p(yk), …, p(ym)

Собственная информация

Поскольку появление символа сообщения xj на входе дискретного канала есть событие случайное, то говорят, что имеет место неопределенность исхода. В результате опыта неопределенность уменьшается, и при этом получается некоторое количество информации.

Тогда собственная информация символа xj (количество информации, доставляемое самим символом xj или любым другим, однозначно с ним связанным) определяется как

I(xj)=log(1/ p(xj)= – logа p(xj) (1)

Т.е. информация в каком-либо событии измеряется логарифмом величины, обратной вероятности его появления.

Выбор основания логарифма logа p(xj) определяет единицу количества информации. Если а=2, то единица информации называется двоичной (бит), при а=е – натуральной (нат), а при а=10 – десятичной (дит, хартли).

Двоичная единица количества информации, например, есть собственная информация символа, обладающего двумя равновозможными состояниями. Переход от одной системы логарифмов к другой равносилен простому изменению единицы измерения информации. Этот переход осуществляется по формуле

log b p(xj)=log b a  log a k.

Отсюда

1 нат= log 2 е бит=1,443 бит,

1 дит= log 2 10=3,32 бит.

Условная собственная информация

В общем случае сообщения X и сигналы Y на входе и выходе дискретного канала зависимы. Пусть p(xj / yk) – условная вероятность того, что реализовалось состояние xj ансамбля X при условии, что ансамбль Y принял состояние yk . Тогда, по аналогии с собственной, информация, содержащаяся в символе сообщения xj при условии, что сигнал принял значение yk определяется как

I(xj / yk)= – log p(xj / yk) (2)

и называется условной собственной информацией.

Взаимная информация

Пусть ансамбли зависимы. В результате опыта (приема сигнала xj) апостериорная вероятность появления символа xj изменяется с априорной. Тогда количество информации относительно символа сообщения xj , доставляемое символом сигнала yk , можно определить как логарифм отношения апостериорной вероятности к априорной

I(xj ; yk)= log [p(xj / yk)/ p(xj) ] (3)

Это есть взаимная информация.