
- •Дискретные каналы
- •1. Собственная информация. Взаимная информация Описание дискретного канала
- •Собственная информация
- •Условная собственная информация
- •Взаимная информация
- •Основные свойства взаимной информации
- •2. Средняя собственная информация (энтропия) Энтропия
- •Основные свойства энтропии
- •Условная энтропия
- •Избыточность
- •Пример 3
- •Пример 3.
- •Средняя взаимная информация
- •Задачи для самостоятельного решения
Дискретные каналы
1. Собственная информация. Взаимная информация Описание дискретного канала
Дискретным называется такой канал, сигналы на входе и выходе которого являются последовательностями дискретных случайных величин (символов).
Для полного описания канала на интервале времени, соответствующем передаче одного символа, необходимо задать ансамбли символов на входе X и выходе Y и условные вероятности переходов p(yk/ xj)
В дальнейшем будем обозначать:
X |
x1, x2, …, xj, …., xn |
– ансамбль сообщений на входе, |
p(x1), …, p(xj), …, p(xn) |
||
y |
y1, y2, …, yk, …., ym |
– ансамбль сообщений на выходе. |
p(y1), …, p(yk), …, p(ym) |
Собственная информация
Поскольку появление символа сообщения xj на входе дискретного канала есть событие случайное, то говорят, что имеет место неопределенность исхода. В результате опыта неопределенность уменьшается, и при этом получается некоторое количество информации.
Тогда собственная информация символа xj (количество информации, доставляемое самим символом xj или любым другим, однозначно с ним связанным) определяется как
I(xj)=log(1/ p(xj)= – logа p(xj) (1)
Т.е. информация в каком-либо событии измеряется логарифмом величины, обратной вероятности его появления.
Выбор основания логарифма logа p(xj) определяет единицу количества информации. Если а=2, то единица информации называется двоичной (бит), при а=е – натуральной (нат), а при а=10 – десятичной (дит, хартли).
Двоичная единица количества информации, например, есть собственная информация символа, обладающего двумя равновозможными состояниями. Переход от одной системы логарифмов к другой равносилен простому изменению единицы измерения информации. Этот переход осуществляется по формуле
log b p(xj)=log b a log a k.
Отсюда
1 нат= log 2 е бит=1,443 бит,
1 дит= log 2 10=3,32 бит.
Условная собственная информация
В общем случае сообщения X и сигналы Y на входе и выходе дискретного канала зависимы. Пусть p(xj / yk) – условная вероятность того, что реализовалось состояние xj ансамбля X при условии, что ансамбль Y принял состояние yk . Тогда, по аналогии с собственной, информация, содержащаяся в символе сообщения xj при условии, что сигнал принял значение yk определяется как
I(xj / yk)= – log p(xj / yk) (2)
и называется условной собственной информацией.
Взаимная информация
Пусть ансамбли зависимы. В результате опыта (приема сигнала xj) апостериорная вероятность появления символа xj изменяется с априорной. Тогда количество информации относительно символа сообщения xj , доставляемое символом сигнала yk , можно определить как логарифм отношения апостериорной вероятности к априорной
I(xj ; yk)= log [p(xj / yk)/ p(xj) ] (3)
Это есть взаимная информация.