Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
200
Добавлен:
16.03.2015
Размер:
4.25 Mб
Скачать

1.1 Дискретный источник

1.1.1 Определение меры оценки количества информации

Рассмотрим источник алфавита Х, выдающий последовательность сообщений xiX, i=1,2,...,N.

Если источник производит выбор одного элементарного сообщения xiиз множества сообщений алфавита Х, то выдаваемое им количество информации зависит от степени неожиданности, неопределенности появления сообщения xiпри выборе. Если выбираемый элемент сообщения заранее известен получателю, то естественно полагать, что заключающаяся в нем информация равна нулю. При этом степень неожиданности выбора будет различной для разных выбираемых элементов. Поэтому каждому выбираемому элементу можно сопоставить вероятность его появления p(xi).

Такой источник можно описать матрицей (1.1), где первая строка содержит последовательность всех элементов источника Х, а вторая - вероятности их появления.

X=. (1.1)

Естественно связать количество информации I(xi), содержащееся в сообщении xi, с вероятностью p(xi) появления этого сообщения, т.е.

. (1.2)

Для получения количественной оценки информации примем три естественных аксиоматических условия:

1. Условие положительности.

I(xi)0,

при этом для всех p(xi)1;

для всех p(xi)=1.

2. Условие монотонности.

I(xi)>I(xk) для всех p(xi)<p(xk).

3. Условие аддитивности.

. (1.3)

С учетом этих условий для случая равновероятности всех сообщений в 1928 г. ученый Р. Хартли предположил следующую меру в качестве оценки количества информации, содержащейся в сообщении xi:

. (1.4)

Основание логарифма определяет масштаб и принципиального значения не имеет. Обычно а=2, и в качестве единицы количества информации принимают один бит(от англ. binary digit - двоичная единица).

Мера (1.4) не нашла широкого применения, так как рассчитана на слишком грубую модель источника информации, когда все сообщения равновероятны.

Для учета неравновероятности сообщений вводятся еще дополнительные требования.

4. Условие непрерывности.

I(xi) должна быть непрерывной функцией вероятности p(xi) с соблюдением условия

5. I(x) должна зависеть только от функции распределения вероятностей сообщений и не зависеть от конкретных значений вероятности отдельного сообщения.

6. I(x) не должна зависеть от пути выбора состояний в ансамбле. Этим требованиям удовлетворяет мера, предложенная Шенноном.

. (1.5)

. (1.6)

По выражению (1.5) определяется собственное количество информации, содержащееся в одном сообщении xi дискретного источника Х.

По выражению (1.6) определяется среднееколичество информации, содержащееся в источнике Х. Эта мера чаще называется энтропией источника Х.

Мера Шеннона является обобщением меры Хартли. На самом деле, при равновероятности всех сообщений источника можно записать:

1.1.2 Частная взаимная информация дискретных источников сообщений

Рассмотрим [1] схему прохождения сообщений xiот источника Х через дискретную системуP(рис. 1.1), которую будем называть дискретным каналом.

Рис.1.1Передача сообщений по дискретному каналу

Пусть дискретные сообщения источника Х заданы матрицей (1.1)

,

а дискретный канал Р задан матрицей переходных вероятностей вида:

, (1.7)

строки которой удовлетворяют условию полноты

k=. (1.8)

Апостериорные вероятности P(xk/yj) входных сообщений xkпо результатам наблюдения выходных сообщений yjопределяются поформулам Байеса

. (1.9)

Поставим задачу определения собственного количества информации, содержащейся в некотором выходном сообщении yjотносительно одного из выходных сообщений xk. Такая постановка задачи приводит к понятиючастной взаимной информации дискретных источников сообщений, которое может являться информационной характеристикой оценки качества передачи информации по системе Р.

Для определения меры частной взаимоинформации Шенноном приняты следующие условия:

1. I(xk;yj) - частная взаимная информация.

I(xk;yj)=0 для всех k, j, при которых множество дискретных сообщений xkи yjстатистически независимы.

2. I(xk;yj)=I(xk), еслиY=F(X), где I(xk) - собственное количество информации, содержащееся в сообщении xk, поступающее на вход системы Р.

3. I(xk;yj) ==(1.10)

В выражении (1.10)

Для частной взаимной информации, определяемой по формуле (1.10), должны выполняться следующие требования:

1. Симметричность.

.

2. Ограниченность “сверху”.

(следует из монотонности функции log в выражении (1.10).

3. Аддитивность.

Рис.1.2К определению условия аддитивности