- •Министерство образования и науки Российской Федерации
- •Введение
- •1 Определение информации
- •2 Этапы обращения информации
- •3Измерение информации
- •4 Информационные системы
- •5 Проблемы передачи информации
- •6 Предмет теории информации
- •7 Структура книги
- •1 Количественная оценка информации источников
- •1.1 Дискретный источник
- •1.1.1 Определение меры оценки количества информации
- •1.1.2 Частная взаимная информация дискретных источников сообщений
- •1.1.3 Энтропия дискретного сообщения
- •1.1.4 Условная энтропия дискретных сообщений
- •1.1.5 Энтропия объединенного сообщения
- •1.1.6 Средняя взаимная информация дискретных источников сообщений
- •1.2 Непрерывный источник
- •1.2.1 Собственная информация и энтропия
- •1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
- •1.2.3 Средняя взаимная информация непрерывных источников сообщений
- •1.2.4 Эпсилон-энтропия непрерывных источников сообщений
- •2 Кодирование сообщений источников
- •2.1 Модели дискретных источников сообщений
- •2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
- •Теорема (о средней длине кодового слова)
- •2.3 Методы эффективного кодирования
- •2.3.1 Метод кодирования источников ШеннонаФано
- •2.3.2 Метод кодирования источников Хаффмена
- •2.4 Предельная условная энтропия дискретных источников сообщений
- •2.5 Информативность непрерывных источников сообщений дискретного времени
- •2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
- •2.7 Квазиобратимое эффективное кодирование непрерывных источников
- •2.8 Эпсилон-энтропия Гауссовского вектора сообщений
- •2.9 Эпсилон - энтропия стационарного Гауссовского процесса дискретного времени
- •Теорема.
- •Помехоустойчивое кодирование
- •3.1.1 Методы повышения верности передачи информации
- •3.1.2 Понятие о корректирующих кодах
- •3.2.1 Построение линейных кодов
- •3.2.2 Обнаружение и исправление ошибок. Декодирующее устройство
- •3.2.3 Примеры линейных кодов
- •3.3 Циклические коды
- •3.3.1 Выбор образующего многочлена
- •3.3.2 Базис циклического кода, формирование кодовых комбинаций
- •3.4 Синдром циклического кода и его свойства
- •3.5 Коды боуза - чоудхури - хоквингема
- •3.6 Коды Абрамсона
- •3.7 Коды Рида — Соломона
- •3.8 Понятие об итерактивных и каскадных кодах
- •3.9 Понятие о непрерывных кодах
- •3.9.1 Цепной код
- •3.9.2 Сверточные коды
- •4 Модели каналов связи
- •4.1 Непрерывный канал
- •Примеры непрерывных каналов:
- •На рис. 4.4 применены следующие обозначения:
- •4.2 Дискретный канал
- •Библиографический список
- •Оглавление
1.1 Дискретный источник
1.1.1 Определение меры оценки количества информации
Рассмотрим источник алфавита Х, выдающий последовательность сообщений xiX, i=1,2,...,N.
Если источник производит выбор одного элементарного сообщения xiиз множества сообщений алфавита Х, то выдаваемое им количество информации зависит от степени неожиданности, неопределенности появления сообщения xiпри выборе. Если выбираемый элемент сообщения заранее известен получателю, то естественно полагать, что заключающаяся в нем информация равна нулю. При этом степень неожиданности выбора будет различной для разных выбираемых элементов. Поэтому каждому выбираемому элементу можно сопоставить вероятность его появления p(xi).
Такой источник можно описать матрицей (1.1), где первая строка содержит последовательность всех элементов источника Х, а вторая - вероятности их появления.
X=
. (1.1)
Естественно связать количество информации I(xi), содержащееся в сообщении xi, с вероятностью p(xi) появления этого сообщения, т.е.
. (1.2)
Для получения количественной оценки информации примем три естественных аксиоматических условия:
1. Условие положительности.
I(xi)0,
при этом
для всех p(xi)1;
для всех p(xi)=1.
2. Условие монотонности.
I(xi)>I(xk) для всех p(xi)<p(xk).
3. Условие аддитивности.
. (1.3)
С учетом этих условий для случая равновероятности всех сообщений в 1928 г. ученый Р. Хартли предположил следующую меру в качестве оценки количества информации, содержащейся в сообщении xi:
. (1.4)
Основание логарифма определяет масштаб и принципиального значения не имеет. Обычно а=2, и в качестве единицы количества информации принимают один бит(от англ. binary digit - двоичная единица).
Мера (1.4) не нашла широкого применения, так как рассчитана на слишком грубую модель источника информации, когда все сообщения равновероятны.
Для учета неравновероятности сообщений вводятся еще дополнительные требования.
4. Условие непрерывности.
I(xi) должна быть непрерывной функцией вероятности p(xi) с соблюдением условия
![]()
5. I(x) должна зависеть только от функции распределения вероятностей сообщений и не зависеть от конкретных значений вероятности отдельного сообщения.
6. I(x) не должна зависеть от пути выбора состояний в ансамбле. Этим требованиям удовлетворяет мера, предложенная Шенноном.
. (1.5)
. (1.6)
По выражению (1.5) определяется собственное количество информации, содержащееся в одном сообщении xi дискретного источника Х.
По выражению (1.6) определяется среднееколичество информации, содержащееся в источнике Х. Эта мера чаще называется энтропией источника Х.
Мера Шеннона является обобщением меры Хартли. На самом деле, при равновероятности всех сообщений источника можно записать:

1.1.2 Частная взаимная информация дискретных источников сообщений
Рассмотрим
[1] схему прохождения сообщений xiот источника Х через дискретную
системуP(рис. 1.1), которую будем
называть дискретным каналом.
Рис.1.1Передача сообщений по дискретному каналу
Пусть дискретные сообщения источника Х заданы матрицей (1.1)
,
а дискретный канал Р задан матрицей
переходных вероятностей
вида:
, (1.7)
строки которой удовлетворяют условию полноты
k=
. (1.8)
Апостериорные вероятности P(xk/yj) входных сообщений xkпо результатам наблюдения выходных сообщений yjопределяются поформулам Байеса
. (1.9)
Поставим задачу определения собственного количества информации, содержащейся в некотором выходном сообщении yjотносительно одного из выходных сообщений xk. Такая постановка задачи приводит к понятиючастной взаимной информации дискретных источников сообщений, которое может являться информационной характеристикой оценки качества передачи информации по системе Р.
Для определения меры частной взаимоинформации Шенноном приняты следующие условия:
1. I(xk;yj) - частная взаимная информация.
I(xk;yj)=0 для всех k, j, при которых множество дискретных сообщений xkи yjстатистически независимы.
2. I(xk;yj)=I(xk), еслиY=F(X), где I(xk) - собственное количество информации, содержащееся в сообщении xk, поступающее на вход системы Р.
3. I(xk;yj)
=
=
(1.10)
В выражении (1.10)
![]()
Для частной взаимной информации, определяемой по формуле (1.10), должны выполняться следующие требования:
1. Симметричность.
.
![]()
2. Ограниченность “сверху”.
![]()
(следует из монотонности функции log в выражении (1.10).
3. Аддитивность.

Рис.1.2К определению условия аддитивности
![]()
