- •Министерство образования и науки Российской Федерации
- •Введение
- •1 Определение информации
- •2 Этапы обращения информации
- •3Измерение информации
- •4 Информационные системы
- •5 Проблемы передачи информации
- •6 Предмет теории информации
- •7 Структура книги
- •1 Количественная оценка информации источников
- •1.1 Дискретный источник
- •1.1.1 Определение меры оценки количества информации
- •1.1.2 Частная взаимная информация дискретных источников сообщений
- •1.1.3 Энтропия дискретного сообщения
- •1.1.4 Условная энтропия дискретных сообщений
- •1.1.5 Энтропия объединенного сообщения
- •1.1.6 Средняя взаимная информация дискретных источников сообщений
- •1.2 Непрерывный источник
- •1.2.1 Собственная информация и энтропия
- •1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
- •1.2.3 Средняя взаимная информация непрерывных источников сообщений
- •1.2.4 Эпсилон-энтропия непрерывных источников сообщений
- •2 Кодирование сообщений источников
- •2.1 Модели дискретных источников сообщений
- •2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
- •Теорема (о средней длине кодового слова)
- •2.3 Методы эффективного кодирования
- •2.3.1 Метод кодирования источников ШеннонаФано
- •2.3.2 Метод кодирования источников Хаффмена
- •2.4 Предельная условная энтропия дискретных источников сообщений
- •2.5 Информативность непрерывных источников сообщений дискретного времени
- •2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
- •2.7 Квазиобратимое эффективное кодирование непрерывных источников
- •2.8 Эпсилон-энтропия Гауссовского вектора сообщений
- •2.9 Эпсилон - энтропия стационарного Гауссовского процесса дискретного времени
- •Теорема.
- •Помехоустойчивое кодирование
- •3.1.1 Методы повышения верности передачи информации
- •3.1.2 Понятие о корректирующих кодах
- •3.2.1 Построение линейных кодов
- •3.2.2 Обнаружение и исправление ошибок. Декодирующее устройство
- •3.2.3 Примеры линейных кодов
- •3.3 Циклические коды
- •3.3.1 Выбор образующего многочлена
- •3.3.2 Базис циклического кода, формирование кодовых комбинаций
- •3.4 Синдром циклического кода и его свойства
- •3.5 Коды боуза - чоудхури - хоквингема
- •3.6 Коды Абрамсона
- •3.7 Коды Рида — Соломона
- •3.8 Понятие об итерактивных и каскадных кодах
- •3.9 Понятие о непрерывных кодах
- •3.9.1 Цепной код
- •3.9.2 Сверточные коды
- •4 Модели каналов связи
- •4.1 Непрерывный канал
- •Примеры непрерывных каналов:
- •На рис. 4.4 применены следующие обозначения:
- •4.2 Дискретный канал
- •Библиографический список
- •Оглавление
1.1.3 Энтропия дискретного сообщения
Для определения меры неопределенности дискретного сообщения введем понятие энтропии, которое характеризует среднее количество информации, содержащееся в одном сообщении:
(1.11)
Мера информации (1.11) обладает двумя важными свойствами [1]:
1. H(X)0 - ограниченность снизу.

(по правилу Лопиталя).
2. Энтропия ограничена сверху.
![]()

Задача:Определить энтропию двоичного дискретного источника Х, заданного матрицей
P[0,1].
.
Пусть P=0.5; 1-p=0.5, тогда
![]()
Зависимость H(X) приведена на рис. 1.3.
Р
ис.1.3Зависимость
энтропии от p
1.1.4 Условная энтропия дискретных сообщений
Рассмотрим процесс передачи сообщений от источника Хпо системе передачиР(рис.1.1).
В соответствии с условием 3, введенным в разделе 1.1.2 (см. выр.(1.10), имеем:
.
В этом выражении
- количество информации, поступающее
на входР.Частная взаимная информация
характеризует оставшееся количество
информации при прохождении сообщения
через системуР. Отсюда
определяет величину информации, теряемую
в системеР, приводит к введению
понятия условной энтропии вида:
(1.12)
Выражение (1.12) характеризует среднее количество информации, теряющейся в системе Рпри передаче одного сообщения источникаХ.
Условная энтропия обладает следующими свойствами:
1.
.
Положительная величина как математическое
ожидание положительной величины.
2. Ограниченность “сверху”:![]()
|
Пример.
H(X/Y)=? H(X/Y)=-
|
1.1.5 Энтропия объединенного сообщения
Необходимость определения энтропии объединенного источника может встретиться в задачах двух видов. К первому виду задач относится задача определения среднего количества информации, содержащейся в некоторой последовательности дискретных сообщений. Ко второму виду относится задача, заключающаяся в определении суммарного количества информации, поступающей от совокупности (параллельной) дискретных источников за фиксированный момент времени.
Энтропию объединенного источника определим на примере двух дискретных источников сообщений XиY:
. (1.13)
Эта мера имеет три свойства:
1. Ограниченность ”снизу” -![]()
2. Аддитивность - H(XY)=H(X)+H(Y/X)=H(Y)+H(X/Y)для статистически зависимых источников.
3. Ограниченность “сверху” H(XY)H(X)+H(Y)(“=” - для статистически независимых источников).
1.1.6 Средняя взаимная информация дискретных источников сообщений
Среднее количество информации, содержащейся в одном сообщении источника Yотносительно сообщения источникаХ
(1.14)
называется средней взаимной информацией дискретных источников ХиY.
Свойства средней взаимной информации:
1. Симметричность - I(X;Y)=I(Y;X).
2. Положительность -I(X;Y)0.
3. I(X;Y) может быть выражена через энтропийные характеристики –
.
4. Ограниченность “сверху”:
![]()
при “=” канал (рис.1.1) не вносит искажений.
5. Аддитивность - I(X;YZ)=I(X;Y)+I(X;Z/Y).
Связь между I(X;Y)и ранее введенными энтропийными характеристиками может быть наглядно представлена в виде диаграммы Венна (рис.1.4).

Рис.1.4Диаграмма Венна

