- •Министерство образования и науки Российской Федерации
- •Введение
- •1 Определение информации
- •2 Этапы обращения информации
- •3Измерение информации
- •4 Информационные системы
- •5 Проблемы передачи информации
- •6 Предмет теории информации
- •7 Структура книги
- •1 Количественная оценка информации источников
- •1.1 Дискретный источник
- •1.1.1 Определение меры оценки количества информации
- •1.1.2 Частная взаимная информация дискретных источников сообщений
- •1.1.3 Энтропия дискретного сообщения
- •1.1.4 Условная энтропия дискретных сообщений
- •1.1.5 Энтропия объединенного сообщения
- •1.1.6 Средняя взаимная информация дискретных источников сообщений
- •1.2 Непрерывный источник
- •1.2.1 Собственная информация и энтропия
- •1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
- •1.2.3 Средняя взаимная информация непрерывных источников сообщений
- •1.2.4 Эпсилон-энтропия непрерывных источников сообщений
- •2 Кодирование сообщений источников
- •2.1 Модели дискретных источников сообщений
- •2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
- •Теорема (о средней длине кодового слова)
- •2.3 Методы эффективного кодирования
- •2.3.1 Метод кодирования источников ШеннонаФано
- •2.3.2 Метод кодирования источников Хаффмена
- •2.4 Предельная условная энтропия дискретных источников сообщений
- •2.5 Информативность непрерывных источников сообщений дискретного времени
- •2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
- •2.7 Квазиобратимое эффективное кодирование непрерывных источников
- •2.8 Эпсилон-энтропия Гауссовского вектора сообщений
- •2.9 Эпсилон - энтропия стационарного Гауссовского процесса дискретного времени
- •Теорема.
- •Помехоустойчивое кодирование
- •3.1.1 Методы повышения верности передачи информации
- •3.1.2 Понятие о корректирующих кодах
- •3.2.1 Построение линейных кодов
- •3.2.2 Обнаружение и исправление ошибок. Декодирующее устройство
- •3.2.3 Примеры линейных кодов
- •3.3 Циклические коды
- •3.3.1 Выбор образующего многочлена
- •3.3.2 Базис циклического кода, формирование кодовых комбинаций
- •3.4 Синдром циклического кода и его свойства
- •3.5 Коды боуза - чоудхури - хоквингема
- •3.6 Коды Абрамсона
- •3.7 Коды Рида — Соломона
- •3.8 Понятие об итерактивных и каскадных кодах
- •3.9 Понятие о непрерывных кодах
- •3.9.1 Цепной код
- •3.9.2 Сверточные коды
- •4 Модели каналов связи
- •4.1 Непрерывный канал
- •Примеры непрерывных каналов:
- •На рис. 4.4 применены следующие обозначения:
- •4.2 Дискретный канал
- •Библиографический список
- •Оглавление
2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
Имеется источник без памяти вида
X=
. (2.4)
Под кодированием сообщений источника
Х будем понимать представление каждого
сообщения источника Х в виде кодовой
последовательности (вектора) yjY
так, чтобы между i-м сообщением источника
Х и j кодовой последовательностью
существовало строго однозначное
соответствие [2]. При этом длина этой
кодовой последовательности будет ni, причем мощность источникаYравнаM<N.
Возможно кодирование двух типов:
1)равномерное кодирование ni=n=const;
2)неравномерное кодирование ni=var.
Рассмотрим эти типы кодирования.
Пусть имеется источник вида
.
Здесь M=2 – объем (мощность) кодового множества (двоичный код).
Определим эти типы кодирования следующими условиями:
n=
ближайшее
целое снизу, для которого выполняется
неравенство
;
Реализация процессов кодирования сведена в табл. 2.1.
Таблица 2.1Кодирование источника
|
xi |
P(xi) |
I(xi) |
y(1) |
y(2) |
|
x1 x2 x3 x4 x5 x6 x7 x8 |
1/4 1/4 1/8 1/8 1/16 1/16 1/16 1/16 |
2 2 3 3 4 4 4 4 |
000 001 010 011 100 101 110 111 |
00 01 100 101 1100 1101 1110 1111 |
Средняя длина кодового слова для каждого типа кодирования равна:
;
При кодировании источников сообщений существуют верхняя и нижняя границы эффективности кодирования сообщений дискретного источника, которые могут быть определены в виде следующей теоремы.
Теорема (о средней длине кодового слова)
При заданном ансамбле статистически
независимых дискретных сообщений
источника X, обладающего
мощностью N и энтропией H(X), можно так
закодировать его сообщения с помощью
множества кодовых символов источникаY, мощностью M < N, что
среднеeколичество кодовых
символов
, приходящихся на одно сообщение источника
X, будет удовлетворять неравенствам:
. (2.5)
Доказательство.
Для доказательства используем то обстоятельство, что при кодировании источников сообщений должны отсутствовать потери информации, т.е. должно выполняться равенство
, (2.6)
где ykiэлементарный кодовый символ (разряд),
число
кодовых символов k-йкодовой
последовательности.
Согласно (2.6) собственное количество информации должно равняться сумме количеств информации выходных символов.
Величина энтропии, приходящейся на
каждый i-йкодовый символ
будет достигать максимума log M в том
случае, когда символы статистически
независимы и имеют равномерное
распределение.
При этом в силу положительной правой части (2.6) можно найти такое ближайшее целое сверху nk, для которого
,
откуда следует
.
Преобразуем полученное выражение относительно nkк виду
.
Усредняя все части неравенства по множеству X, получим
,
что соответствует начальной формулировке теоремы.
Определим избыточность кода (способа кодирования) в виде
![]()
С учетом уравнения информационного баланса (2.6) имеет место равенство
H(X)=
H(Y),
откуда информационная избыточность кода определяется в виде
(2.7)
Чем меньше
или чем больше энтропия кодового символа,
тем ниже избыточность кодового
представления источника, а это достигается
лишь в том случае, если распределение
вероятности кодовых символовykiблизко к равномерному.
Рассмотрим избыточность кодов в ранее приведенном примере.
Избыточность источника
.
Для равномерного кодирования
.
Для неравномерного кодирования
.
