- •Министерство образования и науки Российской Федерации
- •Введение
- •1 Определение информации
- •2 Этапы обращения информации
- •3Измерение информации
- •4 Информационные системы
- •5 Проблемы передачи информации
- •6 Предмет теории информации
- •7 Структура книги
- •1 Количественная оценка информации источников
- •1.1 Дискретный источник
- •1.1.1 Определение меры оценки количества информации
- •1.1.2 Частная взаимная информация дискретных источников сообщений
- •1.1.3 Энтропия дискретного сообщения
- •1.1.4 Условная энтропия дискретных сообщений
- •1.1.5 Энтропия объединенного сообщения
- •1.1.6 Средняя взаимная информация дискретных источников сообщений
- •1.2 Непрерывный источник
- •1.2.1 Собственная информация и энтропия
- •1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
- •1.2.3 Средняя взаимная информация непрерывных источников сообщений
- •1.2.4 Эпсилон-энтропия непрерывных источников сообщений
- •2 Кодирование сообщений источников
- •2.1 Модели дискретных источников сообщений
- •2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
- •Теорема (о средней длине кодового слова)
- •2.3 Методы эффективного кодирования
- •2.3.1 Метод кодирования источников ШеннонаФано
- •2.3.2 Метод кодирования источников Хаффмена
- •2.4 Предельная условная энтропия дискретных источников сообщений
- •2.5 Информативность непрерывных источников сообщений дискретного времени
- •2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
- •2.7 Квазиобратимое эффективное кодирование непрерывных источников
- •2.8 Эпсилон-энтропия Гауссовского вектора сообщений
- •2.9 Эпсилон - энтропия стационарного Гауссовского процесса дискретного времени
- •Теорема.
- •Помехоустойчивое кодирование
- •3.1.1 Методы повышения верности передачи информации
- •3.1.2 Понятие о корректирующих кодах
- •3.2.1 Построение линейных кодов
- •3.2.2 Обнаружение и исправление ошибок. Декодирующее устройство
- •3.2.3 Примеры линейных кодов
- •3.3 Циклические коды
- •3.3.1 Выбор образующего многочлена
- •3.3.2 Базис циклического кода, формирование кодовых комбинаций
- •3.4 Синдром циклического кода и его свойства
- •3.5 Коды боуза - чоудхури - хоквингема
- •3.6 Коды Абрамсона
- •3.7 Коды Рида — Соломона
- •3.8 Понятие об итерактивных и каскадных кодах
- •3.9 Понятие о непрерывных кодах
- •3.9.1 Цепной код
- •3.9.2 Сверточные коды
- •4 Модели каналов связи
- •4.1 Непрерывный канал
- •Примеры непрерывных каналов:
- •На рис. 4.4 применены следующие обозначения:
- •4.2 Дискретный канал
- •Библиографический список
- •Оглавление
2.3 Методы эффективного кодирования
Из теоремы о средней длине кодового слова следует, что наименьшей избыточностью обладают коды, у которых символы в каждой кодовой позиции имеют распределение вероятностей, близкое к равномерному.
Рассмотрим два основных метода эффективного кодирования, которые известны под названиями методов ШеннонаФано [3]и Хаффмена [2]. Оба этих метода рассмотрим относительно случаев двоичного кодирования, т.е. M=2.
2.3.1 Метод кодирования источников ШеннонаФано
Реализация этого метода осуществляется посредством выполнения следующих итерактивных шагов:
1). Сообщения дискретного источника Х ранжируются в порядке убывания вероятностей.
2). Из множества порядочных сообщений выделяются два непересекающихся подмножества, модуль разности вероятностей которых минимален. Одно из них кодируется “0”, другое “1”.
3). Полученные подмножества разбиваются автономно по указанному в п.2 принципу до тех пор, пока каждое из подмножеств не будет состоять из одного сообщения.
Результатом таких процедур будет являться последовательность кодов переменной длины, соответствующих каждому из кодируемых сообщений.
Пример кодирования по методу ШеннонаФано представлен в табл. 2.2.
Таблица 2.2Кодирование по методу ШеннонаФано
|
Xi |
P(xi) |
yi1 |
yi2 |
yi3 |
yi4 |
yk |
|
x1 |
¼ |
0 |
0 |
- |
- |
00 |
|
x2 |
¼ |
0 |
1 |
- |
- |
01 |
|
x3 |
1/8 |
1 |
0 |
0 |
- |
100 |
|
x4 |
1/8 |
1 |
0 |
1 |
- |
101 |
|
x5 |
1/16 |
1 |
1 |
0 |
0 |
1100 |
|
x6 |
1/16 |
1 |
1 |
0 |
1 |
1101 |
|
x7 |
1/16 |
1 |
1 |
1 |
0 |
1110 |
|
x8 |
1/16 |
1 |
1 |
1 |
1 |
1111 |
2.3.2 Метод кодирования источников Хаффмена
1.Сообщения источника ранжируются в порядке убывания вероятностей.
2.Группируются два сообщения и вычисляется их суммарная вероятность. При этом два сообщения объединяются в одно.
3.(N-1) сообщения ранжируются в порядке убывания вероятностей и повторяется циклически п.2. Процесс продолжается до тех пор, пока суммарная вероятность не станет равна единице. Результатом указанных процедур является двоичное кодовое дерево, ветви которого кодируются нулем и единицей, а кодовая последовательность каждого сообщения образуется в результате движения от основания дерева к вершине .
Пример кодирования по методу Хаффмена представлен на рис. 2.3.

Рис.2.3Кодирование по методу Хаффмена
Лемма (эффективного кода дискретных источников сообщений).
В оптимальном неравномерном коде кодовое слово, соответствующее наименее вероятному сообщению, имеет наибольшую длину. Пусть niдлина кодового слова сообщения xi,а P(xi), будем предполагать строго упорядоченными так, что
P(x1)>= P(x2)>=…>= P(xi)>=…>= P(xN),
следовательно,
.
Допустим, что в оптимальном коде для i<N существует ni>nN, тогда рассмотрим новый код, в котором i-еи N-екодовые слова исходного кода заменены одно другим. В этом случае средняя длина кодового слова равна
,
что противоречит утверждению об оптимальности исходного кода.
То есть
.
