
- •1. Теория информации
- •1.1 Теорема Котельникова
- •1.2 Квантование сигнала по уровню
- •2. Мера информации
- •2.1 Мера информации по Шеннону
- •2.2 Энтропия дискретного ансамбля сообщений
- •2.3 Энтропия непрерывного ансамбля сообщений
- •2.4 Энтропия непрерывного ограниченного ансамбля
- •2.3 Количество взаимной информации
- •2.3.1 Дискретный канал передачи информации
- •2.3.2 Непрерывный канал передачи информации
- •2.3.3 Эпсилон-энтропия (ε-энтропия)
- •Кодирование источника информации
- •3.1 Метод кодирования равномерным кодом
- •3.2 Метод кодирования Шеннона-Фано
- •3.3 Метод кодирования Хафмана
- •3.4 Теорема оптимального кодирования источника независимых сообщений.
- •4 Канал связи
- •4.1 Скорость передачи информации и пропускная способность канала связи
- •4.2 Канал без шумов
- •4.3 Канал с шумами
- •4.4 Непрерывный канал связи
- •4.5 Теорема Шеннона о пропускной способности частотно ограниченного канала
- •5. Кодирование в канале
- •5.1 Систематические коды
- •5.1.1 Образование систематического кода
- •5.1.2 Систематический код Хемминга
- •5.2 Циклические коды
- •5.2.1 Обнаружение однократной ошибки
- •5.2.2 Исправление однократной ошибки
Кодирование источника информации
И
сточник
информации может быть составлен из
различных элементов. В частности это
могут быть результаты измерений
непрерывных величин, это может быть
дискретный ансамбль, составляющий
полную группу событий, это может быть
последовательность символов, составленная
из элементов некоторого алфавита, скажем
текст на русском языке. Все эти
представления источника должны быть
определены некоторыми элементарными
величинами, составляющими алфавит,
характеризующий источник информации.
Если под сообщениями подразумеваются измерения непрерывных величин, необходимо произвести квантование измерений и составить алфавит, из которых в дальнейшем образуется совокупность результатов измерений.
Если имеется дискретный ансамбль, составляющий полную группу событий, то из него образуется алфавит, характеризующий источник.
Если источник генерирует текст на русском языке, то его алфавит известен.
Будем считать, что элементы алфавита
взаимно независимы (хотя в общем случае
они зависимы), на этом множестве задается
распределение вероятностей
таких, что
.
Вероятности
использования элементов
бывают известны до начала кодирования.
Если они неизвестны, то на основании
экспериментальных данных делаются
оценки вероятностей
и
их используют для дальнейших вычислений.
Пример 3.1. Положим необходимо передать сообщение: “Если имеется дискретный ансамбль”, состоящий из 32 символов, включая пробелы. Ниже в таблице 1.1 приведены элементы алфавита, составляющие ансамбль и участвующие в образовании сообщения. В последней строке – частота появления этих элементов в
Таблица 3.1 |
|
|||||||||||||||||||||||||||||||||||||||
Элементы алфавита |
а |
б |
д |
е |
и |
й |
к |
л |
|
|||||||||||||||||||||||||||||||
Количество элементов в сообщении |
2 |
1 |
1 |
4 |
3 |
1 |
1 |
2 |
|
|||||||||||||||||||||||||||||||
Частота реализации элементов |
2/32 |
1/32 |
1/32 |
4/32 |
3/32 |
1/32 |
1/32 |
2/32 |
|
|||||||||||||||||||||||||||||||
Элементы
алфавита
м
н
р
с
т
ы
ь
я
-
Количество
элементов в сообщении
2
2
1
4
2
1
1
1
3
Частота
реализации
элементов
2/32
2/32
1/32
4/32
2/32
1/32
1/32
1/32
3/32 |
сообщении. Эту частоту реализации элементов примем за оценку вероятностей появления элементов алфавита в сообщении. Все остальные элементы русского алфавита не участвуют в данном сообщении и их вероятность реализации равна нулю.
Как видно из таблицы, распределение вероятностей - не равновероятное, существует избыток средней информации в сообщении и поэтому имеется возможность сжать информацию.