- •Э.Н.Гордеев основы теории информации
- •Раздел 1. Информация и Алгоритм. Коды объектов. 12
- •Раздел 2. Сжатие информации. 30
- •Раздел 3. Передача информации. Защита от искажений. 56
- •Раздел 1. Информация и Алгоритм. Коды объектов. 10
- •Раздел 2. Сжатие информации. 29
- •Раздел 3. Передача информации. Защита от искажений. 55
- •12 Рекомендованная литература 122
- •Введение.
- •Алгоритм
- •Представление (кодирование) информации.
- •Примеры кодировок
- •Свойства кодировок
- •Способы представления (кодирования) информации.
- •Кодирование слов и поиск минимального кода
- •Признаковое кодирование.
- •Раздел 2. Сжатие информации.
- •Кодирование информации. Количество информации. Сжатие информации.
- •Сериальное кодирование
- •Алфавитное кодирование.
- •Неравенство Крафта.
- •Префиксные коды.
- •Кодирование натурального ряда.
- •Код Элайеса.
- •Код Левенштейна
- •Количество информации. Энтропия.
- •Энтропия по Хартли.
- •Энтропия по Шеннону.
- •Математическая модель: алфавитное кодирование случайного источника.
- •Энтропия по Шеннону
- •Энтропия по Шеннону и энтропия по Хартли.
- •Теорема Шеннона
- •Алгоритмы кодирования
- •Алгоритм Шеннона (Фано).
- •Алгоритм Хаффмана
- •Блочное кодирование Хаффмена.
- •Алгоритм арифметического кодирования
- •Блочное кодирование и теорема Шеннона.
- •Раздел 3. Передача информации. Защита от искажений.
- •Передача информации по каналу с шумом.
- •Модели каналов.
- •Необходимые определения.
- •Пример кода для канала с выпадением.
- •Передача информации по двоичному симметричному каналу с шумом
- •Принципы построения кодов, исправляющих ошибки.
- •Декодирование на основе таблицы декодирования.
- •Корректирующие способности кодов. Границы мощности.
- •Теорема Шеннона для канала с шумом.
- •Факты из теории вероятности.
- •XI → канал → y
- •Вторая теорема Шеннона.
- •Комбинаторное доказательство теоремы.
- •Примеры кодов, исправляющих ошибки. Линейные коды.
- •Линейные коды.
- •Спектр кода.
- •Код Хэмминга.
- •Вопросы для самопроверки.
- •Примеры билетов для контрольных работ.
- •Приложение.
- •Рекомендованная литература
Модели каналов.
Двоичный симметричный канал
1
1
P > 1/2
0
Канал называется двоичным, потому, что по нему передаются два сигнала: 0 и 1. Симметричность заключается в том, что они подвергаются искажениям в одинаковой степени. Вероятность правильной передачи P>1/2. (Ниже вероятность ошибки для удобства будем обозначать через p=1-P. При этом всегда будет понятно, о чем идет речь. Заметим, что критичный случай именно p=1/2. Если, например, p>1/2, то на приеме можно поменять местами 0 и 1. Ниже будет показано, что случай p=1/2 соответствует нулевой пропускной способности канала. Но это понятно и без всякой математики: что бы не попало в канала – на выходе с равной вероятностью будет принят или 0 или 1.
Д
воичный
ассиметричный канал
1 1
P > 1/2, Q > 1/2
0 0
Двоичный стирающий канал
P
1
1-P
1
1-P
x – стираниеP
0 0
Пример:
Передаем 11011, p = 4/5, ошибка в четвертом символе.
Для двоичного канала на приеме может быть получена последовательность : 11001
Для канала со стиранием в этом случае будем иметь : 110х1.
Это уже существенно другой тип искажений. В отличие от предыдущих случаев, здесь мы всегда уверены в том, что полученные 0 или 1 были именно такими и переданы, а на месте искаженных символов принимает новый символ x. В предыдущих случаях мы не знаем, какие из полученных сигналов искажены ( и есть ли искажения вообще). Нахождение и исправление таких искажений приводит к сложным математическим задачам Теории кодирования. В случае же канала со стиранием такой подход тоже можно использовать, но можно свести задачу на уровень Протокола. Например, можно просто перезапрашивать искаженные символы.
Канал с выпадением.
P
1
1-P
1
1-P
Выпадение сомвола.P
0 0
Пример:
Передаем 11011, p = 4/5, ошибка в четвертом символе.
Для двоичного канала на приеме может быть получена последовательность: 11001
Для канала с выпадением в этом случае будем иметь: 1101.
Для дальнейшего рассмотрения мы ограничимся одним случаем: двоичным симметричным каналом. Технически все полученные для этого случая результаты могут быть обобщены как на случай ассиметричного канала, так и на случай канала, передающего не два символа, а q символов.
Математические же модели, используемые для защиты информации от искажений в каналах с выпадением и со стиранием существенно отличны.
Необходимые определения.
Пусть Bn - булев куб размерности n.
Опр.
Кодом C называется
произвольное подмножество
.
Пусть M – мощность множества C. Элементы этого подмножества будем называть кодовыми словами.
Опр.
Пропускная способность канала - C(p)
= 1 – H(p),
где
- энтропия канала.
Как раз для случая p=1/2 энтропия равна единице, что соответствует полной неопределенности (абсолютному беспорядку), а пропускная способность канала нулевая.
Опр.
Скорость передачи кода
.
Если число слов, подлежащих передаче в канал, равно 2k , то
- скорость передачи.
Опр.
Расстояние Хемминга
- это количество различных бит в x
и y.
Пусть |x| -
количество единиц в
(норма или вес x).
Тогда очевидно, что
.
Опр.
Кодовое расстояние
.
Опр. (n,M,d)-код – это код C, такой, что |C| = M, C = {xi}, xi Bn, d(C) = d.
