- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
4. Кодирование информации
Кодированием информации называется операция преобразования сообщений в определенную последовательность сигналов, а обратная операция, восстанавливающая сообщение по принятым сигналам называется декодированием.
Любому, дискретному сообщению можно приписать какойлибо порядковый номер. Передача или хранение сообщений при этом сводится к передаче или хранению чисел. Числа можно выразить в какойлибо системе счисления. Обычно используется двоичная система счисления.
На практике широко используются самые различные коды:
Двоичный код на все сочетания,
Двоично-десятичный код,
Шестнадцатеричный код,
Международный телеграфный код (МТК1, МТК2),
Код Бодо,
Американский стандартный код обмена информации (ASCII) и т.д.
4.1. Префиксные коды
Большинство кодов применяются для передачи и хранения информации без учета статистических характеристик поступающих сообщений. Учитывая статистические свойства источника сообщений, можно минимизировать среднюю длину кодовых сообщений.
Рассмотрим примеры кодирования. Понятно, что кодирование информации допускается тогда, когда возможно последующее однозначное декодирование
Символ |
Код1 |
Код2 |
Код3 |
Код4 |
x1 |
0 |
0 |
0 |
0 |
x2 |
0 |
00 |
01 |
10 |
x3 |
1 |
1 |
011 |
110 |
x4 |
11 |
11 |
0111 |
111 |
Видно, что код 1 не дает однозначного декодирования. Код 2, хотя и выражен более тонким образом, обладает тем же недостатком, так как при передаче последовательности x1x1, она будет закодирована в 00, что совпадает с кодовым словом для x3. Коды 1 и 2 не являются, таким образом, различимыми. Код 3 также не позволяет производить однозначное декодирование. Однозначно декодируемыми являются только коды обладающие свойством префикса.
Префиксные коды - это такие коды, в которых ни одна более короткая комбинация не является началом более длинной комбинации, а это позволяет производить однозначное декодирование, даже если последовательность кодов не содержит разделителей между кодами.
Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
Например, код 0111100 декодируется в последовательность символов x1x4x2x1.
Для построения префиксных кодов используется двоичное дерево.
Разобьем дерево на уровни и тогда каждому коду можно присвоить определённый вес.
-
вес jкода
j=1,М,
где М-
число допустимых кодов, k
- уровень
дерева. Дерево может иметь и более двух
ветвей D>2.
Тогда
вес j
кода будет равен
,
где D
- основание системы счисления.
4.2. Основные теоремы кодирования
Теорема 1. Неравенство Крафта.
Неравенство
является
необходимым и достаточным условием
существования кодовых слов, соответствующих
концевым узлам дерева с длинами, равными
kj.
Теорема
2. Средняя
длина кода
меньшая, чем
является недостижимой ни при каком
кодировании.
Доказательство:
Покажем, что
Теорема 3. Можно указать такой способ кодирования равно распределенных независимых сообщений, что средняя длина кода будет удовлетворять следующим требованиям:
Доказательство.
Пусть
D=2,
M=20.
В этом
диапазоне заведомо имеется одно целое
число
Теорема
4. Существуют
такие способы кодирования для достаточно
длинного сообщения x1,
x2,
… , что средняя длина кодового слова
может быть сделана сколь угодно близкой
к
.
Доказательство. Возьмем произвольное целое N>1 и разобьем последовательность x1, x2, … , на группы N случайных величин. Каждую такую группу будем рассматривать как одну случайную величину Y=( x1, x2, … ,xN) и применим к ней теорему (3).
,
где
HY=NHX
,
средняя длина слова, передающего
сообщение
Y=(
x1,
x2,
… ,xN).
Очевидно, что
,
тогда получим
Увеличивая N, Величину 1/N можно сделать сколь угодно малой, что доказывает теорему.
