- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
Код Хаффмана позволяет производить кодирование и при использовании вторичного алфавита с основанием D больше 2, например при D=3.
При четном количестве символов объединяют нижние две буквы, а при нечетном - нижние три буквы.
Вопросы
4.1. Какие коды позволяют производить однозначное декодирование даже без пробела? Приведите примеры таких кодов.
4.2. До какого предела может быть уменьшена средняя длина кодовой комбинации?
4.3. Назовите условия построения оптимальных кодов.
4.4. Сформулируйте основные теоремы кодирования.
4.5. С какой целью используются эффективные коды, и какие из них Вам известны.
4.6. Назовите причины использования блочного кодирования.
4.7. Перечислите основные методы сжатия информации.
4.8. Как осуществляется сжатие методом лексического кодирования?
Упражнения
4.1 Сообщения составляются из букв алфавита а, b, с, d. Вероятности появления букв алфавита в текстах равны соответственно 0,2; 0,3; 0,4; 0,1. Найдите избыточность сообщений, составленных из букв данного алфавита.
Решение.
Для алфавита из четырех букв максимальная энтропия составит
Hmax = log m = log 4 = 2. Средняя энтропия на символ сообщения
Тогда избыточность D = 1 - H/Hmax = 1-1,84/2 = 0,08.
4.2. Закодируйте кодами Шеннона-Фано и Хаффмена алфавит, состоящий из пяти букв, - а1, а2, а3, а4, а5, вероятности появления которых Р = 0,4; 0,3; 0,15; 0,1; 0,05.
Решение.
Построение кода Шеннона-Фано иллюстрируется на рис.4.1.
Буква |
Р |
Разряды |
Код |
|||
1 |
2 |
3 |
4 |
|||
А1 |
0,4 |
0 |
- |
- |
- |
0 |
А2 |
0,3 |
1 |
0 |
- |
- |
10 |
А3 |
0,15 |
1 |
0 |
- |
110 |
|
А4 |
0,1 |
1 |
0 |
1110 |
||
а5 |
0,05 |
1 |
1111 |
|||
Рис. 4.1. Построение кода Шеннона-Фано
Определим, какова эффективность полученного кода. Для этого подсчитаем среднее число символов, приходящихся на букву:
Энтропия
Таким образом, средняя длина получилась достаточно близкой к предельному значению. Длина кода при равномерном кодировании k = 3 бита. Код Шеннона-Фано по сравнению с равномерным кодированием позволил сократить среднюю длину кодовых комбинаций для данного примера на 31,6%. D = 1- 2,05/3 = 0,316.
Рис.4.2. Построение кода Хаффмена.
Средняя длина кода kc = 2,05 бит совпала с длиной, полученной по методике Шеннона-Фано.
4.3. Закодируйте двоичным кодом Шеннона-Фано ансамбль сообщений Х = х1, х2, ..., х8, если все кодируемые сообщения равновероятны. Показать оптимальный характер полученного кода.
4.4. Определите количество элементов в кодовом слове, если известно общее число комбинаций N = 512, а основание кода 2.
4.5. Сколько двоичных чисел может быть представлено 7-разрядным кодом?
4.6. Дана совокупность символов х1, х2, х3, х4 со следующей статистикой соответственно: 0,28; 0,14; 0,48; 0,10. Закодируйте символы по методу Шеннона-Фано и определите эффективность кода.
4.7. Имеется статистическая схема сообщения
Произведите кодирование отдельных букв и двухбуквенных сочетаний по методу Шеннона-Фано, сравните коды по их экономичности (количество информации, приходящееся на один символ) и избыточности.
4.8. Сообщение состоит из последовательности двух букв А и В, вероятности появления каждой из которых не зависят от того, какая была передана раньше, и равны 0,8 и 0,2 соответственно. Произведите кодирование по методу Шеннона-Фано: а) отдельных букв; б) блоков, состоящих из двухбуквенных сочетаний; в) блоков, состоящих из трехбуквенных сочетаний. Сравните коды по их экономичности.
4.9. Дана совокупность символов Х со следующей статистической схемой:
X |
x1 |
x2 |
x3 |
x4 |
x5 |
x6 |
x7 |
x8 |
x9 |
P |
0,20 |
0,15 |
0,15 |
0,12 |
0,10 |
0,10 |
0,08 |
0,06 |
0,04 |
Произведите кодирование двоичным кодом по методу Хаффмена и вычислите энтропию сообщения Н(Х) и среднюю длину кодового слова.
4.10. Пусть алфавит А содержит 6 букв, вероятности которых равны 0,4; 0,2; 0,2; 0,1; 0,05 и 0,05. Произведите кодирование кодом Хаффмена. Вычислить энтропию сообщений Н(Х) и среднюю длину кодового слова.
4.11. Источник информации выдает сообщения со скоростью R = 1000 символов/с. Алфавит состоит из 3 символов (букв) X, Y, Z, статистика появления которых равна 0,7; 0,2; 0,1. Закодируйте символы источника информации таким образом, чтобы обеспечить прохождение сообщений через канал связи с пропускной способностью С = 1250 бит/с без задержек.
