- •Н.Н. Куцый, в.Н. Сизых введение в теорию информации учебное пособие
- •Оглавление
- •Часть 1. Вероятностные основы теории информации
- •Часть 2. Основы прикладной теории информации
- •Введение
- •Часть 1. Вероятностные основы теории информации
- •Определение априорной и апостериорной вероятностей дискретного источника
- •Дискретные источники сообщений
- •Основные определения и оценка случайного события
- •Способы определения случайных событий
- •Определение априорной вероятности
- •Элементы комбинаторики
- •Схемы подсчетов априорной вероятности по формуле (1.1)
- •Задачи для самостоятельной работы
- •Определение апостериорной вероятности
- •Задачи для самостоятельной работы
- •2. Условная и полная вероятности дискретного источника
- •2.1. Условная вероятность
- •Свойства независимых несовместных событий а1 и а2
- •Свойства зависимых событий а1 и а2
- •Задачи для самостоятельной работы
- •2.2. Полная вероятность
- •Задачи для самостоятельной работы
- •3. Случайные величины дискретных источников
- •3.1. Случайные величины
- •Задача для самостоятельной работы
- •4. Законы распределения дискретных случайных величин
- •4.1. Числовые характеристики дискретных св
- •4.2. Типовые законы распределения вероятностей дискретных св
- •Задачи для самостоятельной работы
- •5. Системы дискретных случайных величин
- •5.1. Характеристики систем дискретных случайных величин
- •5.2. Закон распределения системы дискретных случайных величин
- •Задачи для самостоятельной работы
- •6. Дискретные случайные процессы
- •6.1. Случайные процессы
- •6.2. Потоки событий
- •7. Марковские цепи
- •7.1. Марковские цепи с дискретными состояниями
- •7.2. Марковские цепи
- •7.3. Расчет цепи Маркова для стационарного режима
- •Задачи для самостоятельной работы
- •Часть 2. Введение в прикладную теорию информации
- •8. Энтропия как мера неопределенности
- •8.1. Энтропия
- •8.2. Условная энтропия
- •Задачи для самостоятельной работы
- •9. Оценка информационных характеристик дискретных источников
- •9.1. Условные и безусловные вероятности появления символов в виде стохастического вектора и матрицы дискретного источника
- •Снятые статистические данные источника
- •9.2. Информационные характеристики дискретного источника
- •Задача для самостоятельной работы
- •10. Основы теории кодирования и передачи информации
- •10.1. Кодирование информации
- •10.2. Формирование экономичного кода алфавита
- •10.2.1. Код Шеннона–Фано
- •10.2.2. Код Хаффмена
- •Задачи для самостоятельной работы
- •Решения и ответы задач для самостоятельной работы
- •Дополнительные задачи по курсу «Теория информации» Задача 1
- •Задача 2
- •Задача 3
- •Задача 8
- •Задача 22
- •Задача 23
- •Задача 24
- •Задача 25
- •Приложения Приложение 1. MatLab – программы для расчета цепи Маркова
- •Приложение 2. MatLab – программа для определения энтропии дискретного источника
- •Приложение 3. MatLab – программа для оценки информационных характеристик дискретных источников с памятью
- •Приложение 4. Алгоритмы кодирования и декодирования
- •Алгоритм построения кодового дерева кода Хаффмена
- •MatLab-программа декодирования арифметического кoда
10.2.2. Код Хаффмена
Самым экономичным (оптимальным) из всех возможных является код Хаффмена: ни для какого другого метода кодирования букв некоторого алфавита среднее число элементарных сигналов, приходящихся на одну букву, не может быть меньше того, какое получается при кодировании по методу Хаффмена. Построение этого кода опирается на простое преобразование, называемое сжатием алфавита. Суть этого метода такова.
1. Буквы а1, а2, … ,аn-1, an алфавита А располагают в порядке убывания вероятностей их появления: p1≥ p2 ≥…≥ pn-1 ≥ pn.
2. Две последние буквы принимают за одну - b, получая новый алфавит А1, состоящий из букв а1, а2,…, b с вероятностями р1, р2,…, (рn-1+рn). Эта операция называется однократным сжатием. Буквы алфавита А1 располагаются в порядке убывания вероятностей.
3. Аналогичным образом подвергается сжатию алфавит А1. Эта операция по отношению к алфавиту А называется двукратным сжатием. В результате этой операции получается алфавит А2, содержащий n–2 буквы, который также располагают в порядке убывания вероятностей.
4. Операция сжатия продолжается до тех пор, пока не образуется алфавит Аn-2, содержащий всего две буквы ((n–2) - кратное сжатие). Этим буквам присваивают кодовые обозначения 1 и 0.
5.
Если кодовое обозначение уже приписано
всем буквам алфавита Aj,
то буквам предыдущего алфавита Aj-1,
сохранившимся и в алфавите Aj,
приписываются те же кодовые обозначения,
которые они имели в алфавите Aj-1,
двум буквам
и
алфавита Aj,
слившимся в букву b
алфавита Aj-1,
приписываются обозначения, получающиеся
из кодового обозначения буквы b
добавлением
1 и 0 в конце.
Пример 10.4. Исходный алфавит А состоит из 6 букв с вероятностями использования 0,4; 0,2; 0,2; 0,1; 0,05; 0,05 соответственно. Требуется осуществить кодирование алфавита по методу Хаффмена.
Решение. В нашем случае n=6. Используя четырехкратное сжатие исходного алфавита, получаем алфавит A4, содержащий 1 и 0. Результаты вычислений представлены в таблице 10.3. Кодирование алфавита по методу Хаффмена позволяет всегда построить кодовое дерево, аналогичное тому, которое было получено в частном случае при кодировании кодом Шеннона–Фано (Рисунок 10.1 примера 10.2). Код является префиксным, допускает однозначное декодирование.
Среднее число элементарных сигналов, приходящихся на одну букву:
Таким образом, экономичность кодов для примеров 10.2 и 10.4 одна и та же.
Для кодов с основанием k основная теорема о кодировании при отсутствии помех может быть представлена следующим образом.
При любом методе кодирования, использующем код с основанием k,
где
Н
– энтропия одной буквы сообщения. При
этом
,
если кодировать сразу блоки, состоящие
из n
букв.
Таблица 10.3. – Результаты вычислений
Номер буквы |
Вероятности и кодовые обозначения |
||||
Исходный алфавит А |
Сжатые алфавиты |
||||
А1 |
А2 |
А3 |
А4 |
||
1 |
0,4 0 |
0,4 0 |
0,4 0 |
0,4 0 |
0,6 1 |
2 |
0,2 10 |
0,2 10 |
0,2 10 |
0,4 11 |
0,4 0 |
3 |
0,2 111 |
0,2 111 |
0,2 111 |
0,2 10 |
|
4 |
0,1 1101 |
0,1 1101 |
0,2 110 |
|
|
5 |
0,05 11001 |
0,1 1100 |
|
|
|
6 |
0,05 11000 |
|
|
|
|
