- •Н.Н. Куцый, в.Н. Сизых введение в теорию информации учебное пособие
- •Оглавление
- •Часть 1. Вероятностные основы теории информации
- •Часть 2. Основы прикладной теории информации
- •Введение
- •Часть 1. Вероятностные основы теории информации
- •Определение априорной и апостериорной вероятностей дискретного источника
- •Дискретные источники сообщений
- •Основные определения и оценка случайного события
- •Способы определения случайных событий
- •Определение априорной вероятности
- •Элементы комбинаторики
- •Схемы подсчетов априорной вероятности по формуле (1.1)
- •Задачи для самостоятельной работы
- •Определение апостериорной вероятности
- •Задачи для самостоятельной работы
- •2. Условная и полная вероятности дискретного источника
- •2.1. Условная вероятность
- •Свойства независимых несовместных событий а1 и а2
- •Свойства зависимых событий а1 и а2
- •Задачи для самостоятельной работы
- •2.2. Полная вероятность
- •Задачи для самостоятельной работы
- •3. Случайные величины дискретных источников
- •3.1. Случайные величины
- •Задача для самостоятельной работы
- •4. Законы распределения дискретных случайных величин
- •4.1. Числовые характеристики дискретных св
- •4.2. Типовые законы распределения вероятностей дискретных св
- •Задачи для самостоятельной работы
- •5. Системы дискретных случайных величин
- •5.1. Характеристики систем дискретных случайных величин
- •5.2. Закон распределения системы дискретных случайных величин
- •Задачи для самостоятельной работы
- •6. Дискретные случайные процессы
- •6.1. Случайные процессы
- •6.2. Потоки событий
- •7. Марковские цепи
- •7.1. Марковские цепи с дискретными состояниями
- •7.2. Марковские цепи
- •7.3. Расчет цепи Маркова для стационарного режима
- •Задачи для самостоятельной работы
- •Часть 2. Введение в прикладную теорию информации
- •8. Энтропия как мера неопределенности
- •8.1. Энтропия
- •8.2. Условная энтропия
- •Задачи для самостоятельной работы
- •9. Оценка информационных характеристик дискретных источников
- •9.1. Условные и безусловные вероятности появления символов в виде стохастического вектора и матрицы дискретного источника
- •Снятые статистические данные источника
- •9.2. Информационные характеристики дискретного источника
- •Задача для самостоятельной работы
- •10. Основы теории кодирования и передачи информации
- •10.1. Кодирование информации
- •10.2. Формирование экономичного кода алфавита
- •10.2.1. Код Шеннона–Фано
- •10.2.2. Код Хаффмена
- •Задачи для самостоятельной работы
- •Решения и ответы задач для самостоятельной работы
- •Дополнительные задачи по курсу «Теория информации» Задача 1
- •Задача 2
- •Задача 3
- •Задача 8
- •Задача 22
- •Задача 23
- •Задача 24
- •Задача 25
- •Приложения Приложение 1. MatLab – программы для расчета цепи Маркова
- •Приложение 2. MatLab – программа для определения энтропии дискретного источника
- •Приложение 3. MatLab – программа для оценки информационных характеристик дискретных источников с памятью
- •Приложение 4. Алгоритмы кодирования и декодирования
- •Алгоритм построения кодового дерева кода Хаффмена
- •MatLab-программа декодирования арифметического кoда
Задача для самостоятельной работы
Задача 9.1. Исследуется дискретный постоянный источник сообщений с памятью.
Нужно выполнить следующее:
1. Снять статистические данные о количестве символов, вырабатываемых источником.
2. Вычислить частоты появления символов на выходе источника (безусловные и условные). Результаты представить в виде стохастического вектора и стохастической матрицы.
3. Выяснить, является ли источник марковским.
4. Определить информационные (интегральные) характеристики дискретного источника сообщений при средней длительности символа 0,12 с., количество информации в символах.
5. Составьте MatLab – программу оценки информационных характеристик дискретного источника.
Снятые статистические данные источника
10. Основы теории кодирования и передачи информации
10.1. Кодирование информации
В системе передачи информации состояние того или иного объекта отражается в форме сообщения, представленного в виде символов. Независимо от содержания сообщение обычно передается в виде последовательности электрических, звуковых, световых и иных сигналов, характеризующих символы сообщений. Операция перевода сообщения в последовательность различных сигналов называется кодированием.
Правило, ставящее в соответствие каждому передаваемому сообщению некоторую комбинацию сигналов, называется кодом. Если все комбинации кодов имеют одну и ту же длину (число символов или разрядов в кодовой комбинации), m=const, то такие коды называются равномерными. При m=var коды называются неравномерными. По основанию системы счисления коды делятся на двоичные (k=2), десятичные (k=10) и т.п. Величина k определяет число значений сигнала, характеризующих каждый символ сообщений в данной системе счисления. Например, при m=2 и k=2 (0 и 1) можно составить четыре комбинации: 00 01 10 11. Количество возможных комбинаций сигналов при заданных m и k равно:
n=km. |
(10.1)
|
При наличии числа возможных событий m код называется неизбыточным, если m=n. При m<n код называется избыточным. Переход от неизбыточного кода к избыточному осуществляют путем добавления некоторых контрольных позиций.
При кодировании информации, подлежащей передаче, нужно учитывать следующее:
1). Код должен быть экономичным, то есть среднее число сигналов, необходимых для полной индексации каждого признака из m (например, каждой буквы алфавита), должно быть минимально;
2). Код должен быть однозначно декодирован в общем потоке сообщений; для равномерного кода эта задача решается элементарно без какого-либо разделения (введение разделительных сигналов снижает экономичность кода), никакое кодовое обозначение не должно совпадать с началом какого-либо другого, более длинного кодового обозначения;
3). Код должен быть помехоустойчивым, то есть при передаче закодированного сообщения возможные в начале передачи помехи, шумы не должны искажать суть сообщения.
10.2. Формирование экономичного кода алфавита
Для
наиболее распространенного двоичного
кода среднее число двоичных элементарных
сигналов
,
приходящихся в закодированном сообщении
на одну букву исходного сообщения, не
может быть меньше
,
то есть
,
где
–
энтропия
одной буквы. Исходя из этого, при любом
методе кодирования для записи длинного
сообщения из
букв требуется не меньше чем
двоичных знаков. Это обстоятельство
вытекает из условия, что
,
и что все буквы независимы между собой.
В этом случае
Если
,
то
Отсюда следует, что учет статистических
закономерностей сообщения позволяет
построить более экономичный, чем
равномерный код. Такой код является
неравномерным.
Неравномерный
побуквенный код
объемом
над
алфавитом A
определяется
как произвольное множество
последовательностей одинаковой или
различной длины из букв алфавита A.
Код называется однозначно декодируемым, если любая последовательность символов из A единственным способом разбивается на отдельные кодовые слова.
Пример
10.1. Для
источника
среди четырех кодов:
1)
2)
3)
4)
первые три кода однозначно декодируемы, последний код – нет.
Если
ни одно кодовое слово не является началом
другого, код называется префиксным.
Префиксные коды являются однозначно
декодируемыми. В примере 10.1 префиксным
кодом является код
Префиксные коды удобно представлять в
виде кодовых деревьев (Рисунок 10.1).
