- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
1.2 Энтропия сложной системы
Ранее мы рассмотрели одну систему, а как быть, если имеем дело со сложной системой, представляющей собой соединение нескольких простых систем.
Например, пусть имеются две системы X=(x1, …xi , …, xn ) и Y=(y1… ,yj, … ym ). Чему будет равняться энтропия сложной системы H(x,y)? При этом могут быть две ситуации. Системы X и Y могут быть независимыми или зависимыми.
Рассмотрим ситуацию для случая независимых систем. Для этого необходимо определить вероятности совместных событий pij= p(xi, yj).
При этом данная матрица обладает свойствами:
,
,
После того, как станут, известны все вероятности, нетрудно вычислить энтропию.
(1.4)
Сложение энтропии независимых систем
Пусть системы X и Y независимы, то есть принимают свои состояния независимо одна от другой, тогда по теореме умножения вероятностей (для независимых случайных величин)
Далее возьмем математическое ожидание от левой и правой части
отсюда
(1.5)
Таким
образом, при объединении независимых
систем их энтропии складываются. При
объединении n
независимых систем
Условная энтропия
Пусть
имеются две зависимые системы (или
два множества сообщений) X
и Y.
Обозначим условную вероятность
того, что система Y
примет состояние yj
при условии, что система X
приняла xi.
Определим условную частную энтропию системы Y относительно отдельного события xi. При этом должны быть известны условные вероятности .
Тогда частная условная энтропия будет равна
Частную
условную энтропию можно выразить через
математическое ожидание
Чтобы полностью охарактеризовать энтропию системы, нужно определить полную или среднюю энтропию. Если частную, условную энтропию усреднить по всем состояниям xi с учетом вероятности появления каждого из состояний p(xi), то найдем полную условную энтропию сообщений Y относительно X.
(1.6)
Понятие условной энтропии широко используется для определения информационных потерь при передаче информации. Пусть по каналу связи передаются сообщения с помощью алфавита Х. В результате воздействия помех приемником будет восприниматься другой алфавит Y (см.рис. 1.2).
Рис.1.2. Передача информации по каналу связи
при воздействии помех
выражает
неопределенность того что, отправив
xi,
мы получим yj,
а понятие
неуверенность, которая остается после
получения yj
в том, что было отправлено именно xi.
Если в канале связи помехи отсутствуют,
то всегда посланному символу x1
соответствует принятый символ y1,
x2
y2,
. . . , xn
yn.
При этом энтропия источника H(X)
равна энтропии приемника H(Y).
Если в канале связи присутствуют помехи,
то они уничтожают часть передаваемой
информации.
Для вычисления энтропии совместного появления статистически зависимых сообщений используется понятие энтропии объединения. Энтропия объединения представляет собой сумму вида:
(1.7)
Энтропия объединения и условная энтропия связаны между собой следующими соотношениями:
H(X,Y) = H(X) + H(X/Y) = H(Y) + H(X/Y) (1.8)
В случае если X и Y между собой независимы, то условная энтропия равняется безусловной H(Y/X)=H(Y) и H(X,Y)=H(X)+H(Y).
В общем случае энтропия объединенной системы H(X,Y)≤ H(X)+H(Y),
это следует из того что: H(Y/X)≤H(Y) условная энтропия меньше безусловной. Энтропия объединенной системы достигает максимум, только в случае если системы независимы.
В случае полной зависимости систем, состояния одной системы полностью определяют состояния другой (они эквивалентны): H(X,Y)=H(X)=H(Y), так как H(Y/X)=0.
Основные свойства условной энтропии
Если сообщения X и Y статистически независимы, то условная энтропия сообщений Y относительно X равна безусловной энтропии сообщений Y: H(Y/X)=H(Y). В этом случае вся информация, которую содержат сообщения Y, является новой по отношению к информации, содержащейся в сообщениях X.
В самом деле, если сообщения X и Y статистически независимы, то p(yj/xi)=p(yj) и общая условная энтропия может быть записана в форме
Так
как сумма вероятностей всех состояний
Х равна единице
,
то
или Р(Y/X)=Р(Y).
Если сообщения X и Y являются статистически жестко связанными, то условная энтропия сообщений Y относительно X равна нулю H(Y/X)=0. Это означает, что сообщения Y не содержат никакой новой информации сверх той, которая содержится в сообщениях Х.
Условная энтропия всегда меньше безусловной энтропии H(Y/X)<H(Y).
В случае если имеются n зависимых систем, энтропия объединения будет равна:
H(X1; X2; X3; . . . ;Xn ) = H(X1)+H(X2 /X1 )+H(X3 /X1 X2 ) + . . . +H(Xn / X 1X 2. . . Xn). Энтропия первой системы входит полностью, энтропия второй системы с учетом того, что первая определена, третей первые две определены и т.д.
