- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
1.6. Взаимная информация
Таким образом, мы можем определить количество информации о системе Х, ведя наблюдение непосредственно за системой Х. На практике часто бывает, что система Х для наблюдения не доступна, и тогда ведут наблюдение за другой системой Y, както связанной с системой Х. Например, вместо непосредственного наблюдения за космическим кораблем ведется наблюдение за системой сигналов, передаваемых его аппаратурой. Или наблюдение за футбольным матчем по телевизору.
Между системой X и Y имеются различия, которые могут быть двух видов:
1.Различия за счет того, что некоторые состояния системы X не находят отражения в системе Y (Y менее подробна, чем система X).
2.Различия за счет ошибок: неточностей измерения параметров системы X и ошибок при передаче сообщений.
Например, в чернобелом телевидении теряется цвет; влияние помех, которые вносят искажения.
То есть система Y отличается от системы X. Возникает вопрос: какое количество информации о системе X дает наблюдение системы Y? Данную информацию определяют как уменьшение энтропии системы X в результате получения сведений о системе Y.
(1.11)
где
H(X)
априорная энтропия до наблюдения, H(X/Y)
остаточная энтропия, после получения
сведений,
полная или средняя информация о системе
X,
содержащаяся в системе Y.
В общем случае, при наличии двух систем, каждая содержит относительно другой системы одну и ту же полную информацию. Покажем это:
откуда
называется полной взаимной информацией
содержащейся в системах X
и Y.
Посмотрим, во что обращается полная взаимная информация в крайних случаях полной независимости и полной зависимости систем. Если X и Y независимые системы, то H(Y/X)=H(Y), и =0. Это и понятно, так как нельзя получить сведений о системе, наблюдая вместо нее другую систему, никак с нею не связанную.
Другой крайний случай X и Y полностью определяют друг друга, то есть совпадают. Тогда H(X)=H(Y), H(X/Y)=H(Y/X)=0
и
Рассмотрим случай, когда между X и Y имеется жесткая зависимость, но односторонняя: состояние одной из систем полностью определяет состояние другой, но не наоборот. По состоянию подчиненной системы вообще нельзя однозначно определить состояние другой. Очевидно, энтропия подчиненной системы меньше чем та, которой она подчиняется, так как она менее подробна. Тогда полная взаимная информация, содержащаяся в системах, из которых одна является подчиненной, равна энтропии подчиненной системы.
Пусть
из двух систем X
и Y
подчиненной является Y.
Тогда H(Y/X)=0,
и
Таким образом, полная взаимная информация, содержащаяся в системах, из которых одна является подчиненной, равна энтропии подчиненной системы.
Выведем
выражение для информации
не через условную энтропию, а через
энтропию объединенной системы
и энтропию отдельных ее частей H(X),
H(Y).
Выразим полную взаимную информацию через вероятности состояний системы. Для этого запишем значения энтропии отдельных систем через математическое ожидание:
H(X)=M[log P(X)], H(Y)=M[log P(Y)], H(X,Y)=M[log P(X,Y)]
Тогда
и
далее
(1.12)
Таким образом, получили полную взаимную информацию об одной системе X с помощью другой системы Y. (Информация “от системы к системе”). Кроме полной взаимной информации существуют и частные виды взаимной информации. Выражение (1.12) представим в виде
Тогда, вторая сумма и будет представлять частную информацию о системе X, получаемую с помощью отдельного события системы Y.
(1.13)
Выражение (1.13) представляет частную информацию “от события к системе”. Далее можно определить частную информацию о событии xi, содержащуюся в событии yj (информация “от события к событию”):
(1.14)
Информация
симметрична
Вопросы
Что такое энтропия?
Дайте основные свойства энтропии для дискретных систем.
Укажите, когда энтропия приобретает максимальное (минимальное) значение.
Выразите энтропию объединения двух систем в случае независимых и зависимых систем.
В чем отличия количества информации по Хартли и по Шеннону?
В чем разница между понятиями объем информации и количество информации?
Как зависит количество информации от сообщения об отдельном событии от вероятности этого события?
Приведите выражение взаимной информации.
Во что превращается полная взаимная информация в случаях полной независимости и полной зависимости систем.
