
- •О.Т.Данилова Теория информации
- •Введение
- •Глава 1. Основные понятия теории информации
- •1.1. Свойства информации
- •1.2. Этапы обращения информации
- •1.3. Определение системы передачи информации. Каналы связи.
- •1.4. Алфавит сообщения
- •1.5. Источник информации
- •Глава 2. Количество информации
- •2.1. Объемный подход к измерению информации
- •2.2. Количественная мера информации р.Хартли
- •2.3. Мера информации к. Шеннона
- •2.4. Условная собственная информация. Взаимная информация
- •1 (Бит), где m – мощность алфавита.
- •Глава 3. Энтропия дискретной последовательности. Энтропия непрерывной случайной величины
- •3.1. Частная энтропия
- •Прологарифмировав последнее равенство, получим
- •3.2. Энропия типичных и нетипичных комбинаций
- •3.3. Условная энтропия
- •3.4. Энтропия объединения ансамблей
- •3.5. Канальные матрицы
- •3.6. Количество информации при неполной достоверности и статистической зависимости сообщений
- •3.7. Избыточность источника
- •3.8. Энтропия непрерывной случайной величины
- •3.9. Количество информации для непрерывных систем
- •3.10. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (3.7) в (3.4):
- •3.11. Эпсилон энтропия
- •Глава 4. Общие сведения из теории сигналов
- •4.1. Классификация сигналов и систем
- •Характеристики сигналов передаваемых по каналу
- •4.3. Модуляция сигналов. Виды и характеристики носителей
- •4.4. Спектры сигналов
- •4.5. Тригонометрическая форма
- •4.6. Комплексная форма
- •4.7. Определение погрешности
- •Глава 5. Скорость передачи и пропускная способность канала связи
- •5.1. Скорость передачи информации в дискретной системе связи
- •5.2. Пропускная способность однородного симметричного канала связи
- •5.3. Пропускная способность непрерывного канала связи
- •5.4. Обмен мощности сигнала на ширину его спектра
- •5.5. Сравнение пропускной способности непрерывного и дискретного каналов связи.
- •5.6. Эффективность систем связи
- •Глава 6. Критерии описания реальных дискретных каналов
- •6.1. Описание источника ошибок на основе цепей Маркова
- •6.2. Описание источника ошибок на основе процессов восстановления
- •6.3. Описание источника ошибок на основе процессов накопления
- •6.4. Модель Гилберта
- •6.5. Модель Эллиота-Гилберта. Модель Элиота
- •6.6. Модель Беннета-Фройлиха
- •6.7. Модель Попова - Турина
- •Глава 7. Кодирование информации
- •7.1. Статистическое кодирование дискретных сообщений
- •7.2. Статистическое кодирование кодовых слов
- •Средняя длина кодового слова
- •7.3. Кодирование информации для канала с помехами
- •7.3. Разновидности помехоустойчивых кодов
- •7.4 Общие принципы использования избыточности
- •7.5. Связь корректирующей способности кода с кодовым расстоянием
- •7.6. Понятие качества корректирующего кода
- •7.7. Линейные коды
- •7.7. Математическое введение к линейным кодам
- •7.8. Линейный код как пространство линейного векторного пространства
- •7.9. Построение двоичного группового кода
- •7.10. Составление таблицы опознавателей
- •7.11. Определение проверочных равенств
- •7.12. Мажоритарное декодирование групповых кодов
- •7.13. Матричное представление линейных кодов
- •7.14. Построение циклических кодов
- •Математическое введение к циклическим кодам
- •7.17. Обнаружение одиночных ошибок
- •Исправление одиночных или обнаружение двойных ошибок
- •7.18. Обнаружение ошибок кратности три и ниже
- •7.19. Обнаружение и исправление независимых ошибок произвольной кратности
- •7.20. Методы образования циклического кода
- •7.21. Матричная запись циклического кода
- •7.22. Укороченные циклические коды
- •Глава 8. Сжатие информации
- •8.1. Основные понятия
- •8.2. Методы сжатия без потерь
- •8.3. Методы сжатия с потерями
- •8.4. Сжатие графики
- •Прямое дкп
- •8.5. Сжатие звука
- •8.6. Сжатие видеоинформации
- •Вопросы для самопроверки
- •Список литературы
2.4. Условная собственная информация. Взаимная информация
Обозначим возможные
различные символы на входе некоторого
блока системы передачи информации через
,
i
= 1,…, m,
а выходные символы через yj,
j
= 1,…,n.
Под символом
можно подразумевать символы источника,
информационные последовательности,
сигналы на входе линии связи, а под
символами yj
- символы закодированных сообщений,
кодовые последовательности, сигналы
на выходе линии связи.
Рассмотрим
простейший случай, когда
,
i
= 1,…, m,
взаимно независимые. При этом источник
X
полностью описывается априорными
вероятностями
,i=1,…,m, которые
и характеризуют первоначальное незнание
(первоначальную неопределенность) о
появлении конкретного символа
на входе блока.
При наличии помех
между символами
и yj
нет однозначного соответствия, т.е.
символ
может перейти в любой символ yj
с некоторой условной вероятностью
,
которую можно вычислить, если известен
механизм такого перехода. Зная вероятности
и
,i=1,…,m,
j=1,…,n, нетрудно
найти вероятности появления
на входе блока символов
,
i
= 1,…, m,
при условии, что на выходе блока наблюдался
символ yj.
Эти вероятности, называемые апостериорными,
характеризуют оставшееся незнание
(оставшуюся неопределенность) о появлении
на входе символов
,
i
= 1,…, m,
при наблюдении символа yj
на выходе блока.
Таким образом,
полученная информация о символе
при наблюдении символа yj
приводит к изменению вероятности
появления символа
от ее априорного значения
к
ее апостериорному значению
.
Тогда, по аналогии с собственной, информация, содержащаяся в символе xi при условии, что сигнал принял значение yj, определяется как
I(xi / yj) = - log p(xi / yj), |
(2.6.) |
и называется условной собственной информацией.
Ее можно интерпретировать как количество информации, доставляемое событием xi при известном событии yj, или как количество информации, которое должно доставляться некоторым другим событием для однозначного определения события при известном yj.
В изучении проблем передачи – приема информации, кроме рассмотренных выше величин, важную роль играет среднее значение взаимной информации между элементами различных ансамблей.
Рассмотрим снова ансамбли X и Y. Пусть ансамбли зависимы. В результате опыта (приема символа yj) апостериорная вероятность появления символа xi изменяется по сравнению с априорной.
Тогда количество информации относительно символа сообщения xj, доставляемое символом yk, определяется как логарифм отношения апостериорной вероятности к априорной
I(xi; yj) = log (p(xi / yj))/ p(xi), |
(2.7.) |
и называется взаимной информацией.
Поскольку
,
то
.
Последнее выражение
указывает на симметрию выражения для
количества информации относительно
сигналов
и
.
Выражение (2.7.) может быть представлено в виде
|
(2.8.) |
Первый член этого
выражения может рассматриваться как
количество информации в сигнале
,
а второй – как потери информации,
связанные с искажением сигнала
при преобразовании
в
.
Если преобразование однозначно, то
р(
/
)=1
приi=j,
то
.
При отсутствии
каких – либо статистических связей
между
и
р (
/
)=р(
),
и тогда
.
Ниже приведены основные свойства взаимной информации.
1. Взаимная информация может быть отрицательной, положительной или равной нулю, в зависимости от соотношения между априорной и апостериорной вероятностями
- < I(xi; yj) <
2. Взаимная информация не превышает собственную
I(xi ; yj) I(xi)
I(xi ; yj) I(yj).
При данной вероятности p(xi) взаимная информация I(xi; yj) достигает максимума, когда принятый символ yj однозначно определяет переданный символ xj и это максимальное значение взаимной информации I(xi; yj) = - log p(xj), равно собственной информации, определяемой только априорной вероятностью символа xi .
3. Свойство симметрии
I (xi; yj) = I (yj; xi),
т.е. информация, содержащаяся в yak относительно ax , равна информации, содержащаяся в xj относительно yak . В силу этого свойства информацию I(xj; yak) называют взаимной информацией между xj и yak .
4.Свойство аддидивности количества информации
I(xi , zk; yj, ql) = I(xi ; yj) + I( zk ; ql) .
Если пара X,Y независима от пары Z,Q , то информация, содержащаяся в паре yj, ql относительно пары xi , zk, равна сумме информации, содержащейся в yj относительно xi , и информации, содержащейся в ql относительно zk .
Рассмотрим условное среднее значение взаимной информации для объединенного ансамбля XY. Пусть сигнал принял значение yk. Тогда информация, содержащаяся в реализации yk принятого сигнала относительно ансамбля передаваемых сообщений X, есть
средняя взаимная информация между ансамблем X и реализацией yj:
|
(2.9.) |
Аналогично информация, содержащаяся в ансамбле принятых сигналов Y относительно реализации переданного сообщения xj, определяется как средняя взаимная информация между ансамблем Y и реализацией xj:
|
(2.10.) |
Наконец, средняя взаимная информация между ансамблем принимаемых сигналов Y и ансамблем передаваемых сообщением X есть то количество информации, которое содержится в среднем в ансамбле принимаемых символов Y относительно ансамбля передаваемых символов X.
|
(2.11.) |
Взаимную информацию записать в одной из следующих форм:
.
Пример 2.56. По дискретному каналу передаются сообщения x1 и x2. Вследствие действия шумов на выходе канала появляются сигналы y1, y2 и y3. Вероятности совместного появления заданы в таблице
xj |
yk | ||
|
y1 |
y2 |
y3 |
x1 |
1/4 |
1/16 |
1/8 |
x2 |
1/8 |
3/16 |
1/4 |
Вычислить среднее количество информации
I(X;y1), I(x1;Y), I(X;Y).
Решение. а) Средняя взаимная информация в реализации сигнала на выходе y1 относительно случайной величины X на входе канала:
Известны вероятности:
p(x1)=7/16, p(x2)=9/16, p(y1)=3/8, p(y2)=1/4, p(y3)=3/8.
Определим условные вероятности:
Средняя информация
б) Средняя взаимная информация в выходной величине Y относительно реализации случайной величины на входе x1:
Условные вероятности:
Средняя информация
в) Средняя взаимная информация в случайной величине Y на выходе канала относительно случайной величины X на входе:
Воспользовавшись результатами вычислений I(x1;Y), получим для средней взаимной информации
Пример 2.57. Рассматривается ансамбль сообщений, приведенный в таблице
xi |
x0 |
x1 |
x2 |
x3 |
x4 |
x5 |
x6 |
p(xj) |
1/2 |
1/4 |
1/8 |
1/32 |
1/32 |
1/32 |
1/32 |
Код |
001 |
010 |
100 |
011 |
101 |
110 |
111 |
Сообщение x4 поступает в кодер. Вычислить дополнительную информацию об этом сообщении, доставляемую каждым последующим символом на выходе кодера.
Решение. На вход кодера поступают сообщения x0,x1,…, x6 и кодер порождает соответствующие таблице двоичные символы. Так, сообщению x4 . соответствует кодовое слово 101. Символы на выходе кодера появляются последовательно, т.е. первый символ 1, второй 0 и третий 1. Первый символ кодового слова содержит некоторую информацию относительно того, какое сообщение поступает на вход кодера. Так, первый символ 1 показывает, что на выходе могут быть сообщения x2, x4, x5 или x6 . Второй символ 0 сужает выбор – теперь на входе возможно одно из двух сообщений: x2 или x4 . И, наконец, последний, третий символ 1 однозначно определяет переданное сообщение.
Как известно, взаимная информация есть некоторая (логарифмическая) функция изменения вероятностей. Тогда взаимная информация, содержащаяся в первом кодовом символе 1 относительно сообщения x4 ,
I(x4 ; 1) = log (p(x4 / 1))/ p(x4).
Вероятность p(x4 / 1) может быть найдена по формуле Байеса. Условная вероятность гипотезы
В нашем случае гипотезы x0,x1,…, x6 (Hi) , а случайное событие А, имеющее место при некоторой гипотезе, есть появление кодового символа 1 на выходе кодера. Тогда формула Байеса примет такой вид:
где
т.е. условная вероятность p(1/ x4)=0 для гипотез, у которых первый кодовый символ 0, и p(1/ x4)=1 для гипотез, у которых первый кодовый символ 1. В формуле Байеса учитываются, таким образом, те гипотезы, при которых возможно появление 1 на первом месте.
Итак
и взаимная информация, содержащаяся в первом кодовом символе относительно сообщения x4,
Информация, содержащаяся во втором кодовом символе 0 при условии, что первый кодовый символ был 1, есть
Информация, содержащаяся в третьем кодовом символе 1 при условии, что ему предшествовали 10, есть
Так как сообщения xj и кодовые слова однозначно связаны, то
I(x4) = I(x4;1) + I(x4;0/1) + I(x4;1/10).
Действительно, I(x4) = - log2 p(x4) = - log2 32 =5 бит и это равно
I(x4) = I(x4;1) + I(x4;0/1) + I(x4;1/10=2.2 + 0.48 + 2.32 =5 бит.
Пример 2.58. Алфавит источника сообщений состоит из двух элементов: a и b. Рассмотрим случаи передачи информации с помощью этих элементов:
1) Элементы независимы и равновероятны. Количество информации, которое несет каждый символ сообщения: