
- •О.Т.Данилова Теория информации
- •Введение
- •Глава 1. Основные понятия теории информации
- •1.1. Свойства информации
- •1.2. Этапы обращения информации
- •1.3. Определение системы передачи информации. Каналы связи.
- •1.4. Алфавит сообщения
- •1.5. Источник информации
- •Глава 2. Количество информации
- •2.1. Объемный подход к измерению информации
- •2.2. Количественная мера информации р.Хартли
- •2.3. Мера информации к. Шеннона
- •2.4. Условная собственная информация. Взаимная информация
- •1 (Бит), где m – мощность алфавита.
- •Глава 3. Энтропия дискретной последовательности. Энтропия непрерывной случайной величины
- •3.1. Частная энтропия
- •Прологарифмировав последнее равенство, получим
- •3.2. Энропия типичных и нетипичных комбинаций
- •3.3. Условная энтропия
- •3.4. Энтропия объединения ансамблей
- •3.5. Канальные матрицы
- •3.6. Количество информации при неполной достоверности и статистической зависимости сообщений
- •3.7. Избыточность источника
- •3.8. Энтропия непрерывной случайной величины
- •3.9. Количество информации для непрерывных систем
- •3.10. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (3.7) в (3.4):
- •3.11. Эпсилон энтропия
- •Глава 4. Общие сведения из теории сигналов
- •4.1. Классификация сигналов и систем
- •Характеристики сигналов передаваемых по каналу
- •4.3. Модуляция сигналов. Виды и характеристики носителей
- •4.4. Спектры сигналов
- •4.5. Тригонометрическая форма
- •4.6. Комплексная форма
- •4.7. Определение погрешности
- •Глава 5. Скорость передачи и пропускная способность канала связи
- •5.1. Скорость передачи информации в дискретной системе связи
- •5.2. Пропускная способность однородного симметричного канала связи
- •5.3. Пропускная способность непрерывного канала связи
- •5.4. Обмен мощности сигнала на ширину его спектра
- •5.5. Сравнение пропускной способности непрерывного и дискретного каналов связи.
- •5.6. Эффективность систем связи
- •Глава 6. Критерии описания реальных дискретных каналов
- •6.1. Описание источника ошибок на основе цепей Маркова
- •6.2. Описание источника ошибок на основе процессов восстановления
- •6.3. Описание источника ошибок на основе процессов накопления
- •6.4. Модель Гилберта
- •6.5. Модель Эллиота-Гилберта. Модель Элиота
- •6.6. Модель Беннета-Фройлиха
- •6.7. Модель Попова - Турина
- •Глава 7. Кодирование информации
- •7.1. Статистическое кодирование дискретных сообщений
- •7.2. Статистическое кодирование кодовых слов
- •Средняя длина кодового слова
- •7.3. Кодирование информации для канала с помехами
- •7.3. Разновидности помехоустойчивых кодов
- •7.4 Общие принципы использования избыточности
- •7.5. Связь корректирующей способности кода с кодовым расстоянием
- •7.6. Понятие качества корректирующего кода
- •7.7. Линейные коды
- •7.7. Математическое введение к линейным кодам
- •7.8. Линейный код как пространство линейного векторного пространства
- •7.9. Построение двоичного группового кода
- •7.10. Составление таблицы опознавателей
- •7.11. Определение проверочных равенств
- •7.12. Мажоритарное декодирование групповых кодов
- •7.13. Матричное представление линейных кодов
- •7.14. Построение циклических кодов
- •Математическое введение к циклическим кодам
- •7.17. Обнаружение одиночных ошибок
- •Исправление одиночных или обнаружение двойных ошибок
- •7.18. Обнаружение ошибок кратности три и ниже
- •7.19. Обнаружение и исправление независимых ошибок произвольной кратности
- •7.20. Методы образования циклического кода
- •7.21. Матричная запись циклического кода
- •7.22. Укороченные циклические коды
- •Глава 8. Сжатие информации
- •8.1. Основные понятия
- •8.2. Методы сжатия без потерь
- •8.3. Методы сжатия с потерями
- •8.4. Сжатие графики
- •Прямое дкп
- •8.5. Сжатие звука
- •8.6. Сжатие видеоинформации
- •Вопросы для самопроверки
- •Список литературы
3.2. Энропия типичных и нетипичных комбинаций
Предположим, что
источник выдает только типичные
комбинации с одинаковой вероятностью,
т.е.
и вероятность появления типичных
комбинаций
.
Если, в качестве
выходной информации источника
рассматривать типичные комбинации
(обозначим его как
),
то максимально возможная энтропия
такого источника будет равна
.
В этом случае
энтропию исходного источника сообщений,
через количество типичных комбинаций
можно записать как
|
(3.2.) |
Исходя из (3.2.) количество типичных комбинаций можно выразить как
|
(3.3.) |
Для источника
дискретных сообщений с известной
производительностью
выражение
(3.3) можно переписать в виде
|
(3.4.) |
где
-
время отправки типичной комбинации
длиной
.
Возвращаясь к
реальному случаю
.
С учетом того, что избыточность источника
,
,
формулу (3.3.) можно переписать как
|
(3.5.) |
Общее количество
комбинаций источника дискретных
сообщений длиной
равно
|
(3.6.) |
Соотношение между типичными и нетипичными комбинациями можно выразить как
|
(3.7.) |
|
(3.8.) |
Исходя из (3.2-11.5)
можно утверждать, что доля типичных
комбинаций с ростом
убывает, а доля не типичных комбинаций
растет.
Пример 3.10. Если в качестве источника дискретных сообщений рассмотреть текст, написанный на русском языке, то средняя длина слова будет равна шести символам. Будем рассматривать в качестве типичной комбинации рассматривать осмысленные слова, а в качестве нетипичной комбинации бессмысленный набор символов длиной в шесть символов.
В этом случае при
и
,
,
.
Исходя из выше
изложенного можно утверждать, что всего
в русском языке можно построить
возможных слов, но осмысленными из них
будет только
слов.
Пример 3.11. оценить, какую долю общего числа возможных последовательностей следует учитывать в практических расчетах, если эргодический источник характеризуется параметрами I=16, H(Z) = 3,5 дв.ед., N=50.
Решение.
В соответствии с (3.2 – 3.4.) имеем
откуда
Следовательно, к типичным последовательностям относится только одна тридцатимиллионная доля всех возможных реализаций.
3.3. Условная энтропия
Для подсчета среднего количества информации на символ сообщений вводят понятие «условная энтропия». Если состояния элементов системы не зависят друг от друга, если состояние одной системы не зависит от состояния другой системы, то неопределенность того, что некоторый элемент системы (или некоторая система) будет находиться в одном из k возможных состояний полностью определялась бы вероятностными характеристиками отдельных элементов системы, либо вероятностными характеристиками состояний самих систем, т.е.
|
(3.9.) |
При этом подразумевалось, что символы сообщения взаимонезависимы, т.е. с приходом одного символа распределение вероятностей последующих символов не изменяется. Так может быть, например, при передаче из кассы букв конечного алфавита, но с обязательным условием, что после передачи каждой буквы она опять будет возвращена в кассу.
Что касается взаимодействующих систем, то обычно состояние одной из них влияет на состояние другой, как состояние моря и скорость ветра влияет на положение корабля. В таких случаях энтропия не может быть определена только на основании безусловных вероятностей.
При подсчете среднего количества информации на символ сообщения взаимозависимость учитывают через условные вероятности совершения одних событий относительно других, а полученную при этом энтропию называют условной энтропией.
Если элементы источника сообщений принимают состояния x1, x2, ..., xi ..,, xm с вероятностями соответственно p(x1), р(x2), ..., р(xi), ..., р(xm), а элементы адресата — состояния yl, y2, … yi, ..., yn с вероятностями соответственно р(y1), р(y2), ..., р(yj), ..., р(yn), то понятие условной энтропии H(yi/xi) выражает неопределенность того, что, отправив xi , мы получим yj, а понятие А (xi /yi) - неуверенность, которая остается после получения xi в том, что было отправлено именно xi. Если в канале связи присутствуют помехи, то с различной степенью вероятности может быть принят любой из сигналов xi, и, наоборот, принятый сигнал yj может появиться в результате отправления любого из сигналов а,. Если в канале связи помехи отсутствуют, то всегда посланному символу xi соответствует принятый символ yj. При этом энтропия источника Н(X) равна энтропии приемника Н(Y).
Принято выделять два основных вида условной энтропии: частная условная энтропия и общая условная энтропия.
В случае не равновероятного появления символов источника сообщений следует учесть вероятность появления каждого символа, умножив на нее соответствующую частную условную энтропию.
Частная условная энтропия системы Y относительно отдельного события xi будет равна
|
(3.10.) |
Она характеризует
неопределенность состояния системы X
в случае,
когда известно состояние у
наблюдаемой системы В. Зафиксировав
состояние уj
системы Y,
мы тем самым изменяем комплекс условий,
при которых
может реализоваться событие
xi
.
Это обнаруживается как изменение
вероятности реализации события xi
(имеет место статистическая зависимость).
Если до изменения условий указанная
вероятность была равна безусловной
(полной) вероятности p(xi),
то после
изменения условий она стала равной
условной вероятности р(xi,yj).
Если частную условную энтропию усреднить по всем состояниям xi с учетом вероятности появления каждого из состояний p(xi), то найдем полную условную энтропию сообщений Y относительно X.
|
|
|
(3.11.) |
|
|
Если исследовать канал связи со стороны приемника сообщений (то есть известен принятый сигнал), то с получением сигнала yj предполагаем, что был послан какой-то из сигналов x1 ,x2, .... xi, ..., xт.
Понятие условной энтропии широко используется для определения информационных потерь при передаче информации. Пусть по каналу связи передаются символы алфавита Х. В результате воздействия помех приемником будут приниматься символы другого алфавита Y (рис. 7).
Рис. 7. Передача информации по каналу связи при воздействии помех
H(xi/yj) выражает неопределенность того, что, отправив xi, мы получим yj, а также неуверенность в том, что было отправлено именно xi, которая остается после получения yj. Если в канале связи помехи отсутствуют, то всегда посланному символу xi соответствует принятый символ yi. При этом энтропия источника H(X) равна энтропии приемника H(Y). Если в канале связи присутствуют помехи, то они уничтожают часть передаваемой информации.
Информационные
характеристики реальных каналов связи
лежат между этими двумя предельными
случаями. При этом потери информации
при передаче
символов по данному каналу связи
.
Приведем основные свойства условной энтропии.
1. Если сообщения X и Y статистически независимы, то условная энтропия сообщений Y относительно X равна безусловной энтропии сообщений Y: H(Y/X)=H(Y). В этом случае вся информация, которую содержат сообщения Y, является новой но отношению к информации, содержащейся в сообщениях X.
В самом деле, если сообщения X и Y статистически независимы, то p(yj/xi)-p(yj) и общая условная энтропия может быть записана в форме
.
Так
как сумма вероятностей всех состояний
X
равна единице
,
то
или P(Y/X)=P(Y).
2. Если сообщения X и Y являются статистически жестко связанными, то условная энтропия сообщений Y относительно X равна нулю H(Y/X)=0. Это означает, что сообщения Y не содержат никакой новой информации сверх той, которая содержится в сообщениях X.
3. Условная энтропия всегда меньше безусловной энтропии H(Y/X)<H(Y).
Пример 3.12. В результате статистических испытаний установлено, что при передаче каждых 100 сообщений длиной по 5 символов в сообщении символ К встречается 50 раз, а символ Т – 30 раз. Вместе с символом К символ Т встречается 10 раз. Определить условные энтропии Н(К/Т) и Н(Т/К).
Решение.
Общее
количество переданных символов
Вероятность
появления символа К:
Вероятность
появления символа Т:
Вероятность
совместного появления символа К и Т :
Так как
,
то условная вероятность появления
символа К относительно Т
Условная вероятность появления символа Т относительно символа К
Условная энтропия символа К относительно Т
Условная энтропия появления символа Т относительно К
Пример 3.13. Имеются две системы Х и Y, объединяемые в одну (X, Y); вероятности состояний системы (X, Y) заданы таблицей
Yj/xi |
X1 |
X2 |
X3 |
Pij |
Y1 |
0,1 |
0,2 |
0 |
0,3 |
Y2 |
0 |
0,3 |
0 |
0,3 |
Y3 |
0 |
0,2 |
0,2 |
0,4 |
Pi |
0,1 |
0,7 |
0,2 |
|
Определить полные условные энтропии Н(Y X) и Н(Х\ Y).
Решение. Складывая вероятности Рij по столбцам, получим вероятности рi = Р (X ~ хi).
P1= 0,1; р2 = 0,7; p3 = 0,2.
Записываем их в нижней, добавочной строке таблицы. Аналогично, складывая pij по строкам, найдем;
R1=0,3; r2=0,3; r4=0,4 (rj = P(Y~yj)) и запишем справа дополнительным столбцом. Деля Рij , на рi, получим таблицу условных вероятностей Р(уj\хi):
Yj/xi |
X1 |
X2 |
X3 |
Y1 |
1 |
02,/07 |
0 |
Y2 |
0 |
0,3/0,7 |
0 |
Y3 |
0 |
0,2/0,7 |
1 |
По формуле (5) находим H(Y/ X). Так как условные энтропии при X ~ х1, X ~ х3 равны нулю, то
H(Y/X) = 0,7(0,2/0,7log(0,2/0,7)+0,3/0,7log(0,3/0,7) + 0,2/0,7log(0,2/0,7).
Пользуясь таблицей 1 приложения, находим
H(Y/X) = 1,09 (дв.ед.).