
- •О.Т.Данилова Теория информации
- •Введение
- •Глава 1. Основные понятия теории информации
- •1.1. Свойства информации
- •1.2. Этапы обращения информации
- •1.3. Определение системы передачи информации. Каналы связи.
- •1.4. Алфавит сообщения
- •1.5. Источник информации
- •Глава 2. Количество информации
- •2.1. Объемный подход к измерению информации
- •2.2. Количественная мера информации р.Хартли
- •2.3. Мера информации к. Шеннона
- •2.4. Условная собственная информация. Взаимная информация
- •1 (Бит), где m – мощность алфавита.
- •Глава 3. Энтропия дискретной последовательности. Энтропия непрерывной случайной величины
- •3.1. Частная энтропия
- •Прологарифмировав последнее равенство, получим
- •3.2. Энропия типичных и нетипичных комбинаций
- •3.3. Условная энтропия
- •3.4. Энтропия объединения ансамблей
- •3.5. Канальные матрицы
- •3.6. Количество информации при неполной достоверности и статистической зависимости сообщений
- •3.7. Избыточность источника
- •3.8. Энтропия непрерывной случайной величины
- •3.9. Количество информации для непрерывных систем
- •3.10. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (3.7) в (3.4):
- •3.11. Эпсилон энтропия
- •Глава 4. Общие сведения из теории сигналов
- •4.1. Классификация сигналов и систем
- •Характеристики сигналов передаваемых по каналу
- •4.3. Модуляция сигналов. Виды и характеристики носителей
- •4.4. Спектры сигналов
- •4.5. Тригонометрическая форма
- •4.6. Комплексная форма
- •4.7. Определение погрешности
- •Глава 5. Скорость передачи и пропускная способность канала связи
- •5.1. Скорость передачи информации в дискретной системе связи
- •5.2. Пропускная способность однородного симметричного канала связи
- •5.3. Пропускная способность непрерывного канала связи
- •5.4. Обмен мощности сигнала на ширину его спектра
- •5.5. Сравнение пропускной способности непрерывного и дискретного каналов связи.
- •5.6. Эффективность систем связи
- •Глава 6. Критерии описания реальных дискретных каналов
- •6.1. Описание источника ошибок на основе цепей Маркова
- •6.2. Описание источника ошибок на основе процессов восстановления
- •6.3. Описание источника ошибок на основе процессов накопления
- •6.4. Модель Гилберта
- •6.5. Модель Эллиота-Гилберта. Модель Элиота
- •6.6. Модель Беннета-Фройлиха
- •6.7. Модель Попова - Турина
- •Глава 7. Кодирование информации
- •7.1. Статистическое кодирование дискретных сообщений
- •7.2. Статистическое кодирование кодовых слов
- •Средняя длина кодового слова
- •7.3. Кодирование информации для канала с помехами
- •7.3. Разновидности помехоустойчивых кодов
- •7.4 Общие принципы использования избыточности
- •7.5. Связь корректирующей способности кода с кодовым расстоянием
- •7.6. Понятие качества корректирующего кода
- •7.7. Линейные коды
- •7.7. Математическое введение к линейным кодам
- •7.8. Линейный код как пространство линейного векторного пространства
- •7.9. Построение двоичного группового кода
- •7.10. Составление таблицы опознавателей
- •7.11. Определение проверочных равенств
- •7.12. Мажоритарное декодирование групповых кодов
- •7.13. Матричное представление линейных кодов
- •7.14. Построение циклических кодов
- •Математическое введение к циклическим кодам
- •7.17. Обнаружение одиночных ошибок
- •Исправление одиночных или обнаружение двойных ошибок
- •7.18. Обнаружение ошибок кратности три и ниже
- •7.19. Обнаружение и исправление независимых ошибок произвольной кратности
- •7.20. Методы образования циклического кода
- •7.21. Матричная запись циклического кода
- •7.22. Укороченные циклические коды
- •Глава 8. Сжатие информации
- •8.1. Основные понятия
- •8.2. Методы сжатия без потерь
- •8.3. Методы сжатия с потерями
- •8.4. Сжатие графики
- •Прямое дкп
- •8.5. Сжатие звука
- •8.6. Сжатие видеоинформации
- •Вопросы для самопроверки
- •Список литературы
3.4. Энтропия объединения ансамблей
Энтропия
объединения ансамблей
используется
для вычисления энтропии совместного
появления статистических зависимых
сообщений. Например, передав сто раз
цифру 5 по каналу связи с помехами,
заметим, что цифра 5 была принята 90 раз,
цифра 6 – 8 раз и цифра 4 – 2 раза.
Неопределенность возникновения
комбинаций вида 5 – 4, 5 – 5, 5 – 6 при
передаче цифры 5 может быть описана при
помощи энтропии объединения.
- неопределенность того, что будет
посланоX,
а принято Y.
Пусть имеется сложная система, состоящая из двух систем X и Y, X=(x1,…, xi,…, xm )и Y=(y1… ,yj, … yn ).
Если два ансамбля
X
и Y
статистически зависимы, то совместное
распределение на ансамбле пар ()
может быть представлено в виде:
|
(3.12.) |
В этом случае энтропия объединения ансамблей принимает вид
|
(3.13.) |
В этом выражении
.
Поэтому
|
(3.14.) |
Первое слагаемое
в правой части есть знакомая нам энтропия
ансамбля X.
Второе слагаемое представляет собой
усредненное по ансамблю X
выражение
.
Здесь используются
условные вероятности и это дает нам
право считать, что выделенное выражение
есть неопределенность выбора отдельного
сообщения
из ансамбляY
при условии, что известно одно сообщение
.
Другими словами, это естьчастная
условная энтропия
ансамбля Y
при условии, что известно сообщение
из ансамбляX,
который статистически связан с Y.
Обозначим эту частную условную энтропию
через
.
Усредняя частную условную энтропию по
ансамблюX,
получим среднюю
условную энтропию
|
(3.15.) |
В результате окончательно получим выражение для энтропии объединения статистически связанных ансамблей:
|
(3.16.) |
Аналогично выводятся следующие выражения, симметричные этому:
H(XY)=H(YX)=H(YV)+H(X/Y). |
(3.17.) |
При наличии третьего ансамбля Z, статистически связанного с первыми двумя, получим:
H(XYZ)=H(XY)+H(Z/XY)=H(X)+H(Y/X)+H(Z/XY). |
(3.18.) |
Это выражение легко расширяется на объединение произвольного количества статистически связанных ансамблей:
H(XUZ...W)=H(X)+H(Y/X)+H(Z/XY)+. . . +H(W/XYZ. . .). |
(3.19.) |
В общем случае энтропия объединенной системы
H(X,Y)≤ H(X)+H(Y),
что следует из отношения H(Y/X)≤H(Y).
Энтропия объединенной системы достигает максимумf, только в случае если системы независимы.
В случае полной зависимости систем, состояния одной системы полностью определяют состояния другой (они эквивалентны):
H(X,Y)=H(X)=H(Y), так как H(Y/X)=0.
Энтропия объединенного ансамбля H(XY) удовлетворяет следующим соотношениям
а) H(XY)= H(X)+ H(Y/X)= H(Y)+ H(X/Y) , если X и Y зависимы;
б) H(XY)= H(X)+ H(Y), если X и Y независимы.
В случае если имеются n - зависимых систем, энтропия объединения будет равна:
H(Х1;Х2;Х3;…;Хn) = Н(Х1)+Н(Х2/Х1)+Н(Х3/Х1Х2) +…+Н(Хn/Х1Х2…Хn).
Энтропия первой системы входит полностью, энтропия второй системы с учетом того, что первая определена, третей - первые две определены и т.д.
Пример 3.14. В буфере ИС ожидают обработки 6 заданий. 2 из них запрашивают дополнительный ресурс (например, принтер), 4 – не требуют ресурса. Последовательно в случайном порядке отправляются на обработку два задания. Найти энтропию запроса дополнительного ресурса.
Решение. Будем считать сообщением А – посылку первого задания на выполнение. Ресурс потребуется с вероятностью Р(А1)=2/6=1/3. Ресурс не потребуется с вероятностью Р(А2)=2/3. Энтропия сообщения А равна:
Н(А)= - Р(А1)logР(А1) - Р(А2)logР(А2)= -1/3 log1/3 – 2/3 log 2/3 = 0.918 бит.
Сообщение В – посылка второго задания на выполнение. Вероятность того, что потребуется ресурс Р(В1), зависит от того, какое задание было послано первым.
при А1: Р(В1|А1)=1/5, Р(В2| А1)=4/5; H(B|А1)= -1/5∙log1/5 – 4/5∙log4/5 = 0.722;
при А2: Р(В1|А2)=2/5, Р(В2|А2)=3/5; H(B|А2)= -2/5∙log2/5 – 3/5∙log3/5 = 0.971.
Следовательно, энтропия сообщения В равна
H(B|A)= Р(А1)∙H(B|А1)+Р(А2)∙H(B|А2) = 1/3∙0.722 + 2/3∙0.971 = 0.888 бит.
Обратим внимание, что энтропия сообщения В оказалась меньше, чем сообщения А. Это естественно, так как, получив информацию об исходе А, у нас уменьшилась неопределенность относительно исхода В. Полная совместная энтропия получается по формуле:
H(A,B)= 0.918 + 0.888 = 1.806 бит.
Пример 3.15. Имеется три тела с одинаковыми внешними размерами, но с разными массами x1, x2 и x3. Необходимо определить энтропию, связанную с нахождением наиболее тяжелого из них, если сравнивать веса тел можно только попарно.
Решение. Последовательность действий достаточно очевидна: сравниваем вес двух любых тел, определяем из них более тяжелое, затем с ним сравниваем вес третьего тела и выбираем наибольший из них. Поскольку внешне тела неразличимы, выбор номеров тел при взвешивании будет случаен, однако общий результат от этого выбора не зависит. Пусть опыт A состоит в сравнении веса двух тел, например, первого и второго. Этот опыт, очевидно, может иметь два исхода: A1: x1 > x2, его вероятность p(A1) = 1/2; исход A2: x1 < x2; также его вероятность p(A2)=1/2.
H(А) = –1/2 log21/2 – 1/2 log21/2 = 1 (бит).
Опыт B – сравнение весов тела, выбранного в опыте A, и третьего – имеет четыре исхода: B1: x1> x3, B2: x1< x3, B3: x2> x3, B4: x2< x3; вероятности исходов зависят от реализовавшегося исхода A – для удобства представим их в виде таблицы:
|
B1 |
B2 |
B3 |
B4 |
A1 |
1/2 |
1/2 |
0 |
0 |
A2 |
0 |
0 |
1/2 |
1/2 |
Находим:
;
;
H(B|A)=p(A1)∙H(B|A1)+p(A2)∙H(B|A2)=1/2∙1+1/2∙1=1 бит.
Следовательно, энтропия сложного опыта, т.е. всей процедуры испытаний:
H(A,B)=H(A)+H(B|A)=2 (бит).
Пример 3.16. Установленное на предприятии оборудование в результате эксплуатации может оказаться в одном из трех состояний износа:
С1 – оборудование работоспособно, но требует небольшого ремонта;
С2 – большая часть деталей изношена, требуется серьезный ремонт;
С3 – дальнейшая эксплуатация оборудования невозможна.
Предыдущая практика показывает, что вероятность состояния С1 равна 20%, р(С2) = 50%, р(С3) = 30%. Найти неопределенность (энтропию) состояния оборудования.
Решение. H(C) = -(0.2∙log20.2+0.5∙log20.5+0.3∙log20.3)=1.48.
Пример 3.17. Для уточнения состояния оборудования из предыдущей задачи на предприятии проведены испытания оборудования. Недостаточная квалификация персонала и отсутствие необходимой контрольно-измерительной аппаратуры привели к тому, что результаты испытаний не достоверно отражают истинное состояние оборудования. В результате испытаний возможны 4 исхода:
Z1 – оборудование исправно; Z2 – требуется регулировка; Z3 – требуется замена отдельных деталей; Z4 – оборудование не пригодно к эксплуатации.
Условные априорные вероятности каждого исхода в зависимости от истинного состояния оборудования сведены в таблицу:
p(Z|C) |
Z1 |
Z2 |
Z2 |
Z4 |
C1 |
0.5 |
0.5 |
0 |
0 |
C2 |
0 |
0.5 |
0.5 |
0 |
C3 |
0 |
0 |
0.25 |
0.75 |
Насколько уменьшилась неопределенность о состоянии оборудования в результате испытаний?
Решение. Необходимо найти общую условную энтропию С при условии получения сообщения Z: H(C|Z).
Найдем вероятность каждого исхода Zi.
p(Z1) = 0.2∙0.5+0.5∙0+0.3∙0 = 0.1; p(Z2) = 0.2∙0.5+0.5∙0.5+0.3∙0 = 0.35;
p(Z3) = 0.2∙0+0.5∙0.5+0.3∙0.25 = 0.325;p(Z4) = 0.2∙0+0.5∙0+0.3∙0.75 = 0.225
Найдем апостериорную вероятность состояний Cj по формуле Байеса p(Cj|Zi) = p(Zi|Cj)∙p(Cj)/p(Zi). Результаты сведем в таблицу
p(C|Z) |
Z1 |
Z2 |
Z3 |
Z4 |
C1 |
1 |
0.29 |
0 |
0 |
C2 |
0 |
0.71 |
0.77 |
0 |
C3 |
0 |
0 |
0.23 |
1 |
Наконец, вычислим общую условную энтропию H(C|Z):
H(C|Z)
=
= 0+0.35∙0.87+0.325∙0.78+0 =0.56.
Видно, что в результате испытаний неопределенность уменьшилась.