
- •Сибирская Аэрокосмическая Академия
- •Статический метод
- •Энтропия и её свойства
- •Энтропия сложной системы
- •Условная энтропия. Объединение зависимых систем.
- •Полная условная энтропия
- •Теорема сложения энтропий
- •Определение информационных потерь в каналах связи
- •Энтропия и информация
- •Взаимная информация
- •Сумма равна единице
- •Частная информация о системе
- •Частная информация о событии, получаемая в результате сообщения о другом событии.
- •Энтропия и информация для систем с непрерывным множеством состояний
- •Условная энтропия непрерывной системы
- •Количественное определения избыточности
- •Блочное кодирование
- •Избыточность от округления
- •1 Символ – 4 бита
- •Код Хафмана
- •Процедура кодирования
- •Передача информации по дискретным каналам связи
- •Основная теорема Шеннона о кодировании для дискретного канала без помех
- •Дискретный канал с помехами
- •Теорема о кодировании Шеннона для дискретного канала с помехами
- •Корректирующие коды
- •Исправление ошибок с помощью полной кодовой таблицы
- •Разбиение
- •Систематические коды
- •Декодирование систематических кодов
- •Код Хэминга
- •Декодирование кода Хэминга
- •Особенности декодирования.
- •Циклические коды
- •Декодирование циклических кодов
- •Построение декодированного конкретного циклического кода
- •Обнаружение и определение ошибок
- •Коды, обнаруживающие трёхкратные ошибки
Энтропия и её свойства
Рассмотрим некоторую систему, которую обозначим за X, котороя может принимать конечное множество состояний x1, x2, …,xn (пример: алфавит x1,..,xn - буквы). Вероятность появления символов p1, p2, .. ,pn.
Свойства:
1)
Энтропию системы X
-
-всегда больше
нуля. Это следует из того, что log2
pi
– отр., pi
меньше единицы
и – на - , даёт плюс.
2) Энтропия обращается в 0, когда одно из состояний достоверно, а другие невозможны, т.е. какая-то из вероятностей будет равна единице, логорифм даст ноль, следовательно, Н(x) = 0.
3) Обращается в максимальное, когда все состояния равновероятны.
4) Энтропия обладает свойством аддитивности, кода несколько систем объединяются в одну, их энтропии складываются.
Рассмотрим простейший случай. Система имеет два состояния и эти состояния равновероятны.
-
H(x) = - (0.5 log 0.5 + 0.5 log 0.5) = 1 бит/символ
xix1
x2
p1
0.5
0.5
Определить энтропию системы X, которая имеет n равновероятных состояний
-
xi- log 1 + log n = log n
x1
x2 …
xn
pi
…
- это частный случай, когда все вероятности одинаковы.
Пример: Система X имеет восемь состояний. Определить энтропию. (состояния равновероятны)
n
= 8
Пример: Определить H, состояние которой описывается таблицей.
Система имеющая пять состояний
-
xiбит/символ
x1
x2
x3
x4
x5
p1
0.01
0.01
0.01
0.01
0.96
Иногда энтропию определяют через математическое ожидание
H(x) = M[-log2 p(x)] – это позволяет упростить математические выкладки.
Пример: Алфавит состоит из букв a, b, c, d. Даны вероятности pa = pb = 0,25; рс = 0,34; pd = 0.16
H(x) = - (2*0.25 log 0.25 + 0.34 log 0.34 + 0.16 log 0.16) = 1.952 бит/символ
Энтропия сложной системы
Под объединением двух систем X и Y с возможными состояниями x1,x2,…,xn , y1, y2,…,ym , понимается сложная система (x, y), состояние которых xi,yi; представляют собой все возможные комбинации состояний xi,yi .
Число возможных состояний равно m х n.
Обозначим символом pi,j , вероятность того, что система может находиться в состоянии p(xi,yi). Тогда вероятность pij можно представить в виде таблицы совместных вероятностей.
-
таблица совместных вероятностей
xi & yix1
x2
…
xn
y1
p11
p21
…
pn1
y2
p12
p22
pn2
…
…
…
…
…
ym
p1m
p2m
…
pnm
;
; H(x,
y) = M[- log p(x, y)].
Пусть системы X, Y независимы. Тогда по теореме умножения вероятностей имеем:
p(x, y) = p(x) * p(y)
Прологарифмируем левую и правую часть
log p(x, y) = log p(x) + log p(y)
H(x, y) = M[- log p(x) – log p(y)]
H(x, y) = H(x) + H(y), если независимые системы, то их энтропии складываются.
Условная энтропия. Объединение зависимых систем.
Пусть имеем две зависимые системы X и Y. Пусть система X приняла состояние xi, а система Y приняла состояние yi , тогда обозначим p(yi / xi) – это условная вероятность того, что система Y примет состояние yi, при условии, что система X приняла состояние xi.
Неопределённость системы в состоянии Y определяется частной условной энтропией.
-
система X
находится в
конкретном состоянии
;
- условное математическое ожидание