
- •Сибирская Аэрокосмическая Академия
- •Статический метод
- •Энтропия и её свойства
- •Энтропия сложной системы
- •Условная энтропия. Объединение зависимых систем.
- •Полная условная энтропия
- •Теорема сложения энтропий
- •Определение информационных потерь в каналах связи
- •Энтропия и информация
- •Взаимная информация
- •Сумма равна единице
- •Частная информация о системе
- •Частная информация о событии, получаемая в результате сообщения о другом событии.
- •Энтропия и информация для систем с непрерывным множеством состояний
- •Условная энтропия непрерывной системы
- •Количественное определения избыточности
- •Блочное кодирование
- •Избыточность от округления
- •1 Символ – 4 бита
- •Код Хафмана
- •Процедура кодирования
- •Передача информации по дискретным каналам связи
- •Основная теорема Шеннона о кодировании для дискретного канала без помех
- •Дискретный канал с помехами
- •Теорема о кодировании Шеннона для дискретного канала с помехами
- •Корректирующие коды
- •Исправление ошибок с помощью полной кодовой таблицы
- •Разбиение
- •Систематические коды
- •Декодирование систематических кодов
- •Код Хэминга
- •Декодирование кода Хэминга
- •Особенности декодирования.
- •Циклические коды
- •Декодирование циклических кодов
- •Построение декодированного конкретного циклического кода
- •Обнаружение и определение ошибок
- •Коды, обнаруживающие трёхкратные ошибки
Полная условная энтропия
Для определения полной условной энтропии, каждая частная условная энтропия умножается на вероятность соответствующего состояния и все произведения складываются.
pi
= p(xi)
– вероятность
наступления события xi
;
pi * p(yj / xi) = pij
Тогда
; H(Y
/ x) = M[ - log P(y / x)]
В целом полная условная энтропия характеризует степень неопределённости состояния системы Y, оставшуюся после того, как состояние системы X полностью определилось.
Пример: Имеются две системы, объединённые в одну, вероятности состояния которых заданы таблицей совместных вероятностей. Определить полную условную энтропию.
Определим
вероятности каждого события. Для этого
складываем pij
по столбцам.
-
xi & yi
x1
x2
x3
rj
y1
0.1
0.2
0
0.3
y2
0
0.3
0
0.3
y3
0
0.2
0.2
0.4
pi
0.1
0.7
0.2
Построить
таблицу условных вероятностей p(y
/ x).
в каждой строке
-
yi& xj
x1
x2
x3
y1
1
0.2/0.7
0
y2
0
0.3/0.7
0
y3
0
0.2/0.7
1
бит/символ
Составим
таблицу условных вероятностей P(x
/ y).
-
xi& yi
x1
x2
x3
y1
0.1/0.3
0.2/0.3
0
y2
0
1
0
y3
0
0.2/0.4
0.2/0.4
H(x / y) = 0.3[(0.1/0.3) + (0.2/0.3)]+ 0.4[(0.2/0.4 + (0.2/0.4)] = 0.68 бит/символ
Н - характеризует потери сигналов при прохождении через канал связи.
Теорема сложения энтропий
Если две системы X и Y объединятся в одну, то энтропия объединений системы равна энтропии одной из систем плюс условная энтропия второй системы относительно первой.
H(x, y) = H(x) + H(y / x)
Доказательство этой теоремы:
Запишем H(x, y) через. математическое ожидание
H(x, y) = M[ - log p(x, y)]
По теореме умножения вероятностей
p(x, y) = p(x) * p(y / x)
log p(x, y) = log p(x) + log p(y / x)
M[x, y] = M[ - log p(x)] + M[ - log p(y / x)]
H(x, y) = H(x) + H(y / x)
Интерес представляют частные случаи:
Когда системы независимы, условная энтропия H(y / x) = H(y) и получаем теорему сложения энтропий H(x, y) = H(x) + H(y).
H(x, y) H(x) + H(y)
Когда состояние одной системы X полностью определяет состояние другой системы Y. В этом случае условная энтропия равна нулю.
H(y / x) = 0 H(y, x) = H(x)
Пример: Передаются два элемента a, b. Определить количество переданной информации в случае, когда:
1) Элементы взаимозависимы и не равновероятны
p(a)
=
; p(b)
=
; p(a
/ a) =
p(b
/ a) =
p(b / b) = 0 p(a / b) = 1
I = H – вероятность события а
I = H = - p(a)[ p(a / a) log p(a / a) + p(b / a) log p(b / a) ] – p(b)[ p(a / b) log p(a / b) + p(b / b) log p(b / b)] = 0.685 бит/символ .
2) не равновероятны и независимы:
p(a)
=
;p(b)
=
I
= - p(a) log p(a) – p(b) log p(b) = -
log
-
log
= 0.815бит/символ
3) элементы независимы и равновероятны:
p(a)
= p(b) =
; I
= log2
= 1