
- •А.А. Кузьмин
- •1. Энтропия вероятностной схемы
- •1.1.Основные принципы, понятия и определения теории информации
- •1.2.Количество информации в сообщении
- •Энтропия источника сообщений
- •1.3.Условная энтропия
- •Взаимная информация и взаимная энтропия
- •1.7. Скорость создания информации дискретным источником без памяти
- •2. Элементы теории кодирования информации
- •Основные характеристики кодов
- •1.4.Теоремы кодирования Шеннона
- •Скорость передачи информации по каналу связи определяется количеством передаваемой информации и интервалом времени ее передачи:
- •Таким образом, для реализации помехоустойчивого кодирования в канале связи с помехами, способного обеспечить сколь угодно высокую степень верности, необходимо выполнение условия
- •Контрольные вопросы
- •3. Простые (безызбыточные) коды
- •3.4. Примеры неравномерных кодов
- •Построение кодового дерева Шеннона-Фано
- •Общие принципы построения помехоустойчивых кодов
- •Классификация помехоустойчивых кодов
- •Основные характеристики и корректирующие свойства блочных кодов
- •Линейные блочные коды с обобщенными проверками на четность
- •Формирование (n, k) кода с обобщенной проверкой на четность
- •Структурные схемы кодеров и декодеров линейного кода
- •Принцип построения циклического кода
- •Алгоритм декодирования циклических кодов
- •Структурная схема кодера циклического кода
- •Бчх коды
- •Рекуррентные коды. Кодирование с перемежением
- •Принцип построения рекуррентных (сверточных) кодов
- •Декодирование сверточных кодов
- •6. Пропускная способность каналов связи
- •Пропускная способность непрерывного канала связи
- •Пути повышения пропускной способности непрерывных каналов связи
- •1.5.Пропускная способность дискретного канала связи без помех
- •Контрольные вопросы
- •Элементы теории кодирования информации
- •Простые (безызбыточные) коды
- •Помехоустойчивые блочные коды
- •5. Рекуррентные коды. Кодирование с перемежением
- •6. Пропускная способность каналов связи
- •. Пропускная способность дискретного канала связи без помех 98
- •Основы теории информации
1.3.Условная энтропия
При передаче информации часто имеют дело с несколькими источниками, дающими зависимые сообщения. Совокупность сообщений, вырабатываемых несколькими источниками, назовем сложным сообщением.
Пусть имеются два источника сообщений. Сообщения первого источника принимают значения х1 , х2 , …, хn с вероятностями p(х1), p(х2), …, p(хn), а сообщения второго источника принимают значения y1, y2, …, ym с вероятностями p(y1), p(y2), …, p(ym).
Совместную энтропию совокупности сообщений X и Y можно записать в виде
,
Где p(xi , yj) – вероятность совместного появления xi и yj.
Учитывая, что совместная вероятность может быть представлена в виде p(xi , yj) = p(xi) p(yj / xi), где p(yj /xi) – условная вероятность сообщения yj при условии, что поступило сообщение xi , выражение можно привести к виду
Так как при наличии сообщения xi обязательно будет одно из сообщений ансамбля yj , то
.
Выражение для совместной энтропии может быть представлено в следующем виде
где
– частная условная энтропия, выражающая
энтропию сообщения Y
при условии, что имело место сообщение
Х.
Второй член
выражения представляет собой усреднение
H(Y
/
x i )
по всем сообщениям х1,
х2,
…,
хn
и называется средней условной энтропией
сообщения Y
при условии
поступления сообщения X.
Обозначив его через H(Y
/ Х),
окончательно
получим
H(X, Y) = H(X) + H(Y / X),
Основной смысл условной энтропии H(Y/X) состоит в том, что она показывает, какую энтропию дают сообщения Y, когда уже известна энтропия сообщений X.
Из очевидного равенства H(X, Y) = H(Y, X) получим
H(X, Y) = H(Y) + H(X / Y).
Таким образом, совместная энтропия двух сообщений равна сумме безусловной энтропии одного из сообщений и условной энтропии второго сообщения.
Можно определить следующие основные свойства энтропии сложных сообщений:
При статистически независимых сообщениях X и Y условная энтропия равна энтропии одного сообщения (без вывода):
H(Y / X) = H(Y).
При полной статистической зависимости сообщений X и Y, условная энтропия равна нулю или единице. Действительно, полная статистическая зависимость соответствует случаю, когда условные вероятности равны нулю или единице.
Условная энтропия может измеряться в пределах: 0 H (Y / X) 1.
В реальных условиях независимость элементов сообщений – явление довольно редкое. Например, при передаче русского текста вероятности появления отдельных букв зависят от того, какие буквы им предшествовали. Например, если передана буква «п», то вероятность того, что следующей может быть буква «а», гораздо больше, чем вероятность появления буквы «р». После буквы «ъ» никогда не ожидается появление буквы «н» и т.п. Такая зависимость между элементами образовалась исторически, в процессе формирования русского языка.
Аналогичные случаи характерны и для других языков.
Очевидно, что при определении энтропии и количества информации в сообщениях, элементы которых коррелированны, нельзя ограничиваться, как это мы делали до сих пор, только безусловными вероятностями элементов сообщений. Необходимо учитывать и условные вероятности появления элементов сообщений.
При наличии коррелятивных связей между элементами энтропия сообщений, а следовательно, и количество передаваемой информации уменьшаются, причем это уменьшение будет тем интенсивнее, чем сильнее коррелятивные связи и чем большее число элементов будет охвачено этими связями.