Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
TI.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
850.22 Кб
Скачать

Условная энтропия

Пусть имеются два статистически независимых конечных ансамбля символов . Пары символов с вероятностью – это элементарные символы объединенного ансамбля с энтропией, вычисляемой по формуле (6):

.

(1.6)

Появление символа вызывает появление символа с вероятностью .

Частная условная энтропия:

.

(1.7)

Средняя условная энтропия ансамбля при условии, что ансамбль известен:

(1.8)

Свойства условной энтропии:

  1. , при условии, что зависимы.

Кроме того:

.

  1. , если независимы.

  2. , причем равенство только в случае, если независимы.

  3. .

  4. .

Причем равенство только в случае, если условно независимы при всех .

Далее приводятся формулы для связи средней взаимной информации и энтропии:

  1. .

  2. .

  3. , то есть энтропия – это частный случай функционала средней взаимной информации.

  4. .

Причем равенство нулю возможно тогда и только тогда, когда статистически независимы.

Пример

Вычислить энтропию , условную энтропию и среднюю взаимную информацию , если дано двух ансамблей :

0.5

0

0.5

0.25

0.25

0.5

0.75

0.25

Решение

Найдем :

1

0

0.5

0.5

Энтропия ,

,

,

.

Средняя взаимная информация: .●

Избыточность

Считают, что имеется избыточность, если количество информации, содержащейся в сигнале (энтропия сигнала), меньше того количества, которое этот сигнал мог бы содержать по своей физической природе.

Пусть сигнал длиной символов содержит количество информации ; кроме того, наибольшее количество информации, которое может содержаться в данном сигнале с учетом наложенных ограничений (таких, как основание кода, заданная средняя мощность сигнала и т.п.), равно . Тогда количественной мерой избыточности является величина:

.

(1.9)

Причина избыточности – статистические связи между символами сигнала и не экстремальность распределения вероятностей отдельных символов. Введение избыточности приводит к удлинению сигнала, но повышает его информационную устойчивость при воздействии помех.

Статистические связи между сигналами наблюдаются в случае ИДС с памятью: здесь вероятность выдачи им очередного элемента сообщения зависит от того, какие элементарные сообщения были выданы ранее.

Примером ИДС с памятью является источник связного русского текста, где в качестве элементарных сообщений выступают буквы. Сочетание ‘ар’ будет встречаться чаще, чем ‘аъ’.

Избыточность показывает, какая доля максимально возможной при заданном объеме алфавита неопределенности (энтропии) не используется источником.

Пример

Дан ансамбль: .

Символы в последовательности независимы. Найти энтропию источника и вычислить избыточность.

Решение

Энтропия: .

Избыточность за счет не оптимальности (не равно вероятности) распределения элементарных сообщений в источнике: , где .●

Индивидуальные задания.

Пример 1

Алфавит источника состоит из трех букв . Определить энтропию на 1 букву текста для следующих случаев:

(а) появлениебукв не равновероятно: , а символы в последовательности на выходе источника статистически зависимы. Условные вероятности переходов заданы таблицей:

i – индекс предыдущей

буквы

j – индекс последующей буквы

1

2

3

1

0.4

0.2

0.4

2

0.0

0.6

0.4

3

0.3

0.0

0.7

(б) вероятности букв те же, что и в пункте (а), но символы независимы;

(в) символы в последовательности независимы, а вероятности букв одинаковы.

Вычислить избыточность источника для случаев (а) и (б).

Контрольные вопросы:

  1. Дать определение энтропии, условной энтропии, избыточности.

  2. Свойства энтропии.

3.Свойства условной энтропии.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]