
- •2 Информационные характеристики цифровых сигналов
- •2.1 Собственная информация. Взаимная информация
- •Решение типовых примеров
- •2.2 Средняя собственная информация (энтропия)
- •Решение типовых примеров
- •2.3 Средняя взаимная информация
- •Решение типовых примеров
- •Информационные характеристики случайных последовательностей
- •Решение типовых примеров
2.2 Средняя собственная информация (энтропия)
Энтропия. Дискретный источник удобнее характеризовать количеством собственной информации, содержащимся в среднем в одном символе ансамбля X.
Это среднее количество собственной информации есть
|
(2.2.1) |
и названо энтропией (по аналогии с понятием энтропии в термодинамике).
Свойства энтропии.
1) Энтропия неотрицательна
|
(2.2.2) |
Знак
равенства имеет место, когда X
– неслучайна, т.е. p(xj)
= 1, a p(xi)
= 0 для
При этом неопределенность относительно
ансамбля X
отсутствует. Таким образом, энтропия
есть
мера неопределенности
случайного ансамбля.
2) Величина энтропии удовлетворяет неравенству
|
(2.2.3) |
Знак
равенства имеет место при равновероятности
символов ансамбля X,
т.е. при
3) Свойство аддитивности энтропии.
В последовательности i независимых символов энтропия равна сумме энтропий, содержащихся в отдельных символах
|
(2.2.4) |
Вычисление
энтропии по формуле (2.2.1) можно упростить,
введя функцию
тогда формула примет вид
|
(2.2.5) |
Значения
функции
приведены в Приложении 1.
Условная энтропия. Пусть имеются два статистически зависимых конечных ансамбля символов X и Y. Пары символов xjyk c вероятностями p(xj, уk) можно рассматривать как элементарные символы объединенного ансамбля XY с энтропией
|
(2.2.6) |
Появление символа xj вызовет появление символа yk с условной вероятностью
При этом условная энтропия ансамбля Y в предположении, что выбран символ хj, будет
|
(2.2.7) |
Здесь
каждому хj
соответствует свое значение энтропии
,
т.е.
- случайная величина.
Тогда средняя условная энтропия случайной величины Y, вычисленная при условии, что известно значение другой случайной величины X, равна
|
(2.2.8) |
Энтропия
объединенного ансамбля
удовлетворяет следующим
соотношениям:
а)
|
(2.2.9) |
если X и Y зависимы;
в)
|
(2.2.10) |
если X и Y независимы. (2.2.10)
Для объединенного ансамбля XY условная энтропия удовлетворяет неравенствам:
|
(2.2.11) |
Избыточность. Считают, что имеется избыточность, если количество информации, содержащейся в сигнале (энтропия сигнала), меньше того количества, которое этот сигнал мог бы содержать по своей физической природе. Введем количественную меру избыточности. Пусть сигнал длиной в n символов (отсчетов) содержит количество информации Н. Пусть далее наибольшее количество информации, которое в принципе может содержаться в данном сигнале с учетом наложенных на него ограничений (заданное основание кода, заданная средняя мощность сигнала и т.п.), равно Hmax. Тогда количественной мерой избыточности является величина
|
(2.2.12) |
Причины появления избыточности – это статистическая связь между символами (отсчетами) сигнала и неэкстремальность распределения вероятностей отдельных символов (отсчетов). Введение избыточности приводит к удлинению сигнала, но зато повышает его информационную устойчивость при воздействии помех.