Лекции по информатике2 / Лекция 4(Информационная мера Шеннона)
.docЛекция №4
Тема: ИНФОРМАЦИОННАЯ МЕРА ШЕННОНА.
1. ИНФОРМАЦИОННАЯ МЕРА ШЕННОНА.
1.1. Количество информации и избыточность.
Дискретные системы связи - системы, в которых как реализации сообщения, так и реализации сигнала представляют собой последовательности символов алфавита, содержащего конечное число элементарных символов.
Пусть
и
- случайные величины с множествами
возможных значений
![]()
Количество
информации
при наблюдении случайной величины
с распределением вероятностей
задается
формулой Шеннона:
![]()
Единицей измерения
количества информации является бит,
который представляет собой количество
информации, получаемое при наблюдении
случайной величины, имеющей два
равновероятных значения. При равномерном
распределении
количество информации задается формулой
Хартли:
![]()
Справедливы следующие соотношения:
1)
2)
3)
если
и
- независимы. Избыточностью называется
![]()
Рассмотрим примеры.
Пример 1. Имеются
два источника информации, алфавиты и
распределения вероятностей которых
заданы матрицами:
![]()
![]()
Определить,
какой источник дает большее количество
информации, если 1)
2)
![]()
Решение. Для
первого источника при равновероятном
распределении воспользуемся формулой
Хартли. Для
и
имеем

Следовательно,
источник с тремя символами дает большее
количество информации. Для второго
случая воспользуемся формулой Шеннона:
с
учетом условия задачи имеем
![]()
![]()
С другой стороны,
![]()
Поскольку
то
![]()
Пример 2. Источник
сообщений выдает символы из алфавита
с вероятностями
Найти количество информации и избыточность.
Решение. По
формуле Шеннона
(бит). По определению избыточности
![]()
1.2. Энтропия непрерывных сообщений
Непрерывные
системы передачи информации - системы,
в которых как реализации сообщения, так
и реализации сигнала на конечном
временном интервале
представляют собой некоторые непрерывные
функции времени.
Пусть
- реализации непрерывного сообщения на
входе какого-либо блока схемы связи,
- реализация выходного сообщения
(сигнала),
- плотность вероятности ансамбля входных
сообщений,
- плотность вероятности ансамбля выходных
сообщений.Формулы для энтропии
непрерывных сообщений получаются путем
обобщения формул для энтропии дискретных
сообщений. Если
- интервал квантования (точность
измерения), то при достаточно малом
энтропия непрерывных сообщений
![]()
где
По аналогии
![]()
Пример 1. По
линии связи передаются непрерывные
амплитудно-модулированные сигналы
распределенные по нормальному закону
с математическим ожиданием
и дисперсией
Определить энтропию
сигнала при точности его измерения
Решение. По
условию плотность вероятности сигнала
;
![]()
![]()
![]()
Подставляя числовые
значения, получаем
дв. ед.
2. УСЛОВНАЯ ЭНТРОПИЯ И ВЗАИМНАЯ ИНФОРМАЦИЯ
2.1. Дисктретные
системы передачи информации. Условной
энтропией величины
при наблюдении величины
называется
![]()
Справедливы
соотношения:
![]()
![]()
Взаимной информацией
величин
и
называется
![]()
Справедливы
следующие соотношения:
![]()
![]()
![]()
Если
и
независимы,
то
=0.
При расчетах условной энтропии и взаимной информации удобно пользоваться следующими соотношениями теории вероятностей:
1) теорема умножения
вероятностей
;
2) формула полной
вероятности
![]()
![]()
3) формула Байеса

Рассмотрим пример.
Пример 1. Дана
матрица
,
.
Определить:
![]()
Решение. По
формуле полной вероятности имеем:
![]()
Следовательно,
![]()
По теореме умножения
![]()
Следовательно,
![]()
Аналогично
![]()
2.2. Непрерывные системы передачи информации.
Пусть
- реализации непрерывного сообщения на
входе какого-либо блока схемы связи,
- реализация выходного сообщения
(сигнала),
- одномерная плотность вероятности
ансамбля входных сообщений,
- одномерная плотность вероятности
ансамбля выходных сообщений,
- совместная плотность вероятности,
- условная плотность вероятности
![]()
при известном
Тогда для количества информации
справедливы следующие соотношения:
![]()
![]()
,
![]()
Здесь
- взаимная информация между каким-либо
значением
входного
и значением
выходного
сообщений,
- средние значения условной информации,
- полная средняя взаимная информация.
Условная энтропия
определяется по формуле:![]()
,
Когда
и
статистически связаны между собой, то
При независимых
и
![]()
![]()
Полная средняя
взаимная информация определяется
формулой:
Рассмотрим пример.
Пример 1. На
вход приемного устройства воздействует
колебание
где сигнал
и помеха
- независимые гауссовские случайные
процессы с нулевыми математическими
ожиданиями и дисперсиями, равными
соответственно
и
Определить: 1) количество взаимной
информации
которое содержится в каком-либо значении
принятого колебания
о значении сигнала
2) полную среднюю взаимную информацию
![]()
Решение. По
условию задачи
представляет собой сумму независимых
колебаний
и
которые имеют нормальные плотности
вероятности. Поэтому


1. Количество информации определяется по формуле:
2. Полная средняя взаимная информация:

где
- знак усреднения по множеству.
Таким образом,
дв. ед.
