
- •1. Теория информации
- •1.1 Теорема Котельникова
- •1.2 Квантование сигнала по уровню
- •2. Мера информации
- •2.1 Мера информации по Шеннону
- •2.2 Энтропия дискретного ансамбля сообщений
- •2.3 Энтропия непрерывного ансамбля сообщений
- •2.4 Энтропия непрерывного ограниченного ансамбля
- •2.3 Количество взаимной информации
- •2.3.1 Дискретный канал передачи информации
- •2.3.2 Непрерывный канал передачи информации
- •2.3.3 Эпсилон-энтропия (ε-энтропия)
- •Кодирование источника информации
- •3.1 Метод кодирования равномерным кодом
- •3.2 Метод кодирования Шеннона-Фано
- •3.3 Метод кодирования Хафмана
- •3.4 Теорема оптимального кодирования источника независимых сообщений.
- •4 Канал связи
- •4.1 Скорость передачи информации и пропускная способность канала связи
- •4.2 Канал без шумов
- •4.3 Канал с шумами
- •4.4 Непрерывный канал связи
- •4.5 Теорема Шеннона о пропускной способности частотно ограниченного канала
- •5. Кодирование в канале
- •5.1 Систематические коды
- •5.1.1 Образование систематического кода
- •5.1.2 Систематический код Хемминга
- •5.2 Циклические коды
- •5.2.1 Обнаружение однократной ошибки
- •5.2.2 Исправление однократной ошибки
- •1. Теория информации 1
2.2 Энтропия дискретного ансамбля сообщений
Среднее количество информации,
содержащееся в ансамбле
,
определяется математическим ожиданием
.
(2.6)
Величина
называетсяэнтропиейансамбля
и имеет размерность
.
Под термином сообщение понимается
элемент ансамбля
:
это может быть символ или набор символов,
образующих некоторое сообщение и т. д.
Пример 1.Положим,образуют ансамбль сообщений
.
Вероятности реализаций этих сообщений
соответственно равны
0.1,
0.4,
0.2,
0.3.
Определим количество информации,
содержащуюся в каждом сообщении, и меру
неопределённости в ансамбле
.
После расчетов получим
3.3219
,
1.3219
,
2.3219
,
1.7369
.
Энтропия ансамбля равна
1.84644
.
Как видно, наибольшее количество
информации содержится в сообщении
,
которая реализуется с наименьшей
вероятностью, и наименьшее количество
информации содержится в сообщении
,
вероятность реализации которой
наибольшая. Чем ближе к единице
вероятность реализации сообщения, тем
меньше информации содержится в этом
сообщении. Эти выводы хорошо согласуются
с субъективным представлением о ценности
получаемых сведений.
Пример 2. Положим, одно из сообщений
ансамбляреализуется с вероятностью
0.
Тогда какое-то другое сообщение будет
реализовываться с вероятностью
1.
Вычислим энтропию вновь полученного
ансамбля
.
.
Получили неопределённость типа
.
Разрешив эту неопределённость, получим
.
Неопределённость в ансамбле
отсутствует.
Энтропияхарактеризует меру средней
неопределённости ансамбля
.Пусть задан ансамбль
:
{
}
с распределением вероятностей
,
.
Тогда энтропия
удовлетворяет
неравенству
.
(2.7)
Доказательство.
Левая часть неравенства следует из
определения энтропии ансамбля
.
Для доказательства правой части
рассмотрим разность
и преобразуем её
1
В дальнейшем используем неравенство
,
рисунок 2.1. Знак равенства будет только
в случае
.
Тогда имеем
.
Из последнего неравенства следует, что знак равенства в правой части неравенстве (2.7) будет в том случае, если
= 1 или
.
Энтропия
ансамбля
будет максимальной, если все события
равновероятны. Ценность информации в
каждом
сообщении, с точки зрения частоты её
появления в результате опытов, будет
равна
.
Вычислим энтропию произведения ансамблей
:
и
:
.
Произведение ансамблей образует матрицу
сообщений
с распределением вероятностей
.
Пользуясь определением энтропии ансамбля, запишем энтропию произведения ансамблей
=
(2.8)
Условная энтропия
зависит от условной меры информации
- количества информации, содержащаяся
в сообщении
,
при условии, что уже реализовалось
сообщение
,
т.е.
- это не случайное событие в условной
мере информации
,
случайность реализации
учитывается в вероятности
.
Если ансамбли
и
независимы, т.е.
,
то энтропия произведения ансамблей
равна сумме энтропий ансамблей
и
.
(2.9)
Пользуясь методикой, применяемой при доказательстве неравенства (2.6), можно показать, что
.
(2.10)
Если имеется множество ансамблей
,
то энтропия произведения ансамблей
равна
,
(2.11)