
- •А.А. Кузьмин
- •1. Энтропия вероятностной схемы
- •1.1.Основные принципы, понятия и определения теории информации
- •1.2.Количество информации в сообщении
- •Энтропия источника сообщений
- •1.3.Условная энтропия
- •Взаимная информация и взаимная энтропия
- •1.7. Скорость создания информации дискретным источником без памяти
- •2. Элементы теории кодирования информации
- •Основные характеристики кодов
- •1.4.Теоремы кодирования Шеннона
- •Скорость передачи информации по каналу связи определяется количеством передаваемой информации и интервалом времени ее передачи:
- •Таким образом, для реализации помехоустойчивого кодирования в канале связи с помехами, способного обеспечить сколь угодно высокую степень верности, необходимо выполнение условия
- •Контрольные вопросы
- •3. Простые (безызбыточные) коды
- •3.4. Примеры неравномерных кодов
- •Построение кодового дерева Шеннона-Фано
- •Общие принципы построения помехоустойчивых кодов
- •Классификация помехоустойчивых кодов
- •Основные характеристики и корректирующие свойства блочных кодов
- •Линейные блочные коды с обобщенными проверками на четность
- •Формирование (n, k) кода с обобщенной проверкой на четность
- •Структурные схемы кодеров и декодеров линейного кода
- •Принцип построения циклического кода
- •Алгоритм декодирования циклических кодов
- •Структурная схема кодера циклического кода
- •Бчх коды
- •Рекуррентные коды. Кодирование с перемежением
- •Принцип построения рекуррентных (сверточных) кодов
- •Декодирование сверточных кодов
- •6. Пропускная способность каналов связи
- •Пропускная способность непрерывного канала связи
- •Пути повышения пропускной способности непрерывных каналов связи
- •1.5.Пропускная способность дискретного канала связи без помех
- •Контрольные вопросы
- •Элементы теории кодирования информации
- •Простые (безызбыточные) коды
- •Помехоустойчивые блочные коды
- •5. Рекуррентные коды. Кодирование с перемежением
- •6. Пропускная способность каналов связи
- •. Пропускная способность дискретного канала связи без помех 98
- •Основы теории информации
Энтропия источника сообщений
В теории информации принят энтропийный подход к измерению количества информации. Понятие «энтропия» введено К. Шенноном в 1948 г.
Пусть сообщения можно передавать по каналу связи с помощью некоторого набора символов (например, букв, а вообще здесь подразумеваются любые символы, называемые алфавитом) Х, причем полное число символов в наборе равно m.
Будем полагать, что величины вероятностей появления любого из символов рi , где i = 1, 2, …, m, априори известны.
Энтропией источника сообщений называют среднее (статистическое усреднение по всем возможным символам) значение количества информации, приходящееся на один символ алфавита (размерность энтропии бит/символ):
.
Энтропия характеризует неопределенность сообщения.
Определим среднее количество информации, передаваемое источником с алфавитом Х.
.
Несмотря на совпадение зависимостей, энтропия Н(Х) и количество информации I(X) принципиально различны. Энтропия Н(Х), выражающая среднюю неопределенность состояния источника сообщений, является объективной характеристикой источника сообщений и, если известны вероятности появления сообщений, может быть вычислена априори, т.е. до получения сообщения. Величина же I(X) определяется апостериорно, т.е. после получения сообщений. Н(Х) есть мера недостатка информации о состоянии отдельной системы. С поступлением информации о состоянии системы энтропия последней снижается.
Совпадение выражений для I(X) и Н(Х) свидетельствует лишь о том, что количество получаемой информации численно равно энтропии, которая имела место относительно источника сообщений.
В случае равной вероятности сообщений выражение для количества информации приводится к виду
,
где
– количество передаваемых элементарных
сообщений.
Выражение для энтропии в этом случае приобретает вид
.
В случае, если алфавит источника равен m, а сообщения составляются из набора символов n, то число возможных сообщений равно N = mn. Тогда количество информации, которое может передавать источник (численно равно энтропии), равно (формула Хартли)
.
Анализируя рассмотренное, можно утверждать, что энтропия дискретных сообщений обладает следующими свойствами:
Энтропия есть величина вещественная, ограниченная и неотрицательная. Это свойство следует из расчетной формулы, если учесть, что вероятности pi есть величины неотрицательные, заключенные в промежутке 0 pi 1.
Энтропия детерминированных сообщений равна нулю. Действительно, если заранее известно, какое будет событие, например х1 , то вероятность этого события равна единице, а остальных – нулю, т.е. р1 = 1; р2 = р3 = … = рn= 0. Подставляя эти значения в формулу, получим
.
Первый член равен нулю, поскольку loga 1 = 0. Остальные члены также обращаются в нуль при pi 0.
Энтропия максимальна, если все сообщения равновероятны. Проиллюстрируем рассмотренный материал.
Задача. Определить энтропию системы, которая описывается дискретной случайной величиной х со следующим рядом распределения: р1 = 0,01; р2 = 0,01; р3 = 0,01; р4 = 0,01; р5 = 0,96.
Решение. Используя выражение для определения энтропии дискретного распределения, получим
Определить энтропию системы, которая описывается дискретной случайной величиной х со следующим рядом распределения: р1 = р2 = р3 = р4 = р5 = 0,2.
Решение.
Задача. Определить энтропию сообщения из пяти букв, если общее число букв в алфавите равно 32 и появление всех букв в сообщении равновероятно.
Решение. Общее число пятибуквенных сообщений n = 325. Используя выражение для определения энтропии равновероятных сообщений, получим
.
Используя свойства энтропии, еще раз поясним смысл понятия.
Энтропия – это средняя информативность источника на один символ, определяющая «непредсказуемость» или «неожиданность» передаваемых источником сообщений. Полностью детерминированный источник, вырабатывающий одну полностью известную последовательность символов, обладает нулевой информативностью. Наоборот, полностью хаотический источник, выдающий независимые и равновероятные символы, обладает наибольшей информативностью.
Для большей доступности понятия энтропии специалисты часто приводят пример с обезьяной, сидящей за клавиатурой компьютера. Поскольку она не знает грамоты, но умеет ударять по клавишам, то набираемый ею текст окажется сообщением с взаимно независимыми и равновероятными символами. Поэтому «обезьяний» текст будет обладать наибольшей энтропией.