- •Введение
- •1. Энтропия источников сообщений
- •1.1. Дискретные ансамбли и источники
- •1.2. Количество информации в дискретном сообщении. Энтропия ансамбля
- •1.3. Условная информация. Условная энтропия. Совместная энтропия дискретного источника
- •1.4. Энтропия дискретного стационарного источника на сообщение
- •1.5. Избыточность источника дискретных сообщений
- •1.6. Эффективное кодирование. Кодирование источника равномерными кодами
- •1.7. Высоковероятные множества постоянного дискретного источника
- •1.8. Энтропия источника без памяти как скорость создания информации
- •1.9. Избыточность источника непрерывных сигналов. Количество информации в непрерывном канале
- •1.10. Скорость передачи информации и пропускная способность в непрерывном канале
- •2. Кодирование информации
- •2.1. Неравномерное кодирование с однозначным декодированием
- •2.2. Оптимальные неравномерные двоичные коды
- •2.3. Кодирование для исправления ошибок: Основные положения
- •2.4. Постановка задачи кодирования
- •2.5. Прямая теорема о кодировании в канале с шумами
- •2.6. Обратная теорема кодирования
- •2.7. Основная теорема Шеннона, ограничение возможностей использования оптимального кодирования на практике
- •3. Коды, исправляющие ошибки
- •3.1. Блоковые и сверточные коды
- •3.2. Хеммингово расстояние, Хемминговы сферы и корректирующая способность
- •3.3. Линейные блоковые коды
- •3.4. Порождающая и проверочная матрицы. Кодирование с помощью матриц g и н
- •3.5. Декодирование по стандартной таблице
- •3.6. Циклические коды
- •3.7. Кодирующие устройства циклических кодов
- •3.8. Декодирование циклических кодов по синдрому
- •3.9. Мажоритарное декодирование
- •4. Энтропия в контексте защиты информации от помех при передаче по каналу связи
- •4.1. Меры искажения. Постановка задачи защиты информации от помех при передаче по каналу связи
- •4.2. Свойства функции скорость-искажение
- •4.3. Простые примеры вычисления функции скорость-искажение
- •4.4. Функция скорость-искажение для гауссовских последовательностей
- •4.5. Эпсилон-производительность источника
- •4.6. Дифференциальная энтропия
- •4.7. Свойства дифференциальной энтропии
- •4.8. Эпсилон - энтропия источника сообщений
- •4.9. Обратная теорема кодирования для дискретного постоянного источника при заданном критерии качества
- •4.10. Прямая теорема кодирования с заданным критерием качества
- •4.11. Аксиоматическое введение в теорию энтропии вероятностных схем
- •4.12. Энтропия и условная энтропия объединенной вероятностной схемы и их свойства
- •Заключение
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
1.2. Количество информации в дискретном сообщении. Энтропия ансамбля
Определим основное теоретико-информационное понятие количества информации в сообщении. При введении меры информации факт возрастания количества информации при увеличении длительности сигнала (в дискретном случае при возрастании числа передаваемых символов, в непрерывном — при возрастании времени передачи и учете информации в каждой отсчетной точке непрерывного сигнала) очевиден. Однако просто число возможных реализаций сигнала в качестве информационной меры использовать не целесообразно, учитывая типичный характер экспоненциальной зависимости от числа символов или отсчетных значений сигнала . Более естественным является требование аддитивности вводимой меры количества информации, что приводит к целесообразности использования в качестве информационной меры логарифма числа . Однако эта мера является строго оправданной лишь при одинаковой вероятности всех возможных реализаций сигнала. В действительности дополнительно возникает необходимость учета статистических характеристик случайного процесса, отображающего сигнал, поскольку количество информации, содержащейся в достоверном событии и маловероятном, должно быть различным.
Перейдем теперь к строгим определениям . Рассмотрим источник дискретных сообщений, характеризуемый ансамблем сообщений , у которого
Количеством собственной информации (или собственно информацией) в сообщении называется величина , определяемая соотношением
(1.1)
Таким образом, под определение количества информации как логарифмической меры вероятности появления конкретного сообщения заложено весьма существенное обоснование. Прежде всего, совершенно очевидным является определение количества информации через вероятность сообщения как случайного события, поскольку сообщение несет тем больше информации, чем менее вероятным для получателя оно является; в достоверном событии новой информации нет (количество информации в сообщении, вероятность которого единица, равно нулю). Не менее естественным, как уже отмечалось, является требование аддитивности информационной меры.
Рассмотрим ансамбль дискретных сообщений , порожденный ансамблем так, что каждое сообщение ансамбля является следствием последовательного появления двух сообщений : , и (укрупнение ансамбля). Количество информации в сообщении по определению равно
(в общем случае сообщения являются зависимыми). В частности, для независимой пары сообщений
Таким образом, предложенная информационная мера требованию аддитивности удовлетворяет. Основание логарифма принципиальной роли не играет и влияет лишь на единицу измерения. Наиболее употребительным является логарифм по основанию 2; при этом единица количества информации носит название «бит» (далее в этой книге при записи без обозначения основания принимается логарифм по основанию 2). Такую информацию имеет элементарное сообщение от двоичного источника равновероятных статистически независимых сообщений. Отметим, наконец, что определенная соотношением (1.1) собственная информация не отрицательна.
Энтропия ансамбля сообщений
Собственная информация, определенная (1.1) как функция случайного события, является случайной величиной ( см. приложение 1). Для неслучайной характеристики ансамбля сообщений вводят понятие энтропии.
Математическое ожидание случайной величины , определенной на ансамбле , называется энтропией (Н) этого ансамбля:
(1.2)
Обратим внимание, что согласно (1.1) количество собственной информации для сообщения, вероятность которого равна 0, не определено. Однако энтропия любого дискретного ансамбля конечна, так как выражение вида при по непрерывности доопределяется как 0. Основанием для такого доопределения является следующее соотношение:
которое получается в результате применения правил Лопиталя для раскрытия неопределенности вида
Понятие энтропии в теории информации является основополагающим. Количество информации, которое может быть получено от источника, оказывается тем большим, чем большей энтропией обладает источник. Количество информации трактуется как мера неопределенности, связанная с ожидаемым от источника сообщением. Сообщение является тем более неопределенным (неожиданным), чем оно оказывается менее вероятным. В общем случае с увеличением числа возможных состояний и уменьшением их вероятности энтропия источника возрастает. Чем выше энтропия источника, тем сложнее передать сообщение от этого источника по каналу связи (хотя бы с точки зрения энергетических затрат).
Рассмотрим основные свойства энтропии.
Энтропия всякого дискретного ансамбля неотрицательна: . Равенство нулю имеет место в том и только в том случае, когда в ансамбле существует сообщение, вероятность которого 1; при этом вероятности остальных сообщений равны 0. Неотрицательность следует из того, что собственная информация каждого сообщения ансамбля неотрицательна.
2. Пусть К — число сообщений в ансамбле. Тогда
(1.3)
Равенство имеет место только в том случае, когда все сообщения ансамбля независимы и равновероятны.
Простое доказательство сделанного утверждения основано на следующем неравенстве для натурального логарифма:
(1.4)
где равенство имеет место только при . Рассмотрим разность
(1.5)
Используя теперь неравенство (1.4), получим
Отсюда следует неравенство в (1.5). Равенство имеет место только тогда, когда для всех (равенство в (1.4) справедливо только при ).
3. Энтропия обладает свойством аддитивности.
Свойство аддитивности энтропии приводит к тому, что энтропия укрупненного ансамбля в определенной мере превосходит энтропию исходного источника.