
- •О.Т.Данилова Теория информации
- •Введение
- •Глава 1. Основные понятия теории информации
- •1.1. Свойства информации
- •1.2. Этапы обращения информации
- •1.3. Определение системы передачи информации. Каналы связи.
- •1.4. Алфавит сообщения
- •1.5. Источник информации
- •Глава 2. Количество информации
- •2.1. Объемный подход к измерению информации
- •2.2. Количественная мера информации р.Хартли
- •2.3. Мера информации к. Шеннона
- •2.4. Условная собственная информация. Взаимная информация
- •1 (Бит), где m – мощность алфавита.
- •Глава 3. Энтропия дискретной последовательности. Энтропия непрерывной случайной величины
- •3.1. Частная энтропия
- •Прологарифмировав последнее равенство, получим
- •3.2. Энропия типичных и нетипичных комбинаций
- •3.3. Условная энтропия
- •3.4. Энтропия объединения ансамблей
- •3.5. Канальные матрицы
- •3.6. Количество информации при неполной достоверности и статистической зависимости сообщений
- •3.7. Избыточность источника
- •3.8. Энтропия непрерывной случайной величины
- •3.9. Количество информации для непрерывных систем
- •3.10. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (3.7) в (3.4):
- •3.11. Эпсилон энтропия
- •Глава 4. Общие сведения из теории сигналов
- •4.1. Классификация сигналов и систем
- •Характеристики сигналов передаваемых по каналу
- •4.3. Модуляция сигналов. Виды и характеристики носителей
- •4.4. Спектры сигналов
- •4.5. Тригонометрическая форма
- •4.6. Комплексная форма
- •4.7. Определение погрешности
- •Глава 5. Скорость передачи и пропускная способность канала связи
- •5.1. Скорость передачи информации в дискретной системе связи
- •5.2. Пропускная способность однородного симметричного канала связи
- •5.3. Пропускная способность непрерывного канала связи
- •5.4. Обмен мощности сигнала на ширину его спектра
- •5.5. Сравнение пропускной способности непрерывного и дискретного каналов связи.
- •5.6. Эффективность систем связи
- •Глава 6. Критерии описания реальных дискретных каналов
- •6.1. Описание источника ошибок на основе цепей Маркова
- •6.2. Описание источника ошибок на основе процессов восстановления
- •6.3. Описание источника ошибок на основе процессов накопления
- •6.4. Модель Гилберта
- •6.5. Модель Эллиота-Гилберта. Модель Элиота
- •6.6. Модель Беннета-Фройлиха
- •6.7. Модель Попова - Турина
- •Глава 7. Кодирование информации
- •7.1. Статистическое кодирование дискретных сообщений
- •7.2. Статистическое кодирование кодовых слов
- •Средняя длина кодового слова
- •7.3. Кодирование информации для канала с помехами
- •7.3. Разновидности помехоустойчивых кодов
- •7.4 Общие принципы использования избыточности
- •7.5. Связь корректирующей способности кода с кодовым расстоянием
- •7.6. Понятие качества корректирующего кода
- •7.7. Линейные коды
- •7.7. Математическое введение к линейным кодам
- •7.8. Линейный код как пространство линейного векторного пространства
- •7.9. Построение двоичного группового кода
- •7.10. Составление таблицы опознавателей
- •7.11. Определение проверочных равенств
- •7.12. Мажоритарное декодирование групповых кодов
- •7.13. Матричное представление линейных кодов
- •7.14. Построение циклических кодов
- •Математическое введение к циклическим кодам
- •7.17. Обнаружение одиночных ошибок
- •Исправление одиночных или обнаружение двойных ошибок
- •7.18. Обнаружение ошибок кратности три и ниже
- •7.19. Обнаружение и исправление независимых ошибок произвольной кратности
- •7.20. Методы образования циклического кода
- •7.21. Матричная запись циклического кода
- •7.22. Укороченные циклические коды
- •Глава 8. Сжатие информации
- •8.1. Основные понятия
- •8.2. Методы сжатия без потерь
- •8.3. Методы сжатия с потерями
- •8.4. Сжатие графики
- •Прямое дкп
- •8.5. Сжатие звука
- •8.6. Сжатие видеоинформации
- •Вопросы для самопроверки
- •Список литературы
3.7. Избыточность источника
Как было показано, энтропия максимальна при равновероятном выборе элементов сообщений и отсутствии корреляционных связей. При неравномерном распределении вероятностей и при наличии корреляционных связей между буквами энтропия уменьшается.
Чем ближе энтропия источника к максимальной, тем рациональнее работает источник. Чтобы судить о том, насколько хорошо использует источник свой алфавит, вводят понятие избыточности. Избыточность, с которой мы имеем дело в теории информации, не зависит от содержания сообщения и обычно заранее известна из статистических данных.
Информационная избыточность показывает относительную недогруженность на символ алфавита и является безразмерной величиной:
где
—
коэффициент
сжатия (относительная энтропия).
и
берутся относительно одного и того же
алфавита.
Наличие избыточности приводит к загрузке канала связи передачей лишних букв сообщений, которые не несут информации (их можно угадать и не передавая).
Однако, преднамеренная избыточность в сообщениях иногда используется для повышения достоверности передачи информации — например, при помехоустойчивом кодировании в системах передачи информации с исправлением ошибок. Большую избыточность имеет любой разговорный язык. Например, избыточность русского языка (как и других) около 50%. Благодаря избыточности облегчается понимание речи при наличии дефектов в произношении или при искажениях речевых сигналов в каналах связи.
Если энтропия источника сообщений не равна максимальной энтропии для алфавита с данным количеством качественных признаков (имеются в виду качественные признаки алфавита, при помощи которых составляются сообщения), то это прежде всего означает, что сообщения данного источника могли бы нести большее количество информации.
Абсолютная недогруженность на символ сообщений такого источника
Избыточность еще
называют мерой относительного
«расточительства» в использовании
символов при передаче данного сообщения.
Избыточность отсутствует (D=0),
когда
=H,
т.е когда символы выбраны «хорошо»
(равновероятно), и избыточность стремится
к 100% (D=1),
когда полезный выход, т.е. эффективность
способа передачи, характеризуемая
частотным словарем (частотами появления
слов), и, следовательно, эффективность
используемого языка, являются
незначительными.
Таким образом, мы имеем дело с «коэффициентом эффективности» языка, используемого в канале передачи сообщений.
Кроме общего понятия избыточности существуют частные виды избыточности.
Избыточность, обусловленная не равновероятным распределением символов в сообщении,
Избыточность, вызванная статистической связью между символами сообщения,
Полная информационная избыточность
Пример 3.35. А лфавит источника состоит из трех букв x1 , x2 и x3 .
Определить энтропию на 1 букву текста Х(1), Х(2) для следующих случаев:
а) буквы неравновероятны: p(x1)=0,5, p(x2)= p(x3)=0,25, а символы в последовательности на выходе источника статистически зависимы. Условные вероятности переходов p(xj(2)/xi(1)) заданы таблицей
i - индекс предыдущей буквы |
j - индекс последующей буквы | ||
|
1 |
2 |
3 |
1 |
0,4 |
0,2 |
0,4 |
2 |
0,0 |
0,6 |
0,4 |
3 |
0,3 |
0,0 |
0,7 |
б) вероятности букв те же, что и в п. а), но символы независимы; в) символы в последовательности независимы, а вероятности букв одинаковы.
Вычислить избыточность источника для случаев а) и б).
Решение. а) В случае неравновероятных и зависимых сообщений энтропия текста
где
а условная энтропия
Энтропия на один символ
б) При неравновероятных, но независимых сообщениях энтропия
Избыточность, обусловленная статистической зависимостью
D1= 1 – H1(X)/ H(X)=1-1,36/1,5=1-0,9=0,1.
в) В случае равновероятных и независимых сообщениях энтропия по формуле
Hmax(X)=log2m = log23=1,585 бит.
Избыточность, обусловленная неоптимальностью распределения
D2= 1 – H(X)/ Hmax(X)=1-1,5/1,585=1-0,95=0,05.
Полная избыточность (за счет неоптимальности распределения и наличия статистических зависимостей)
D= 1 – H1(X)/ Hmax(X)=1-1,36/1,585=1-0,86=0,14.
Пример 3.36. Источник сообщений вырабатывает ансамбль символов
Символы в последовательности статистически независимы. Вычислить энтропию источника и определить избыточность.
Решение. Энтропия источника для случая неравномерных и независимых сообщений определяется
Избыточность за счет неоптимальности (неравновероятности) распределения сообщений в источнике определяется формулой
D = 1 - H/ Hmax,. где Hmax=log2m
Отсюда
D = 1 - H/ Hmax=1-2,27/ log26=1-0,87=0,13.