
- •О.Т.Данилова Теория информации
- •Введение
- •Глава 1. Основные понятия теории информации
- •1.1. Свойства информации
- •1.2. Этапы обращения информации
- •1.3. Определение системы передачи информации. Каналы связи.
- •1.4. Алфавит сообщения
- •1.5. Источник информации
- •Глава 2. Количество информации
- •2.1. Объемный подход к измерению информации
- •2.2. Количественная мера информации р.Хартли
- •2.3. Мера информации к. Шеннона
- •2.4. Условная собственная информация. Взаимная информация
- •1 (Бит), где m – мощность алфавита.
- •Глава 3. Энтропия дискретной последовательности. Энтропия непрерывной случайной величины
- •3.1. Частная энтропия
- •Прологарифмировав последнее равенство, получим
- •3.2. Энропия типичных и нетипичных комбинаций
- •3.3. Условная энтропия
- •3.4. Энтропия объединения ансамблей
- •3.5. Канальные матрицы
- •3.6. Количество информации при неполной достоверности и статистической зависимости сообщений
- •3.7. Избыточность источника
- •3.8. Энтропия непрерывной случайной величины
- •3.9. Количество информации для непрерывных систем
- •3.10. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (3.7) в (3.4):
- •3.11. Эпсилон энтропия
- •Глава 4. Общие сведения из теории сигналов
- •4.1. Классификация сигналов и систем
- •Характеристики сигналов передаваемых по каналу
- •4.3. Модуляция сигналов. Виды и характеристики носителей
- •4.4. Спектры сигналов
- •4.5. Тригонометрическая форма
- •4.6. Комплексная форма
- •4.7. Определение погрешности
- •Глава 5. Скорость передачи и пропускная способность канала связи
- •5.1. Скорость передачи информации в дискретной системе связи
- •5.2. Пропускная способность однородного симметричного канала связи
- •5.3. Пропускная способность непрерывного канала связи
- •5.4. Обмен мощности сигнала на ширину его спектра
- •5.5. Сравнение пропускной способности непрерывного и дискретного каналов связи.
- •5.6. Эффективность систем связи
- •Глава 6. Критерии описания реальных дискретных каналов
- •6.1. Описание источника ошибок на основе цепей Маркова
- •6.2. Описание источника ошибок на основе процессов восстановления
- •6.3. Описание источника ошибок на основе процессов накопления
- •6.4. Модель Гилберта
- •6.5. Модель Эллиота-Гилберта. Модель Элиота
- •6.6. Модель Беннета-Фройлиха
- •6.7. Модель Попова - Турина
- •Глава 7. Кодирование информации
- •7.1. Статистическое кодирование дискретных сообщений
- •7.2. Статистическое кодирование кодовых слов
- •Средняя длина кодового слова
- •7.3. Кодирование информации для канала с помехами
- •7.3. Разновидности помехоустойчивых кодов
- •7.4 Общие принципы использования избыточности
- •7.5. Связь корректирующей способности кода с кодовым расстоянием
- •7.6. Понятие качества корректирующего кода
- •7.7. Линейные коды
- •7.7. Математическое введение к линейным кодам
- •7.8. Линейный код как пространство линейного векторного пространства
- •7.9. Построение двоичного группового кода
- •7.10. Составление таблицы опознавателей
- •7.11. Определение проверочных равенств
- •7.12. Мажоритарное декодирование групповых кодов
- •7.13. Матричное представление линейных кодов
- •7.14. Построение циклических кодов
- •Математическое введение к циклическим кодам
- •7.17. Обнаружение одиночных ошибок
- •Исправление одиночных или обнаружение двойных ошибок
- •7.18. Обнаружение ошибок кратности три и ниже
- •7.19. Обнаружение и исправление независимых ошибок произвольной кратности
- •7.20. Методы образования циклического кода
- •7.21. Матричная запись циклического кода
- •7.22. Укороченные циклические коды
- •Глава 8. Сжатие информации
- •8.1. Основные понятия
- •8.2. Методы сжатия без потерь
- •8.3. Методы сжатия с потерями
- •8.4. Сжатие графики
- •Прямое дкп
- •8.5. Сжатие звука
- •8.6. Сжатие видеоинформации
- •Вопросы для самопроверки
- •Список литературы
3.11. Эпсилон энтропия
Непрерывные сигналы воспринимаются с ограниченной точностью. Пусть Х точный сигнал, его плотность вероятности w(x). Сигнал, воспроизводимый любой аппаратурой, отличается от исходного сигнала (выходе аппаратуры имеем другой сигнал Y, отличный от X). Критерием близости двух сигналов X и Y является функционал
,
(3.34)
где
h(x,y)
некоторая весовая функция, имеющая
природу расстояния. Функционал F
по своему виду представляет собой
математическое ожидание функции h(x,y)
случайных аргументов x
и y.
Если подобрать подходящим образом эту
функцию, то в качестве критерия близости
двух сигналов можно использовать условие
,
где
– некоторая наперед заданная величина.
Обычно используют среднеквадратический
критерий
.
Сигнал Y
содержит информацию относительно X
в соответствии с выражением
.
ЭнтропияH(X)
определяется функцией w(x),
которая является заданной. Варьируя
функцию w(x/y)
можно в принципе добиться минимального
значения величины
при заданных требованиях к точности
:
,
(3.35)
Таким образом, ε – энтропия величины X называется минимальное количество информации в одной случайной величины Y относительно другой X, при котором удовлетворяется заданное требование к верности воспроизведения величины X:
(3.36)
Пример 3.34. Найти ε – энтропию источника информации, ансамбль состояний которого описывается нормальным распределением.
Решение. ε-энтропия определяется по формуле (3.35), но условная энтропия H(X/Y) полностью определяется помехой, поэтому
Энтропия сигнала
равна
,
так как сигнал передается по нормальному
закону. Помеху определим из наихудших
условий, когда она имеет максимальное
воздействие. Помеха максимальна, если
распределена по нормальному закону
.
Тогда
,
где
-
мощность сигнала,
-
мощность помехи.
Глава 4. Общие сведения из теории сигналов
4.1. Классификация сигналов и систем
Сигнал может быть определен как функция, переносящая информацию о состоянии или поведении физической системы. Сигнал может принимать форму колебаний, зависящих от времени или от пространственных координат. Математически сигналы представляются в виде функций одной или более независимых переменных. Так, например, речевой сигнал математически представляется как функция времени, а изображение — как зависимость яркости от двух пространственных переменных. Обычно при математическом представлении сигнала s(t) независимой переменной считают время, и мы будем следовать этому, хотя на самом деле эта переменная может иметь другой смысл.
Независимая переменная в математическом представлении сигнала может быть как непрерывной, так и дискретной. Сигналы в непрерывном времени определяются на континууме моментов времени и, следовательно, представляются как функции от непрерывной переменной. Дискретные сигналы (сигналы в дискретном времени) определяются в дискретные моменты времени и представляются последовательностями чисел. На рис.9 графически отображены сигнал непрерывного времени и дискретный сигнал, образованный его эквидистантными выборками. Как мы увидим в дальнейшем, такие сигналы, как речь или изображение, могут быть представлены как с непрерывной, так и с дискретной независимой переменной, и если удовлетворяются определенные условия, эти представления полностью эквивалентны.
Рис.9.
Вдобавок к тому, что независимые переменные могут быть непрерывными или дискретными, амплитуда сигнала также может быть как непрерывной, так и дискретной. Цифровые сигналы — это сигналы, у которых дискретны и время, и амплитуда. Сигналы в непрерывном времени и с непрерывным диапазоном амплитуд также называются аналоговыми сигналами.
Чтобы облегчить извлечение информации, сигналы должны подвергаться обработке. Поэтому весьма важно развитие техники, а также самих систем обработки сигналов. Техника обработки сигналов заключается в преобразовании сигнала в другой сигнал, являющийся более предпочтительным. Например, может понадобиться разделение двух или большего числа сигналов, которые ранее были объединены некоторым образом; выделение некоторой компоненты или параметра сигнала либо оценка одного или нескольких параметров сигнала.
Системы обработки сигналов могут классифицироваться точно так же, как и сами сигналы. Так, системы в непрерывном времени — это системы, у которых на входе и выходе имеются сигналы в непрерывном времени, а дискретные системы (системы в дискретном времени) — это системы, у которых на входе и выходе дискретные сигналы. Точно так же аналоговые системы — это системы с аналоговыми сигналами на входе и выходе, а цифровые системы — системы с цифровыми сигналами на входе и выходе. В таком случае цифровая обработка сигналов имеет дело с преобразованиями сигналов, являющимися дискретными как по амплитуде, так и по времени. Наш курс посвящен скорее дискретным, чем цифровым сигналам и системам. Эффекты, связанные с дискретизацией амплитуды, будут рассмотрены особо.
Дискретные сигналы могут появляться при получении выборок из аналоговых сигналов или же они могут порождаться непосредственно некоторым дискретным во времени процессом. Вне зависимости от происхождения дискретных сигналов цифровые системы обработки таких сигналов обладают рядом полезных качеств. Они могут быть реализованы с большой гибкостью на универсальных цифровых вычислительных машинах или с помощью цифровой аппаратуры. При необходимости их можно использовать для моделирования аналоговых систем или, что более важно, для преобразований сигнала, которые невозможно осуществить на аналоговой аппаратуре. Поэтому, когда требуется сложная обработка сигналов, часто желательно представить их в цифровом виде.
Рис.1.0. Блок-схема цифровой обработки аналогового сигнала. |
На рис.10 представлена блок-схема цифровой обработки аналогового сигнала, включающая в себя следующие блоки:
АФ1- аналоговый фильтр нижних частот, ограничивающий ширину спектра входного сигнала;
АЦП- аналого-цифровой преобразователь, осуществляющий дискретизацию во времени и квантование по уровню временных отсчетов (выборок) т.е. представление их в форме периодической последовательности двоичных чисел (цифровой сигнал x(nT));
ЦВУ- цифровое вычислительное устройство, выполняющее соответствующее преобразование сигнала x(nT) в цифровой сигнал y(nT);
ЦАП- цифро-аналоговый преобразователь, выполняющий преобразование цифрового сигнала y(nT) в сигнал дискретного времени V(nT);
АФ2- аналоговый фильтр, преобразующий дискретный сигнал V(nT) в аналоговый V(t).
В блок-схеме можно увидеть все упомянутые выше классы систем, в том числе аналоговую, дискретную и цифровую. На рис.11а графически отображена процедура преобразования аналогового сигнала сначала в дискретный (дискретизация по времени), затем в цифровой (квантование по уровню), образованный последовательностью десятичных цифр (рис.11б) и последовательностью двоичных кодовых групп (11в). Рис.11г отображает график ошибки квантования, образованной разностью дискретного и квантованного сигналов.
Рис.11.