- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
Для сравнения сообщений необходимо предварительно вычислить энтропию этих сообщений. Вычислим энтропию сообщений, состояния элементов которых распределены по нормальному закону
Энтропия
равна
.
Удобнее всего найти энтропию через
математическое ожидание
Но
так как
,
то
(2.14)
Таким образом, получили значение энтропии для нормального закона распределения.
Теперь найдем значение энтропии непрерывных сообщений для равновероятного закона распределения.
(2.15)
Выражение (2.15) представляет энтропию для непрерывных сообщений с равновероятным распределением состояний элементов.
Рассмотрим
два вида сообщений, обладающих одинаковой
энтропией, но характеризуемых различными
законами распределения состояний
элементов.
где
энтропия сообщений
с нормальным распределением,
энтропия сообщений с равновероятным
распределением.
далее потенцируя, получим
(2.16)
Дисперсия для равновероятного закона распределения определяется интегралом
Обозначим
,
тогда
,
представляет среднее значение
,
откуда
,
полученное выражение подставим в (2.16).
или
Таким образом, если имеются две системы с одинаковыми значениями энтропии по величине, то дисперсия системы при равновероятном распределении на 42% больше дисперсии системы, имеющей нормальное распределение состояния элементов.
А, как известно, дисперсия характеризует среднюю мощность сигналов. То есть, выгоднее всего передавать сообщения по нормальному закону распределения элементов. Затраты на мощность при нормальном законе будут составлять 0,7 по сравнению с затратами мощности при равновероятном законе распределения элементов.
2.4. Епсилон энтропия (ε-энтропия )
Непрерывные сигналы воспринимаются с ограниченной точностью. Пусть Х точный сигнал, его плотность вероятности w(x). Сигнал, воспроизводимый любой аппаратурой, отличается от исходного сигнала. То есть, на выходе аппаратуры имеем другой сигнал Y, отличный от X. Критерием близости двух сигналов X и Y является функционал
,
(2.17)
где h(x,y) некоторая весовая функция, имеющая природу расстояния.
Функционал
F по своему виду
представляет собой математическое
ожидание функции h(x,y)
случайных аргументов x
и y. Если подобрать
подходящим образом эту функцию, то в
качестве критерия близости двух сигналов
можно использовать условие
,
где
– некоторая наперед заданная величина.
Обычно используют среднеквадратический
критерий
.
Сигнал
Y содержит информацию
относительно X в соответствии
с выражением
Энтропия H(X) определяется функцией w(x), которая является заданной. Варьируя функцию w(x/y) можно в принципе добиться минимального значения величины при заданных требованиях к точности .
,
при ограничении
Таким образом, ε-энтропия величины X называется минимальное количество информации в одной случайной величины Y относительно другой X, при котором удовлетворяется заданное требование к верности воспроизведения величины X.
Пример 2.1. Найти ε-энтропию источника информации, ансамбль состояний которого описывается нормальным распределением.
Решение. ε-энтропия определяется по формуле
,
но условная энтропия H(X/Y) полностью определяется помехой, поэтому
Энтропия
сигнала равна
,
так как сигнал передается по нормальному
закону. Помеху определим из наихудших
условий, когда она имеет максимальное
воздействие.
Помеха
максимальна, если распределена по
нормальному закону
,
где
-
мощность сигнала,
-
мощность помехи.
Вопросы
. Как изменяется энтропия непрерывных случайных величин при сглаживании огибающей плотности вероятности?
. При каком законе распределения энтропия непрерывных случайных величин будет максимальной? Укажите для двух случаев, когда задана дисперсия и когда дисперсия произвольная.
. В каком случае помехи являются наиболее эффективными?
. По какому закону распределения выгоднее всего передавать сообщения?
. Какая величина характеризует точность воспроизведения сигнала?
. В чем сущность эпсилонэнтропии случайной величины?
Упражнения
2.1. Найдите энтропию непрерывной системы Х, все состояния которой, на какомто участке (a, b) распределены по равновероятному закону.
2.2. Укажите энтропию системы Х, состояния которой распределены по нормальному закону.
2.3.
По линии связи передаются непрерывные
амплитудномодулированные
сигналы X(t),
распределенные по нормальному закону
со средним значением mx=0
и дисперсией
.
Определите энтропию сигнала при точности
его измерения Δx=0,2 в.
2.4. Информация передается с помощью частотномодулированных синусоидальных сигналов, рабочая частота которых F изменяется с равной вероятностью в пределах от F1=10 Мгц до F2=50 Мгц. Определить энтропию сигнала H(F), если точность измерения частоты составляет величину ΔF=2 кГц.
2.5. Вычислить дифференциальную энтропию нормального закона с дисперсией σ2 и равномерного распределения с той же дисперсией.
2.6. Состояние самолета характеризуется тремя случайными величинами: высотой H, модулем скорости V и углом Θ, определяющим направление полета. Высота самолета распределена с равномерной плотностью на участке h1, h2; скорость по нормальному закону с математическим ожиданием ν0 и средним квадратическим отклонением σv; угол Θ с равномерной плотностью на участке 0, π. Величины H, V, Θ независимы. Найдите энтропию объединенной системы.
2.7. Определите энтропию непрерывного амплитудно модулированного сигнала, который передается по линии связи, для случаев, когда его значения распределены: а) по нормальному закону, б) равномерно в области изменения сигнала. Среднее значение сигнала в обоих случаях равно нулю, а дисперсия σ2=4в2. Точность отсчетов на приемном конце Δx=0,1в.
