- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
2.2. Количество информации для непрерывных систем
Взаимная информация определяется как разность двух энтропии:
Подставим под значения энтропии выражения для непрерывных случайных величин
Далее
первый интеграл умножим на выражение
,
а во втором интеграле учтем, что
Тогда окончательно получим:
(2.4)
2.3. Принцип экстремума энтропии и экстремальные распределения
В ряде случаев возникает задача определения распределения вероятностей w(x) при заданных моментах случайных величин. Например, при выборе “наилучшего” распределения вероятностей при передаче сообщений или искусственно создаваемой помехи.
Заданному ограничению всегда удовлетворяет бесконечное множество различных распределений вероятностей. Поэтому ставится задача выбора из данного множества некоторого наиболее подходящего распределения.
В качестве критерия предлагается принцип экстремума энтропии. Данная задача решается как частная задача вариационного исчисления. При этом могут быть два случая. Первый случай при заданной дисперсии, второй при произвольной дисперсии.
Рассмотрим первый случай.
Определим вид функции плотности вероятности распределения состояний элементов сообщений w(x), которая бы обеспечивала максимальную энтропию H(X) при заданной дисперсии.
При этом имеются дополнительные условия:
(2.5)
(2.6)
Для решения задачи составим уравнение Эйлера
,
(2.7)
где λ1 и λ2 неопределенные множители;
,
.
Продифференцируем уравнение (2.7) по w(x)
Приравнивая производную нулю, получим:
Примем
во внимание, что
,
и тогда
,
далее
,
или
,
где
(2.8)
Для
исключения неизвестных λ1
и λ2
подставим
выражение (2.8) в (2.5).
Для
решения полученного выражения
воспользуемся табличным интегралом:
Далее
.
Тогда (2.8) примет вид
(
2.9)
Подставим (2.9) в (2.6)
При взятии интеграла учтем, что имеется соответствующий табличный интеграл
Следовательно
(2.10)
Подставим (2.10) в (2.9) и окончательно получим
(2.11)
В результате получили нормальный закон распределения вероятностей.
Выводы:
Если задана дисперсия состояний сообщений, то сообщение обладает наибольшей информативностью (максимальной энтропией) в том случае, когда состояния элементов распределены по нормальному закону.
Если задана средняя мощность помехи, то последняя является наиболее эффективной (энтропия помехи максимальна), когда состояния составляющих помеху элементов распределены по нормальному закону.
Второй случай. Определим вид функции w(x) , обеспечивающей максимальную энтропию сообщений при непрерывном распределении состояний элементов и произвольной дисперсии. Эта вариационная задача имеет только одно дополнительное условие.
(2.12)
Решение задачи можно получить, положив в (2.7) λ2=0
тогда
уравнение (2.8) будет равно
Подставим в (2.12) и возьмем пределы (а в), так как w(x) не зависит от x.
,
откуда
Так как функция плотности вероятности w(x) не зависит от x, то она является величиной постоянной во всем интервале существования случайной величины. Пусть состояния элементов сообщений существуют в интервале [a,b], тогда искомая функция распределения равна
(2.13)
внутри интервала [a,b] и нулю вне пределов его.
Вывод. Если дисперсия состояний сообщений не ограничена, то сообщения обладают наибольшей информативностью (максимальной энтропией) в том случае, когда состояния элементов распределены по равновероятному закону.
