- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
1.3. Количественные аспекты информации
Количество информации по Хартли и Шеннону
Понятие количество информации отождествляется с понятием информация. Эти два понятия являются синонимами. Впервые дать меру количества информации попытался в 1928г. Р.Хартли. Он исходил из того, что количественная мера информации должна согласовываться с интуитивным представлением о содержании информации в сообщении (сигнале). Так, например, чем длиннее телеграмма, тем больше информации она обычно содержит. Следовательно, мера информации должна монотонно возрастать с увеличением длительности сообщения (сигнала), которую естественно измерять числом символов в дискретном сообщении и временем передачи в непрерывном случае. Кроме того, на содержание количества информации должны влиять и статистические характеристики, так как сигнал должен рассматриваться как случайный процесс.
При этом Хартли наложил ряд ограничений:
Рассматриваются только дискретные сообщения.
Множество различных сообщений конечно.
Символы, составляющие сообщения равновероятны и независимы.
В этом простейшем случае число N различных сообщений длиною в k символов из алфавита содержащего m символов, равно mk. Пусть, например, алфавит состоит из трех символов: a, b, c, а k=2. Тогда количество различных сообщений будет составлять N=32=9. Это будут aa, ab, ac, ba, bb, bc, ca, cb, cc. Если k=3 то мы уже получим N=33=27 различных сообщений. То есть с увеличением длительности сообщений растет и количество информации. И в этом случае, казалось бы, в качестве меры информации можно было бы взять число N различных сообщений. Но Хартли указал, что экспоненциальная зависимость N от k не позволяет использовать величину N в качестве меры информации. Хартли впервые предложил в качестве меры количества информации принять логарифм числа возможных последовательностей символов.
I=log mk=log N (1.9)
К.Шеннон попытался снять те ограничения, которые наложил Хартли. На самом деле в рассмотренном выше случае равной вероятности и независимости символов при любом k все возможные сообщения оказываются также равновероятными, вероятность каждого из таких сообщений равна P=1/N. Тогда количество информации можно выразить через вероятности появления сообщений I=log P. Далее Шеннон рассуждал следующим образом.
Пусть
вероятность i
го символа
(i=1,2,…,m)
равна pi.
Символы образуют полную группу событий,
то есть,
Чтобы сообщения были равновероятными,
необходим чтобы относительные частоты
появления отдельных символов во всех
возможных сообщениях были равны. При
ограниченной длине сообщений
это условие не выполняется. Но при
достаточно длинных сообщениях условие
равной вероятности возможных сообщений
будет, приближенно выполнятся.
В
силу статистической независимости
символов, вероятность сообщения длиной
в k
символов равна
.
Если iй
символ повторяется в данном сообщении
ki
раз, то
,
так как при повторении i
символа ki
раз k
уменьшается до m.
Из теории вероятностей известно, что,
при достаточно длинных сообщениях
(большое число символов k)
ki≈k·pi
и тогда
вероятность сообщений будет равняться
.
Тогда окончательно получим
(1.10)
Данное
выражение называется формулой Шеннона
для определения количества информации.
Формула Хартли является частным случаем
формулы Шеннона. В самом деле, при
равновероятных символах, то есть при
pi=1/m
формула Шеннона переходит в формулу
Хартли:
.
Формула Шеннона для количества информации на отдельный символ сообщения совпадает с энтропией. Тогда количество информации сообщения состоящего из k символов будет равняться I=k·H.
