- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
1.4. Количество информации, как мера снятой неопределенности
При передаче сообщений, о какой либо системе происходит уменьшение неопределенности. Если о системе все известно, то нет смысла посылать сообщение. Например, если мы получим сообщение, что Париж столица Франции, то мы не получим никакой информации это нам и так известно. Но если мы получаем сведения о системе для нас неизвестной, то получим соответствующее количество информации. И чем более неопределенным было состояние системы, тем большее количество информации мы получим. Поэтому количество информации измеряют уменьшением энтропии.
Рассмотрим систему Х над которой производится наблюдение. Допустим, что мы получили полную информацию о системе Х. Пусть до наблюдения энтропия системы равнялась H. В результате наблюдения энтропия равна нулю H=0, то есть все о системе известно. Тогда информация будет равна уменьшению энтропии: I=H0, I=H.
То
есть, количество информации, приобретаемое
при полном выяснении состояния некоторой
физической системы, равно энтропии этой
системы:
.
Количество информации I
есть осредненное значение логарифма
вероятности состояния. Тогда каждое
отдельное слагаемое log
pi
необходимо
рассматривать как частную информацию,
получаемую от отдельного сообщения, то
есть
.
Полная информация будет представлять
математическое ожидание от частных
значений
.
Если все возможные состояния системы
априори одинаково вероятны p1=p2=
. . . =pn=1/n
, то Ii=
log
pi=log
n.
Частная информация равна средней
(полной) информации.
В случае если состояния системы обладают различными вероятностями, информация от разных сообщений неодинакова: наибольшую информацию несут сообщения о тех событиях, которые априори были наименее вероятны. Например, сообщение о том, что 31 декабря в Казани выпал снег, несет гораздо меньше информации, чем аналогичное сообщение, что 31 июля выпал снег.
Пример
1.1. Допустим, что нам интересно знать,
сдал или не сдал экзамен некий студент
Петров. Примем следующие вероятности
этих двух событий: p(сдал)=7/8,
p(не
сдал)=1/8. Отсюда видно, что этот студент
является довольно сильным. И сообщение,
что он сдал экзамен, несет мало информации.
.
При сообщении, что не сдал, мы удивимся:
”Неужели?”
.
Пример 1.2. Тексты, составленные из 32 букв алфавита, передаются по телетайпу при помощи двух качественных признаков (1 и 0). Чему равно количество информации, приходящееся на одну принятую букву, на k принятых букв.
Решение.
m1
число букв первичного алфавита, m2
число
символов вторичного алфавита. Для
передачи 32 букв необходимо
,
их следует комбинировать по 5 символов,
откуда n=5.
.
Количество
информации на букву относительно
первичного алфавита:
.
Количество информации на букву
относительно вторичного алфавита:
Количество информации на k
принятых букв:
1.5. Объем информации
Следует
делать различие между понятиями
“количество информации” и “объем
информации”. Количество информации
вычисляется относительно первичного
алфавита, а объем информации
относительно вторичного алфавита.
Количество информации зависти от
вероятностных характеристик первичного
алфавита, а объем зависит от длины
сообщения во вторичном алфавите и равен
,
где l
длина
сообщений, а k
количество передаваемых букв алфавита.
Пример. Определить количество информации и объем информации от сообщения “Ночью ожидается ураган ” переданному по 7 элементному телеграфному коду.
Решение.
Число букв k=23.
Тогда
.
Здесь было принято, что энтропия русского
алфавита без учета статистических
характеристик равна
Таким образом, мы видим, что объем информации, занимает больше памяти, чем количество информации.
