- •Теория информации Учебное пособие
- •Введение
- •1. Информационные характеристики источников сообщений
- •Энтропия как мера неопределенности физической системы
- •1.2 Энтропия сложной системы
- •Сложение энтропии независимых систем
- •Условная энтропия
- •1.3. Количественные аспекты информации
- •1.4. Количество информации, как мера снятой неопределенности
- •1.5. Объем информации
- •1.6. Взаимная информация
- •Упражнения
- •Решение
- •Лабораторная работа Свойства энтропии
- •2. Неопределенность непрерывных случайных величин
- •2.1. Энтропия непрерывной случайной величины х
- •2.2. Количество информации для непрерывных систем
- •2.3. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (2.9) в (2.6)
- •При взятии интеграла учтем, что имеется соответствующий табличный интеграл
- •Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
- •2.4. Епсилон энтропия (ε-энтропия )
- •3. Передача информации по каналам связи
- •3.1. Источники сообщений
- •3.2. Избыточность информации
- •3.3. Передача информации по каналу связи. Пропускная способность канала
- •Матрица для нахождения условной вероятности
- •Матрица условных вероятностей имеет вид
- •3.4. Пропускная способность непрерывных каналов связи
- •Скорость передачи информации будет равняться
- •Тогда , (3.8) где p мощность сигнала, а n мощность помехи
- •3.5. Согласование скорости выдачи информации, выдаваемой источником, с пропускной способностью канала связи
- •3.6. Согласование оконечных устройств с каналами связи
- •Упражнения
- •Лабораторная работа
- •4. Кодирование информации
- •4.1. Префиксные коды
- •Коды 1,2,3 не обладают свойством префикса, а код 4 обладает.
- •4.2. Основные теоремы кодирования
- •4.3. Оптимальное кодирование
- •4.4. Код Шеннона – Фано
- •Средняя длина полученного кода будет равна
- •4.5. Блочное кодирование
- •4.6. Код Хаффмана
- •4.7. Совмещенный способ построения кода Хаффмана Совмещенный способ построения кода Хаффмана представляет объединение двух процессов: обычного алгоритма построения и метода дерева.
- •Лабораторная работа
- •5. Сжатие информации
- •5.1. Основные понятия
- •5.2. Методы сжатия без потерь
- •Кодирование длин серий (rle - кодирование)
- •Коды Фибоначчи
- •Методы энтропийного сжатия
- •Метод арифметического сжатия
- •Методы контекстного моделирования
- •Словарные методы сжатия
- •5.3. Методы сжатия с потерями
- •6. Помехоустойчивое кодирование
- •6.1 Коды с обнаружением ошибок
- •Код с проверкой на четность.
- •Код Грея записывается следующим образом
- •Обратный переход из кода Грея в двоичный код
- •6.2. Корректирующие коды
- •6.3. Код Хемминга
- •Проверяем ее
- •6.4. Техническая реализация кода Хэмминга
- •6.5 Циклические коды
- •Декодирование циклических кодов
- •Аппаратурная реализация циклических кодов.
- •Пусть на вход подается комбинация 1101001
- •Теперь пусть на вход подается комбинация с ошибкой 1100001
- •Упражнения
- •Лабораторная работа
- •Задание 2
- •Задание 3
- •Задание 4
- •Задание 5
- •Задание 7
- •Задание 8
- •Задание 9
- •Задание 10
- •Задание 11
- •Задание 12
- •Задание 13
- •Задание 14
- •Задание 15
- •Задание 16
- •Задание 17
- •Задание 18
- •Задание 19
- •Задание 20
- •Список литературы
- •Оглавление
3.2. Избыточность информации
Если
бы сообщения передавались бы с помощью
равновероятных букв алфавита и между
собой статистически независимых, то
энтропия таких сообщений была бы
максимальной. На самом деле реальные
сообщения строятся из не равновероятных
букв алфавита с наличием статистических
связей между буквами. Поэтому энтропия
реальных сообщений Hр,
оказывается
много меньше оптимальных сообщений
Hо.
Допустим,
нужно передать сообщение, содержащее
количество информации, равное I.
Источнику, обладающему энтропией на
букву, равной Hр,
придется затратить некоторое число nр,
то есть
.
Если энтропия источника была бы Н0,
то пришлось бы
затратить меньше букв на передачу этого
же количества информации I=
n0H0
.
Таким
образом, часть букв nрnо
являются как бы лишними, избыточными.
Таким образом, мера удлинения реальных
сообщений по сравнению с оптимально
закодированными и представляет собой
избыточность D.
(3.2)
Но наличие избыточности нельзя рассматривать как признак несовершенства источника сообщений. Наличие избыточности способствует повышению помехоустойчивости сообщений. Высокая избыточность естественных языков обеспечивает надежное общение между людьми.
3.3. Передача информации по каналу связи. Пропускная способность канала
Введение понятий энтропии, количества информации, скорости выдачи информации источником, избыточности позволяют характеризовать свойства информационных систем. Однако для сравнения информационных систем только такого описания недостаточно. Обычно нас интересует не только передача данного количества информации, но передача его в возможно более короткий срок; не только хранение определенного количества информации, но хранение с помощью минимальной по объему аппаратуры и т.п.
Пусть количество
информации, которое передается по каналу
связи за время Т равно
.
Если передача сообщения длится Т единиц
времени, то скорость передачи информации
составит
.
Это количество
информации, приходящееся в среднем на
одно сообщение. Если в секунду передается
n сообщений, то скорость
передачи будет составлять
.
Пропускная способность канала есть максимально достижимая для данного канала скорость передачи информации:
(3.3)
Или
максимальное количество информации,
передаваемое за единицу времени:
Скорость передачи может быть технической или информационной.
Под
технической скоростью VT,
называемой также скоростью манипуляции,
подразумевается число элементарных
сигналов (символов), передаваемых в
единицу времени
бод.
Информационная скорость или скорость передачи информации, определяется средним количеством информации, которое передается в единицу времени и измеряется (бит/сек). R=nH.
Для
равновероятных сообщений составленных
из равновероятных взаимно независимых
символов
В случае если символы
не равновероятны
В случае если символы имеют разную длительность
(3.4)
Выражение для пропускной способности отличается тем, что характеризуется максимальной энтропией
бит/сек
Для
двоичного кода
бит/сек
Пропускная способность является важнейшей характеристикой каналов связи. Возникает вопрос: какова должна быть пропускная способность канала, чтобы информация от источника X к приемнику Y поступала без задержек? Ответ на этот вопрос дает 1ая теорема Шеннона.
1.Теорема Шеннона
Если имеется источник информации с энтропией Н(х) и канал связи с пропускной способностью С, то если С > H(X), то всегда можно закодировать достаточно длинное сообщение таким образом, что оно будет передано без задержек. Если же, напротив, С < H(X), то передача информации без задержек невозможна.
В
любом реальном канале всегда присутствуют
помехи. Однако, если их уровень настолько
мал, что вероятность искажения практически
равна нулю, можно условно считать, что
все сигналы передаются неискаженными.
В этом случае среднее количество
информации, переносимое одним символом
равно I(X,Y)=I(X,X)=H(X).
Максимальное значение Hmax=log
m.
Следовательно,
пропускная способность дискретного
канала без помех за единицу времени
равна
.
Реальные каналы характеризуются тем, что на каналы всегда воздействуют помехи. Пропускная способность дискретного канала с помехами вычисляется по формуле C =n[H(Y)-H(Y/X)]max .
Где средняя, условная энтропия со стороны приемника сигналов
А энтропия принимаемых сигналов определяется из условия максимального значения H(y)= log m.
Пример 3.1. Пусть требуется определить пропускную способность бинарного канала связи. При этом с вероятностью p каждый из двоичных сигналов может перейти в противоположный сигнал.
На рис.3.2 представлена модель передачи бинарных сигналов.
1-p
p(x1)
x1
y1
1p
вероятность неискаженной
p передачи сигналов
p p вероятность искажения сигналов
p(x2) x2 1-p y2
Рис.3.2. Симметричный канал передачи сигналов в условиях помех, где x1 и х2 передаваемые сигналы типа “0” или “1”, y1 и y2, принимаемые сигналы
