
- •А.А. Кузьмин
- •1. Энтропия вероятностной схемы
- •1.1.Основные принципы, понятия и определения теории информации
- •1.2.Количество информации в сообщении
- •Энтропия источника сообщений
- •1.3.Условная энтропия
- •Взаимная информация и взаимная энтропия
- •1.7. Скорость создания информации дискретным источником без памяти
- •2. Элементы теории кодирования информации
- •Основные характеристики кодов
- •1.4.Теоремы кодирования Шеннона
- •Скорость передачи информации по каналу связи определяется количеством передаваемой информации и интервалом времени ее передачи:
- •Таким образом, для реализации помехоустойчивого кодирования в канале связи с помехами, способного обеспечить сколь угодно высокую степень верности, необходимо выполнение условия
- •Контрольные вопросы
- •3. Простые (безызбыточные) коды
- •3.4. Примеры неравномерных кодов
- •Построение кодового дерева Шеннона-Фано
- •Общие принципы построения помехоустойчивых кодов
- •Классификация помехоустойчивых кодов
- •Основные характеристики и корректирующие свойства блочных кодов
- •Линейные блочные коды с обобщенными проверками на четность
- •Формирование (n, k) кода с обобщенной проверкой на четность
- •Структурные схемы кодеров и декодеров линейного кода
- •Принцип построения циклического кода
- •Алгоритм декодирования циклических кодов
- •Структурная схема кодера циклического кода
- •Бчх коды
- •Рекуррентные коды. Кодирование с перемежением
- •Принцип построения рекуррентных (сверточных) кодов
- •Декодирование сверточных кодов
- •6. Пропускная способность каналов связи
- •Пропускная способность непрерывного канала связи
- •Пути повышения пропускной способности непрерывных каналов связи
- •1.5.Пропускная способность дискретного канала связи без помех
- •Контрольные вопросы
- •Элементы теории кодирования информации
- •Простые (безызбыточные) коды
- •Помехоустойчивые блочные коды
- •5. Рекуррентные коды. Кодирование с перемежением
- •6. Пропускная способность каналов связи
- •. Пропускная способность дискретного канала связи без помех 98
- •Основы теории информации
1.7. Скорость создания информации дискретным источником без памяти
Существует достаточно большое количество моделей источников информации (сообщений). Особенности каждой конкретной модели рассматриваются при решении определенной задачи.
К наиболее простой модели источников относят дискретный источник без памяти, что позволяет доступно оценить его информационные способности.
Понятие «дискретный источник» является в большей мере условным и используется для простоты рассмотрения информационных свойств источников, так как любой непрерывный источник с некоторыми допущениями можно свести к дискретному источнику.
Источник без памяти – это источник, формирующий сообщения вне зависимости от ранее сформированных сообщений.
В источниках без памяти сообщения выдаются в некоторые моменты времени, определяемые самим источником, и не зависят от работы передающего устройства. В этом случае можно говорить о производительности источника, т. е. о среднем количестве информации, выдаваемом источником в единицу времени.
Если в среднем каждое элементарное сообщение занимает время t, то производительность источника будет равна
,
где Н(Х) – энтропия сообщения.
Следует заметить, что производительность источника зависит не только от количества элементов, составляющих сообщения, но и от корреляционных связей между элементами сообщений. Для того, чтобы более точно определить информационные характеристики источников сообщений, необходимо знать зависимость передаваемых сообщений друг от друга.
Задача. Определить скорость создания информации системой, которая описывается дискретной случайной величиной х со следующим рядом распределения: р(х1) = р(х2) = р(х3) = р(х4) = = 0,01; р(х5) = 0,96, если система генерирует элемент сообщения за 0,1 с.
Решение. Найдем энтропию источника сообщений:
Н(Х) = – (4 0,01 log20,01 + 0,96 log20,96) = 0,322 бит.
Производительность источника составляет
С(Х) = 0,322 бит / 0,1 с = 3,22 бит/с.
Если же сообщения источника равновероятны:
р(х1) = р(х2) = р(х3) = р(х4) = р(х5) = 0,2,
то энтропия источника равна примерно 2,322 бит, а производительность источника – 23,22 бит/с.
Задачи
1. Определить энтропию системы, которая описывается дискретной случайной величиной х со следующим рядом распределения: р (х1) = = р (х2) = р (х3) = р (х4) = р (х5) = 0,2.
2. Какое количество информации приходится на букву алфавита, состоящего из 16 букв?
3. Определить энтропию сообщения из восьми букв, если общее число букв в алфавите равно 28 и все сообщения равновероятны.
4. Определить количество символов в алфавите, если появление сообщений равновероятно и энтропия сообщения из трех букв 21 бит.
5. Определить условную энтропию ансамбля двух источников, если р (х1) = 0,4; р (х2) = 0,2; р (х3) = 0,4; р (у1) = 0,36; р (у2) = 0,26; р (у3) = = 0,38. Матрица совместных вероятностей имеет вид
.
Контрольные вопросы
Что называется информацией, сообщением, сигналом?
В каких единицах измеряется количество информации?
Что характеризует энтропия источника сообщений? Какова ее размерность?
Перечислите свойства энтропии.
Дайте определение взаимной энтропии, совместной энтропии.
В чем разница между взаимной и совместной энтропией?
Что является причиной избыточности сообщений?
Раскройте понятие «дискретный источник без памяти».
Как определить избыточность сообщений?
Как определить производительность источника сообщений?