- •Министерство образования и науки Российской Федерации
- •Введение
- •1 Определение информации
- •2 Этапы обращения информации
- •3Измерение информации
- •4 Информационные системы
- •5 Проблемы передачи информации
- •6 Предмет теории информации
- •7 Структура книги
- •1 Количественная оценка информации источников
- •1.1 Дискретный источник
- •1.1.1 Определение меры оценки количества информации
- •1.1.2 Частная взаимная информация дискретных источников сообщений
- •1.1.3 Энтропия дискретного сообщения
- •1.1.4 Условная энтропия дискретных сообщений
- •1.1.5 Энтропия объединенного сообщения
- •1.1.6 Средняя взаимная информация дискретных источников сообщений
- •1.2 Непрерывный источник
- •1.2.1 Собственная информация и энтропия
- •1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
- •1.2.3 Средняя взаимная информация непрерывных источников сообщений
- •1.2.4 Эпсилон-энтропия непрерывных источников сообщений
- •2 Кодирование сообщений источников
- •2.1 Модели дискретных источников сообщений
- •2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
- •Теорема (о средней длине кодового слова)
- •2.3 Методы эффективного кодирования
- •2.3.1 Метод кодирования источников ШеннонаФано
- •2.3.2 Метод кодирования источников Хаффмена
- •2.4 Предельная условная энтропия дискретных источников сообщений
- •2.5 Информативность непрерывных источников сообщений дискретного времени
- •2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
- •2.7 Квазиобратимое эффективное кодирование непрерывных источников
- •2.8 Эпсилон-энтропия Гауссовского вектора сообщений
- •2.9 Эпсилон - энтропия стационарного Гауссовского процесса дискретного времени
- •Теорема.
- •Помехоустойчивое кодирование
- •3.1.1 Методы повышения верности передачи информации
- •3.1.2 Понятие о корректирующих кодах
- •3.2.1 Построение линейных кодов
- •3.2.2 Обнаружение и исправление ошибок. Декодирующее устройство
- •3.2.3 Примеры линейных кодов
- •3.3 Циклические коды
- •3.3.1 Выбор образующего многочлена
- •3.3.2 Базис циклического кода, формирование кодовых комбинаций
- •3.4 Синдром циклического кода и его свойства
- •3.5 Коды боуза - чоудхури - хоквингема
- •3.6 Коды Абрамсона
- •3.7 Коды Рида — Соломона
- •3.8 Понятие об итерактивных и каскадных кодах
- •3.9 Понятие о непрерывных кодах
- •3.9.1 Цепной код
- •3.9.2 Сверточные коды
- •4 Модели каналов связи
- •4.1 Непрерывный канал
- •Примеры непрерывных каналов:
- •На рис. 4.4 применены следующие обозначения:
- •4.2 Дискретный канал
- •Библиографический список
- •Оглавление
2 Кодирование сообщений источников
2.1 Модели дискретных источников сообщений
В первой главе мы рассмотрели информационные характеристики источника сообщений Х, приходящиеся на одно сообщение.
На практике интерес представляют информационные характеристики источника за длительный промежуток времени [1], когда состояния источника изменяются, образуя некоторую последовательность состояний. Для описания последовательности сообщений источника Х применяются математические модели в виде случайных процессов.
Рассмотрим дискретный источник X, сообщения которого образуют последовательность
.
Каждый из элементов последовательности
может
содержать одно изNсообщений
![]()
Такая последовательность может быть описана условной вероятностью вида
![]()
При этом существуют два определения.
Источник X обладает памятью порядка (l), если имеет место следующее равенство
P(x(k+1)/x(k)x(k-1)…x(k-l)…)=P(x(k+1)/x(k)x(k-1)…x(k-l))=P(x(k)/x(k-l))=P(x/xl).
Источник X является стационарным, если
P(x(k+1)/x(k)…x(k-l)…)=P(x(k+M+1)/x(k+M)x(k+M-1)…x(k+M-1))
для любого M
.
Собственное количество информации, содержащееся в сообщении стационарного источника с памятью l-гопорядка, определяется величиной
I(x/xl )=- log P(x/xl). (2.1)
Величина среднего количества информации, содержащейся в одном сообщении, будет определяться энтропиейl+1-го порядка
. (2.2)
Справедливы следующие свойства меры (2.2).
Если сообщения являются статистически независимыми (отсутствует память), то источник описывается безусловной энтропией
Hl(X)=H1(X)=H(X).
При возрастании порядка памяти источника функция (2.2) является невозрастающей функцией его памяти
log N=H0(X)>=H1(X)>=...>=Hl(X)>=...,
где N - мощность источника X (количество сообщений источника Х).
Отсюда следует, что источники с памятью обладают информационной избыточностью вследствие наличия связи или неравномерности распределения вероятностей.
Для определения количественной меры информационнной избыточности Шенноном введен коэффициент информационной избыточности (2.3)
. (2.3)
Величина
отлична от нуля ,если :
1)источник Х обладает памятью (l>0);
2)статистика источника Х носит неравномерный характерраспределение разностей сообщений источника Х отлична от равномерного.
Пример.
Определить
энтропию и избыточность стационарного
источникаXс памятью
первого порядка, если условная вероятность
появления сообщений описывается графом
(рис.2.1)
Рис.2.1Граф состояний источника
На рис.2.1: x1 ,x2двоичные сообщения, а Р(xi/xj) - условные вероятности переходов.
Решение:
Из формулы полной вероятности при
P(x2)=1-P(x1)
![]()
P(x1)=Р(x1)P(x1/x1)+[1-P(x1)]P(x1/x2)=P(x1)(1-P)+[1-P(x1)]P;
P(x1)(1-P)+P-P(x1)P;
P(x1)-P(x1)P(1-P)+P(x1)P=P;
p(x1)[1-1+P+P]=P;
P(x2)=1-P(x1)=0.5;
P(x1)=
=0.5.
По формуле (2.2) имеем
![]()
![]()
;
![]()
График зависимости избыточности стационарного источника Х с памятью первого порядка изображен на рис.2.2.

Рис.2.2Зависимость избыточности стационарного источника Х
с памятью первого порядка от вероятности перехода источника из одного состояния в другое
