- •Министерство образования и науки Российской Федерации
- •Введение
- •1 Определение информации
- •2 Этапы обращения информации
- •3Измерение информации
- •4 Информационные системы
- •5 Проблемы передачи информации
- •6 Предмет теории информации
- •7 Структура книги
- •1 Количественная оценка информации источников
- •1.1 Дискретный источник
- •1.1.1 Определение меры оценки количества информации
- •1.1.2 Частная взаимная информация дискретных источников сообщений
- •1.1.3 Энтропия дискретного сообщения
- •1.1.4 Условная энтропия дискретных сообщений
- •1.1.5 Энтропия объединенного сообщения
- •1.1.6 Средняя взаимная информация дискретных источников сообщений
- •1.2 Непрерывный источник
- •1.2.1 Собственная информация и энтропия
- •1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
- •1.2.3 Средняя взаимная информация непрерывных источников сообщений
- •1.2.4 Эпсилон-энтропия непрерывных источников сообщений
- •2 Кодирование сообщений источников
- •2.1 Модели дискретных источников сообщений
- •2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
- •Теорема (о средней длине кодового слова)
- •2.3 Методы эффективного кодирования
- •2.3.1 Метод кодирования источников ШеннонаФано
- •2.3.2 Метод кодирования источников Хаффмена
- •2.4 Предельная условная энтропия дискретных источников сообщений
- •2.5 Информативность непрерывных источников сообщений дискретного времени
- •2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
- •2.7 Квазиобратимое эффективное кодирование непрерывных источников
- •2.8 Эпсилон-энтропия Гауссовского вектора сообщений
- •2.9 Эпсилон - энтропия стационарного Гауссовского процесса дискретного времени
- •Теорема.
- •Помехоустойчивое кодирование
- •3.1.1 Методы повышения верности передачи информации
- •3.1.2 Понятие о корректирующих кодах
- •3.2.1 Построение линейных кодов
- •3.2.2 Обнаружение и исправление ошибок. Декодирующее устройство
- •3.2.3 Примеры линейных кодов
- •3.3 Циклические коды
- •3.3.1 Выбор образующего многочлена
- •3.3.2 Базис циклического кода, формирование кодовых комбинаций
- •3.4 Синдром циклического кода и его свойства
- •3.5 Коды боуза - чоудхури - хоквингема
- •3.6 Коды Абрамсона
- •3.7 Коды Рида — Соломона
- •3.8 Понятие об итерактивных и каскадных кодах
- •3.9 Понятие о непрерывных кодах
- •3.9.1 Цепной код
- •3.9.2 Сверточные коды
- •4 Модели каналов связи
- •4.1 Непрерывный канал
- •Примеры непрерывных каналов:
- •На рис. 4.4 применены следующие обозначения:
- •4.2 Дискретный канал
- •Библиографический список
- •Оглавление
2.4 Предельная условная энтропия дискретных источников сообщений
В ряде реальных ситуаций источник дискретных сообщений обладает неограниченной памятью. Возникает проблема определения среднего количества информации, содержащейся в одном сообщении источника с бесконечной памятью. Поскольку условная энтропия Hk(X) источника X является положительной невозрастающей функцией памяти k-1 порядка, то существует предел, называемый условной предельной энтропией источника сообщений
(2.8)
такой, что
![]()
Величина (2.8) интерпретируется как среднее количество информации, содержащееся в одном сообщении блока сообщений бесконечной длины, т.е.
(2.9)
где
. (2.10)
Теорема(о кодировании статистически зависимых сообщений дискретного источника).
При любом сколь угодно малом>0
последовательность статистически
зависимых сообщений источника X мощности
N может быть закодирована с помощью
кодового ансамбля
=M<
N так, что средняя длина кодового слова,
приходящаяся на сообщение X, будет
лежать в пределах
. (2.11)
Разобьем последовательность сообщений источника X на блок состояний из L сообщений, при этом на основании предыдущей теоремы (о средней длине кодового слова ) при большем i будет иметь место неравенство
. (2.12)
При этом среднее количество кодовых символов, приходящееся на одно сообщение, будет находиться в пределах
. (2.13)
при
получим (2.12).
2.5 Информативность непрерывных источников сообщений дискретного времени
Непрерывные сообщения дискретного времени могут быть описаны многомерной плотностью вероятностей вида
![]()
Для стационарной последовательности, порождаемой источником с конечной памятью (n-1) порядка, условная энтропия будет определяться выражением
. (2.14)
При этом взаимная информация между отдельными сообщениями будет равна
(2.15)
Эта характеристика является абсолютной.
При исследовании предельных информационных характеристик с целью проведения системного анализа информационных процессов, основной моделью является Гаусс-Марковская модель (источник с Гауссовским распределением, обладающий конечной памятью (n-1) порядка), которая представляется в виде
, (2.16)
где
- определитель корреляционной матрицы
источника X размерности nxn;
mx– математическое ожидание;
Bij– минор элемента ij определителя корреляционной матрицы.
Нетрудно определить, что условная энтропия Гауссовского источника с памятью (n-1) порядка определяется выражением
, (2.17)
где
определитель нормированной корреляционной
матрицы;
K11– минор элемента 11 нормированной корреляционной матрицы.
Дифференциальная энтропия последовательности длиной nбудет
. (2.18)
Пример 1.
Определить информативность одного или
пары сообщений, а также среднюю взаимную
информацию сообщений стационарного
Гауссовского источника с единичной
памятью, если известна средняя мощность
и коэффициент автокорреляции r.
.
Так как K11=1, соответствующие информационные характеристики имеют вид:
3)
.
Пример 2.
Определить взаимную информацию между двумя Гауссовскими векторами
и![]()
с корреляционными матрицами
,
если
,где
,а
его корреляционная матрица имеет
ненулевой детерминант, причем
и
статистически независимы.
.
При этом очевидно
.
Тогда
![]()
Замечание.Так как в общем случае координаты
векторов коррелированны, то последнюю
задачу можно свести к задаче с
некоррелированными координатами путем
ортогонального преобразования случайного
вектора. Эта задача решается путем
нахождения собственных чисел и собственных
векторов корреляционных матриц векторов,
так, для
его ортогональный образ
определяется уравнением
,
где Q=
-матрица
собственных векторов корреляционной
матрицы(
),
удовлетворяющих условию нормировки

обеспечивающему равенство
![]()
Причем матрица Q должна удовлетворять равенству
![]()
где
-
диагональная матрица, состоящая из
собственных чисел корреляционной
матрицы
.
При этом собственные числа и собственные вектора определяются из уравнений
.

