- •Министерство образования и науки Российской Федерации
- •Введение
- •1 Определение информации
- •2 Этапы обращения информации
- •3Измерение информации
- •4 Информационные системы
- •5 Проблемы передачи информации
- •6 Предмет теории информации
- •7 Структура книги
- •1 Количественная оценка информации источников
- •1.1 Дискретный источник
- •1.1.1 Определение меры оценки количества информации
- •1.1.2 Частная взаимная информация дискретных источников сообщений
- •1.1.3 Энтропия дискретного сообщения
- •1.1.4 Условная энтропия дискретных сообщений
- •1.1.5 Энтропия объединенного сообщения
- •1.1.6 Средняя взаимная информация дискретных источников сообщений
- •1.2 Непрерывный источник
- •1.2.1 Собственная информация и энтропия
- •1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
- •1.2.3 Средняя взаимная информация непрерывных источников сообщений
- •1.2.4 Эпсилон-энтропия непрерывных источников сообщений
- •2 Кодирование сообщений источников
- •2.1 Модели дискретных источников сообщений
- •2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
- •Теорема (о средней длине кодового слова)
- •2.3 Методы эффективного кодирования
- •2.3.1 Метод кодирования источников ШеннонаФано
- •2.3.2 Метод кодирования источников Хаффмена
- •2.4 Предельная условная энтропия дискретных источников сообщений
- •2.5 Информативность непрерывных источников сообщений дискретного времени
- •2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
- •2.7 Квазиобратимое эффективное кодирование непрерывных источников
- •2.8 Эпсилон-энтропия Гауссовского вектора сообщений
- •2.9 Эпсилон - энтропия стационарного Гауссовского процесса дискретного времени
- •Теорема.
- •Помехоустойчивое кодирование
- •3.1.1 Методы повышения верности передачи информации
- •3.1.2 Понятие о корректирующих кодах
- •3.2.1 Построение линейных кодов
- •3.2.2 Обнаружение и исправление ошибок. Декодирующее устройство
- •3.2.3 Примеры линейных кодов
- •3.3 Циклические коды
- •3.3.1 Выбор образующего многочлена
- •3.3.2 Базис циклического кода, формирование кодовых комбинаций
- •3.4 Синдром циклического кода и его свойства
- •3.5 Коды боуза - чоудхури - хоквингема
- •3.6 Коды Абрамсона
- •3.7 Коды Рида — Соломона
- •3.8 Понятие об итерактивных и каскадных кодах
- •3.9 Понятие о непрерывных кодах
- •3.9.1 Цепной код
- •3.9.2 Сверточные коды
- •4 Модели каналов связи
- •4.1 Непрерывный канал
- •Примеры непрерывных каналов:
- •На рис. 4.4 применены следующие обозначения:
- •4.2 Дискретный канал
- •Библиографический список
- •Оглавление
2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
Пусть X(t) и Y(t) два множества случайных
процессов с нулевым средним заданные
на конечном интервале t
[0,T].Предполагается, что каждый из
случайных процессов допускает разложение
по системам полных ортогональных
(ортонормированных) функций, т.е.
, (2.19)
где
![]()
. (2.20)
При этом сходимость такого разложения понимается в среднеквадратическом смысле. Допустим, что эти процессы могут быть заданы совместно с помощью ПВ вида
![]()
n=1,2….
Отсюда, для усеченного разложения указанных процессов, средняя взаимная информация имеет вид:
, (2.21)
где
. (2.22)
Тогда средняя взаимная информация между исходными процессами на интервале T определяется в виде:
. (2.23)
Если предел существует, то равенство (2.23) справедливо для любых полных систем ортонормированных функций.
Пример.
Пусть Y(t)=X(t)+Z(t), где X(t),
Z(t) - независимые Гауссовские
стационарные процессы с корреляционными
функциями
и
,а
- собственные функции, определенные в
результате разложения Карунена-Лоэва.
, (2.24)
где
иi – собственные
числа корреляционных ядер
уравнения.
Если предположить, что система полных
собственных функций идентична для X(t)
и Z(t), что всегда справедливо
для
(асимптотическое
поведение собственных функций Гауссовских
процессов), то выражение для средней
взаимной информации между процессами
примет следующий вид:
,
где
собственные
числа (дисперсии коэффициентов
из (2.24)).
2.7 Квазиобратимое эффективное кодирование непрерывных источников
с заданным критерием качества
Для решения задач цифрового представления информационно-измерительных процессов в системах автоматизации необходимо их гарантированное восстановление по цифровому эквиваленту с заданной степенью точности.
Под квазиобратимостью понимается возможность восстановления процессов с заданной точностью при выбранном критерии восстановления.
В этом случае, как и в рассмотренном ранее случае обратимого кодирования дискретных сообщений, необходимо определить предельный минимальный объем информации, позволяющий закодировать процесс с заданной степенью точности, т.е. в этом случае говорят необходимо определитьпроизводительность процесса, гдестепень точности его цифрового представления.
Суть постановки задачи квазиобратимого кодирования для конечной последовательности процессов состоит в следующем: пусть источник непрерывных сообщений X образует последовательность
, (2.25)
которая аппроксимируется другой последовательностью
. (2.26)
Для установления соответствия между
(2.25) и (2.26) введем неотрицательную функцию
значения которой будем связывать с
величиной ошибки аппроксимации процесса
(2.25) цифрового представления с помощью
(2.26).
При этом
, (2.27)
где
является ошибкой цифрового представления
i координаты вектора (2.25). Так как
предложенная аппроксимация применяется
к случайным последовательностям, то
связь (2.25) и (2.26) описывается с помощью
условной ПВ вида![]()
В этом случае мерой ошибки аппроксимации будет являться функционал
. (2.28)
Здесь
- априорная ПВ ограниченной последовательности
сообщений, откуда с учетом (2.27) будем
иметь
, (2.29)
где
-
средняя ошибка аппроксимации координаты
ее цифровым эквивалентом![]()
Таким образом, задача определения
e-производительности сводится к
определению наименьшего числа бит,
приходящихся в среднем на одно сообщение,
для которого величина
.
