- •Министерство образования и науки Российской Федерации
- •Введение
- •1 Определение информации
- •2 Этапы обращения информации
- •3Измерение информации
- •4 Информационные системы
- •5 Проблемы передачи информации
- •6 Предмет теории информации
- •7 Структура книги
- •1 Количественная оценка информации источников
- •1.1 Дискретный источник
- •1.1.1 Определение меры оценки количества информации
- •1.1.2 Частная взаимная информация дискретных источников сообщений
- •1.1.3 Энтропия дискретного сообщения
- •1.1.4 Условная энтропия дискретных сообщений
- •1.1.5 Энтропия объединенного сообщения
- •1.1.6 Средняя взаимная информация дискретных источников сообщений
- •1.2 Непрерывный источник
- •1.2.1 Собственная информация и энтропия
- •1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
- •1.2.3 Средняя взаимная информация непрерывных источников сообщений
- •1.2.4 Эпсилон-энтропия непрерывных источников сообщений
- •2 Кодирование сообщений источников
- •2.1 Модели дискретных источников сообщений
- •2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
- •Теорема (о средней длине кодового слова)
- •2.3 Методы эффективного кодирования
- •2.3.1 Метод кодирования источников ШеннонаФано
- •2.3.2 Метод кодирования источников Хаффмена
- •2.4 Предельная условная энтропия дискретных источников сообщений
- •2.5 Информативность непрерывных источников сообщений дискретного времени
- •2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
- •2.7 Квазиобратимое эффективное кодирование непрерывных источников
- •2.8 Эпсилон-энтропия Гауссовского вектора сообщений
- •2.9 Эпсилон - энтропия стационарного Гауссовского процесса дискретного времени
- •Теорема.
- •Помехоустойчивое кодирование
- •3.1.1 Методы повышения верности передачи информации
- •3.1.2 Понятие о корректирующих кодах
- •3.2.1 Построение линейных кодов
- •3.2.2 Обнаружение и исправление ошибок. Декодирующее устройство
- •3.2.3 Примеры линейных кодов
- •3.3 Циклические коды
- •3.3.1 Выбор образующего многочлена
- •3.3.2 Базис циклического кода, формирование кодовых комбинаций
- •3.4 Синдром циклического кода и его свойства
- •3.5 Коды боуза - чоудхури - хоквингема
- •3.6 Коды Абрамсона
- •3.7 Коды Рида — Соломона
- •3.8 Понятие об итерактивных и каскадных кодах
- •3.9 Понятие о непрерывных кодах
- •3.9.1 Цепной код
- •3.9.2 Сверточные коды
- •4 Модели каналов связи
- •4.1 Непрерывный канал
- •Примеры непрерывных каналов:
- •На рис. 4.4 применены следующие обозначения:
- •4.2 Дискретный канал
- •Библиографический список
- •Оглавление
2.8 Эпсилон-энтропия Гауссовского вектора сообщений
Как и в общем случае, рассмотренном выше, имеется вектор исходных сообщений (2.25), который можно аппроксимировать с помощью его цифрового эквивалента (2.26).
Пусть при выбранной мере качества
(2.27) задаются ПВ вида
,
произведение которых определяет
совместное распределение вероятностей
множества
,
тогда-энтропией
вектора
при заданном критерии качества
аппроксимации называется функция [4]
, (2.30)
где
-
множество условных ПВ, для которых
выполняется условие![]()
В дальнейшем будем полагать, что:
1)
- квадратичная мера несоответствия;
2)
.
Координаты векторов x(I)статистически независимы и их последовательность нестационарная, элементы которой подчиняются Гауссовскому закону.
В силу статистической независимости
координат вектора
средняя взаимная информация может быть
определена следующим образом:
. (2.31)
Знак равенства достигается, когда координаты вектора исходного сообщения и его цифрового эквивалента независимы между собой, т.е. когда
. (2.32)
Отсюда -производительность (2.30) может быть представлена в виде
. (2.33)
Причем
(2.34)
а внутренний минимум ищется по множеству
ПВ
,
для которых ошибка аппроксимации i-йкоординаты исходного вектора X не
превышает
.
Внешний минимум в (2.33) ищется по всем ошибкам представления координат, для которых справедливо (2.34) с учетом введения среднеквадратической метрики (2.31). Так как слагаемые в (2.33) минимизируются независимо, то отсюда следует, что
![]()
где
. (2.35)
Здесь (2.35)- -энтропия
случайной координаты
,
определенная ранее.
Поэтому имеем
, (2.36)
где
удовлетворяет (2.34).
Так как величина -производительности
является немонотонно возрастающей
функцией, то при
увеличении, с учетом
того, что
,
условие (3.34) может быть переписано в
виде:

. (2.37)
Задача минимизации (2.36) с учетом (2.37) определяется теоремой Куна-Таккера.
Согласно этой теореме, необходимым и
достаточным условием того, что вектор
минимизирует функцию
, (2.38)
является существование такого числа
,что
для любого
такого
что соответственно
, (2.39)
таким образом, если будет определено
значение
,
для которого справедливо (2.39), то
соответствующие значенияi
и будут обеспечивать минимизацию
функции (2.38).
И если удается подобрать число
и вектор
,
и при этом будет удовлетворяться (2.35) и
(2.39), то этот вектор и будет минимизировать
(2.38).
Доказательство:
Пусть
-
корень уравнения
. (2.40)
Пусть
. (2.41)
В этом случае можно показать, что вектор
определяемый
(2.41) с учетом (2.40), обеспечивает условие
(2.39).
Покажем, что при
=const
система (2.39) справедлива.
Действительно,
![]()
![]()
так как
для всех i, для которых![]()
и
для всех i, для которых![]()
то
.
То есть условия теоремы выполняются.
Тогда
-производительность
вектора
равна
(2.42)
где
-
корень следующего уравнения (2.40).
Нетрудно обобщить определение
-энтропии
на Гауссовские вектора со статистически
зависимыми координатами, у которых
корреляционная матрица не является
диагональной, т.е.
.
Это обобщение достигается путем
ортогонального преобразования вектора
на основе уравнения.
. (2.43)
При этом строками матрицы Q являются собственные вектора корреляционной матрицы, удовлетворяющие уравнению
![]()
. (2.44)
С учетом нормировки
(2.45)
и того, что
ищутся как собственные числа уравнения
(2.46)
. (2.46)
В этом случае
. (2.47)
Здесь
-
собственные числа, определяющие среднюю
мощность i координат вектора
.
