- •Предисловие
- •Введение
- •1. ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ СИСТЕМЫ
- •1.1. Основные понятия и концепции теории информации
- •1.2. Основные направления в современной теории информации
- •1.4. Информационные системы
- •1.5. Критерии оценки качества информационных систем
- •2. СИСТЕМЫ СВЯЗИ И ИХ ОСНОВНЫЕ ХАРАКТЕРИСТИКИ
- •2.1. Основные понятия и определения
- •2.2. Системы связи
- •2.3. Основные показатели качества функционирования системы связи
- •3. МАТЕМАТИЧЕСКИЕ МОДЕЛИ СИГНАЛОВ И ПОМЕХ
- •4. ДИСКРЕТИЗАЦИЯ И КВАНТОВАНИЕ НЕПРЕРЫВНЫХ СООБЩЕНИЙ
- •4.1. Способы квантования сигналов
- •4.2. Общая постановка задачи дискретизации
- •4.3. Способы восстановления непрерывного сигнала
- •4.6. Равномерная дискретизация. Теорема Котельникова
- •4.7. Адаптивная дискретизация
- •4.8. Квантование сигналов по уровню
- •5. ЭНТРОПИЯ, КОЛИЧЕСТВО ИНФОРМАЦИИ
- •5.3. Энтропия непрерывного источника информации (дифференциальная энтропия)
- •5.4. Фундаментальное свойство энтропии дискретных эргодических процессов
- •5.6. Статистическая мера количества информации
- •6.1. Основные определения
- •6.3. Связь между энтропией и числом различных последовательностей сообщений
- •6.4. Кодирование дискретных источников
- •7. ДИСКРЕТНЫЕ КАНАЛЫ БЕЗ ШУМОВ
- •7.2. Пропускная способность канала связи
- •7.4. Кодирование как средство криптографического закрытия информации
- •9. ИНФОРМАЦИОННЫЕ ХАРАКТЕРИСТИКИ СИСТЕМ, РАБОТАЮЩИХ С НЕПРЕРЫВНЫМИ СИГНАЛАМИ
- •9.1. Непрерывные ансамбли и источники
- •dxdy,
- •Эпсилон-энтропия
- •Эпсилон-энтропия гауссовского источника без памяти
- •10. ЭФФЕКТИВНОСТЬ ИНФОРМАЦИОННЫХ СИСТЕМ
- •10.1. Критерии оценки эффективности информационных систем
- •10.2. Способы повышения эффективности информационных систем
- •11.3. Способы повышения помехоустойчивости информационных систем
- •СПИСОК ЛИТЕРАТУРЫ
- •ОГЛАВЛЕНИЕ
- •Пахомов Герман Ильич
К ритерий качества. Полагая, как и ранее, что источник со общения в каждый момент времени выбирает сообщение из мно жества X (которое может быть и дискретным) и X ' представляет собой множество последовательностей сообщ енийх = (хи>,..., х(л)), будем аппроксимировать последовательность х с помощью после довательности ~у = (у( / Уп)) из элементов того же (или другого) множества У. Для каждой пары х0>, у (0 введем в рассмотрение неко торую неотрицательную функцию d(x(i), у 0)), задающую величину ошибки аппроксимации элемента и определяющую критерией ка чества следующим образом:
dn х , у |
(9.18) |
Вслучае, когда и X, и Y являются непрерывными множествами
ипоследовательности х, у являются случайными, так что при за данном {X, w(x)} и известной w(x) аппроксимирующая последова тельность может быть определена условной плотностью распреде ления вероятностей w{y\ х), математическое ожидание случайной
функции dn{x, у ), определяемое интегрированием
d,,= |
J |
|
Л (-Л ( -Л |
|||
J d*\x,y |
|
|
у |х dxdy = |
|||
%п |
у п |
v У |
|
|
J |
|
|
|
|
|
|
Л |
|
= |
| |
\ |
d i x , } |
W |
Х,У |
dxdy, |
|
Х п |
у п |
\ |
J |
V |
J |
называется средней ошибкой аппроксимации.
В качестве примера может быть рассмотрен критерий абсолютно
го значения отклонения |
|
d(x,y) = \x -y\. |
(9-19) |
Широко используется квадратический критерий качества, когда |
|
d(x,y) = (х - у ) 2. |
(9.20) |
Такой критерий представляет особенный интерес, когда при аппроксимации особенно нежелательны большие ошибки. Мате матическое ожидание d{x, у) = (х - у ) 2является средним квадратом ошибки. Соответствующая средняя ошибка dn называется средне
квадратической.
Эпсилон-энтропия
Общее определение эпсилон-энтропии может быть выражено сле дующим образом. Пусть wn(e) задает класс всех условных плотностей
Му | х), для которых средняя ошибка не превосходит е:
Тогда функция
(9.21)
где минимум разыскивается по всем значениям п и функциям w(y 1х) из w(j{e) называется эпсилон-энтропией непрерывного стационарного источника w(x) относительно критерия качества d(x,y).
Таким образом, эпсилон-энтропия представляет собой минималь ное количество информации, которое необходимо для того, чтобы ре ализация У с заданной точностью е воспроизводила исходную реали зацию X .
В частном случае стационарного источника без памяти эпсилонэнтропия определяется величиной
(9.22)
Эпсилон-энтропия гауссовского источника без памяти
Вычисление эпсилон-энтропии в общем случае представляет со бой сложную задачу. Простое решение имеется для гауссовского источ ника с независимыми отсчетами, когда можно ограничиться вычисле нием эпсилон-энтропии гауссовской случайной величины. Определим эпсилон-энтропию гауссовского непрерывного ансамбля {X, w(x)}, где
ч * ) = ( v V ^ 4 ^ехр (-*■ / 2а)), для случая квадратичного критерия качества.
Эпсилон-энтропия рассматриваемого источника определяется выражением (9.22), где Y - аппроксимирующая случайная вели чина, задаваемая функцией w(y \ х), и множество и’(е) состоит из всех тех функций распределения вероятностей w(ylx), для кото рых среднеквадратичная ошибка d„ = М{Х - Y)2 не превосходит е. Представим среднюю взаимную информацию I(X;Y) как разность относительных энтропии:
Относительная энтропия h(X) не зависит от выбора функции
w(y | х) и в соответствии с (9.16а) h(X) = ^ 2 %еа\ . Для вычисления максимума во втором слагаемом рассмотрим случайную величину Z, имеющую смысл «мощности шумов источника», определив ее равенс твом: X = Y + Z. Из этого равенства следует, что при заданном значе нии у е Y случайные величины X и Z однозначно определяют друг друга, т.е. при фиксированном значении у случайные величины Л"и Z отличаются только математическими ожиданиями и, следовательно, имеют одинаковые условные дифференциальные энтропии:
h(Z\Y) = h(X\Y). |
(9.24) |
|
Поскольку h(Z | У) < h(Z), из выражения (9.23) следует |
|
|
Нг(Х) > h( X) - m axA (Z ). |
(9.25) |
|
»v(c) |
v |
7 |
Максимум h(Z) в правой части (9.25) определяется исходя из того,
что для любой функции w(y | х) из w(e) математическое ожидание
2
M{Zr) = М ( Х - Y)2 < • Поскольку, наконец, для случайной величины с ограниченной дисперсией относительная энтропия не превосходит
log у]2леас2 , для эпсилон-энтропии (9.23) получим
Н С(Х) > log \]2neo2s - log yj2neal = ^ -log^ -. |
(9.26) |
Знак равенства здесь имеет место тогда, когда Y и Z являются статис тически независимыми гауссовскими случайными величинами (предпо лагается, что ). Таким образом, минимальное количество информации, которое необходимо передать в канал, обеспечивая среднеквадратичный
критерий качества, не превосходящий е, определяется величиной |
|
Н С( Х ) = log(aJ/ ас). |
(9.27) |
Контрольные вопросы
1.Дайте определение непрерывных ансамблей и источников.
2.Дайте определение средней взаимной информации между не
прерывными ансамблями.
3.Опишите основные свойства дифференциальных энтропий.
4.Как определяют скорость передачи информации и пропускную
способность непрерывного канала?
5. Напишите и поясните выражение для пропускной способности гауссова канала.
6.Вычислите пропускную способность непрерывного канала без памяти с аддитивным белым гауссовским шумом.
7.Определите максимально возможную величину пропускной способности гауссовского канала при неограниченной полосе.