Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория информации..pdf
Скачиваний:
22
Добавлен:
15.11.2022
Размер:
10.05 Mб
Скачать

К ритерий качества. Полагая, как и ранее, что источник со­ общения в каждый момент времени выбирает сообщение из мно­ жества X (которое может быть и дискретным) и X ' представляет собой множество последовательностей сообщ енийх = (хи>,..., х(л)), будем аппроксимировать последовательность х с помощью после­ довательности ~у = (у( / Уп)) из элементов того же (или другого) множества У. Для каждой пары х0>, у (0 введем в рассмотрение неко­ торую неотрицательную функцию d(x(i), у 0)), задающую величину ошибки аппроксимации элемента и определяющую критерией ка­ чества следующим образом:

dn х , у

(9.18)

Вслучае, когда и X, и Y являются непрерывными множествами

ипоследовательности х, у являются случайными, так что при за­ данном {X, w(x)} и известной w(x) аппроксимирующая последова­ тельность может быть определена условной плотностью распреде­ ления вероятностей w{y\ х), математическое ожидание случайной

функции dn{x, у ), определяемое интегрированием

d,,=

J

 

Л (-Л (

J d*\x,y

 

 

у |х dxdy =

%п

у п

v У

 

 

J

 

 

 

 

 

Л

=

|

\

d i x , }

W

Х,У

dxdy,

 

Х п

у п

\

J

V

J

называется средней ошибкой аппроксимации.

В качестве примера может быть рассмотрен критерий абсолютно­

го значения отклонения

 

d(x,y) = \x -y\.

(9-19)

Широко используется квадратический критерий качества, когда

d(x,y) = - у ) 2.

(9.20)

Такой критерий представляет особенный интерес, когда при аппроксимации особенно нежелательны большие ошибки. Мате­ матическое ожидание d{x, у) = (х - у ) 2является средним квадратом ошибки. Соответствующая средняя ошибка dn называется средне­

квадратической.

Эпсилон-энтропия

Общее определение эпсилон-энтропии может быть выражено сле­ дующим образом. Пусть wn(e) задает класс всех условных плотностей

Му | х), для которых средняя ошибка не превосходит е:

Тогда функция

(9.21)

где минимум разыскивается по всем значениям п и функциям w(y 1х) из w(j{e) называется эпсилон-энтропией непрерывного стационарного источника w(x) относительно критерия качества d(x,y).

Таким образом, эпсилон-энтропия представляет собой минималь­ ное количество информации, которое необходимо для того, чтобы ре­ ализация У с заданной точностью е воспроизводила исходную реали­ зацию X .

В частном случае стационарного источника без памяти эпсилонэнтропия определяется величиной

(9.22)

Эпсилон-энтропия гауссовского источника без памяти

Вычисление эпсилон-энтропии в общем случае представляет со­ бой сложную задачу. Простое решение имеется для гауссовского источ­ ника с независимыми отсчетами, когда можно ограничиться вычисле­ нием эпсилон-энтропии гауссовской случайной величины. Определим эпсилон-энтропию гауссовского непрерывного ансамбля {X, w(x)}, где

ч * ) = ( v V ^ 4 ^ехр (-*■ / 2а)), для случая квадратичного критерия качества.

Эпсилон-энтропия рассматриваемого источника определяется выражением (9.22), где Y - аппроксимирующая случайная вели­ чина, задаваемая функцией w(y \ х), и множество и’(е) состоит из всех тех функций распределения вероятностей w(ylx), для кото­ рых среднеквадратичная ошибка d„ = М{Х - Y)2 не превосходит е. Представим среднюю взаимную информацию I(X;Y) как разность относительных энтропии:

Относительная энтропия h(X) не зависит от выбора функции

w(y | х) и в соответствии с (9.16а) h(X) = ^ 2 %еа\ . Для вычисления максимума во втором слагаемом рассмотрим случайную величину Z, имеющую смысл «мощности шумов источника», определив ее равенс­ твом: X = Y + Z. Из этого равенства следует, что при заданном значе­ нии у е Y случайные величины X и Z однозначно определяют друг друга, т.е. при фиксированном значении у случайные величины Л"и Z отличаются только математическими ожиданиями и, следовательно, имеют одинаковые условные дифференциальные энтропии:

h(Z\Y) = h(X\Y).

(9.24)

Поскольку h(Z | У) < h(Z), из выражения (9.23) следует

 

 

Нг(Х) > h( X) - m axA (Z ).

(9.25)

»v(c)

v

7

Максимум h(Z) в правой части (9.25) определяется исходя из того,

что для любой функции w(y | х) из w(e) математическое ожидание

2

M{Zr) = М ( Х - Y)2 < • Поскольку, наконец, для случайной величины с ограниченной дисперсией относительная энтропия не превосходит

log у]2леас2 , для эпсилон-энтропии (9.23) получим

Н С(Х) > log \]2neo2s - log yj2neal = ^ -log^ -.

(9.26)

Знак равенства здесь имеет место тогда, когда Y и Z являются статис­ тически независимыми гауссовскими случайными величинами (предпо­ лагается, что ). Таким образом, минимальное количество информации, которое необходимо передать в канал, обеспечивая среднеквадратичный

критерий качества, не превосходящий е, определяется величиной

 

Н С( Х ) = log(aJ/ ас).

(9.27)

Контрольные вопросы

1.Дайте определение непрерывных ансамблей и источников.

2.Дайте определение средней взаимной информации между не­

прерывными ансамблями.

3.Опишите основные свойства дифференциальных энтропий.

4.Как определяют скорость передачи информации и пропускную

способность непрерывного канала?

5. Напишите и поясните выражение для пропускной способности гауссова канала.

6.Вычислите пропускную способность непрерывного канала без памяти с аддитивным белым гауссовским шумом.

7.Определите максимально возможную величину пропускной способности гауссовского канала при неограниченной полосе.