Теория информации / Заочн. фак / Метод. обеспечение / Сб.зад.и упр
.doc
Р
0 0.5 1.0
Рис. 3.1.
3.2.Дискретный источник X описывается матрицей
![]()
Определить, при каких значениях Pk
(k=
)
энтропия H(X) максимальна и равна
Hmax=H0(X)=log N.
Указание : использовать свойства энтропии , а также метод неопределенных множителей Лагранжа (поиск условного экстремума ).
Решение 3.2.

![]()
Воспользуемся методом неопределенных множителей Лагранжа.

Откуда
![]()
![]()
Откуда
.
Тогда :
![]()
3.3.Записать соотношения между энтропиями H(X), H(Y), H(X/Y), H(Y/X), H(XY) в случае, если :
а) X и Y статистически независимы ;
б) X и Y статистически зависимы.
Решение 3.3.
а )
![]()
![]()
Аналогично H(Y / X)=H(Y).

б )
![]()

3.4.Пусть x 1,x2 -входные буквы ; y1 ,y2 ,y3 -выходные буквы дискретного канала. Обе входные буквы появляются с одинаковыми вероятностями, а последовательные буквы статистически независимы (и при заданных входных буквах выходные буквы независимы).Условные вероятности P(yi /xk ) задаются следующей таблицей (3.1):
Таблица 3.1
|
xk yi |
y1 |
y2 |
y3
|
|
x1 |
1/32 |
61/64
|
1/64 |
|
x2 |
1/32 |
1/64
|
61/64 |
Вычислить и построить функцию распределения
для случайной величины I(xk
;yj )
.Вычислить
математическое ожидание и дисперсию
I(xk
;yj ).
Решение 3.4.
;
;
![]()
![]()
![]()
;
![]()
![]()
3.5.По исходным данным задачи 2.4. вычислить энтропию входных и выходных сообщений, среднее количество информации, теряемой в канале связи вследствии помех, а также среднюю взаимную информацию на выходе канала относительно входных сообщений. Определить при каком q множества X , Y статистически независимы. Построить график двух последних вышеуказанных величин в функции q.
Решение 3.5.
![]()

![]()
![]()
При q=0.5 множества X и Y статистически независимы. Графики H(X/Y) и I(X,Y) в функции q представлены на рис.3.2.
[







бит/сообщение]
1
g
0 0.5 1.0
рис. 3.2.
3.6.Для источника X с матрицей
![]()
и дискретной системы, заданной графом переходных вероятностей P(yj /xk ) вида:
Рис. 3.3.
Определить H(Y), H(Y/X), I(X;Y), H(X/Y).
Решение 3.6.
Откуда :
p ( y1 ) = 1/4 ; p ( y2 ) = 1/4 ; p ( y3 ) = 1/8 ;
p ( y4 ) = 1/8 ; p ( y5 ) = 1/8 ; p ( y6 ) = 1/8 .
[бит/сообщение]
[бит/сообщение]

3.7.Для заданных источника X
![]()
и дискретного канала P , описываемого графом ,

Рис. 3.4.
найти H(Y), H(Y/X), H(X/Y), I(X;Y).
Решение 3.7.
p ( y1) =1/4 ; p ( y2) =1/4 ;
p ( y3) =3/8 ; p ( y4) =1/8 .
H ( Y ) = 5/2 - 3/8 log 3 [бит/сообщение] ;
H ( Y / X ) = 1/2 [бит/сообщение] ;
I ( X;Y ) = 2 - 3/8 log 3 [бит/сообщение] ;
H ( Y / X ) = H ( Y ) - I ( X;Y )= 3/8 log 3 - 1/4 [бит/сообщение] .
3.8.Статистически независимые сообщения источника X
![]()
передается по одному из двух вариантов дискретных каналов P с матрицами:
а)
![]()
б)
![]()
Определить : H(X); H(Y); H(Y/X); H(X/Y); I(X;Y); H(XY); I(X 2;Y2 ); H(X2 ); H(X2 /Y2 ).
Решение 3.8.
a ) H ( X ) = - p log p - (1 - p) log (1 - p)

[бит/сообщение].
;
;
;
б )
[бит/сообщение];
[бит/сообщение];
;
;
.
3.9.По исходным данным задачи 2.6. определить среднее количество информации , содержащейся в двоичной последовательности сообщений длиной L для пунктов а) и б) и сопоставить их между собой .
Решение 3.9.
а )
![]()
![]()
б)
= LH ( X ) = -L [ P log P + (1 - P) log (1 - P) ].
В случае б) энтропия последовательности больше, чем в а).
3.10.Поисходным данным задачи 2.7 определить
(
.
Построить графики
в функции q.
Решение 3.10.
(
бит/сообщение );
(
бит/сообщение );
![]()
![]()
Графики
и
приведены
в функции q на рис.3.3.
(








бит/сообщение )
2
1
q
0 0.5 1.0
рис.3.5.
1.4 ЭНТРОПИЯ И СРЕДНЯЯ ВЗАИМНАЯ ИНФОРМАЦИЯ АНСАМ-БЛЕЙ НЕПРЕРЫВНЫХ СООБЩЕНИЙ
По аналогии с дискретными источниками
ансамблей непрерывных сообщений
с плотностями вероятностей Wx
(x), Wy (y), Wy/x
(y/x) описываются соответствующими
дифференциальными энтропиями
(4.1)
При этом средняя взаимная информация, являющейся абсолютной информационной характеристикой взаимодействия ансамблей будет
(4.2)
Для класса непрерывных систем с аддитивным
шумом
и плотностью вероятностей Wn(n),
независимым от входных сообщений
,
когда выходное сообщение связано со
входным уравнением
,
имеют место следующие равенства
(4.3)
Если
и
имеют гауссовские распределения с
дисперсиями
и
соответственно , то
(4.4)
где rxy -коэффициент корреляции между X и Y .
При решении задач могут оказаться полезными следующие свойства вышеуказанных информационных характеристик :
1) H(X+K)=H(X); H(XK)=H(X)+log
, где K-постоянная величина,
2)
, где
-дисперсия источника X.
Эпсилон-энтропией источника непрерывных
сообщений x
X
называется величина
,
(4.5)
где
(4.6)
или
(4.7)
Здеcь y -аппроксимирующее значение (цифровой эквивалент) сообщения x с погрешностью по показателю верности I[(x,y)].
Значения эпсилон-энтропии источника X в среднеквадратической (4.6) или равномерной (4.7) метриках будут соответственно
0
.
(4.8)
0
.
(4.9)
Для гауссовского источника сообщений
с дисперсией
величины (4.8) ,(4.9) равны
(4.10)
(4.11)
З А Д А Ч И
4.1.Определить энтропию источника xX с распределением

Решение 4.1.
![]()
4.2.Сравнить энтропию непрерывных сообщений xX и yY , распределенных соответственно равномерно на интервале [-,] и нормально , если дисперсии их равны.
Решение 4.2.
![]()
![]()
4.3.Сравнить энтропии непрерывных стационарных источников сообщений xX и yY с плотностями вероятностей , представленных в графическом виде:

Рис. 4.1.
Выразить энтропии через дисперсии.
Решение 4.3.
![]()
![]()
![]()

DY = 1/12 .
![]()
H ( Y ) > H ( X ).
4.4.Определить энтропию источника X с плотностью вероятностей
![]()
Как влияет на величину энтропии увеличение в 2 раза а)mx ;б)x .
Решение 4.4.
a )
- не влияет .
б)
![]()
![]()
Увеличивается на 1 [бит/сообщение].
4.5.Сообщения нормального случайного
источника xX с mx
=3B,
=4мВт проходят через безинерционный
усилитель с коэффициентом усиления
K=16. Определить приращение
энтропии выходного сообщения по сравнению
с входным .
Решение 4.5.
![]()
[бит/сообщение].
4.6.Сообщения xX на выходе непрерывного источника X ограничен по уровню значениями a,b. Найти плотности вероятностей Wx(x), обеспечивающую максимально энтропию источника.
Указание: воспользоваться условиями решения вариационных задач на основе уравнения Эйлера и метода неопределенных множителей Лагранжа.
Решение 4.6.
![]()

Откуда :
![]()
Тогда с учетом
имеем
![]()
4.7.Непрерывное сообщение xX со средним значением mx и плотность Wx(x) может принимать только положительные значения Wx(x)=0 при x<0. Найти распределение Wx(x), которое при данных ограничениях обладает максимальной энтропией.
Решение 4.7.
![]()
![]()
![]()
![]()
![]()
![]()
![]()
.
Откуда

4.8.Чему равно приращение энтропии при
изменении дисперсии непрерывного
сообщения с
до
в случае :
а) нормального распределения ,
б) равномерного распределения ?
Решение 4.8.
а )
![]()
![]()
б )
![]()
![]()
![]()
4.9.По непрерывной системе связи , представленной на рис.(4.2).

Рис. 4.2.
передается гауссовский сигнал xX
с дисперсией
. В системе действуют аддитивные
гауссовские шумы n1 N1
, n2 N2 с
нулевым средним и дисперсиями
и
.
Определить H(Y), H(Z), H(Y/X), H(Z/X), H(X/Z), I(X;Y), I(X;Z) и сопоставить две последние величины.
Решение 4.9.
![]()
![]()
![]()
![]()


![]()


4.10.По непрерывной системе связи, представленной на рис. 4.3.

Рис. 4.3.
передаются пары непрерывных сообщений
гауссовского источника X с дисперсией
.
В системе действуют гауссовские помехи
с параметрами, аналогичными задаче
4.10.
Определить величину I(X2 ;YZ) и
сравнить ее с I(X;Y) при
.
Решение 4.10.
![]()

При
![]()
1.5 ИНФОРМАЦИОННЫЕ МОДЕЛИ, ИЗБЫТОЧНОСТЬ И КОДИРОВАНИЕ ИСТОЧНИКОВ СООБЩЕНИЙ
Дискретный стационарный источник X с дискретным временем и памятью K-го порядка описывается условной энтропией (K+1) -го порядка
(5.1)
Мерой информационной избыточности дискретных сообщений источника X является величина
(5.2)
При обратимом кодировании последовательности
сообщений длинной L источников дискретных
сообщений с энтропией HK+1(X)
кодовым алфавитом yY
с основанием M средняя длина кодового
слова
,
приходящаяся на одно сообщение, лежит
в пределах
,
(5.3)
а избыточность равна
.
(5.4)
Аналогично, стационарные непрерывные источники с дискретным временем и памятью K-го порядка описывается условной дифференциальной энтропией
(5.5)
Энтропия гауссовского стационарного источника с памятью K-го порядка равна
(5.6)
где
-определитель
нормированной корреляционной матрицы
;
-алгеброическое
дополнение элемента (1,1) матрицы (R ).
Для системы независимых стационарных
гассовских векторов сообщений
размерности N с корреляционными матрицами
,
связанных соотношением
,
информационные характеристики равны
(5.7)
(5.8)
Путем ортогонализации векторов
с помощью ортонормированной матрицы
Q такой, что:
(5.9)
где и V -диагональные
матрицы с элементами (собственными
числами ) i
и i
(
)
матриц
,
удовлетворяющим уравнениям
(5.10)
При этом матрица Q размерности (N*N) с
элементами из координат собственных
векторов
(
),
определяемых из уравнений
(5.11)
Отсюда выражения (5.7) и (5.8) примут вид
(5.12)
(5.13)
Нижние границы объема информации при квазиобратимом кодировании непрерывных сообщений определяются эпсилон-энтропией.
Эпсилон-энтропия H(
)
стационарного гауссовского вектора
размерности N с корреляционной матрицей
определяются в среднеквадратической
метрике системой параметрических
уравнений
, (5.14)
Здесь
-собственные числа матрицы
, а d2 -параметр (5.14).
Эпсилон-энтропия H({X(i)}i) стационарной гауссовской непрерывной последовательности сообщений с энергетическим спектром Gx(f) удовлетворяет системе уравнений
(5.15)
Здесь d2 -параметр уравнения (5.15).
Эпсилон-энтропия гауссовских стационарных процессов X(t) с энергетическим спектром GX(f) определяются в виде
(5.16)
где 1/2-значение параметрической прямой .
Для процессов Баттерворта N-го порядка справедлива следующая оценка эпсилон-энтропии
