Сборник примеров и задач по Теории информации
.pdf21
p ( u ) |
|
|
1 |
. exp |
|
|
u |
. |
|
||||||||
|
|
|
|
|
||||
|
|
|
m u |
|
|
m u |
Задача 1.3.10. Определим единицу времени: одна миллисекунда как
ms 10 3. sec. Измерительное устройство вырабатывает временные интервалы, распределенные случайным образом с равной вероятностью в пределах от
T |
1 |
|
100. ms |
до T |
2 |
|
500. ms. Как изменится энтропия случайной величи- |
|||
|
|
|||||||||
|
|
|||||||||
|
|
|
|
|
|
|
|
1.ms. до 1 mks. |
||
ны при изменении точности измерения |
T |
|
||||||||
|
||||||||||
|
||||||||||
|
|
Ответ. Энтропия увеличится на величину H T = 9.966 bit. |
||||||||
|
|
Задача |
1.3.11. |
Информация |
передается с помощью частотно- |
модулированных синусоидальных сигналов, рабочая частота которых изменя-
ется с равной вероятностью в пределах от f |
1 |
|
10. MHz |
до f |
2 |
|
50. MHz . |
||||||||
|
|
||||||||||||||
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Определить энтропию сигнала, если точность измерения частоты состав- |
|||||||||||||||
ляет величину f |
|
2. KHz . |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
Ответ. Энтропия сигнала |
|
|
|
|
|
|
|
|
|
|
|||||
|
|
H F |
|
ln |
f 2 |
|
f 1 |
; |
H |
F = 14.288 |
bit. |
|
|
||
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
f |
|
|
|||||||||
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Задача 1.3.12. Определить, при каком соотношении между шагами квантования н и р квантованные энтропии погрешностей X и Y, распределенных по нормальному и равномерному законам распределения, равны.
Ответ. |
н р |
|
π .e |
. |
σ н |
. р, |
|
|
|
|
|||||
6 |
|
||||||
σ р |
|||||||
|
|
|
|
где σн и σр − среднеквадратические отклонения нормального и равномерного распределений.
Задача 1.3.13. Две независимых случайных погрешности |
1 |
и 2 рас- |
|||||||||
пределяются с равной вероятностью на интервале [- m, m], где |
m |
|
1.volt . |
||||||||
|
|||||||||||
|
|||||||||||
Найти дифференциальную |
энтропию |
суммарной |
погрешности |
||||||||
Σ= 1+ 2. |
|
|
|
|
|
|
1.volt дифференциальная энтропия |
||||
Ответ. При шаге квантования ε |
|
|
|||||||||
|
|
||||||||||
|
|
||||||||||
Hд Σ |
|
ln 2. |
m |
. |
|
e ; Hд Σ |
= 1.721 bit. |
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
||||||
|
|
|
ε |
|
|
|
|
|
|
|
22
Задача 1.3.14. Система измерения дальности имеет две независимых составляющих случайной погрешности измерения. Определим единицу длины
один метр как м |
|
1. m. Первая случайная погрешность |
|
1 имеет при пара- |
||||||||||||||||||
|
|
|||||||||||||||||||||
|
|
|||||||||||||||||||||
метре h |
|
2. м распределение Симпсона с плотностью вероятности |
||||||||||||||||||||
|
||||||||||||||||||||||
|
||||||||||||||||||||||
|
|
|
p 1 |
1 |
|
|
|
4 |
. |
1 |
|
if 0 |
1 |
h |
|
|
|
|||||
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
h2 |
|
2 |
|
|
|
. |
||||||||||
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
4 |
. |
|
|
|
|
|
if h |
|
|
|
|
||
|
|
|
|
|
|
|
|
|
h |
|
|
1 |
|
|
|
1 |
h |
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
h2 |
|
|
|
|
2 |
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
0 |
|
|
otherwise |
|
|
|
|
|
|
||||||
Вторая случайная погрешность |
|
2 равномерно распределена на интервале |
||||||||||||||||||||
[0, h/2] с плотностью вероятности |
|
|
2 |
|
|
|
h |
|
|
|
||||||||||||
|
|
|
|
|
p 2 |
2 |
|
|
|
|
if 0 |
2 |
|
. |
|
|
||||||
|
|
|
|
|
|
|
|
|
|
h |
2 |
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 otherwise
Найти неопределенность результата измерения в среднем на одно измерение.
Ответ. Плотность вероятности суммарной погрешности Σ= 1+ 2
p |
Σ |
|
|
4. |
Σ 2 |
|
|
|
if |
0 |
|
|
Σ |
|
|
|
h |
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
h3 |
|
|
2 |
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
3. h2 |
|
|
|
12 |
. |
|
Σ |
. h |
|
|
|
8. |
|
Σ |
2 |
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
h3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
9. h2 |
|
|
12. |
|
Σ |
. h |
|
|
|
4. |
Σ |
2 |
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
h3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
otherwise |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
if |
h |
Σ |
|
h . |
|||||
|
2 |
|
|
|
|
|
|
|
|
if |
h |
Σ |
h |
|
|
|
|
h |
|
|
|
|
|
|
|
||||
2 |
|
||||||||
|
|
|
|
|
Средняя неопределенность результата измерения определяется дифференциальной энтропией суммарной погрешности при шаге квантования
ε1. м
Hд Σ |
|
ln |
h |
|
|
|
|
|
7 |
|
|
3. atanh |
1 |
. 3 ; Hд |
Σ = 1.038 bit. |
|
|
|
ε |
6 |
|
3 |
|
|
23
Задача 1.3.15. Измерительное устройство имеет случайную погрешность измерения , распределенную при параметрах λ 2. mV и μ 5. mV по закону Коши с плотностью вероятности
p( ) |
|
|
λ |
. |
|
1 |
|
|
|
|
. |
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
π ( |
|
μ )2 |
|
|
|
λ2 |
Найти среднюю неопределенность результата измерения.
Ответ. При.шаге квантования ε 1. mV дифференциальная энтропия
Hд |
|
ln 4.π . |
λ |
; Hд = 4.651 bit. |
|
|
|||||
|
|
||||
ε |
|||||
|
|
|
|
Задача 1.3.16. Найти среднюю неопределенность результата измерения координаты точки (x,y), если случайная погрешность системы для
определения |
координат |
|
имеет |
при среднеквадратических |
|
отклонениях |
||||||||||||||||||||||||||||||||||||||
σ |
x |
|
6. mm, |
σ |
y |
|
|
|
3. mm |
и коэффициенте корреляции |
r |
|
|
0.2 |
|
нормальное |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
распределение с плотностью вероятности |
|
|
|
|
|
|
|
|
2. r. x. y |
|
|
|
|
|
|
|
||||||||||||||||||||||||||||
p( x , y ) |
|
|
|
|
|
|
1 |
|
|
|
. exp |
|
|
|
|
|
|
1 |
|
|
|
. |
x2 |
|
|
|
|
|
y2 |
. |
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|
σ |
|
|
. σ |
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
2 |
|
|
|
|
|
|
2 |
|
|
|||||||
|
|
|
|
|
|
2. π . σ |
x |
. σ |
y |
. |
1 |
r2 |
|
2 |
|
( 1 |
|
r |
|
) |
|
σ x |
|
|
x |
|
y |
|
|
|
|
σ y |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ответ. Средняя неопределенность результата измерения определяется дифференциальной энтропией HдXY погрешности. При шагах квантования
x |
|
1. mm и y |
|
1. mm дифференциальная энтропия погрешности |
||||||||||||||||||||||||||||||||||||||
|
|
|||||||||||||||||||||||||||||||||||||||||
|
|
|||||||||||||||||||||||||||||||||||||||||
|
|
Hд |
|
|
|
ln 2. π . e. |
|
σ |
x |
. |
σ |
y |
. |
|
1 |
|
r2 ; |
Hд |
|
|
|
= 8.235 bit. |
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
XY |
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
XY |
|
|
|
|
|
|
|
|
|
x. y |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
Примечание. При вычислении энтропии двумерного распределения сле- |
|||||||||||||||||||||||||||||||||||||||||
дует перейти к нормированным переменным u |
|
|
|
x |
, v |
|
|
|
y |
и для разделения |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
σ x |
|
|
|
|
σ y |
||||
переменных в двойном интеграле использовать следующее соотношение |
||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
u2 |
|
2. r |
. u. v |
|
|
|
|
v2 |
|
u |
2 |
|
|
|
|
( v |
|
|
|
r. u )2 |
. |
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||
|
|
|
|
|
|
1 |
|
|
|
|
r2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
r2 |
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Задача 1.3.17. Измерительное устройство имеет случайную погрешность
измерения Δ, распределенную при параметрах λ |
|
0.5 . mV 1 и μ |
|
2. mV по |
||||||||||||
|
|
|||||||||||||||
|
|
|||||||||||||||
экспоненциальному закону с плотностью вероятности |
|
|
||||||||||||||
p( ) |
|
|
λ |
. exp ( |
|
λ. |
|
|
|
|
μ |
|
). |
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
||||||||||||||
|
|
|
|
|
|
|
||||||||||
2 |
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Найти среднюю неопределенность результата измерения.
24
Ответ. Средняя неопределенность результата измерения определяется дифференциальной энтропией погрешности Hд , которая при.шаге квантова-
ния ε 1. mV будет
Hд |
|
ln |
2 |
. e |
; Hд = 3.443 bit. |
|
|
|
|||
|
λ |
. ε |
|||
|
2.ОЦЕНКА КОЛИЧЕСТВА ИНФОРМАЦИИ
2.1.Основные сведения
Вобщем случае количество информации I, получаемое в результате эксперимента, определяется как мера уменьшения неопределенности, а именно
I=H-H0, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(2.1) |
||||||
где H – неопределенность (энтропия) до проведения эксперимента; H0 – |
|
|||||||||||||||||||||||||
неопределенность после проведения эксперимента (остаточная). |
|
|||||||||||||||||||||||||
Для дискретных случайных величин различают 4 вида информации. |
|
|||||||||||||||||||||||||
1. Полная информация I(X) о величине X при непосредственном ее |
|
|||||||||||||||||||||||||
наблюдении |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
I(X)=H(X)=M[-log2P(X)] ≥0. |
|
|
|
|
|
|
|
(2.2) |
||||||||||||||||||
Это средняя информация, получаемая от всех возможных значений X в рас- |
||||||||||||||||||||||||||
чете на одно значение. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2. Полное количество информации I(Y→X) о величине X, содержащее- |
||||||||||||||||||||||||||
ся в величине Y, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
I(Y→X)=H(X)-H(X/Y); |
|
|
|
|
|
|
|
|
|
|
|
|
|
(2.3) |
||||||||||||
I(Y→X)=I(X→Y)=I(Y↔X)≥0, |
|
|
|
|
|
|
|
|
|
|||||||||||||||||
где I(Y↔X) − полная взаимная информация, содержащаяся в X и Y, |
|
|||||||||||||||||||||||||
n |
m |
|
|
|
|
|
|
|
|
|
|
P(xi , y j) |
|
|
|
|
||||||||||
I(X ↔ Y) = ∑∑P(xi , y j) log2 |
|
|
. |
(2.4) |
||||||||||||||||||||||
P(x |
i |
)P(y |
j |
) |
||||||||||||||||||||||
i=1 j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
3. Частная информация I(yi→X)≥0 о величине X, содержащаяся в зна- |
||||||||||||||||||||||||||
чении yi величины Y, |
n |
|
|
|
|
|
|
|
|
|
|
|
|
P(xi , y j) |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
I(y j → X) = ∑P(xi |
/ y j) log2 |
|
(2.5) |
|||||||||||||||||||||||
|
|
|
P(xi ) |
|
|
|||||||||||||||||||||
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
или, учитывая равенство P(xi / y j) = |
|
P(xi |
, y j) |
, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
P(y j ) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
n |
P(x |
, y |
j |
) |
|
|
|
P(x |
i |
, y |
j |
) |
|
|
|
|
|
|
|
|||||||
I(y j → X) = ∑ |
i |
|
|
|
|
log2 |
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
(2.6) |
|||||
P(y |
j |
) |
|
|
P(x |
i |
)P(y |
j |
) |
|
|
|
|
|||||||||||||
i=1 |
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
25
4. Частная информация I(yj → xi) о значении xi величины X, содержащаяся в значении yj величины Y,
I(y j → xi ) = I(y j ↔ xi ) ,
где I(yj ↔xi) − частная взаимная информация двух значений (может быть как положительной, так и отрицательной величиной),
|
P(xi , y j) |
|
|
P(xi / y j) |
|
P(y j / xi ) |
|
(2.7) |
||||||||
I(y j ↔ xi ) = log2 P(x |
i |
)P(y |
j |
) = log2 |
P(x |
i |
) = log2 |
P(y |
j |
) . |
||||||
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
Виды информации для непрерывных случайных величин:
•частная взаимная информация двух значений x и y
I(y ↔ x) = log2 |
p(x, y) |
; |
(2.8) |
|
|||
|
p(x)p(y) |
|
•частная информация о величине X, содержащаяся в значении y величины
Y,
∞
I(y → X) = ∫ p(x / y) log2 p(x, y) dx ; (2.9) p(x)p(y)
−∞
• полная взаимная информация, содержащаяся в X и Y,
∞ |
∞ |
p(x, y) |
|
|
I(X ↔ Y) = ∫ |
∫ p(x, y) log2 |
|
||
|
dxdy . |
(2.10) |
||
p(x)p(y) |
||||
−∞ −∞ |
|
|
|
2.2. Типовые примеры
Пример 2.2.1. По двоичному симметричному каналу связи с помехами передаются два сигнала x1 и x2 с априорными вероятностями P(x1)=3/4 и
P(x2)=1/4. Из-за наличия помех вероятность правильного приема каждого из сигналов уменьшается до 7/8. Требуется определить:
1)полную информацию I(X) на выходе источника сигналов;
2)взаимную частную информацию I(y2,x2) двух случайных сигналов на
выходе и входе канала связи относительно друг друга (т.е. количество информации о сигнале x2 источника в сообщении y2 приемника);
3)условную частную информацию I(x2/y2), содержащуюся в сообщении x2 источника при условии приема сообщения y2;
4)среднее количество информации I(y2,X) в принятом сообщении y2 относительно всех передаваемых сообщений X(x1,x2);
5)среднее количество взаимной информации I(Y,X) в сообщениях Y приемника о сообщениях X источника;
Решение. По условию:
26
а) безусловные вероятности P(xi)=Pxi сообщений x1 и x2:
Px |
1 |
|
3 |
; Px |
2 |
|
|
1 |
. |
||
|
|
||||||||||
|
|
|
|
||||||||
4 |
4 |
||||||||||
|
|
|
|||||||||
|
|
|
|
|
б) условные вероятности P(yj/xi)=Py xj , i приема сообщений y1, y2 при условии передачи сообщений x1, x2:
Py x |
|
|
|
7 |
; Py |
x |
|
|
|
1 |
; Py |
x |
|
|
|
1 |
; Py |
x |
|
|
|
7 |
. |
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
||||||||||||||||
1, 1 |
8 |
1, 2 |
8 |
2, 1 8 |
2, 2 |
8 |
||||||||||||||||||
|
|
|
|
|
|
|
|
Вычислим вероятности P(yj)=Pyj , P(xi, yj)=Pxyi,j и P(xi/yj)=Px yi , j при
i 1 .. 2 и j 1 .. 2, необходимые для расчета информационных характеристик:
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Pyj |
|
|
|
|
|
|
|
|
|
|
|
Pxi. Py x |
|
|
; Py |
1 = 0.688 |
|
|
; Py2 |
= 0.313. |
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
i = 1 |
|
|
|
|
|
j , i |
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
ORIGIN |
|
1 − задание начального значения индексов; |
|
|||||||||||||||||||||||||||||
|
|
|
||||||||||||||||||||||||||||||
|
|
|
||||||||||||||||||||||||||||||
|
|
|||||||||||||||||||||||||||||||
|
|
|
Pxy |
|
|
|
|
|
|
Px . Py |
|
|
|
; Pxy = |
0.656 |
0.094 |
|
. |
||||||||||||||
|
|
|
|
|
|
|
|
|
x |
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
i , j |
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
i |
|
|
j , i |
|
0.031 |
0.219 |
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
Итак, Pxy 1, 1 = 0.656 |
|
|
|
|
; Pxy 2, 1 = 0.031 |
; |
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
Pxy 1, 2 |
= 0.094 |
|
|
|
; Pxy 2, 2 = 0.219 . |
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Px |
. Py |
x |
|
|
|
|
|
|
|
|
|
Pxy |
|
|
|
|
||
Так как Px y |
|
|
|
|
|
|
|
|
i |
|
j , i |
или |
Px y |
|
|
|
|
i , j |
, |
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
Pyj |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
i , j |
|
|
|
|
|
|
|
i , j |
Pyj |
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
то имеем следующие условные вероятности |
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Px y |
= |
|
|
|
0.955 |
0.300 |
|
|
|
|
, т.е. |
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0.045 |
0.700 |
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
Px y |
= 0.955 ; Px y |
2, 1 |
= 0.045 |
; Px y |
= 0.3 ; |
Px y |
= 0.7. |
|||||||||||||||||||||||||
|
1, 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1, 2 |
|
|
|
|
|
|
2, 2 |
Определим единицы измерения количества информации: а) при натуральном логарифме (нит) − nit ln ( e ); б) при двоичном логарифме (бит) − bit nit. ln ( 2 ).
В случае дискретного источника полное количество информации на его выходе в расчете на одно сообщение, согласно (2.2), совпадает с энтропией источника (1.1) и будет
27
|
|
2 |
|
|
|
|
|
|
|
|
||||
I |
X |
|
|
|
|
|
Px . ln |
Px |
i |
; I |
X |
= 0.562 nit или I |
X |
= 0.811 bit. |
|
|
|
|
|
||||||||||
|
||||||||||||||
|
|
|
||||||||||||
|
|
|
|
|
|
i |
|
|
|
|
i = 1
Согласно (2.7), взаимная частная информация I(y2,x2) двух сигналов
Iyx 2, 2 |
|
ln |
Py x |
2, 2 |
или Ixy 2, 2 |
|
|
ln |
Px y |
2, 2 |
; |
||
|
|
|
|
|
|
||||||||
|
Py2 |
|
|
|
|||||||||
|
|
|
|
|
|
|
Px2 |
||||||
Iyx 2, 2 |
= 1.485 |
bit; |
Ixy 2, 2 = 1.485 |
bit. |
|
|
Условная частная информация I(x2/y2)
Ix y |
2, 2 |
|
|
|
ln Px y |
2, 2 |
; Ix y |
= 0.515 bit. |
|
||||||||
|
|
|
||||||
|
|
|
|
|
|
2, 2 |
Согласно (2.5), среднее количество информации I(yj,X) в принятом сообщении yj относительно всех передаваемых сообщений X
|
|
|
|
|
|
|
|
|
. ln |
Px y |
i , j |
|
|
|
|
|
0.22 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
Iy |
X |
|
|
|
|
Px |
y |
|
; |
Iy |
X |
= |
bit; |
||||
|
|
|
|||||||||||||||
|
|
|
|
Pxi |
|||||||||||||
|
j |
|
i , j |
|
|
|
|
0.643 |
|||||||||
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Iy X |
1 |
= 0.22 |
bit; Iy |
X |
2 |
= 0.643 |
bit. |
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Согласно (2.4), среднее количество взаимной информации I(Y,X) в сообщениях Y приемника относительно всех передаваемых сообщений X
|
2 |
|
2 |
|
|
|
Pxy i , j |
|
|
|
|
||||||
I |
|
|
|
|
|
|
|
Pxy |
|
. ln |
|
; I |
YX |
= 0.352 bit. |
|||
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|||||||
YX |
i , j |
Px |
. Py |
||||||||||||||
|
|
|
|
|
j |
|
|||||||||||
|
|
|
i = 1 |
j = 1 |
|
|
i |
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
Рассмотрим второй способ определения I(Y,X). Найдем, согласно (1.5), условную энтропию источника при условии снятия неопределенности приемника
HX |
Y |
Pxy |
. ln |
Px |
y |
; HX |
Y |
= 0.459 bit. |
|
|
i , j |
|
i , j |
|
|||
|
i |
j |
|
|
|
|
|
|
|
|
|
|
|
|
|
Тогда на основании (2.3) с учетом I(X)=H(X) среднее количество взаимной информации I(Y,X) в расчете на одно сообщение
I YX I X HX Y; I YX = 0.352 bit .
Пример 2.2.2. По каналу связи передаются с равной вероятностью N 6 кодовых комбинаций. В 40% всех случаев передачи происходит трансформация сигналов, причем любая комбинация может перейти в другую с
28
равной вероятностью. Определить количество информации в расчете на одну переданную комбинацию.
Решение. Предварительно определим единицы измерения количества
информации: |
|
|
|
||
а) при натуральном логарифме (нит) − nit |
|
|
ln ( e ); |
||
|
|
||||
|
|
||||
б) при двоичном логарифме (бит) − bit |
|
|
nit. ln ( 2 ). |
||
|
|
||||
|
На входе канала имеется шесть (i 1 .. 6) комбинаций − x1, x2, x3, x4, x5, x6. На выходе канала при правильной передаче им однозначно соответствуют также шесть (j 1 .. 6) комбинаций − y1↔x1, y2↔x2, y3↔x3, y4↔x4, y5↔x5, y6↔x6 . Передаваемая комбинация xi может под влиянием помех трансформироваться (перейти) в любую из комбинаций yj с вероятностью p 0 0.4 и принята правильно с вероятностью p п 1 p 0. Вероятность ошибки, например, комбинации x1
Pош(x1)= P(y2/x1)+P(y3/x1)+P(y4/x1)+P(y5/x1)+P(y6/x1)=p0=0.4,
где P(yj/xi), i j − условная вероятность приема комбинации yj при условии передачи комбинации xi. Так как комбинация может перейти в любую другую с равной вероятностью, то
P(yj/xi)=p0 / (N-1)=0.08 , i j |
и |
P(yi/xi)=pп=0.6 при j=i . |
|||||||||||
Следовательно, данный канал передачи информации характеризуется ка- |
|||||||||||||
нальной матрицей условных вероятностей P(yj/xi)=Py xj , i |
|||||||||||||
ORIGIN |
|
1 |
|
|
|
0.6 |
0.08 |
0.08 |
0.08 |
0.08 |
0.08 |
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|||||||||
|
|
|
|
|
0.08 |
0.6 |
0.08 |
0.08 |
0.08 |
0.08 |
|
|
|
|
|
Py x |
|
|
0.08 |
0.08 |
0.6 |
0.08 |
0.08 |
0.08 |
|
. |
|
|
|
|
|
|
0.08 |
0.08 |
0.08 |
0.6 |
0.08 |
0.08 |
|
||
|
|
|
|
|
|||||||||
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
0.08 |
0.08 |
0.08 |
0.08 |
0.6 |
0.08 |
|
|
|
|
|
|
|
|
0.08 |
0.08 |
0.08 |
0.08 |
0.08 |
0.6 |
|
|
Количество информации в среднем на одну переданную комбинацию
I(X,Y)=H(Y)-H(Y/X),
где H(Y) − энтропия принимаемой комбинации; H(Y/X) − условная энтропия, т.е. энтропия принимаемой комбинации при условии, что известна передаваемая комбинация.
29
Так как комбинации передаются и принимаются с равной вероятностью, то вероятность передачи i-й и приема j-й комбинации
Pxi |
|
|
1 |
; Px |
1 = 0.167 ; Pyj |
|
|
1 |
; Py |
1 = 0.167 . |
|
|
|||||||||
|
|
|
|
|||||||
|
|
|
N |
|
|
|
N |
|
Согласно (1.1), энтропия принимаемой комбинации
|
|
6 |
|
|
|
|
|
|
||||
H |
Y |
|
|
|
|
|
Py . ln |
Py |
j |
; H |
Y |
= 2.585 bit. |
|
|
|
|
|
||||||||
|
||||||||||||
|
|
|
|
|
|
j |
|
|
|
j = 1
Согласно (1.7) с учетом P(xi,yj)=P(xi)P(yj/xi) условная энтропия принимаемой комбинации при известной передаваемой
HY |
|
|
|
|
|
|
|
|
Px |
. Py |
|
. ln |
Py |
|
; HY |
|
= 1.9 bit. |
|||
|
|
|
|
|
|
|
|
|
||||||||||||
X |
x |
x |
X |
|||||||||||||||||
|
|
|
i |
|
|
|
i , j |
|
i , j |
|
||||||||||
|
|
|
|
|
|
i |
|
j |
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
Таким образом, количество информации на одну переданную комбина- |
||||||||||||||||||||
цию |
|
|
I XY |
|
|
H Y |
|
|
HY X ; |
I XY = 0.685 |
bit. |
|||||||||
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
Пример 2.2.3. Радиостанция противника может работать на волне λ1 (событие A1) или на волне λ2 (событие A2), причем в импульсном режиме (событие B1) или непрерывном режиме (событие B2). Вероятности совместных событий имеют следующие значения:
P AB |
|
0.7 ; P AB |
|
0.15 ; P AB |
2, 1 |
|
0.05 ; P AB |
2, 2 |
|
0.1 . |
|
|
|
|
|||||||
|
|
|
|
|||||||
1, 1 |
1, 2 |
|
|
|
|
|
|
Вычислить количество информации, получаемой относительно режима работы станции, если станет известной длина волны станции.
Решение. Предварительно определим единицы измерения количества информации:
а) при натуральном логарифме (нит) − nit ln ( e ); б) при двоичном логарифме (бит) − bit nit. ln ( 2 ).
|
|
Вычислим |
|
|
безусловные вероятности P(Ai) |
и |
P(Bj) при i |
|
1 .. 2, |
||||||||||||||||
|
|||||||||||||||||||||||||
|
|||||||||||||||||||||||||
j |
|
1 .. 2 и ORIGIN |
|
1: |
|
|
|
|
|
|
; |
|
|
|
; |
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
P Ai |
|
|
P ABi , 1 |
|
|
|
|
P ABi , 2 |
P A1 |
= 0.85 |
P A2 |
= 0.15. |
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
P B |
|
|
|
|
P AB |
|
|
|
|
|
P AB |
; |
P B |
|
= 0.75 |
; |
P B |
|
= 0.25 . |
|
|
||
|
|
j |
|
|
|
|
|
|
|
1 |
2 |
|
|
||||||||||||
|
|
|
|
|
|
1, j |
|
|
|
|
2, j |
|
|
|
|
|
|
|
|
Вычислим условные вероятности P(B/A):
30
|
|
|
P AB |
|
|
0.824 |
0.333 |
|
PB A |
|
|
i , j |
; |
PB A = |
|
; |
|
|
|
|||||||
|
|
|
|
|||||
j , i |
P A |
|
|
0.176 |
0.667 |
|||
|
|
|
i |
|
|
|
|
|
Элементы матрицы: PB A |
= 0.824 |
; |
PB A |
= 0.176 ; |
||||
1, 1 |
|
|
2, 1 |
|
||||
PB A |
= 0.333 |
; |
PB A |
= 0.667 . |
||||
1, 2 |
|
|
2, 2 |
|
Согласно (2.3), количество информации о режиме работы станции, которое содержится в сообщении о длине ее волны,
I(A,B)=H(B)-H(B/A).
На основании (2.4) можно записать
2 |
|
2 |
|
|
PB A |
|
|
|||||
I AB |
|
|
|
|
|
|
|
P AB . ln |
|
j , i |
; |
I AB = 0.102 bit. |
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
P B |
|
||||
|
|
|
|
|
||||||||
|
|
i = 1 |
j = 1 |
i , j |
j |
|
|
|||||
|
|
|
|
|
||||||||
|
|
|
|
|
|
Пример 2.2.4. На вход регистрирующего устройства поступает случайный сигнал Y(t)= X(t)+ξ(t), где полезный сигнал X(t) и помеха ξ(t) − независимые случайные процессы с нулевым средним значением и среднеквадратичными отклонениями σ x 0.5 . volt и σ ξ 0.1 . volt.
Требуется определить:
а) количество информации I(y,x), которое содержится в зарегистрированной реализации y(t) сигнала Y(t) о реализации x(t) полезного сигнала X(t);
б) полную среднюю взаимную информацию I(Y,X), получаемую при регистрации процесса Y(t) о полезном процессе X(t).
Решение. Предварительно определим единицы измерения количества информации:
•при натуральном логарифме (нит) − nit ln ( e );
•при двоичном логарифме (бит) − bit nit. ln ( 2 ). По условию задачи:
1) плотность вероятности нормального полезного сигнала
p |
|
( x ) |
1 |
|
. exp |
|
|
x2 |
|||
1 |
|
|
|
|
|
|
|
; |
|||
|
|
|
|
||||||||
|
|
|
|
|
|
||||||
|
|
|
|
σ x. 2 |
. π |
|
|
|
2. σ x2 |
||
|
|
|
|
|
|
|
|
2) плотность вероятности нормальной помехи
p |
|
( ξ ) |
|
|
|
1 |
. exp |
|
|
ξ2 |
|
2 |
|
|
|
|
|
|
|
. |
|||
|
|
|
|
||||||||
|
|
|
|
|
|
||||||
|
|
|
|
σ ξ |
. 2. π |
|
|
|
2. σ ξ2 |
||
|
|
|
|
|
|
|
|
Сумма Y(t) двух нормальных процессов X(t) и ξ(t) является также нормальным процессом. Так как X(t) и ξ(t) − независимы, то дисперсия суммарно-