Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Теория электрической связи. Часть 1

.pdf
Скачиваний:
15
Добавлен:
05.02.2023
Размер:
640.75 Кб
Скачать

 

 

 

21

p(x

/ y ) =

p(x2 , y1 )

= 1 8 = 1 .

 

2

1

p( y1 )

3 8 3

 

 

Средняя информация:

I (X ; y1 ) = 23 log2 3283 + 13 log2 1338 = 0, 4967 бит.

б) Средняя взаимная информация в выходной величине Y относительно реализации случайной величины на входе x1 определяется формулой:

I (x1;Y ) = p( yk / x1 ) log p( yk / x1 ) = p( y1 / x1 ) log p( y1 / x1 ) +

 

 

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k =1

 

 

 

 

 

 

 

 

 

p( yk )

 

 

 

 

 

p( y1 )

 

 

 

+ p( y

2

/ x ) log

 

p( y2 / x1 )

+ p( y / x ) log

p( y3 / x1 )

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

p( y2 )

3

1

 

p( y3 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Определяем условные вероятности:

 

 

 

 

 

p( y

 

/ x ) =

 

 

p(x1, y1 )

=

1 4

= 4 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

1

 

 

 

 

p(x1 )

7 16

 

 

7

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p( y

2

/ x ) =

p(x1, y2 )

 

= 1 16 = 1 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

p(x1 )

7 16

7

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p( y / x ) =

p(x1, y3 )

 

=

1 8

= 2 .

 

 

 

 

 

 

 

 

 

 

 

 

3

1

 

 

 

 

p(x1 )

7 16

 

7

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Условная средняя взаимная информация равна:

I (x1;Y ) = 74 log2 4387 + 17 log2 1174 + 72 log2 2387 = 0,1198 бит.

в) Средняя взаимная информация между случайной величиной Y на выходе канала и случайной величиной X на входе определяется формулой (4.23) [1]:

I (X ;Y ) = ∑ ∑p(xj ) p( yk / xj )log p( yk / xj ).

n m

 

j =1 k =1

p( yk )

Воспользовавшись результатами вычислений I (x1;Y ) , получим для средней взаимной информации:

22

n

I (X ;Y ) = M I (xj ;Y ) = p(xj )I (xj ;Y ) =

j=1

= p(x1 )[p( y1 / x1 ) log p( y1 / x1 ) + p( y1 )

 

 

+ p( y2 / x1 ) log

 

 

p( y2 / x1 )

 

+ p( y3 / x1 ) log

p( y3 / x1 )

]+

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p( y

2

)

 

 

 

 

 

 

 

p( y )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

 

+ p(x2 )[p( y1 / x2 ) log

p( y1 / x2 )

+

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p( y )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p( y2 / x2 )

1

 

 

 

 

 

p( y3 / x2 )

 

 

 

+ p( y2 / x2 ) log

 

+ p( y3 / x2 ) log

 

]=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p( y

2

)

 

 

 

 

 

 

 

p( y )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

7

 

 

4 log2 4 7 + 1 log2

1 7 + 2 log2 2 7

 

 

=

 

 

+

 

16

 

 

 

 

 

 

7

3 8 7

 

 

 

 

1 4 7

3 8

 

 

 

9

 

2 log2

2 9 +

1 log2

1 3 + 4 log2

4 9

 

 

 

 

+

 

= 0,0972 бит.

16

3 8

 

 

9

 

 

3 8 3

 

 

1 4 9

 

 

 

 

 

Пример 12. Эргодический источник имеет алфавит, состоящий из 8 букв. Средние частоты повторения букв одинаковы. При передаче по каналу с шумом в среднем половина всех букв принимается правильно, в другой половине случаев имеют место ошибки, при этом любая буква переходит в любую другую с одинаковой вероятностью. Какова средняя информация в принятой букве относительно переданной?

Решение. Обозначим

x

x

x

...

x

 

X = 1

 

2

3

...

8

 

p(x1 )

p(x2 )

p(x3 )

p(x8 )

 

ансамбль переданных букв,

 

 

 

 

 

y

y

 

y

...

y

 

Y = 1

 

2

3

...

8

 

p( y1 )

p( y2 )

p( y3 )

p( y8 )

 

ансамбль принятых букв.

23

Так как для эргодической последовательности средние по времени частоты повторения букв совпадают с вероятностями, то по условию задачи вероятности появления букв на входе канала p(xj ) =1 n =1 8.

Ищем условные вероятности p( yk / xj ) . Поскольку половина всех букв принимается правильно, то p( yk / xj ) =1/ 2 при k = j.

Другая половина случаев есть ошибочный прием, причем по условию задачи все возможные ошибки равновероятны. Число возможных переходов (ошибок) равно 7. Тогда вероятность ошибки p( yk / xj ) = 0,5 1/ 7 =1/14 при k j.

Вероятности появления букв на выходе найдем по (1.7)

[1]:

8

 

1

 

1

 

1

 

1

 

1

 

p( yk ) = p(xj ) p( yk

/ xj ) =

 

+7

 

=

для любо-

8

2

8

 

8

j=1

 

 

 

14

 

 

го к.

Этот же результат следует непосредственно из того факта, что рассматриваемый канал – симметричный (набор вероятностей ошибок одинаков для любого Х), тогда при равномерном распределении на входе распределение на выходе также равномерно.

Среднюю взаимную информацию находим по формуле

(4.23) [1]:

 

 

8

8

 

 

 

p( yk / xj )

 

 

 

 

 

 

 

I (X ;Y ) = ∑∑p(xj ) p( yk / xj ) log

=

 

 

 

 

 

 

 

 

 

 

 

 

j=1 k =1

 

p( yk )

 

 

 

 

= p(x1 )[p( y1 / x1 ) log

p( y1 / x1 )

+ p( y2 / x1 ) log

p( y2 / x1 )

 

+...+

p( y )

 

 

 

 

 

 

 

 

p( y

2

)

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

+ p( y8 / x1 ) log

p( y8 / x1 )

]+ p(x2 )[]+...+ p(x8 )[].

 

 

 

 

 

 

 

 

 

 

p( y )

 

 

 

 

 

 

 

 

 

 

 

8

 

 

 

 

 

 

 

 

 

 

Выражения в квадратных скобках, коротко обозначенные

как

[]

 

 

 

 

 

 

 

 

 

 

 

 

 

, численно равны, поэтому

 

 

 

 

 

 

 

 

24

I (X ;Y ) =[][p(x1 ) + p(x2 ) +...+ p(x8 )]=[ ]=

 

1

 

1 2

 

1

 

1 14

 

 

=

log

+7

log

 

= 0,5963 бит.

 

 

 

 

 

 

 

2

1 8

14

1 8

 

 

 

 

 

 

Пример 13. Сообщение X есть стационарная последовательность независимых символов, имеющих ряд распределения:

xj

x1

x2

x3

p(xj)

0,2

0,1

0,7

Сигнал Y является последовательностью двоичных символов, связанных с сообщением следующим неудачным образом:

x1→00, x2→00, x3→1.

Определить: а) средние безусловную и условную энтропии, приходящиеся на 1 символ сообщения;

б) средние безусловную и условную энтропии, приходящиеся на 1 символ сигнала;

в) среднюю взаимную информацию в расчете на 1 символ сообщения.

Решение. Символы в последовательности на выходе источника независимы, поэтому из (4.30) [1]:

HX (t ) = H1 X (t ) = H [X ]=

=0, 2 log 0, 2 0,1 log 0,10,7 log 0, 7 =1,1568 бит/симв.

Обозначив y1=00, у2=1, вычислим условные и безусловные вероятности сигнала:

p (y1 x1 )= p (y1

x2 )=1,

p (y1 x3 )= 0,

p (y2 x1 )= p (y2

x2 )= 0,

p (y2 x3 )=1,

p (y1 )= p (x1 ) p (y1 x1 )+ p (x2 ) p (y1 x2 )+ + p (x3 ) p (y1 x3 )= 0, 2 +0,1 = 0,3,

p (y2 )= 0,7.

Энтропия случайной величины Y равна:

H(Y )= −0,3 log 0,3 0,7 log 0,7 = 0,8813 бит,

аусловная энтропия H(Y/X)=0, так как сигнал однозначно определяется сообщением.

25

Взаимная информация

I (X ;Y )= H (Y )H (Y X )= 0,8813 бит.

Условная энтропия сообщения

H (X Y )= H (X )I (X ;Y )=1,1568 0,8813 = 0, 2755 бит.

Итак, получаем, что условная энтропия сообщения равна 0,2755 бит/симв, а взаимная информация в расчете на 1 символ сообщения равна 0,8813 бит/симв.

Среднее количество символов сигнала, приходящихся на 1 символ сообщения, равно

3

L = p (xj )l j = 0, 2 2 +0,1 2 +0,7 1 =1,3 симв,

j=1

где lj – длина кодового слова, соответствующего xj. Энтропия последовательности Y(t) равна

HY (t ) = H (Y ) L = 0,8813 1,3 = 0,6779 бит/симв,

аусловная энтропия равна нулю.

Пример 14. Вольтметром измеряется напряжение в электрической сети. Ошибка измерения не зависит от истинного значения напряжения и распределена нормально с нулевым математическим ожиданием и среднеквадратическим отклонением, равным 2 В. Истинное значение напряжения в сети также имеет нормальное распределение с математическим ожиданием 220 В и СКО, равным 10 В.

Найти:

а) зависимость величины получаемой информации от показаний прибора,

б) среднюю величину получаемой информации. Решение. Введем обозначения:

X– напряжение в сети,

V– ошибка измерения,

Y= X + V – показание прибора.

Из условия задачи записываем плотности вероятностей:

W (x)=

1

 

(x mx )2

 

exp

2σx2

,

2πσx

 

 

 

 

 

 

 

 

 

 

 

26

 

 

W (y x)=

1

exp

(y x)2

.

2πσv

2σv2

 

 

 

 

 

 

 

 

Безусловную плотность вероятности величины Y можно найти по формуле полной вероятности, но проще поступить следующим образом. Показание прибора Y есть сумма двух независимых нормальных случайных величин и, следовательно, Y также имеет нормальное распределение с математическим ожиданием

my = mx +mv = mx = 220 В

идисперсией

σy2 =σx2 +σv2 =104 В2 .

Итак,

W (y)=

1

 

(y mx )2

 

exp

2σy2

.

2πσy

 

 

 

 

 

 

 

 

Условную плотность вероятности х находим по формуле Байеса:

=2πσy

2πσv 2πσx

W (x y)= W (y x()W) (x) =

W y

 

1

 

(y x)

2

 

(x mx )

2

 

(y mx )

2

 

 

 

 

 

+

 

 

 

 

exp

2

σv2

 

σx2

 

σy2

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В выражении, стоящем под знаком экспоненты, осуществляем возведение в квадрат и затем группируем члены, содержащие х2 и х. В итоге убеждаемся, что условное распределение величины х также нормально:

 

 

 

 

 

1

 

 

x S (y )

2

 

 

 

 

 

 

 

 

 

 

 

 

W (x y )

=

 

 

exp

 

 

 

 

,

 

2πδ

2δ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где S (y )= m

x

+

σx2

(y m

x

)

условное

математическое

 

 

σ

2

 

 

 

 

 

 

 

 

 

 

 

 

y

 

 

 

 

 

 

 

 

 

ожидание X,

 

 

27

δ2 =

σ2σ2

– условная дисперсия X.

x v

 

σ2

 

 

y

 

Для ответа на вопрос п. а) следует по формуле (3.1.2) вычислить величину средней взаимной информации между ансамблем X и реализацией у:

 

W (X

y)

 

 

 

 

 

 

 

 

 

I (X ; y)= M ln

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

W (X )

 

 

 

 

 

 

 

 

 

 

 

σx

 

X

S

(

y

2

 

(X

mx )

2

 

 

 

 

 

 

)

 

 

 

= M ln

 

 

 

 

 

 

 

+

 

 

 

.

δ

 

 

2δ2

 

 

 

2σx2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Находим квадраты разностей и выносим за знак математического ожидания слагаемые и множители, не зависящие от х. Далее учитываем, что вычисляются условные математические ожидания при конкретном значении у, поэтому

M[X ]= S (y), M X 2 = S 2 (y)+δ2 .

В итоге получаем

I (X ; y)=

1

 

σy2

 

1

σ2

y m

x

2

 

 

 

ln

 

 

+

 

x

 

 

 

 

1

=

2

σ

 

 

σ

 

 

 

 

2

 

2 σ2

 

 

 

 

 

 

 

 

 

 

v

 

 

y

 

 

y

 

 

 

 

=

1 ln

104

+

100

 

(y 220)2

1

=

4

2 104

 

2

 

104

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

(y 220)2

 

 

нат.

1,629 +0, 4801

 

104

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом, искомая зависимость есть параболическая функция разности y m x , причем наименьшее количество информации, равное 1,1482 нат, доставляет наиболее вероятное показание прибора y = m x =220 В .

Для ответа на вопрос п. б) необходимо найти среднюю величину взаимной информации между ансамблями X и Y. Вычисляем безусловное математическое ожидание величины I(Х; у).

 

 

 

 

 

 

28

 

 

 

 

При этом учитываем, что M (Y mx )2

=σy2 , и получаем

 

 

 

 

 

 

 

 

 

 

I (X ;Y )=

1

 

σy2

=

1

 

+

σ2

 

=1,629 нат.

 

ln

 

 

ln 1

x2

 

2

2

2

 

 

σv

 

 

 

σv

 

 

Обратите внимание, что в среднем количество получаемой информации в данном примере зависит только от отношения

«сигнал/ошибка» σx σv .

Пример 15. Положительная непрерывная случайная величина X распределена по экспоненциальному закону с математическим ожиданием mх=3. Вычислить значение дифференциальной энтропии величины X.

Решение. Заданный закон распределения имеет вид

W (x)=

1

 

x

 

, x 0.

exp

 

mx

 

 

 

 

mx

 

Дифференциальная энтропия непрерывной случайной величины X определяется формулой (4.40) [1]

 

(

 

)

 

 

 

 

(

 

)

 

 

 

1

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H

 

X

 

= M logW

 

x

 

= M

 

log

mx

exp

 

mx

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= log mx + log e M (X )= log mx + log e mx = log (emx ).

 

 

 

 

 

 

 

m

 

 

 

 

 

 

 

m

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

Подставляя mx = 3, получим

 

 

 

 

 

 

 

 

 

 

 

H (X )= log (2,7183 3)= 3,0277 бит .

 

 

 

 

 

 

 

2.3 Кодирование

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 16.

Закодировать сообщения источника, при-

Таблица

 

7

 

 

 

 

 

 

 

 

 

 

 

веденные в табл 7,

 

 

 

 

 

 

 

 

 

 

 

 

двоичным

 

кодом

uk

 

u1

 

u2

 

u3

 

u4

 

u5

 

u6

 

 

 

 

 

 

 

 

 

 

 

Хафмана. Оценить

p(uk)

 

0,1

 

0,2

 

0,25

 

0,05

0,25

0,15

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

эффективность

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

полученного кода.

Решение. В соответствии с алгоритмом построения кода Хафмана делаем последовательно следующие шаги:

29

1)располагаем сообщения источника в порядке убывания вероятностей;

2)образуем вспомогательный алфавит, объединяя наиболее

маловероятные буквы u1 и u4 (m0=2), тогда вероятность новой буквы равна p1=р(u1)+р(u4)=0,1+0,05=0,15. Оставляем эту букву на месте, так как p1=р(u6);

3)объединяем первую вспомогательную букву и букву u6, тогда вероятность второй вспомогательной буквы равна р2=р1+р(u6)=0,15+0,15=0,3; перемещаем ее вверх в соответствии

сэтой вероятностью;

4)объединение продолжаем до тех пор, пока в ансамбле не останется единственное сообщение с вероятностью единица.

Построение кода Хафмана приведено на рис. 4.

 

 

 

 

 

 

 

 

 

0,55

1

 

 

 

 

 

 

 

 

 

 

 

 

0,45

 

 

 

 

 

 

 

 

1,00

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Комби-

uj

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

0

 

нация

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,30

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

10

u3

 

 

0,25

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

01

u5

 

 

0,25

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

00

u2

 

 

0,20

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

111

u6

 

0,15

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1101

u1

 

 

0,10

 

0,15

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1100

u4

 

 

0,05

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 4

Сообщения источника являются теперь концевыми узлами кодового дерева. Приписав концевым узлам значения символов 1 и 0, записываем кодовые обозначения, пользуясь следующим правилом: чтобы получить кодовое слово, соответствующее сообщению u4, проследим переход u4 в группировку с наибольшей вероятностью, кодовые символы записываем справа налево (от

30

младшего разряда к старшему), получим 1100. Для сообщения u1 – 1101 и т.д. (см. рис. 4). Оценим эффективность полученного кода. Энтропия источника сообщений:

6

Н(U ) = −p(uk ) log p(uk ) =

k =1

= 2η(0, 25) +η(0, 2) +η(0,15) +η(0,1) +η(0, 05) = 2, 4232 бит

на одну букву на выходе источника.

Средняя длина кодового слова (формула (4.14) [1]):

6

L = lk p(uk ) = 2 0, 25 +2 0, 25 +

k =1

+2 0, 2 +3 0,15 +4 0,1+ 4 0,05 = 2, 45 дв. симв/букву.

Для оценки эффективности кода используем коэффициент эффективности γ = Н(U )(L log m).

Для оптимального двоичного кода Н(U ) = L и γ =1. Полученный нами код имеет γ = 2, 42322, 45 = 0,9891,

избыточность R=0,0109, т.е. код близок к оптимальному. Пример 17. Сообщение источника X составляется из ста-

тистически независимых букв, извлекаемых из алфавита А, В, С с вероятностями 0,7; 0,2; 0,1. Произвести двоичное кодирование по методу Шеннона–Фано отдельных букв и двухбуквенных блоков. Сравнить коды по их эффективности.

Решение. Производим побуквенное кодирование методом Шеннона–Фано.

1)Располагаем буквы алфавита источника в порядке убывания вероятностей.

2)Делим алфавит источника на две (m=2) примерно равновероятные группы. Всем сообщениям верхней группы (буква А) приписываем в качестве первого кодового символа 1, всем сообщениям нижней группы приписываем символ 0.

3)Производим второе разбиение на две группы (буквы В и С) и снова букве в верхней группе (В) приписываем символ 1, а

внижней (С) в качестве второго символа кодового слова приписываем 0. Так как в каждой группе оказалось по одной букве, кодирование заканчиваем. Результат приведен в табл. 8.