Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Космические системы связи

..pdf
Скачиваний:
7
Добавлен:
05.02.2023
Размер:
2.34 Mб
Скачать

 

 

21

 

W (x, y)

0,125,

0 x 2,

1 y 5,

 

 

вне этой области.

 

0,

а) Вычислить четвертый центральный момент величины X . б) Являются ли эти случайные величины независимыми?

1.11Билеты лотереи, среди которых только один выигрышный, занумерованы числами от 0 до 999. Указать среднее количество цифр, необходимых для передачи номера выигравшего билета.

1.12По каналу связи передаются сообщения x1 или x2 с ве-

роятностями p(x1 ) 0,7, p(x2 ) 0 ,. 3Вследствие влияния помех сигнал на выходе может принимать одно из трех значений y1 , y2 или y3 с вероятностями:

p( y1 / x1) 0, 4 ,

p( y2 / x1 ) 0, 4 ,

p( y3 / x1 ) 0, 2 ,

p( y1 / x2 ) 0, 2 ,

p( y2 / x2 ) 0, 2 ,

p( y3 / x2 ) 0,6 .

Найти вероятность ошибочных решений, если выходным сигналам ставить в соответствие следующие решения:

y1 x1 ,

y2 x1 ,

y3 x2 .

1.13 Даны математические ожидания двух нормальных случайных величин: mx 26 , my 12 и их корреляционная мат-

рица

 

 

 

 

 

 

 

 

K jk

 

 

 

91

 

 

 

.

 

 

196

 

 

 

 

 

 

 

 

91

169

 

 

 

 

Определить плотность вероятности системы XY , считая совместное распределение также нормальным.

1.14 Плотность вероятности системы трех случайных величин равна

 

 

3

 

 

 

 

1

2x

2

 

2

 

2

 

 

W (x, y, z)

 

 

 

 

exp

 

 

4 y

 

2 y(z 5) (z 5)

 

.

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

8

 

 

 

 

 

 

 

 

 

16

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Найти совместную плотность вероятности величин X и Y . 1.15 Система случайных величин имеет нормальное рас-

пределение

22

 

 

1

 

 

 

 

 

1

 

 

 

x

2

 

2rxy

 

y

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

W (x, y)

 

 

 

 

 

exp

 

 

 

 

 

 

 

 

 

 

 

 

 

.

 

 

 

 

 

2(1 r

2

 

 

2

x y

 

2

2

1

r2

 

 

 

 

 

 

) x

 

y

 

 

 

x

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Определить: а) условную плотность вероятности W (x / y) ,

б) условное математическое ожидание M X / y ,

 

 

 

 

 

в) условную дисперсию D X / y .

 

 

 

 

 

 

 

 

 

 

 

 

1.16 Сообщение

X

на входе линии связи есть случайная

величина, имеющая

нормальное

распределение с mx

0

В,

x 10 В. Сигнал на выходе линии

Y X Z , где помеха Z -

случайная величина, независимая от

X и имеющая нормальное

распределение с параметрами mz

0 В, z

1 В. Указать наи-

более вероятное значение переданного сообщения

x , если сиг-

нал на выходе линии равен 7 В?

 

 

 

 

 

1.17 Случайная величина

X

может принять одно из m

значений x1, x2 ,..., xm . Какими

должны

быть

вероятности

 

1

 

 

 

 

p(xj ) , чтобы величина M ln

 

 

 

приняла наибольшее зна-

p( X )

 

 

 

 

чение? Чему равно это значение?

1.18В двоичном симметричном канале с независимыми ошибками найти вероятность того, что в 1000-разрядной кодовой комбинации возникнет не более двух ошибок, если битовая

вероятность ошибки равна:

а) 10–2; а) 10–5.

1.19В двоичном симметричном канале с независимыми ошибками битовая вероятность ошибки равна 10–2. Оценить вероятность того, что в 1000-разрядной кодовой комбинации возникнет от 70 до 90 ошибок.

Указание. На основании центральной предельной теоремы теории вероятностей использовать аппроксимацию огибающей биномиального распределения колокольной кривой.

1.20Найти максимальное значение модуля ошибки квантования по уровню и ее среднеквадратическое значение, если шаг квантования равен 0,05 В.

23

2 ИНФОРМАЦИОННЫЕ ХАРАКТЕРИСТИКИ ЦИФРОВЫХ СИГНАЛОВ

2.1Собственная информация. Взаимная информация

Описание дискретного канала. Цифровымым называется такой канал, сигналы на входе и выходе которого являются последовательностями дискретных случайных величин (символов).

Для полного описания канала на интервале времени, соответствующем передаче одного символа, необходимо задать ансамбли символов на входе X и выходе Y и условные вероятности переходов p( yk / xj ) . В дальнейшем будем обозначать:

x , x ,..., x

,..., x

 

1

2

j

n

X

 

 

 

 

p(x1 ),..., p(x j ),...,

 

 

 

 

 

y , y ,..., y

 

,..., y

 

Y 1

2

k

 

m

p( y1 ),..., p( yk ),...,

- ансамбль сообщений на входе,

p(xn )

- ансамбль сигналов на выходе. p( ym )

Собственная информация. Поскольку появление символа сообщения x j на входе дискретного канала есть событие слу-

чайное, то имеет место неопределенность исхода. В результате опыта неопределенность уменьшается или даже исчезает полностью, и при этом получается некоторое количество информации.

Тогда собственная информация символа xj (количество информации, доставляемое самим символом xj или любым другим, однозначно с ним связанным) определяется как

I (x j

) log p(x j

) log

1

 

,

 

 

 

(2.

p(x j

)

 

 

 

 

1.1)

 

 

 

 

 

 

т.е. информация в каком-либо событии измеряется логарифмом величины, обратной вероятности его появления.

Выбор основания логарифма loga p(xj ) определяет единицу количества информации. Если a 2 , то единица информа-

I (xj / yk ) log p(xj / yk )

24

ции называется двоичной (бит), при a e – натуральной (нат), а при a 10 – десятичной. Двоичная единица количества информации, например, есть собственная информация символа, обладающего двумя равновозможными состояниями. Переход от одной системы логарифмов к другой равносилен простому изменению единицы измерения информации. Этот переход осуществляется по формуле

logb k logb a loga k .

Отсюда 1 нат log2 e бит 1, 4427 бит ,

1 дес. ед. log2 10 бит 3,3219 бит .

Условная собственная информация. В общем случае со-

общения X и сигналы Y на входе и выходе дискретного канала

зависимы. Пусть p(xj / yk )

- условная вероятность того, что

реализовалось состояние x j

ансамбля X при условии, что ан-

самбль Y принял состояние

yk . Тогда, по аналогии с собствен-

ной, информация, содержащаяся в символе сообщения x j при условии, что сигнал принял значение yk , определяется как

(2.1.2)

и называется условной собственной информацией.

Взаимная информация. Обратимся снова к ансамблям X и Y . Пусть ансамбли зависимы. В результате опыта (приема символа сигнала yk ) апостериорная вероятность p(xj / yk ) по-

явления символа x j изменяется по сравнению с априорной p(xj ) . Тогда количество информации относительно символа сообщения x j , доставляемое символом сигнала yk , можно оп-

ределить как логарифм отношения апостериорной вероятности к априорной

I (x j ; yk ) log

p(x j / yk )

.

(2.1.3)

 

 

p(x j )

 

Это и есть взаимная информация.

25

Основные свойства взаимной информации.

1) Взаимная информация может быть отрицательной, положительной и равной нулю в зависимости от соотношения между априорной и апостериорной вероятностями

 

I (xj ; yk ) .

 

(2.1.4)

2) Взаимная информация не превышает собственную

 

I (xj ; yk ) I (xj ) ,

I (xj ; yk ) I ( yk ) .

(2.1.5)

При

данной вероятности

p(xj ) взаимная информация

I (xj ; yk )

достигает максимума,

когда принятый символ

yk од-

нозначно определяет переданный символ x j . При этом

 

 

p(x j / yk )

0,

j k,

 

 

 

j k,

 

 

 

 

1,

 

и максимальное значение взаимной информации

I (xj ; y j ) log p(xj ) ,

равно собственной информации, определяемой только априорной вероятностью символа x j .

3) Свойство симметрии

 

 

I (xj ; yk ) I ( yk ; xj ) ,

(2.1.6)

т.е. информация, содержащаяся в yk относительно x j ,

равна

информации, содержащейся в x j

относительно yk . В силу этого

свойства информацию I (xj ; yk )

называют взаимной информа-

цией между x j и yk .

 

 

 

4) Свойство аддитивности количества информации

 

I (xj , zi ; yk , ql ) I (xj ; yk ) I (zi ; ql )

(2.1.7)

Если пара XY

независима от пары ZQ , то информация,

содержащаяся в пape

yk qi относительно пары x j zi , равна сумме

информации, содержащейся в yk

относительно x j , и информа-

ции, содержащейся в ql относительно zi .

 

26

РЕШЕНИЕ ТИПОВЫХ ПРИМЕРОВ Пример 2.1.1. Определить собственную информацию, со-

держащуюся в изображении, при условии, что оно разлагается на 500 строк по 500 элементов в каждой строке. Яркость каждого элемента передается одним из восьми квантованных уровней. Различные градации яркости равновероятны, а яркости разных элементов статистически независимы.

Решение. Обозначим случайной величиной X яркость одного элемента изображения. По условию задачи все 8 градаций

яркости одинаково вероятны, т.е. p(xj ) 1n , где n 8 и, сле-

довательно, собственная информация одного элемента для любого j по формуле (2.1.1)

I (xj ) log2 n .

Изображение содержит N 500 500 2,5105 элементов.

Так как яркости элементов независимы, то по свойству аддитивности информации

I (изображения) NI (xj ) N log2 n 2,5 105 3 7,5 105 бит.

Пример 2.1.2. На экране индикатора РЛС, представляющего поле с 10 вертикальными и 10 горизонтальными полосами, появляется изображение объекта в виде яркостной отметки. Все положения объекта равновероятны.

Определить количество информации, содержащееся в сообщениях:

а) объект находится в 46-м квадрате экрана; б) объект находится в 5-й горизонтальной строке экрана;

в) объект находится в 6-м вертикальном столбце и 3-й горизонтальной строке экрана.

Решение. а) Пусть x46 - сообщение о том, что объект нахо-

дится в 46-м квадрате экрана.

Собственная информация в этом сообщении по формуле (2.1.1) равна I (x46 ) log2 p(x46 ) . Безусловная вероятность сообщения – объект находится в 46-квадрате экрана – равна p(x46 ) mn , где n – общее число возможных исходов (квадратов поля), m – число исходов, благоприятствующих событию

27

x46 .

По условию задачи n 100 квадратов, a m 1. Тогда

p(x46 ) 0,01 и I (x46 ) log 0,01 log2 100 6,6439 бит.

б) Вероятность события y5 – объект находится в 5-й горизонтальной строке экрана – по аналогии с рассмотренным слу-

чаем а) определится p( y5 ) m n 10 100 0,1

и собственная

информация

 

 

 

 

 

 

 

I ( y5 ) log2 0,1 log2 10 3,3219 áèò.

 

в) Вероятность события z6,3

– объект находится в 6-м вер-

тикальном столбце и 3-й горизонтальной строке – равна

 

p(z6,3 ) m n 0, 01, следовательно,

 

 

 

 

I (z6,3 ) log2 0, 01 6, 6439 áèò.

 

 

Пример 2.1.3. Рассматривается ансамбль сообщений, при-

веденный в табл. 2.1.1.

 

 

 

 

 

 

 

 

 

 

 

 

Таблица 2.1.1

x j

x0

 

x1

x2

x3

x4

x5

x6

 

 

 

 

 

 

 

 

 

p(xj )

1/2

 

1/4

1/8

1/32

1/32

1/32

1/32

 

 

 

 

 

 

 

 

 

Кодовое

001

 

010

100

011

101

110

111

слово

 

 

 

 

 

 

 

 

Сообщение x4

поступает в кодер. Вычислить дополнитель-

ную информацию об этом сообщении, доставляемую каждым последующим символом на выходе кодера.

Решение. На вход кодера поступает одно из сообщений x0 ,..., x6 , а кодер порождает соответствующие таблице двоич-

ные символы. Так, сообщению x4 соответствует на выходе ко-

довое слово 101. Символы на выходе кодера появляются последовательно, т.е. первый символ 1, второй 0 и третий 1. Первый символ кодового слова содержит некоторую информацию относительно того, какое сообщение поступает на вход кодера. Так, первый символ 1 показывает, что на входе могли быть сообще-

ния x2 , x4 , x5 или x6 . Второй символ 0 сужает выбор – теперь

p(x4 )

28

на входе возможно одно из двух сообщений: x2 или x4 . И, на-

конец, последний, третий символ 1 однозначно определяет переданное сообщение.

По формуле (2.1.3) взаимная информация, содержащаяся в первом кодовом символе 1 относительно сообщения x4 , равна

I (x4 ;1) log p(x4 /1) .

Обратная вероятность формуле Байеса (1.4)

p(x4 /1)

p(x4 /1) может быть найдена по

6 p(x4 ) p(1/ x4 ) ,

p(1/ x j ) p(x j )

j 1

 

1,

j 2, 4,5, 6,

где p(1/ x j

)

j 0,1,3,

 

0,

т.е. условная вероятность p(1/ xj ) 0 для гипотез, при которых первый кодовый символ есть 0, и p(1/ xj ) 1 для гипотез, при

которых первый кодовый символ 1. В знаменателе формулы Байеса таким образом учитываются те гипотезы, при которых возможно появление 1 на первом месте.

Итак,

p(x /1)

 

 

1 32

 

1

,

 

 

 

 

4

1 8

31 32

7

 

 

 

p(x /10)

1 32

 

1

,

p(x /101)

1 32

1,

4

1 8 1 32

5

 

4

1 32

 

 

 

 

 

а взаимная информация, содержащаяся в первом кодовом символе 1 относительно сообщения x4 , равна

I (x4 ;1) log

p(x4 /1)

log

 

1 7

log2 32 log2 7 2,1926 áèò.

p(x )

2 1 32

 

4

 

 

 

 

Информация, содержащаяся во втором кодовом символе 0 при условии, что первый кодовый символ был 1, есть

Действительно,
p(x4 /1)

29

I (x4 ;0 /1) log p(x4 /10) log2 1175 0, 4854 áèò.

Информация, содержащаяся в третьем кодовом символе 1 при условии, что ему предшествовали 10, есть

I (x4 ;1/10) log

 

p(x4 /101)

log

 

1

2,3219 áèò.

2 p(x

/10)

2 1 5

 

4

 

 

 

 

 

Так как сообщения xJ

и кодовые слова однозначно связа-

ны, то

I (x4 ) I (x4 ;1) I (x4 ;0 /1) I (x4 ;1/10) .

I (x4 ) log2 p(x4 ) log2 32 5 бит, и

это совпадает с приведенной суммой.

Пример 2.1.4. По дискретному каналу передаются сообщения x1 или x2 . Вследствие действия шумов на выходе появляется один из сигналов y1, y2 , y3 . Вероятности совместного появ-

Таблица 2.1.2

x j

 

yk

 

y1

y2

y3

 

x1

1/4

1/16

1/8

x2

1/8

3/16

1/4

цию по формуле (2.1.3)

Рис. 2.1

лицей. По формуле (1.3)

ления p(xj ; yk ) заданы табл. 2.1.2

Вычислить взаимные информации

I (x2 ; y2 ) , I (x1; y3 ) .

Решение. Дискретный канал с шумом удобно изображать в виде гра-

фа (рис. 2.1.2).

Определим взаимную информа-

I (x1; y3 ) log p(x1 / y3 ) p(x1 )

или в силу свойства симметрии

I (x1; y3 ) I ( y3 ; x1 ) log p( y3 / x1 ) p( y3 )

.

Условные и безусловные вероятности найдем, воспользовавшись таб-

30

p(x1 ) p(x1, y1 ) p(x1, y2 ) p(x1, y3 ) 14 161 18 167 ; p(x2 ) 18 163 14 169 ; p( y1 ) 14 81 83 ;

p( y2 ) 161 163 14 ; p( y3 ) 18 14 83 .

Используя формулы (1.4), найдем условные вероятности:

p( y / x )

p(x2 , y2 )

 

3 16

 

1

,

 

 

 

2

2

p(x2 )

9 16 3

 

 

p(x / y )

p(x1, y3 )

 

1 8

 

1

.

 

 

 

1

3

p( y3 )

3 8 3

 

 

Тогда количество взаимной информации по формуле (2.1.3)

I (x ; y ) log

 

p( y2 / x2 )

log

1 3

0, 415 áèò.

 

 

 

 

 

 

 

 

 

 

2 1 4

2

2

 

 

2

p( y )

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

I (x ; y ) log

 

p(x1 / y3 )

 

log

 

1 3

0,3923 áèò.

 

 

 

 

 

2 7 16

1

3

2

 

 

p(x )

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

Мы получили I (x1; y3 ) 0 , так как p(x1 / y3 ) p(x1 ) . ЗАДАЧИ

2.1.1.На шахматной доске произвольным образом расставлены фигуры. Априори все положения фигур на доске одинаково вероятны. Определить собственную информацию, получаемую от сообщения, что конкретная фигура находится в одной из угловых клеток доски.

2.1.2.Сколько информации содержится в сообщении о том, что сумма очков на двух подброшенных игральных костях есть четное число?

2.1.3.Сколько информации содержится в сообщении том, что сумма очков на двух подброшенных игральных костях равна

7?

2.1.4.Брошены одновременно две игральные кости. Определить количество информации, содержащееся в сообщении о том, что произведение чисел выпавших очков четно.