Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Все задания за 4 курс 7 семестр / Основы теории информации / Примеры решения задач по контрольной работе

.pdf
Скачиваний:
113
Добавлен:
10.04.2015
Размер:
511.41 Кб
Скачать

Пример: Система имеет два состояния и эти состояния равновероятны.

xi

x1

x2

H(x) = - (0.5 log 0.5 + 0.5 log 0.5) = 1 бит/символ

 

p1

0.5

0.5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Определить энтропию системы X, которая имеет n равновероятных состояний

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xi

 

x1

 

x2 …

xn

 

1

 

1

 

 

pi

 

 

1

 

 

 

1

 

1

 

H (x) = −n

log

 

= - log 1 + log n = log n

 

 

 

 

n

n

 

 

 

n

 

 

n

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

- это частный случай, когда все вероятности одинаковы.

Пример: Система X имеет восемь состояний. Определить энтропию. (состояния равновероятны)

n = 8

H (x) = log2 8 = 3

 

n

η( p) = −p log2 p

H (x) = η( pi )

 

i=1

Пример: Определить H, состояние которой описывается таблицей.

Система имеющая пять состояний

xi

x1

x2

x3

x4

x5

H (x) = 4η(0.01) +η(0.96) 0.322 бит/символ

p1

0.01

0.01

0.01

0.01

0.96

 

Пример: Алфавит состоит из букв a, b, c, d. Даны вероятности pa = pb = 0,25; рс = 0,34; pd =

0.16

H(x) = - (2*0.25 log 0.25 + 0.34 log 0.34 + 0.16 log 0.16) = 1.952 бит/символ

Энтропия сложной системы

Пример: Имеются две системы, объединённые в одну, вероятности состояния которых заданы таблицей совместных вероятностей. Определить полную условную энтропию.

xi & yi

x1

x2

x3

rj

y1

0.1

0.2

0

0.3

y2

0

0.3

0

0.3

y3

0

0.2

0.2

0.4

pi

0.1

0.7

0.2

 

Определим вероятности каждого события. Для этого складываем pij по столбцам.

pi =1

rj =1

Построить таблицу условных вероятностей p(y / x).

pij

в каждой строке

pi

yi& xj

x1

x2

x3

 

 

 

y1

1

0.2/0.7

0

 

 

 

y2

0

0.3/0.7

0

 

 

 

y3

0

0.2/0.7

1

 

 

 

H (Y / x) = 0.7[η(0.2 / 0.7) +η(0.3 / 0.7) +η(0.2 / 0.7)] =1.09 бит/символ

Составим таблицу условных вероятностей P(x / y).

pij

p j

 

 

 

 

 

xi& yi

x1

x2

x3

 

 

y1

0.1/0.3

0.2/0.3

0

 

 

y2

0

1

0

 

 

y3

0

0.2/0.4

0.2/0.4

 

 

H(x / y) = 0.3[η(0.1/0.3) + η(0.2/0.3)]+ 0.4[η(0.2/0.4 + η(0.2/0.4)] = 0.68 бит/символ

Н - характеризует потери сигналов при прохождении через канал связи

Теорема сложения энтропий

Пример: Передаются два элемента a, b. Определить количество переданной информации

вслучае, когда:

1)Элементы взаимозависимы и не равновероятны

p(a) =

3

;

p(b) =

1

;

p(a / a) =

2

p(b / a) =

1

4

4

3

3

 

 

 

 

 

 

 

 

 

 

 

 

p(b / b) = 0

p(a / b) = 1

I = H – вероятность события а

I = H = - p(a)[ p(a / a) log p(a / a) + p(b / a) log p(b / a) ] – p(b)[ p(a / b) log p(a / b) + p(b / b) log p(b / b)] = 0.685 бит/символ .

2) не равновероятны и независимы:

 

 

 

 

 

 

p(a) =

3

;

 

p(b) =

1

 

 

 

 

 

 

 

 

 

4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

 

 

 

 

3

 

3

 

1

 

1

 

I = - p(a) log p(a) – p(b) log p(b) = -

log

-

log

= 0.815 бит/символ

4

4

 

 

 

 

 

4

 

4

 

 

 

3) элементы независимы и равновероятны:

 

 

 

 

p(a) = p(b) =

1

;

I = log2 = 1

 

 

 

 

 

 

2

 

 

 

 

 

 

Определение информационных потерь в каналах связи

Пример: Влияние помех в канале связи описывается канальной матрицей. Требуется вычислить потери при передачи сигналов, если вероятность появления сигналов следующая:

p(x1) = 0.7

p(x2) = 0.2

 

p(x3) = 0.1

0.98

0.01

0.01

 

0.15

0.75

0.1

 

p( y / x) =

 

 

0.3

0.2

0.5

 

 

 

H(y / x) = -[0.7 * (0.98 log 0.98 + 2*0.01 log 0.01) + 0.2 * (0.15 log 0.15 + 0.75 log 0.75 + 0.1 log 0.1) + 0.1 * (0.3 log 0.3 + 0.2 log 0.2 + 0.5 log 0.5)] = 0.463 бит/символ .

Энтропия и информация

Пример: На шахматной доске в одной из клеток поставлена фигура. Вероятность нахождения фигуры на любой клетке одинакова. Определить информацию, получаемую от сообщения о нахождении фигуры в какой-либо клетке.

Ix = log 64 = 6 бит

Пример 2: Определить частную информацию от сообщения о нахождении фигуры в одной из четырёх клеток.

P =

4

=

 

1

; - вероятность сообщения

I xi

= −log

 

1

= 4 бит

 

 

 

64

16

16

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 3: Определить частную информацию, содержащаяся в сообщении случайного

лица о своём дне рожденье.

 

 

 

 

 

 

 

 

 

P =

 

1

 

 

- вероятность полученного сообщения;

I x

 

= −log

1

8.51

бит

365

 

 

 

 

 

 

 

 

 

 

 

365

 

 

 

количество информации

Пример 4: Определить полную информацию от сообщения о дне рождения случайного

лица.

x1

– день рожденье

 

 

p =

1

 

 

 

 

 

 

 

1

365

 

 

 

 

364

 

x2

не день рожденье

p2

=

 

 

365

 

 

 

 

 

 

 

 

I x = −3651 log 3651 364365 log 364365 0.063 бит

Пример 5: По цели может быть произведено n выстрелов. Вероятность поражения цели при каждом выстреле p. После k-ого выстрела (1≤ к n) производятся разведка, сообщение поражена или не поражена цель. Определить к при условии, чтобы количество информации, доставляемая разведкой была максимальной.

xk – система (цель после к-ого выстрела) имеет два состояния: x1 – цель поражена;

x2 – промах

p1 = 1 – (1 - p)k p2 = (1 - p)k

Информация будет максимальна, когда p1 = p2, следовательно

 

k

 

k

 

1

1

– (1 - p)

= (1 - p)

 

,

k =

 

 

log(1 p)

p

= 0.2;

к = 3

 

 

 

Взаимная информация

Пример: Найти полную взаимную информацию, содержащуюся в системах X и Y. Если задача на матрицы совместных вероятностей.

 

 

 

 

 

Сумма равна единице

 

 

xi & yi

x1

x2

x3

rj

Этих сведений достаточно, чтобы определить взаим-

y1

0.1

0.2

0

0.3

ную информацию, создавшуюся в системе

y2

0

0.3

0

0.3

n

m

pi, j

 

 

 

 

 

y3

0

0.2

0.2

0.4

I yx = ∑∑pi, j log

 

 

 

 

pi rj

pi

0.1

0.7

0.2

 

 

i=1

j=1

I yx

= 0.1 log

 

0.1

+ 0.2 log

0.2

+ 0.3 log

0.3

+ 0.2 log

0.2

+

0.1 0.3

0.7 0.3

0.7 0.3

0.7 0.4

 

 

 

 

 

 

 

+ 0.2

log

0.2

 

= 0.488 бит

 

 

 

 

 

 

0.2 0.4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Частная информация о системе

Пример: Система X и Y характеризуется таблицей вероятностей.

xi & yi

x1

x2

rj

Определить частную информацию о системе х,

y1

0.1

0.2

0.3

содержащуюся в сообщении y1.

y2

0.3

0.4

0.7

I y x

= ?

pi

0.4

0.6

 

 

1

 

 

 

 

 

 

Iy x =

0.1 log

0.1

+

0.2 log

0.2

= 0.013 бит

0.3 0.4

0.3 0.6

1

0.3

 

0.3

 

 

 

 

 

 

 

Условная энтропия непрерывной системы

Пример: Найти энтропию непрерывной системы X, все состояния которой на участке от α до β равновероятны.

 

1

,α x β

 

 

β α

f (x) =

 

 

0, x α, x β

 

β

1

 

1

 

 

β α

H* =

log

dx = log(β α) H (x) = log(β α) log

x = log

β α

β α

x

α

 

 

 

Пример: Для нормального закона распределения.

 

1

 

x2

 

 

 

 

 

 

2δ 2

f (x) =

 

 

 

2π δ

exp

 

 

 

 

 

 

 

 

H(x) = +∞f (x) log{ f (x) x}dx log{ f (x)

x} =

1

(ln 2π

δ

x22 )

−∞

 

ln 2

 

x

 

2δ

Подставляем f(x) и log в интеграл, получим после вычисления

 

 

 

H (x) = log{ 2π e δ }

 

 

 

 

 

 

x