Все задания за 4 курс 7 семестр / Основы теории информации / Примеры решения задач по контрольной работе
.pdfПример: Система имеет два состояния и эти состояния равновероятны.
xi |
x1 |
x2 |
H(x) = - (0.5 log 0.5 + 0.5 log 0.5) = 1 бит/символ |
|
|||||||||||||
p1 |
0.5 |
0.5 |
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
Определить энтропию системы X, которая имеет n равновероятных состояний |
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
xi |
|
x1 |
|
x2 … |
xn |
|
1 |
|
1 |
|
|
||||||
pi |
|
|
1 |
|
|
|
1 |
… |
|
1 |
|
H (x) = −n |
log |
|
= - log 1 + log n = log n |
||
|
|
|
|
n |
n |
||||||||||||
|
|
|
n |
|
|
n |
|
n |
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
- это частный случай, когда все вероятности одинаковы.
Пример: Система X имеет восемь состояний. Определить энтропию. (состояния равновероятны)
n = 8 |
H (x) = log2 8 = 3 |
|
n |
η( p) = −p log2 p |
H (x) = ∑η( pi ) |
|
i=1 |
Пример: Определить H, состояние которой описывается таблицей.
Система имеющая пять состояний
xi |
x1 |
x2 |
x3 |
x4 |
x5 |
H (x) = 4η(0.01) +η(0.96) ≈ 0.322 бит/символ |
|
p1 |
0.01 |
0.01 |
0.01 |
0.01 |
0.96 |
||
|
Пример: Алфавит состоит из букв a, b, c, d. Даны вероятности pa = pb = 0,25; рс = 0,34; pd =
0.16
H(x) = - (2*0.25 log 0.25 + 0.34 log 0.34 + 0.16 log 0.16) = 1.952 бит/символ
Энтропия сложной системы
Пример: Имеются две системы, объединённые в одну, вероятности состояния которых заданы таблицей совместных вероятностей. Определить полную условную энтропию.
xi & yi |
x1 |
x2 |
x3 |
rj |
y1 |
0.1 |
0.2 |
0 |
0.3 |
y2 |
0 |
0.3 |
0 |
0.3 |
y3 |
0 |
0.2 |
0.2 |
0.4 |
pi |
0.1 |
0.7 |
0.2 |
|
Определим вероятности каждого события. Для этого складываем pij по столбцам.
∑pi =1
∑rj =1
Построить таблицу условных вероятностей p(y / x). |
pij |
в каждой строке |
||||
pi |
||||||
yi& xj |
x1 |
x2 |
x3 |
|
|
|
y1 |
1 |
0.2/0.7 |
0 |
|
|
|
y2 |
0 |
0.3/0.7 |
0 |
|
|
|
y3 |
0 |
0.2/0.7 |
1 |
|
|
|
H (Y / x) = 0.7[η(0.2 / 0.7) +η(0.3 / 0.7) +η(0.2 / 0.7)] =1.09 бит/символ
Составим таблицу условных вероятностей P(x / y). |
pij |
|||||
p j |
||||||
|
|
|
|
|
||
xi& yi |
x1 |
x2 |
x3 |
|
|
|
y1 |
0.1/0.3 |
0.2/0.3 |
0 |
|
|
|
y2 |
0 |
1 |
0 |
|
|
|
y3 |
0 |
0.2/0.4 |
0.2/0.4 |
|
|
H(x / y) = 0.3[η(0.1/0.3) + η(0.2/0.3)]+ 0.4[η(0.2/0.4 + η(0.2/0.4)] = 0.68 бит/символ
Н - характеризует потери сигналов при прохождении через канал связи
Теорема сложения энтропий
Пример: Передаются два элемента a, b. Определить количество переданной информации
вслучае, когда:
1)Элементы взаимозависимы и не равновероятны
p(a) = |
3 |
; |
p(b) = |
1 |
; |
p(a / a) = |
2 |
p(b / a) = |
1 |
|
4 |
4 |
3 |
3 |
|||||||
|
|
|
|
|
|
|||||
|
|
|
|
|
|
p(b / b) = 0 |
p(a / b) = 1 |
I = H – вероятность события а
I = H = - p(a)[ p(a / a) log p(a / a) + p(b / a) log p(b / a) ] – p(b)[ p(a / b) log p(a / b) + p(b / b) log p(b / b)] = 0.685 бит/символ .
2) не равновероятны и независимы: |
|
|
|
|
|
|
|||||||||
p(a) = |
3 |
; |
|
p(b) = |
1 |
|
|
|
|
|
|
|
|
|
|
4 |
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
||||||
4 |
|
|
|
|
3 |
|
3 |
|
1 |
|
1 |
|
|||
I = - p(a) log p(a) – p(b) log p(b) = - |
log |
- |
log |
= 0.815 бит/символ |
|||||||||||
4 |
4 |
||||||||||||||
|
|
|
|
|
4 |
|
4 |
|
|
|
|||||
3) элементы независимы и равновероятны: |
|
|
|
|
|||||||||||
p(a) = p(b) = |
1 |
; |
I = log2 = 1 |
|
|
|
|
|
|
||||||
2 |
|
|
|
|
|
|
Определение информационных потерь в каналах связи
Пример: Влияние помех в канале связи описывается канальной матрицей. Требуется вычислить потери при передачи сигналов, если вероятность появления сигналов следующая:
p(x1) = 0.7 |
p(x2) = 0.2 |
|
p(x3) = 0.1 |
|
0.98 |
0.01 |
0.01 |
||
|
0.15 |
0.75 |
0.1 |
|
p( y / x) = |
|
|||
|
0.3 |
0.2 |
0.5 |
|
|
|
H(y / x) = -[0.7 * (0.98 log 0.98 + 2*0.01 log 0.01) + 0.2 * (0.15 log 0.15 + 0.75 log 0.75 + 0.1 log 0.1) + 0.1 * (0.3 log 0.3 + 0.2 log 0.2 + 0.5 log 0.5)] = 0.463 бит/символ .
Энтропия и информация
Пример: На шахматной доске в одной из клеток поставлена фигура. Вероятность нахождения фигуры на любой клетке одинакова. Определить информацию, получаемую от сообщения о нахождении фигуры в какой-либо клетке.
Ix = log 64 = 6 бит
Пример 2: Определить частную информацию от сообщения о нахождении фигуры в одной из четырёх клеток.
P = |
4 |
= |
|
1 |
; - вероятность сообщения |
I xi |
= −log |
|
1 |
= 4 бит |
|
|
|
|||
64 |
16 |
16 |
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
||||||
Пример 3: Определить частную информацию, содержащаяся в сообщении случайного |
||||||||||||||||
лица о своём дне рожденье. |
|
|
|
|
|
|
|
|
|
|||||||
P = |
|
1 |
|
|
- вероятность полученного сообщения; |
I x |
|
= −log |
1 |
≈8.51 |
бит |
– |
||||
365 |
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
365 |
|
|
|
количество информации
Пример 4: Определить полную информацию от сообщения о дне рождения случайного
лица.
x1 |
– день рожденье |
|
|
p = |
1 |
|
|
|
|
||||
|
|
|
|
1 |
365 |
|
|
|
|
|
364 |
|
|
x2 |
– не день рожденье |
p2 |
= |
|
|
|
365 |
|
|
||||
|
|
|
|
|
|
I x = −3651 log 3651 − 364365 log 364365 ≈ 0.063 бит
Пример 5: По цели может быть произведено n выстрелов. Вероятность поражения цели при каждом выстреле p. После k-ого выстрела (1≤ к n) производятся разведка, сообщение поражена или не поражена цель. Определить к при условии, чтобы количество информации, доставляемая разведкой была максимальной.
xk – система (цель после к-ого выстрела) имеет два состояния: x1 – цель поражена;
x2 – промах
p1 = 1 – (1 - p)k p2 = (1 - p)k
Информация будет максимальна, когда p1 = p2, следовательно
|
k |
|
k |
|
1 |
|
1 |
– (1 - p) |
= (1 - p) |
|
, |
k = − |
|
|
log(1 − p) |
|||||
p |
= 0.2; |
к = 3 |
|
|
|
Взаимная информация
Пример: Найти полную взаимную информацию, содержащуюся в системах X и Y. Если задача на матрицы совместных вероятностей.
|
|
|
|
|
Сумма равна единице |
|
|
|||
xi & yi |
x1 |
x2 |
x3 |
rj |
Этих сведений достаточно, чтобы определить взаим- |
|||||
y1 |
0.1 |
0.2 |
0 |
0.3 |
ную информацию, создавшуюся в системе |
|||||
y2 |
0 |
0.3 |
0 |
0.3 |
n |
m |
pi, j |
|||
|
|
|
|
|
||||||
y3 |
0 |
0.2 |
0.2 |
0.4 |
I y→x = ∑∑pi, j log |
|
|
|
||
|
pi rj |
|||||||||
pi |
0.1 |
0.7 |
0.2 |
|
||||||
|
i=1 |
j=1 |
I y→x |
= 0.1 log |
|
0.1 |
+ 0.2 log |
0.2 |
+ 0.3 log |
0.3 |
+ 0.2 log |
0.2 |
+ |
|||
0.1 0.3 |
0.7 0.3 |
0.7 0.3 |
0.7 0.4 |
||||||||||
|
|
|
|
|
|
|
|||||||
+ 0.2 |
log |
0.2 |
|
= 0.488 бит |
|
|
|
|
|
|
|||
0.2 0.4 |
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
Частная информация о системе
Пример: Система X и Y характеризуется таблицей вероятностей.
xi & yi |
x1 |
x2 |
rj |
Определить частную информацию о системе х, |
||
y1 |
0.1 |
0.2 |
0.3 |
|||
содержащуюся в сообщении y1. |
||||||
y2 |
0.3 |
0.4 |
0.7 |
|||
I y →x |
= ? |
|||||
pi |
0.4 |
0.6 |
|
|||
|
1 |
|
||||
|
|
|
|
|
Iy →x = |
0.1 log |
0.1 |
+ |
0.2 log |
0.2 |
= 0.013 бит |
|
0.3 0.4 |
0.3 0.6 |
||||||
1 |
0.3 |
|
0.3 |
|
|||
|
|
|
|
|
|
Условная энтропия непрерывной системы
Пример: Найти энтропию непрерывной системы X, все состояния которой на участке от α до β равновероятны.
|
1 |
,α ≤ x ≤ β |
|
|
|
||
β −α |
|||
f (x) = |
|
||
|
0, x α, x β |
||
|
β |
1 |
|
1 |
|
|
β −α |
|
H* = −∫ |
log |
dx = log(β −α) H (x) = log(β −α) −log |
x = log |
||||
β −α |
β −α |
x |
|||||
α |
|
|
|
Пример: Для нормального закона распределения.
|
1 |
|
− |
x2 |
|
|
|
|
|
||
|
2δ 2 |
||||
f (x) = |
|
|
|
||
2π δ |
exp |
|
|
|
|
|
|
|
|
|
H(x) = −+∞∫ f (x) log{ f (x) x}dx log{ f (x) |
x} = |
1 |
(−ln 2π |
δ |
− |
x22 ) |
−∞ |
|
ln 2 |
|
x |
|
2δ |
Подставляем f(x) и log в интеграл, получим после вычисления |
|
|
|
|||
H (x) = log{ 2π e δ } |
|
|
|
|
|
|
x |
|
|
|
|
|
|