Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТОЦК.doc
Скачиваний:
33
Добавлен:
12.02.2016
Размер:
783.87 Кб
Скачать

Особливості обчислень к-ті інформації при передачі повідомлень через дискретні канали зв’язку

Практично не існує дискретних каналів зв’язку без завад або апаратурних помилок чи відмов, тому задача визначення к-ті ін-ї або інформаційних втрат при передачі повідомлень через канали зв’язку із завадами є однією з центральних задач теорії інформації(ТІ).

Для визначення кількісних показників при передачі повідомлень у таких каналах доцільно використовувати умовну ентропію.

A -> {a1, a2, … am з ймовірностями р(a1), р(a2), … р(am)} -> H(B/ai);

а елементи приймача повідомлень В:

B -> {b1, b2, … bm з ймовірностями р(b1), р(b2), … р(bm)} -> H(A/bi);

Часткова умовна ентропія Н(b/a­­i) виражає невизначеність того, що відправивши аі-тий символ ми дійсно отримуємо рі-й символ. А умовна ентропія Н(А/bi) виражає невпевненість яка залишається після отримання bi в тому, що дійсно було відправлене аі.

Отже, якщо посилається a­­i і в каналі зв’язку є завади, то з різною мірою ймовірності може бути прийнятий сигнал bj (при j = від 1 до m і навпаки) прийнявши символ bj, можна з різною ймовірністю вважати, що б-я із символів аі(при і = від 1 до m).

Якщо вважати канал зв’язку ідеальним, то завжди а1 = b1 і т.д. При ідеальному каналі зв’язку ентропія дж. повідомлення: Н(А) = Н(В) = ентропії приймача.

Отже канал зв’язку із завадами знищує або спотворює частину ін-ї що передається. Всі інформаційні втрати повністю описуються через часткову та загальну умовну ентропію. Обчислення цих ентропій зручно проводити за допомогою канальних матриць.

Канальна матриця означає, що вона статично описує ймовірнісні характеристики каналу зв’язку.

Канал зв’язку може описуватися зі сторони джерела повідомлень, тобто відомі символи, що передаються та ймовірність того, що передача символу аі через канал зв’язку з завадами отримає символ bj(позначається через відповідну умовну ймовірність р(bjі)). Тоді канальна матриця буде мати вигляд таблиці 1.

b1

bj

bm

a1

p(b1/a1)

p(bj/a1)

p(bm/a1)

ai

p(b1/ai)

p(bj/ai)

….

p(bm/ai)

am

p(b1/am)

p(bj/am)

p(bm/am)

Ймовірності по діагоналі визначають ймовірності правильного приймання символів. Всі інші ймовірності показують хибне приймання символів. Проходження певного символу через канал зв’язку такого типу описується розподілом ймовірності(1). Сумування проводиться по j, оскільки і-тий стан є постійний, так як символи, які передаються, нам відомі. На основі цієї матриці можна вирахувати втрати інформації, які припадають на аі-й символ за допомогою часткової умовної ентропії.

j p(bj/ai) = 1; (1)

Умовна часткова ентропія для а1 записана через вираз (2).

H(B/a1) = ∑j p(bj/a1)log p(bj/ai); (2)

Аналогічно вираховується часткова умовна ентропія для усіх інших символів від а2 до аm.

Втрати інформації при усіх символах повідомлення також можна описати за допомогою загальної умовної ентропії. У випадку нерівноймовірнісної появи символів на виході джерела повідомлень враховується ймовірність появи аі. Вона перемножується на відповідну умовну часткову ентропію, тому загальна умовна ентропія обчислюється виразом (3).

H(B/A) = -∑ij p(ai) p(bj/ai) log2(p(bj/ai)); (3)

У випадку рівноймовірної появи символів загальна умовна ентропія обчислюється виразом (4).

H(B/A) = -(1/m)∑ij p(bj/ai) log2(p(bj/ai)); (4)

Якщо дослідити канал зв’язку збоку приймача повідомлень, коли відомі прийняті символи bj і припускаємо, що при цьому міг бути відправлений довільний із символів аі , то канальна матриця буде мати вигляд таблиці 2.

b1

bj

bm

a1

p(a1/b1)

p(a1/bj)

p(a1/bm)

ai

p(ai/b1)

p(ai/bj)

….

p(ai/bm)

am

p(am/b1)

p(am/bj)

p(am/bm)

По таблиці 2 сума умовних ймовірностей кожного стовпця дорівнює 1, і описується виразом (5).

j p(ai/bj) = 1; (5)

Часткова умовна ентропія для b1 символу записується через вираз (6).

H(B/b1) = ∑j p(ai/b1)log p(ai/b1); (6)

Загальна умовна ентропія обчислюється виразом (7).

H(B/A) = -∑ji p(bj) p(ai/bj) log2(p(ai/bj)); (7)

Розглянемо характеристики повідомлень, використовуючи ентропію об’єднання. Взаємозв’язок переданих аі та прийнятих bj символів описується ймовірностями сумісних подій р(аі, bj), а відповідно канальна матриця для визначення ентропії об’єднання може бути подана табл. 3.

b1

bj

bm

a1

p(a1,b1)

p(a1,bj)

p(a1,bm)

ai

p(ai/b1)

p(ai/bj)

….

p(ai,bm)

am

p(am/b1)

p(am/bj)

p(am/bm)

Ця матриця має властивості, які описані співвідношеннями (8,9,10).

i p(ai, bj) = p(bj); (8)

j p(ai, bj) = p(ai); (9)

i p(ai) = ∑j p(bj) = 1; (10)

Ентропія для джерела повідомлень Н(А) і для приймача В записана в (11, 12) відповідно.

H(A) = -∑ij p(ai, bj) log ∑jp(ai,bj)); (11)

H(B) = -∑ji p(ai, bj) log i p(ai, bj)); (12)

Умовні ймовірності р(аі/bj) та р(bі, aj) можуть обчислюватися за допомогою матриці об’єднання використовуючи співвідношення (13,14).

p(ai/bj) = (p(ai, bj))/(∑i p(ai, bj)) = p(ai, bj)/p(bj); (13)

p(bi/ai) = (p(ai, bj))/(∑j p(ai, bj)) = p(ai, bj)/p(ai); (14)

Кількість інформації є характеристикою як джерела повідомлень А так і приймача В. Вона є мірою відповідно прийнятих сигналів до тих, що передавалися і навпаки.

Отже цю властивість можна записати через (16). Якщо втрата інформації в каналі зв’язку описана за допомогою ентропії об’єднання, то кількість інформації І(А,В), яка міститься у повідомленні що передається через канал зв’язку може бути описана виразом (17).

І(А, В) = І(В, А); (16)

I(A, B) = H(A) + H(B) – H(A, B); (17)

I(A, B) = H(A) – H(A/B) = H(B) – H(B/A); (18)

Так як раніше було встановлено, що ентропія об’єднання може бути записана через умовну ентропію.

Вираз (17) можна модифікувати через (17а).

H(A, B) = H(A) + H(B/A) = H(B) + H(A/B); (17a)

Для оцінки кількості інформації необхідно мати безумовні ймовірності р(аі) і відповідну канальну матрицю, або р(bj) і відповідну канальну матрицю, або матрицю об’єднань.

Приклад:

Канал зв’язку із завадами описано матрицею Р(А,В), потрібно визначити кількість інформації на повідомлення.

0,1 0,1 0

Р(А,В) = 0 0,2 0,1 І(В,А) - ?

0 0,2 0,3

р(аi) = ; p(bj) =

на першому етапі знаходимо безумовні ймовірності появи символів типу p(ai), p(bj)

p(a1) = 0,2; p(a2) = 0,3; p(a3) = 0,5

p(b1) = 0,1; p(b2) = 0,5; p(b3) = 0,4

H(A) = - = -0,2*0,2 + 0,3* 0,3 + 0,5*0,5 = 1,486 біт/символ

H(B) = - -0,1*0,5*0,5 + 0,4*0,4 = 1,360 біт/символ

H(A,B)==3*0,1*0,1+2*0,2*0,2+0,3*0,3=2,446 біт/2сим.

I(B,A) = H(A) + H(B) – H(A,B) = 1,486 + 1,360 – 2,446 = 0,4 біт