
- •7. Інформаційні характеристики каналів…………….36
- •1. Предмет і задачі теорії інформації
- •1.1. Основні поняття і визначення
- •1.2. Кількісна оцінка інформації
- •2. Безумовна та умовна ентропії
- •2.1 Безумовна ентропія і її властивості
- •2.2 Умовна ентропія
- •2.3 Ентропія об’єднання
- •Умовні ймовірності вигляду p(ai/bj) I p(bj/ai) обчислюються як
- •3. Диференціальна ентропія
- •3.1. Диференціальна ентропія
- •3.2. Епсилон-ентропія
- •4. Канали передачі інформації
- •4.1. Види каналів передачі інформації
- •4.2. Обчислення інформаційних втрат при передачі повідомлень по дискретним каналам зв’язку з шумами
- •5. Джерела повідомлень
- •5.1. Моделі сигналів
- •Спектр амплітуд є парною функцією k
- •5.2. Перетворення сигналів
- •5.3. Інформаційні характеристики джерела
- •Тоді повна ентропія джерела повідомлень
- •5.4. Інформаційні характеристики джерела
- •Модульна контрольна робота 1
- •6. Коди і кодування
- •6.1. Визначення кодів
- •6.2. Надмірність інформації
- •6.3. Оптимальне кодування
- •Для двоїчних кодів
- •Очевидно, що ця рівність вірна при умові, що довжина коду у вторинному алфавіті
- •У випадку нерівноймовірних і взаємозалежних символів
- •7. Інформаційні характеристики каналів зв’язку
- •7.1. Інформаційні характеристики дискретних каналів зв’язку
- •У випадку нерівноймовірних і взаємозалежних символів різної тривалості
- •7.2. Інформаційні характеристики неперервних каналів зв’язку
- •7.3. Узгодження фізичних характеристик сигналу і каналу
- •8. Ефективність і надійність систем передачі інформації.
- •8.1. Завадостійкість систем передачі інформації
- •8.2. Надійність систем передачі інформації
- •Для практичних розрахунків можна користуватись виразом
- •8.3. Цінність інформації
- •8.4. Інформаційна оцінка автоматизованих систем управління
- •В усталеному режимі буде додержуватись умова
- •Модульна контрольна робота 2
- •6.9.Як визначається ефективність онк?
- •Додатковий
Для практичних розрахунків можна користуватись виразом
nk2 = [log2{(n2+n+1)/2}]. (8.10)
Для кодів, що виправляють три помилки (d0 = 7)
nk3 = [log2{(n3+n2+n+1)/6}]. (8.11)
Для кодів, що виправляють S помилок (d0 = 2S+1),
log2(CnS+CnS-!+…+1) nkS log2(Cn-12S-1+Cn-12S-2+…+1). (8.12)
Вираз зліва відомий як нижня границя Хемінга, а вираз справа – як верхня границя Варшамова-Гільберта. Для наближених розрахунків можна користуватися виразом
nkS = [log2{(nS+nS-1+…+1)/S!}]. (8.13)
Значення пк буде наближатися до верхньої або нижньої границі в залежності від того, наскільки вираз під знаком логарифму наближається до цілого степеня двох.
До загальних засобів і методів підвищення надійності передачі інформації відносяться системи з рішаючим зворотним зв’язком (РЗЗ), які знайшли широке застосування в практиці передачі дискретної інформації. Cистемами передачі дискретної інформації з рішаючим зворотним зв’язком називають такі, в яких передавач з’єднаний з приймачем прямим і зворотним каналами зв’язку і при передачі інформації, яка кодована надмірним кодом, використовуються відомості (одержані із каналу зворотного зв’язку) про якість прийому раніше переданої інформації. При побудові систем з РЗЗ використовуются коди з виправленням або виявленням помилок. Дуплексний дискретний канал зв’язку забезпечує можливість передачі інформації в обох напрямках. Причому по каналу передачі передається інформація і сигнали зворотного зв’язку про результати прийому інформації по каналу зустрічного напрямку і навпаки. Одиницею інформаційного обміну в таких системах є кодовий блок, який має довжину п двоїчних символів, з яких пк символів утворюють перевірочну область, l - службову область і n–l-nk=ni інформаційну область. Інформаційна послідовність, яка передається, заповнює пі розрядів інформаційної області. В службову область записують сигнали зворотного зв’язку про якість прийому відповідного блоку протилежного напрямку передачі, а також інша службова інформація, вид якої залежить від алгоритму обміну. Одержаний кодовий блок передається по дискретному каналу зв’язку, одночасно він запам’ятовується в накопичувачі передавальної сторони і зберігається до одержання по зворотному каналу сигналу про правильний прийом цього блоку. Прийнятий кодовий блок декодується; при цьому можлива фіксація правильного прийому блока, виявлення помилки і невиявлення помилки. Після виявлення помилки в службову область блоку, який передається в оберненому напрямку, вноситься сигнал про повторення блоку, прийнятого з виявленою помилкою. При фіксації правильного прийому інформація з інформаційної області поступає на вихід системи. Для кожного каналу існує оптимальна довжина блоку, яка максимізує швидкість передачі при вибраній надмірності коду.
8.3. Цінність інформації
Єдиного критерію цінності інформації немає і бути не може тому, що неможливо знайти єдину одиницю вимірювання цінності інформації, яка вдовольняла б всі варіанти визначення цінності даних. Можуть бути часткові критерії цінності інформації, які визначаються конкретними задачами.
Метод Харкевича передбачає цінність інформації для систем з ясно визначеною метою виражати через приріст імовірності її досягнення. Якщо кількість можливих рівноймовірних наслідків апріорно складає N0, а після одержання інформації скоротилось до N1, то кількість одержаної інформації
I = log2N0 – log2N1 = log2N0/N1. (8.14)
У випадку ясно визначеної мети цінність інформації може буде виражена через імовірність досягнення мети. Якщо до одержання повідомлення ця імовірність була р0, а після одержання – р1, то цінність
I = log2p1 – log2p0 = log2(p1/p0). (8.15)
Вважається, що p0 = 1/N0; p1 = 1/N1.
Метод Бонгарда відноситься до такої ситуації. Якщо задача аі з імовірністю pi має відповідь bi, а для її досягнення слід провести деяку кількість експериментів і qi – імовірність вдалого їх здійснення, то середня кількість дослідів дорівнює 1/qi, а невизначеність задачі
log1/q i= -logqi (8.16)
Якщо імовірність такої ситуації дорівнює pi, то для множини задач A = {ai} (i=1,2…n) невизначеність
п
H(A) = -pilogqi. (8.17)
і=1
Корисність інформації визначається зменшенням невизначеності задачі. При цьому значення qi наближається до значення pi. Зміна невизначеності задачі з приходом сигналу виражається як процес запасання корисної інформації у вигляді розподілення імовірностей q. За нульовий рівень приймають запас корисної інформації при qi=1/n (i=1,2,…n) і від нього відліковують корисну інформацію. Кількість корисної інформації
Ік = Н0(А) – Н1(А), (8.18)
де Н0 і Н1 – невизначеність до і після приходу повідомлення. Запас корисної інформації, яка міститься в гіпотезі q відносно задачі з розподіленням імовірностей відповіді р, може бути визначений як
Ik = logn – H(p/q), (8.19)
де H(p/q) – умовна ентропія події p відносно події q.
Статистичний метод оцінки змістовності тексту передбачає використання показника кількості інформації на одне висловлювання . Якщо І(v) – кількість інформації в тексті, а v – кількість висловлювань у тому ж тексті, то
= I(v)/v. (8.20)
Більш детальна характеристика змістовності буде при підрахунку кількості символів на висловлювання. Визначення значення v для техніко-економічних текстів не дуже складне через кількісні значення в тексті.
Вентцель пропонує розглядати цінність інформації відносно тезауруса приймача інформації, тобто порівнювати одержану інформацію з відомостями, які були вже у приймача інформації. Якщо повідомлення не збагачує тезаурус приймача, то його інформація розглядається як шум. Кількість інформації визначається як різниця ентропії джерела повідомлень і ентропії шумів, помноженої на кількість символів у повідомленні. При такому підході до оцінки інформації значення її кількості знаходиться у прямій залежності від змісту і смислу повідомлень.
Махлауп пропонує розглядати інформацію як продукт людської праці з оцінкою її вартості як економічної цінності. Існують й інші нестатистичні методи визначення інформації: за актуальністю і своєчасністю даних, за достовірністю і повноті інформації. В теорії статистичних рішень використовуються поняття середніх втрат або риску, які характеризують якість рішень.