Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

шпори / теорія / Білет 10 (5,16,27)

.pdf
Скачиваний:
10
Добавлен:
12.05.2015
Размер:
404.38 Кб
Скачать

1. Охарактеризувати логіку структурного підходу до вимірювання кількості інформації.

Структурний підхід - розглядає дискретну побудову масивів інформації та їх вимірювання простим підрахунком інформаційних елементів або комбінаторним методом, що передбачає просте кодування масивів.

Структурний напрямок розглядає дискретне повідомлення як слово, яке складається з n елементів з алфавіту, який складається у свою чергу з m елементів. Р. Хартлі запропонував у якості міри інформації використовувати логарифм числа можливих послідовностей символів:

I log L log mn n log m

де L – число повідомлень, яке можна отримати, комбінуючи m символів алфавіту за n елементами у повідомленні.

Структурний підхід використовується для оцінки можливостей технічних засобів різних систем переробки інформації незалежно від конкретних умов їх застосування.

Якщо маємо k джерел повідомлень, то кількість можливих повідомлень від

усіх

джерел L L1 L2 ... Lk .

Щоб зберігалася властивість адитивності,

використовують

логарифмічну

міру Хартлі

I log L log mn n log m .

Якщо

маємо

декілька

джерел, то

кількість

інформації від усіх

джерел

I I1

I2 ... Ik .

 

 

 

16. Поняття «умовна ентропія». Пояснити сутність поняття. Навести приклади.

Взаємно статистичний зв'язок між повідомленнями Х і Y характеризується

умовною ймовірністю

, що визначає ймовірність появи елементів

за

умови, що стало відомо елемент повідомлення .

 

Інформативність повідомлення Y після того, як став відомим елемент

,

характеризується частковою

умовною ентропією, яка визначається виразом

( ⁄ ) ∑

.

 

Проведемо усереднення по всім можливим елементам та знайдемо повну умовну ентропію повідомлення Y відносно повідомлення X:

( ⁄ ) ∑ ∑

Використовуючи відомі співвідношення для ймовірності загальної появи

двох подій (

)

, отримаємо:

 

( ⁄ )

∑ ∑

Зміст умовної ентропії ( ⁄ ) заключається в тому, що вона являється

мірою кількості інформації в повідомленні Y, коли відомо, що передаються повідомлення X.

Умовна ентропія повідомлення Y відносно повідомлення X при жорсткій статистичній залежності рівна 0, тобто в повідомленнях Y немає ніякої нової інформації.

27. Вплив спектрального розподілу завад на швидкість передавання інформації. Виведення основного співвідношення, трактування результату.

Вплив розподілення шумів по спектру на швидкість передачі інформації:

∫ ∫

S(f) – спектральна щільність потужності сигналу

N(f)- спектральна щільність потужності шуму

Якщо значення сигналу і шуму розподілені за нормальним законом, то швидкість:

Вид функції S(f) за якої швидкість передачі максимальна:

∫ { [

 

]

}

 

В результаті швидкість передачі інформації визначається за формулою:

Графік представлений на рисунку:

Соседние файлы в папке теорія