Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
laba3_2007_.docx
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
58.1 Кб
Скачать
    1. Приклади розв’язування задач

  1. Задача. В алфавіті три букви А,В,С.

а. Скласти максимальну кількість повідомлень, комбінуючи по три

букви в повідомлені.

б. Яку кількість інформації несе одне таке повідомлення?

в. Чому рівна кількість інформації на символ первинного алфавіту?

Розв ’язок.

а. т2 = 3 ; п = 3; N = т" = З3 = 27

AAA BAA CAA

AAB BAB CAB

ЕЛЕМЕНТИ ТЕОРІЇ ІНФОРМАЦІЇ В ЛІНГВІСТИЦІ 1

МЕТОДИЧНІ ВКАЗІВКИ 1

(1) 5

p(br')l.p(hibr'}og,p{hibr') 57

я„ = Ія, = я;+я:+ ,+я; 134

З КОНТРОЛЬНІ ПИТАННЯ 137

4 Завдання 140

6 Література 25

НАВЧАЛЬНЕ ВИДАННЯ ЕЛЕМЕНТИ ТЕОРІЇ ІНФОРМАЦІЇ В ЛІНГВІСТИЦІ 26

МЕТОДИЧНІ ВКАЗІВКИ 26

б. / = log2 N = log2 27 = 4,75489 біт;

в. H = log2 ml = log2 N = log2 m".

  1. Задача. Скількома способами можна передати положення фігур на шаховій дошці? Чому дорівнює кількість інформації в кожному випадку?

Розв ’язок. Можна пронумерувати всі клітинки шахової дошки та

передати номер клітинки. Для цього необхідні 64 якісні ознаки т = 64, але для

передачі номера клітинки достатньо буде одного повідомлення. При цьому кількість інформації

I = п log2 т = 1 log2 64 = 6 біт.

Вказати на дошці необхідну клітинку можна, передавши її координати по горизонталі та вертикалі. Для цього достатньо восьми якісних ознак (вісім номерів по горизонталі та вісім по вертикалі), але передавати потрібно два повідомлення. При цьому кількість інформації

1 = 2 log2 8 = 2-3 = 6 біт.

Якщо номер по горизонталі та вертикалі передавати війковим кодом, необхідні дві якісних ознаки, які комбінуються по три елементи в повідомленні. При цьому кількість інформації

1 = 2-log2 23 = 2• 3• log22 = 6 біт.

  1. Задача. Чому рівна кількість інформації при отриманні 8 повідомлень рівномірного чотиризначного трійкового коду?

Розв ’язок. Кількість якісних ознак т = 3 . В коді вони комбінуються по 4, тобто п = 4. Кількість повідомлень такого коду N = тп = З4. Ентропія на одне повідомлення Н = log2 N = 4 • log2 3. Кількість інформації в 8 повідомленнях

/ = 8 • 4 • log2 3 = 50,72 біт.

Зауваження. Можна рахувати кількість інформації, визначивши ентропію на букву, блок, сторінку і т. д. Кількість інформації у визначеному об’ємі визначається множенням отриманого значення ентропії відповідно на кількість букв, блоків, сторінок і т. д.

  1. Задача. На ПК постійна інформація зберігається в 32768 стандартних комірках пам’яті. Скількома способами можна передати відомості про те, із якої комірки можна отримати данні постійної інформації? Чому рівна кількість інформації в кожному випадку? Яка геометрична побудова сховища дозволить передавати цю інформацію мінімальною кількістю якісних ознак?

Розв ’язок. Пронумерувати всі комірки та передавати номер, в цьому випадку

/ = n-\og2 т = 1-log232768 = 15 біт.

Розташувати комірки квадратом та передавати номер комірки по вертикалі та горизонталі. Кількість повідомлень при цьому рівна двом:

I = п-log2т = 2• log2-\/32768 = log232768 = 15 біт.

Розкласти комірки в формі куба та передавати три координати. Кількість комірок при цьому рівна трьом:

I = п-log2т = 3• log2л/32768 = log232768 = 15 біт.

Куб - це форма, що забезпечує найменше т. Розмістити, наприклад, постійну інформацію в 64 шафи, всередині кожної шафи розташувати комірки у формі кубу. При цьому прийдеться передавати окремо номер шафи та номер комірки в шафі. Загальна кількість інформації

/ = /1+/2.

Кількість якісних ознак для передачі номера комірки та номера шафи трьома повідомленнями рівна:

/j = log2 iVj = log2 64 = 6 біт,

/2 = log2 N2 = log2 512 = 9 біт,

I = Ix +12 = 6 біт + 9 біт = 15 біт.

Зауваження. З точки зору зменшення кількості якісних ознак кількість шаф, на які доцільно розбити сховище, повинна бути такою, щоби т2х. В нашому прикладі для четвертого випадку тх = >/512 = 8; т2 = л/б4 = 4.

6. Задача. Визначити об’єм та кількість інформації в тексті “Ще не

вмерла Україна!...” при Ісер = 7 .

Розв ’язок. Кількість прийнятих символів, враховуючи пробіл, k = 24.

Об’єм інформації Q = klcp = 24• 7 = 168 біт.

Кількість інформації:

а. для рівноймовірного алфавіту

Н] = log2 т = log2 33 — 5 біт /символ,

Іх = кНх = 24 • 5 = 120 біт,

б. для нерівноймовірного алфавіту (в цьому та подібних випадках ентропія первинного алфавіту не вираховується кожний раз, а використовується ентропія українського алфавіту)

33

Н2 = -£ Pi l°g2 Рі = ~(Ра l°g2 Ра+Рб^ЕіРб+'+Ря l°g2 Л ) «

і=1

~ 4,36 біт / символ,

/2 = кН2 « 24 • 4,36 « 104,64 бйя.

  1. Задача. Чому рівна ентропія системи, яка складається із к

взаємонезалежних підсистем:

а. кожна підсистема складається із // елементів, кожнен із яких з рівною ймовірністю може знаходитися в т станах;

б. підсистема Sx складається із щ елементів, підсистема S2 складається із п2 елементів і т. д., підсистема Sk складається із пк елементів, кожний із яких може з рівною ймовірністю знаходитися в т станах;

в. кожна підсистема складається із різної кількості елементів, які з різною ймовірністю можуть знаходитися в одному зі станів?

Розв ’язок.

а. Знаходимо ентропію однієї підсистеми Н = \og2mn. Загальна

к

ентропія системи рівна сумі ентропій окремих підсистем Нзаг =^Н = £log2 т" .

2=1

б. Визначаємо ентропію окремих підсистем

Нх = log2 т?; Н2 = log2 да”2; ...; Нк= log2 т* .

Загальна ентропія системи

H3ae=Hl+H2+-+Hk=l°g2 ™l + l°g2 да”2 + ... + log2 m* =

= log2 (m"1 ■ тп2г ■... ■ m? ) = log2

i=1

в. Знаходимо ентропію на один елемент підсистеми

щ т2 Щ

=Za,іой2a,; = Za2log2Рь’ •••; ^/, = Za,'°g2а,

Z=1 Z=1 Z=1

Визначаємо ентропію окремих підсистем

Я; = ИіЯі; Н’2=п2Н2; Н’к=пкНк

Загальна ентропія системи

я„ = Ія, = я;+я:+ ,+я;

2=1

  1. Задача. Визначити ентропію повної багаторівневої ієрархічної

системи, кількість елементів якої на кожному рівні пов’язане залежністю Іпп, де К - основа системи, а п - номер ієрархічного рівня. При цьому рахується, що корінь графу, що представляє ієрархічне дерево системи, розташований на нульовому рівні. Кожний елемент системи може знаходитися з рівною ймовірністю в т станах.

N

Розв’язок. Кількість елементів N -рівневої системи L = '^jKn.

2=0

N

Ентропія системи Н = log2 mL = ^ Кщ log2 т .

2 = 0

З КОНТРОЛЬНІ ПИТАННЯ

  1. Які міри інформації Ви знаєте?

  2. Назвіть одиниці виміру ентропії?

  3. У чому полягає комбінаторний підхід до визначення кількості інформації?

  4. Що таке структурне контекстне обмеження? Наведіть приклади.

  5. Поясніть імовірнісний підхід до виміру кількості інформації.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]