Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Lektsiyiyi_TeorInf1.doc
Скачиваний:
27
Добавлен:
07.09.2019
Размер:
4.98 Mб
Скачать

3.6.4Динамічна ентропія

У тому випадку, коли метою зняття інформації є перетворення на нуль невизначеності ситуації, зручно користуватися поняттям динамічної ентропії.

В ході розпізнавання образів, діагнозу хвороб або розслідування злочинів ентропія (невизначеність) ситуації змінюється в часі, тобто володіє певною динамікою зміни .

Зміна обумовлюється надходженням в певні моменти часу додаткової інформації: позитивна інформація зменшує невизначеність, негативна (дезінформація) – збільшує невизначеність ситуації.

Більшість ситуацій можна представити як множину відношень між наслідками і причинами . Причини спостерігаються, а наслідки розкриваються по ним. Так, наприклад, наслідками і причинами можуть бути: при розпізнаванні образів – образи і ознаки ; при діагнозі хвороб – захворювання і симптоми ; при розкритті злочинів і підозрювані особи .

Відношення між наслідками і причинами оцінюються змінними у часі ймовірностями .

Якщо немає зв'язку між якими-небудь наслідками і причинами, то ймовірність . Якщо ж між ними є найбільший (однозначний і повний) зв'язок, то рц .

Загальну кількість наслідків у момент часу t позначимо , а загальна кількість причин . Тоді окремі наслідки в момент часу отримують нумерацію , а причини – .

Згідно статистичної теорії інформації ентропія (невизначеність) для даної множини відношень

При дискретному надходженні інформації після закінчення одиничного інтервалу часу надходить додаткова інформація, яка може змінити: кількість наслідків від до , кількість причин від до і ймовірність відношень між ними від до .

В результаті цього ентропія (невизначеність) ситуації в момент отримує нове значення:

Як міра інформації, що вплинула на ентропію у вказаному вище сенсі, доцільно прийняти різницю

,

яка може бути як позитивною, так і негативною величиною, залежно від того зменшується або збільшується невизначеність ситуації.

3.6.5Істотність інформації

Параметрична інформація, як було показано у першому розділі, може бути представлена тривимірною моделлю, в якій осями координат є параметр X, простір N і час Т, причому під простором розуміється впорядкована множина джерел інформації, зокрема вимірюваних величин.

Значення величин, точки простору і моменти часу не рівно-суттєві як самі по собі, так і у взаємних відношеннях.

Наприклад, найбільш істотні високі значення тиску і температури в точці виходу газу, у момент відриву ракети від землі. У інших точках і в інші моменти часу ці параметри можуть бути неістотними.

Таким чином, можна розрізняти:

1) істотність самої події;

2) істотність часу здійснення події або його спостереження (рано — пізно — момент);

3) істотність місця, адреси, номера, локалізації, точки простору, координати здійснення події.

Вимір величини X можна характеризувати декількома функціями: ймовірність , похибки виміру і істотності . Кожній з цих функцій можна поставити у відповідність певну міру інформації. Мірою Хартлі оцінюється функція похибки при фіксованих значеннях функцій ймовірності і істотності . Мірою Шенона оцінюється функція ймовірності при фіксованих значеннях функцій похибки і істотності . Міра істотності відноситься до ситуації з фіксованими функціями похибки і ймовірності . Можна ввести функції істотності , які залежать від: величини Х, – залежать від величини часу Т, – залежні від простору (каналу) N.

Функція істотності відображає міру важливості інформації про те або інше значення параметра X з врахуванням часу Т і простору N і повинна задовольняти умові нормування.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]