
5.5. Вимірювання інформації.
Ми часто говоримо: „мало інформації” чи „багато інформації”. Але це якісне вимірювання, а наука починається завжди з кількісних вимірювань.
Видатний американський вчений К.Шеннон запропонував таку формулу для вимірювання інформації:
де N – число можливих станів (состояний) об’єкта,
Pi – ймовірність перебування об’єкта в стані i,
K – основа логарифма.
Засновник теорії інформації
Для
спрощеного випадку, коли об’єкт може
перебувати в різних станах з однаковою
імовірністю (Pi
= Pj),
наведена формула перетворюється в таку:
.
Ця формула була одержана американцем
Р.Хартлі ще до К.Шеннона і ми будемо
використовувати саме цей варіант оцінки
інформації.
Якщо N=2, K=2, то I=1. Ця одиниця інформації називається бітом (binary digit – bit).
–формула
Р.Хартлі.
Формула Хартлі визначає, яку мінімальну кількість інформації (число біт) треба мати, щоб напевно визначити стан об’єкта.
Приклад.
Є 100 однакових куль. Одна з них радіоактивна.
Вимірювач показує, чи є чи нема
випромінювання („1” або „0”). Яку
мінімальну кількість вимірів треба
зробити, щоб знайти радіоактивну кулю?
6 <
< 7, тобтоImin
= 7.
Методика: ділити поступово кулі на дві
купки, вимірювати одну з них і неперспективну
купку відкидати.
Для вимірювання великих об’ємів інформації використовуються такі одиниці: К – кілобайт, М – мегабайт, Г – гігабайт, Т – терабайт, П - петабайт.
1К = 210 = 1024 =103 байт
1М = 220 = 106 байт
1Г = 230 = 109 байт
1Т = 240 = 1012 байт
1П = 250 = 1015 байт
Крім цих одиниць в інформаційній техніці використовується одиниці, які не мають фіксованого кількісного еквівалента: поле, слово (декілька байтів), файл (масив, який має ім’я), сегмент і деякі інші.