Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Определение количества информации.pdf
Скачиваний:
20
Добавлен:
03.06.2015
Размер:
224.1 Кб
Скачать

Формула Хартли

Подойдем к определению понятия количества информации с точки зрения неопределенности опыта. Интуитивно понятно, что при N = 16 изначальная неопределенность больше, чем при N = 14, и еще больше, чем при N = 10

I = log2 N – формула Хартли N – число возможных выборов

Формула Хартли

I = log2 N – формула Хартли N – число возможных выборов

Формула Хартли более точно определяет количество информации:

log2 16

= 4 бита;

log2 14 = 3.8 бита;

log2 10

= 3.3 бита

 

Формула Хартли подразумевает для опыта

равновероятные исходы

Формула Хартли

С точки зрения формулы Хартли 1 бит — это

количество информации, уменьшающее

вдвое неопределенность исходной ситуации Количество информации, при броске кубика:

I = log2N = log2 6 2.6 бита

Количество информации, при подкидывании монеты: I = log2N = log22 = 1 бит

Т.о., 1 бит – это единица измерения неопределенности при двух возможных

равновероятных исходах опыта

Аддитивность информации

Функция называется аддитивной, если f(ab) = f(a) + f(b)

По свойству логарифмической функции: log2 N1N2 = log2 N1 + log2 N2