Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Определение количества информации.pdf
Скачиваний:
20
Добавлен:
03.06.2015
Размер:
224.1 Кб
Скачать

Одна логическая задача

Задача 4. Имеется 27 монет, одна фальшивая. Она легче настоящих. Имеются рычажные весы с двумя чашками. За сколько взвешиваний можно определить фальшивую монету?

Кол-во недостающей информации: I1=log227 бит Любое взвешивание имеет три исхода и дает

I2=log23 бит информации. Пусть x – число

взвешиваний

 

 

 

 

xlog 3

log

2

27,

log 27=log 33=3log 3

2

 

 

2

2

2

xlog23

3log23,

т.о., x 3

 

 

Понятие вероятности

Пусть проводится опыт, в результате которого может произойти некоторое событие P. Если событие произошло, то назовем это успешным исходом опыта, т.о., Р вероятность свершения события

P = (число успешных исходов опыта)/(общее число исходов опыта), 0 P 1

Пример 1. Бросание кубика. Под событием понимаем выпадение 6 очков. P = 1/6

Пример 2. Игральные карты. Событие – вытаскивание туза любой масти. P = 4/36 = 1/9

Понятие условной вероятности

В сосуде находится 5 белых и 5 черных шаров. Вероятность события, что будет вынут белый шар?

Очевидно, P(б)=5/10=0.5 Черный шар: P(ч)=5/10=0.5

Предположим, что белый шар уже вынут. Какова вероятность снова вынуть белый шар? Pб(б)=4/9

Вероятность вынуть в этой ситуации черный шар равна: Pб(ч) = 5/9

Вероятность Pb(A) – условная вероятность

события A в предположении, что до него произошло событие B

Абсолютная и относительная энтропия

Функция, описывающая меру неопределенности опыта, имеющего n равновероятных исходов:

f(n) = log2n называется энтропией. Будем обозначать ее H:

H = log2 n.

Так как все n исходов равновероятны, то разумно допустить, что их неопределенности одинаковы.

Тогда неопределенность, вносимая одним исходом, равна:

1/n log2 n = -1/n log2 (1/n) = -p log2p,

где p = 1/n – вероятность любого из отдельных исходов