Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Samostoyatelnaya_Logika_Inform.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
142.85 Кб
Скачать

Количество информации. Кодирование. Логические выражения (методические указания и контрольные задания)

1 Определение количества информации

Единица измерения количества информации называется бит. Сообщение, уменьшающее неопределенность знаний человека в два раза, несет для него 1 бит информации.

1. Содержательный подход к измерению информации.

Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных событий (равновероятность обозначает, что ни одно событие не имеет преимуществ перед другими). Тогда количество информации в битах, заключенное в этом сообщении I и число N связаны формулой:

I=log2(N) или N=2I

Пример 1:

Вы подошли к светофору, когда горел желтый свет. Какое количество информации вы получите, если загорится другой сигнал светофора?

Решение: Так как может загореться или зеленый или красный свет, то события равновероятны и N=2, то есть I=log2(2)=1 бит.

Пример 2:

Сколько информации несет сообщение о том, что человек зашел в 3 подъезд 8 подъездного дома?

Решение: Так как номер подъезда не влияет на количество информации, из 8 равновероятных событий следует выбрать одно и N=8, то есть I=log2(8)=3 бита.

Пример 3. Сообщение о том, что человек проживает в третьем подъезде, несет 3 бита информации. Сколько подъездов в доме.

Решение: Задача обратная задаче из примера 2, то есть необходимо найти количество равновероятных событий: 3=log2(Х), тогда Х=23=8 подъездов.

Пример 4: Ваш друг живет на 4 этаже восьмиподъездного четырехэтажного дома. Сколько информации несет это сообщение?

Решение: Номер этажа, на котором живет ваш друг, не влияет на количество информации, тогда существует 32 разных варианта равновероятного события (8*4), из которых надо выбрать один, то есть N=32, а I=log2(32)=5 бит.

Общее количество информации можно записать как сумму неизвестной информации о разных равновероятных событиях, в примере 4 – про этажи и подъезды дома:

I=log2(8)+log2(4)=3+2=5, бит

2. Вероятностный подход к измерению информации.

Если информационный объект находится в одном из N возможных состояний с вероятностью Р . То количество информации (I) об этом:

I=log2 (1/p)

Вероятность события вычисляется по формуле: р=К/N,

где К – величина, показывающая сколько раз произошло событие, N – общее число возможных исходов события.

Если события равновероятны, то р=1/N и I=log2 (N)

Пример 5: В коробке 14 черных и 2 белых шара. Сколько информации несет сообщение, что из коробки вынули белый шар?

Решение: Всего в коробке 16 шаров, то есть N=16, р=2/16 – вероятность доставания белого шара, тогда I=log2 (1/p)=log2 (16/2)=log2 (8)=3 бита.

Пример 6: В коробке лежит 16 шаров, сообщение о том, что достали белый шар, несет 3 бита информации. Сколько белых шаров в корзине?

Решение: Задача обратная задаче из примера 5. Вероятность доставания белого шара р=х/16, где х – количество белых шаров, тогда

3=log2 (16/х) или 23=16/х, х=2 белых шара в коробке.

Пример 7: В коробке лежит 2 белых шара. Сообщение о том, что достали белый шар, несет 3 бита информации. Сколько шаров в коробке?

Решение: Задача обратная задачам из примеров 5 и 6. Вероятность доставания белого шара р=2/х, где х – общее количество шаров (N), тогда

3=log2 (х/2) или 23=х/2, х=16 шаров в коробке.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]