
- •Часть I Информация, системы счисления, основы логики, информационные модели
- •1. Измерение и кодирование информации
- •Часть I. Информация, системы счисления, основы логики, информационные модели 9
- •Кодирование информации
- •Часть I. Информация, системы счисления, основы логики, информационные модели 11
- •Часть I. Информация, системы счисления, основы логики, информационные модели 13
- •Часть I. Информация, системы счисления, основы логики, информационные модели 15
- •Часть I. Информация, системы счисления, основы логики, информационные модели 17
- •Часть I. Информация, системы счисления, основы логики, информационные модели 19
- •Часть I. Информация, системы счисления, основы логики, информационные модели 21
- •Часть I. Информация, системы счисления, основы логики, информационные модели 23
- •Часть I. Информация, системы счисления, основы логики, информационные модели 25
- •2. Системы счисления
- •Часть I. Информация, системы счисления, основы логики, информационные модели 27
- •Часть I. Информация, системы счисления, основы логики, информационные модели 29
- •Часть I. Информация, системы счисления, основы логики, информационные модели 31
- •Часть I. Информация, системы счисления, основы логики, информационные модели 33
- •2. Мпформшнка. Нолитшки к 1-х')
- •Часть I. Информация, системы счисления, основы логики, информационные модели 35
- •Часть I. Информация, системы счисления, основы логики, информационные модели 37
- •Часть I. Информация, системы счисления, основы логики, информационные модели 39
- •Часть I. Информация, системы счисления, основы логики, информационные модели 41
- •3. Кодирование последовательностей и их анализ
- •Часть I. Информация, системы счисления, основы логики, информационные модели 43
- •Часть I. Информация, системы счисления, основы логики, информационные модели 45
- •Часть I. Информация, системы счисления, основы логики, информационные модели 47
- •Часть I. Информация, системы счисления, основы логики, информационные модели 49
- •4. Основы логики Справочные сведения
Часть I Информация, системы счисления, основы логики, информационные модели
1. Измерение и кодирование информации
Справочные сведения
Измерение информации. Формула Хартли
Любая информация, которую мы получаем, может быть измерена. Минимальной единицей информации является один бит. Информация имеет размер 1 бит, если она позволяет в два раза уменьшить неопределенность наших знаний о некотором событии. Например, если нам сообщили, что при бросании монеты выпал орел, мы получили 1 бит информации. Действительно, до этого сообщения мы могли предполагать, что выпал либо орел, либо решка, т. е. были возможны два равновероятных события, а переданное сообщение позволило выделить одно из них.
Сведения, уменьшающие неопределенность более чем в два раза, очевидно, несут больший объем информации. Предположим, что перед нами 4 коробки с номерами 1,2, 3,4, а внутри одной из них находится приз. Если нам сообщат, что приз находится в коробке с четным номером, то неопределенность уменьшится в два раза. Однако, получив эту информацию (объемом 1 бит), мы еще не сможем однозначно определить, в какой коробке приз. Если же нам дополнительно скажут, что номер коробки с призом больше 2, то эта информация (также уменьшающая неопределенность в два раза и, следовательно, имеющая объем 1 бит), объединенная с предыдущей информацией, позволит однозначно определить, что приз находится в коробке номер 4 (число 4 больше двух и является четным). Таким образом, получив 2 бита информации, мы смогли в 4 раза уменьшить неопределенность наших знаний. Можно также сказать, что для выделения одного элемента из четырех достаточно передать информацию объемом 2 бита.
Если у нас 8 элементов, то для однозначного определения одного из них необходимо получить информацию объемом 3 бита. Действительно,
Часть I. Информация, системы счисления, основы логики, информационные модели 9
поскольку один бит информации вдвое уменьшает неопределенность, получив его, мы уменьшим число возможных элементов до четырех. Получив затем еще один бит, мы уменьшим число элементов до двух и, наконец, получив еще один, третий бит, мы сможем выбрать один элемент из двух оставшихся.
Рассуждая аналогичным образом, можно прийти к выводу, что для выбора одного из 2N элементов необходимо получить информацию объемом N бит. Можно сказать и по-другому: если могло произойти одно из 2N равновероятных событий, то сообщение о том, какое событие на самом деле произошло, содержит N бит информации.
Итак, для выбора одного элемента из двух надо получить 1 бит информации, для выбора одного элемента из четырех — 2 бита, из восьми — 3 бита, из шестнадцати — 4 бита и т. д. Если обозначить через К количество элементов, а через р — объем информации, необходимый для выбора одного из них, то для нахождения значения р получаем формулу, называемую формулой Хартли':
p=\og2K.
Разумеется, формула Хартли будет давать целочисленное значение только для чисел К, являющихся степенью числа 2. В этом случае вместо нее можно использовать более простую формулу, позволяющую определить объем информации р, необходимой для выбора одного из К элементов:
2' = К.
Заметим, что в большинстве задач ЕГЭ, связанных с вычислением объема информации, достаточно использовать этот вариант формулы Хартли, не прибегая к логарифмам.
Если К не является степенью двойки, то формула Хартли будет давать дробное число битов. Например, при К = 3 формула даст/> = log23 = = 1,584963... . Таким образом, для того чтобы узнать, какое из трех равновозможных событий произошло, мы должны получить информацию объемом 1,584963... бита. Зная эту величину, мы можем легко определить объем информации, необходимый, например, для выбора одного из 6 элементов. Действительно, получив 1 бит информации, мы уменьшим неопределенность вдвое, а для выбора одного из оставшихся
1 Американский инженер Р. Хартли предложил эту формулу в 1928 г. В 1948 г. американский математик К. Шеннон обобщил формулу Хартли на случай, когда изучаемые события не являются равновероятными. Мы не приводим формулу Шеннона, поскольку в задачах ЕГЭ она не используется.
10
Информатика
трех элементов, как мы уже установили, требуется 1,584963... бита. Значит, общее количество информации равно 1 + 1,584963... = 2,584963... бита. Этот результат находится в полном соответствии с формулой Хартли: log26 = 2,584963... .