
ИНФОРМАЦИЮ, как и другие глобальные субстанции (ВЕЩЕСТВО, ЭНЕРГИЯ), можно измерить. Существует такое понятие как количество информации. Известны три способа измерения информации, каждый из которых отражает свой подход к измерению информации.
1. ВЕРОЯТНОСТНЫЙ СПОСОБ ИЗМЕРЕНИЯ ИНФОРМАЦИИ.
Основан на том, что при получении информации, мы уменьшаем неопределенность наших знаний о чем либо. С помощью этого способа выводится минимальная единица измерения информации - 1 бит.
1 БИТ - это количество информации, которое уменьшает неопределенность наших знаний о чем либо в два раза.
Такое определение единицы измерения информации условно можно представить следующей формулой:
2х=N
где N - количество равновероятных событий, х - количество информации (в битах), которую мы получили при условии, что произошло одно из этих событий.
ПРИМЕРЫ:
-
Вы сдаете зачет. У Вас два равновероятных события: зачет сдан, зачет не сдан. Сообщение о результате сдачи зачета дает нам информацию в 1 бит, т.к. если подставить в формулу все известные величины, получим х=1. (21=2).
-
Другой пример. За контрольную работу по информатике можно получить четыре оценки:"пять", "четыре", "три", "два" (четыре равновероятных события). В этом случае значение х будет равно 2. (22=2).
-
Пример третий. Если Вы загадаете число от 1 до 16, я отгадаю его, получив при этом 4 бита информации (24=16):
-Ваше число находится в интервале от 1 до 8?- Нет. - 1 бит информации.
- Ваше число находится в интервале от 9 до 12? - Да. - 1 бит информации.
- Ваше число находится в интервале от 9 до 10? - Нет. - 1 бит информации.
- Это число 11? - Нет. - 1 бит информации.
Число отгадано. Это 12. (Попробуйте сами.)
Теперь о том, откуда появился бит. Вся информация в компьютере представляется в двоичных кодах (в виде цепочек двоичных чмсел - 0 и 1 - 000011101010). По-английски двоичная цифра - это binary digit=bit.
2.ОБЪЕМНЫЙ СПОСОБ ИЗМЕРЕНИЯ ИНФОРМАЦИИИ.
При алфавитно-цифровом представлении информации любое слово является последовательностью символов. Для представления информации в полном объеме нам необходим набор из 256 символов (алфавит языка).
Из представленной выше формулы находим х=8 (28=256). Следовательно, чтобы закодировать 1 символ алфавита, состоящего из русских, латинских букв, заглавных и строчных, цифр и специальных знаков, необходимо 8 разрядов.
Каждый символ алфавита представлен последовательностью из 8 нулей и единиц:
- 00000001 - заглавная буква А латинского алфавита.
Так появилась вторая единица измерения информации - 1 байт (byte).
1байт=8 бит.
Конечно, эти единицы информации очень малы, измерять в них количество информации неудобно. Поэтому существуют другие единицы измерения:
1Килобайт(Кбайт,КВ)=1000 байт
1Мегабайт(Мбайт,МВ)=106 байт
1Гигабайт(Гбайт,GВ)=109 байт
С измерением информации связано еще одно понятие - скорость информационного потока (скорость передачи информации).
СКОРОСТЬ ИНФОРМАЦИОННОГО ПОТОКА (СИП) - это количество информации, передаваемое за единицу времени. Измеряется в [бит/сек], [байт/сек].
ЗАДАНИЕ. Подсчитать свою СИП при устной речи и при чтении. Для выполнения задания надо взять текст и засечь время (например, 10 сек), подсчитать количество прочитанных символов (пробел тоже является символом!!!) и разделить количество на 10. Для подсчета СИП устной речи читать нужно вслух.
3. СПОСОБ ИЗМЕРЕНИЯ ИНФОРМАЦИИ ПО СТЕПЕНИ СЛОЖНОСТИ.
В школьном курсе информатики не рассматривается. Суть его в том, что чем сложнее информация, тем ее больше.