Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
25
Добавлен:
20.06.2014
Размер:
30.72 Кб
Скачать

ИНФОРМАЦИЮ, как и другие глобальные субстанции (ВЕЩЕСТВО, ЭНЕРГИЯ), можно измерить. Существует такое понятие как количество информации. Известны три способа измерения информации, каждый из которых отражает свой подход к измерению информации.

1. ВЕРОЯТНОСТНЫЙ СПОСОБ ИЗМЕРЕНИЯ ИНФОРМАЦИИ.

Основан на том, что при получении информации, мы уменьшаем неопределенность наших знаний о чем либо. С помощью этого способа выводится минимальная единица измерения информации - 1 бит.

1 БИТ - это количество информации, которое уменьшает неопределенность наших знаний о чем либо в два раза.

Такое определение единицы измерения информации условно можно представить следующей формулой:

2х=N

где N - количество равновероятных событий, х - количество информации (в битах), которую мы получили при условии, что произошло одно из этих событий.

ПРИМЕРЫ:

  • Вы сдаете зачет. У Вас два равновероятных события: зачет сдан, зачет не сдан. Сообщение о результате сдачи зачета дает нам информацию в 1 бит, т.к. если подставить в формулу все известные величины, получим х=1. (21=2).

  • Другой пример. За контрольную работу по информатике можно получить четыре оценки:"пять", "четыре", "три", "два" (четыре равновероятных события). В этом случае значение х будет равно 2. (22=2).

  • Пример третий. Если Вы загадаете число от 1 до 16, я отгадаю его, получив при этом 4 бита информации (24=16):

-Ваше число находится в интервале от 1 до 8?- Нет. - 1 бит информации.

- Ваше число находится в интервале от 9 до 12? - Да. - 1 бит информации.

- Ваше число находится в интервале от 9 до 10? - Нет. - 1 бит информации.

- Это число 11? - Нет. - 1 бит информации.

Число отгадано. Это 12. (Попробуйте сами.)

Теперь о том, откуда появился бит. Вся информация в компьютере представляется в двоичных кодах (в виде цепочек двоичных чмсел - 0 и 1 - 000011101010). По-английски двоичная цифра - это binary digit=bit.

2.ОБЪЕМНЫЙ СПОСОБ ИЗМЕРЕНИЯ ИНФОРМАЦИИИ.

При алфавитно-цифровом представлении информации любое слово является последовательностью символов. Для представления информации в полном объеме нам необходим набор из 256 символов (алфавит языка).

Из представленной выше формулы находим х=8 (28=256). Следовательно, чтобы закодировать 1 символ алфавита, состоящего из русских, латинских букв, заглавных и строчных, цифр и специальных знаков, необходимо 8 разрядов.

Каждый символ алфавита представлен последовательностью из 8 нулей и единиц:

- 00000001 - заглавная буква А латинского алфавита.

Так появилась вторая единица измерения информации - 1 байт (byte).

1байт=8 бит.

Конечно, эти единицы информации очень малы, измерять в них количество информации неудобно. Поэтому существуют другие единицы измерения:

1Килобайт(Кбайт,КВ)=1000 байт

1Мегабайт(Мбайт,МВ)=106 байт

1Гигабайт(Гбайт,GВ)=109 байт

С измерением информации связано еще одно понятие - скорость информационного потока (скорость передачи информации).

СКОРОСТЬ ИНФОРМАЦИОННОГО ПОТОКА (СИП) - это количество информации, передаваемое за единицу времени. Измеряется в [бит/сек], [байт/сек].

ЗАДАНИЕ. Подсчитать свою СИП при устной речи и при чтении. Для выполнения задания надо взять текст и засечь время (например, 10 сек), подсчитать количество прочитанных символов (пробел тоже является символом!!!) и разделить количество на 10. Для подсчета СИП устной речи читать нужно вслух.

3. СПОСОБ ИЗМЕРЕНИЯ ИНФОРМАЦИИ ПО СТЕПЕНИ СЛОЖНОСТИ.

В школьном курсе информатики не рассматривается. Суть его в том, что чем сложнее информация, тем ее больше.

Соседние файлы в папке Вопросы и ответы к экзамену по информатике