Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
конспект лекций 1 курс ПОВТАС 2011-2012.doc
Скачиваний:
356
Добавлен:
23.12.2018
Размер:
565.25 Кб
Скачать

2 Информация и информационные процессы

2.1 Измерение информации. Информационные объекты различных видов. Универсальность дискретного (цифрового) представления информации. Представление информации в двоичной системе счисления.

2.1.1 Измерение информации

Получение информации можно связать с уменьшением неопределённости знания. Это позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Рассмотрим во­прос об определении количества информации более подробно на конкретных примерах.

Пусть у нас имеется монета, которую мы бросаем на ров­ную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из двух положений: «орел» или «решка».

Перед броском существует неопределенность нашего зна­ния (возможны два события), и как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим, что моне­та в данный момент находится в определенном положении. Это сообщение приводит к уменьшению не­определенности нашего знания в два раза, так как из двух возможных равновероятных событий реализовалось одно. При бросании равносторонней четырехгранной пирамиды существуют 4 равновероятных со­бытия, а при бросании шестигранного игрального кубика — 6 равновероятных событий.

Чем больше количество возможных событий, тем больше начальная неопределенность нашего знания и соответственно тем большее количество информации будет содержать сооб­щение о результатах опыта.

Единицы измерения количества информации. Для коли­чественного выражения любой величины необходимо опреде­лить единицу измерения.

Бит – количество информации, которое содержит сооб­щение, уменьшающее неопределенность знания в два раза..

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза (из двух воз­можных событий реализуется одно) и, следовательно, количе­ство полученной информации равно 1 биту.

Минимальной единицей измерения количества информа­ции является бит, а следующей по величине единицей — байт, причем

1 байт = 23 битов = 8 битов.

В информатике система образования кратных единиц изме­рения количества информации несколько отличается от приня­тых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в каче­стве множителей кратных единиц использует коэффициент 10n, где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам «кило»(103), «мега»(106), «гига»(109).

Компьютер оперирует числами не в десятичной, а в дво­ичной системе счисления, поэтому в кратных единицах изме­рения количества информации используется коэффициент 2n.

Так, кратные байту единицы измерения количества ин­формации вводятся следующим образом:

1 Кбайт = 210 байт = 1024 байт;

1 Мбайт = 210 Кбайт = 1024 Кбайт;

1 Гбайт = 210 Мбайт = 1024 Мбайт.

2.1.2 Двоичное кодирование текстовой информации в компьютере

Для представления текстовой информации (прописные и строчные буквы русского и латинского алфавитов, цифры, знаки и математические символы) достаточно 256 различных знаков. По формуле, которая связывает между собой количество возможных событий N и количество информации I, можно вычислить, какое количество информации необходимо, чтобы закодировать каждый знак:

N = 2I => 256 = 2I => 28 = 2I => I = 8 битов.

Для обработки текстовой информации на компьютере необ­ходимо представить ее в двоичной знаковой системе. Каждому знаку необходимо поставить в соответствие уникальный 8-бито­вый двоичный код, значения которого находятся в интервале от 00000000 до 11111111 (в десятичном коде от 0 до 255).