
Единицы измерения количества информации.
Для определения количества информации возникло два подхода (вероятностный и «объемный»). Американский инженер Р.Хартли процесс получения информации рассматривал как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации, содержащемся в выбранном сообщении определял по формуле:
I = log2N
Эту формулу называют формулой Хартли.
Что соответствует показательному уравнению:
N=2i
N – количество событий (число состояний);
I – количество информации, содержащейся в выбранном сообщении (объем памяти в битах);
Логарифм I числа N по основанию 2 – это показатель степени, в которую надо возвести число 2, чтобы получить N, т. е. 2i=N
Информацию, которую получает человек, можно считать мерой неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию.
Вероятностный подход развил американский математик Шеннон. Количество информации для событий с различными вероятностями определяются по формуле:
где
pi–вероятности отдельных событий;
N – количество возможных событий (число состояний);
I – количество информации;
При вероятностном подходе необходимо определить величину, измеряющую неопределенность – энтропию (H). За количество информации, которое получено в ходе осуществления опыта, принимается разность неопределенностей до и после опыта (I =H1-H2). Количество информации об объекте обратно пропорционально энтропии объекта, а сама энтропия является мерой недостающей информации.
В компьютере для хранения информации используется память, поэтому количество информации и объем памяти принято измерять в одних и тех же единицах. Вся информация хранится в памяти компьютера одинаково – в двоичной форме, в виде последовательности битов (разрядов, двоичных цифр). Минимальная единица измерения объема памяти и информации – бит (англ. Bit от binary – двоичный и digit – цифра)
Один разряд – один бит.
Бит – минимальный объем памяти, необходимый для хранения 2-х равновероятных событий.
Одного бита информации достаточно, чтобы передать да/нет.
Основой конструкции ЭВМ являются электронные и электромагнитные элементы, которые могут находиться в двух состояниях: вкл/выкл., есть ток, нет тока; договорились, что это 0 и 1. Используются 2знака. Эти знаки называются двоичными цифрами. Двумя битами можно закодировать четыре различных комбинации: 00, 01, 10, 11(например, для кодирования 4-х сторон света требуется 2 бита 22=4, log24 = 2).
Три бита дадут восемь комбинаций 000, 001, 010, 011, 100, 101, 110, 111 (23 = 8).
Именно 8 бит требуется для того, чтобы закодировать любой из 256 символов клавиатуры(256=28). Бит слишком мелкая единица измерения. Группа из 8 взаимосвязанных битов называется байтом.
1 байт = 8 бит
1 Кб = 1024 байт = 210 байт
1 Мб = 1024 кбайт = 220 б
1 Гб =1024Мбайт = 230байт
1 Тера
1 Пета
С помощью 1ого байта можно закодировать 28 значений →256 значений.
1 бит 2= 21
2 бит 4= 22
3 бит 8= 23
4 бит 16= 24
5 бит 32= 25
6 бит 64= 26
8 бит 256= 28
В качестве международного стандарта используется система кодирования ASCII – стандартный код информационного обмена. 2е таблицы: базовая с кодами 0÷127 и расширенная с кодами 128÷255.
Каждому символу ставится в соответствие последовательность из 8 бит, называемых байтом. Байт – минимальная единица памяти, которая может быть выделена под переменную.
Каждый символ имеет свой числовой код, занимающий 1 байт (этот код хранится в памяти ЭВМ). Каждый байт ОП имеет порядковый номер – адрес, который начинается с 0. Максимальное число, которое можно записать с помощью восьми двоичных цифр 11111111 = 255, минимальное – 0.