Количество информации.
Идея, что информация допускает количественную оценку, выдвинута Хартли в 1928 г., теорию разработал Клод Элвуд Шеннон в 1948 г. Эти идеи возникли из необходимости каналов связи, для определения характеристик устройств, преобразующих сигналы, выбора способа кодирования. Если отвлечься от смыслового содержания информации и ее ценности для получателя, то всякое сообщение можно рассматривать как сведение об определенном событии xi, ti, указывающим, в каком состоянии находилась среда в момент t.
Рассмотрим дискретные сообщения. Они представляют собой последовательности символов, взятых из некоторого набора - алфавита. Каждый символ - это буква такого алфавита. С помощью любого алфавита можно передать данные о состоянии, выбранном из сколь угодно большого числа возможных состояний, известных получателю сообщения. Для этого достаточно передать число-номер выбранного состояния. Числа можно записывать в разных системах счисления (десятичная, римская, в древней Греции и др. местах буквами и словами обозначали числа). Наиболее широко используются позиционные системы счисления, среди них - десятичная.
Пример: 50263=5*104+0*103+2*102+6*101+3*100
В качестве основания можно взять любое натуральное число (>1). Наиболее экономной по числу цифр является двоичная система 0, 1
Основание системы счисления
22=410=1002
23=810=10002
24=1610=100002
25=3210=1000002
26=6410=10000002
27=12810=00000002
28=25610=1000000002
76=1*26+0*25+0*24+1*23+1*22+0*21+0*20=10011002
Число в двоичной системе может быть передано последовательностью сигналов, состоящих из импульсов тока и пауз между ними.
Различных двоичных последовательностей длины m имеется 2m, поэтому с помощью последовательностей такой длины можно передать сообщения о N=2m различных событиях. Для передачи сообщения об одном из N событий необходимо сообщение длиной m=log2N. Целесообразно считать, что максимальное количество информации, содержащееся в сообщении пропорционально его длине Hmax~m=log2N. За единицу информации принимается количество информации в сообщении единичной длины, т.е. в одном двоичном разряде. Эта единица называется бит (binary digit) Hmax=log2N (Хартли 1928 г.). Эта мера обладает двумя важными свойствами: монотонно растет с ростом N; аддитивна.
