Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ИНФРМАТИКА Тема 1-2.doc
Скачиваний:
20
Добавлен:
21.03.2015
Размер:
60.93 Кб
Скачать

Количество информации.

Идея, что информация допускает количественную оценку, выдвинута Хартли в 1928 г., теорию разработал Клод Элвуд Шеннон в 1948 г. Эти идеи возникли из необходимости каналов связи, для определения характеристик устройств, преобразующих сигналы, выбора способа кодирования. Если отвлечься от смыслового содержания информации и ее ценности для получателя, то всякое сообщение можно рассматривать как сведение об определенном событии xi, ti, указывающим, в каком состоянии находилась среда в момент t.

Рассмотрим дискретные сообщения. Они представляют собой последовательности символов, взятых из некоторого набора - алфавита. Каждый символ - это буква такого алфавита. С помощью любого алфавита можно передать данные о состоянии, выбранном из сколь угодно большого числа возможных состояний, известных получателю сообщения. Для этого достаточно передать число-номер выбранного состояния. Числа можно записывать в разных системах счисления (десятичная, римская, в древней Греции и др. местах буквами и словами обозначали числа). Наиболее широко используются позиционные системы счисления, среди них - десятичная.

Пример: 50263=5*104+0*103+2*102+6*101+3*100

В качестве основания можно взять любое натуральное число (>1). Наиболее экономной по числу цифр является двоичная система 0, 1

Основание системы счисления

22=410=1002

23=810=10002

24=1610=100002

25=3210=1000002

26=6410=10000002

27=12810=00000002

28=25610=1000000002

76=1*26+0*25+0*24+1*23+1*22+0*21+0*20=10011002

Число в двоичной системе может быть передано последовательностью сигналов, состоящих из импульсов тока и пауз между ними.

Различных двоичных последовательностей длины m имеется 2m, поэтому с помощью последовательностей такой длины можно передать сообщения о N=2m различных событиях. Для передачи сообщения об одном из N событий необходимо сообщение длиной m=log2N. Целесообразно считать, что максимальное количество информации, содержащееся в сообщении пропорционально его длине Hmax~m=log2N. За единицу информации принимается количество информации в сообщении единичной длины, т.е. в одном двоичном разряде. Эта единица называется бит (binary digit) Hmax=log2N (Хартли 1928 г.). Эта мера обладает двумя важными свойствами: монотонно растет с ростом N; аддитивна.

2