
Количество информации
Основные умения: осуществлять измерение информации и расчет энтропии; использовать знания об измерении энтропии и количестве информации в практической деятельности педагога.
Основные понятия.
Мощность алфавита – это количество различных символов, которые можно получить с помощью кодовой цепочки, состоящей из I битов. Биты для измерения информации используются тогда, когда каждый элемент цепочки может принимать 2 устойчивых состояния.
N=2I (1)
Информационная емкость символа, т.е. количество информации, которое несет один знак, зависит от количества символов в алфавите:
I = log2 N (2)
Количество информации, которое содержит сообщение V, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак I, умноженному на количество знаков в сообщении n.
V=In (3)
Пример 1: Каждый символ закодирован одним байтом. Оцените информационный объем (в битах) следующего предложения в этой кодировке:
В одном килограмме 1000 грамм.
Решение.
Количество символов в фразе n=30. Каждый символ равен 1 байту, следовательно, фраза будет занимать 30 байт информации, что составит:
I = 30 · 8 =240 бит информации.
Пример 2: Пользователь компьютера, хорошо владеющий навыками ввода информации с клавиатуры, может вводить в минуту 100 знаков. Мощность алфавита, используемого в компьютере, равна 256. Какое количество информации в байтах может ввести пользователь в компьютер за 12 минут?
Решение.
Найдем количество символов n, которые пользователь может ввести за 12 минут: n=12100=1200 символов. Информационная емкость символа при мощности N=256 составит: I = log2 256=8 бит=1 байт на 1 символ. Следовательно, количество информации, которое может ввести пользователь V=1байт1200=9600 =1200 байт.
Информация может рассматриваться как уменьшение неопределенности состояния системы, а количество информации определяется как разность энтропий:
I(X)=H(X)-H'(X). (4)
Для случая, когда система имеет n состояний, и все они равновероятны, используется формула Хартли:
I = log2 n. (5)
Пример 3: Световое табло состоит из лампочек, каждая из которых может находиться в двух состояниях ("включено" или "выключено"). Какое наименьшее количество лампочек должно находиться на табло, чтобы с его помощью можно было передать 50 различных сигналов?
Решение.
Количество сигналов n=50, лампочки могут находиться в 2-х состояниях, следовательно, необходимо найти показатель степени (целое число), в которое необходимо возвести 2, чтобы получилось число большее 50, и наиболее близко к нему расположено: I = log2 50 6; минимально потребуется 6 лампочек, т.к. с помощью 5-ти лампочек можно закодировать лишь 32 сигнала.
Из формул (4) и (5) можно получить:
I=log2n1–log2n2=log2 n1/ n2. (6)
Пример 4: В стопке дисков находятся 8 дисков с прикладными программами, 6 дисков с обучающими программами и 10 игр. Какое количество информации получено, если известно, что случайно извлеченный диск – это диск с обучающей программой?
Решение.
Первоначально количество исходов извлечения диска n1=8+6+10=24, после получения сообщения n2=6, можно применить формулу 6:
I = log2 24 – log2 6 = log2 24/6 = log24 =2 бита информации.
Под собственной информацией будем понимать информацию, содержащуюся в данном конкретном сообщении, которое дает получателю информацию о возможности существования конкретного состояния системы. Тогда количество собственной информации, содержащееся в сообщении Si, определяется как:
I(Si)= –log 2 P(Si) (7)
Собственная информация имеет следующие свойства:
Неотрицательна.
Чем меньше вероятность возникновения сообщения, тем больше информации оно содержит.
Информация равна 0, если вероятность возникновения сообщения равна 1.
Количество собственной информации нескольких независимых сообщений равно их сумме.
I(Xi, Yi)= –log 2 P(Xi) – log 2 P(Yi)= I(Xi)+ I(Yi).
Пример 5: У скупого рыцаря в сундуке золотые, серебряные и медные монеты. Каждый вечер он извлекает из сундука одну из лежащих в нем 96 монет, любуется ею, и кладет обратно в сундук. Количество информации, содержащееся в сообщении «Из сундука извлечена серебряная монета», равно 4 бита. Информационный объем сообщения «Из сундука извлечена золотая монета» равен 5 бит. Сколько медных монет было в сундуке.
Решение.
Обозначим сообщение «Из сундука извлечена золотая монета» за S1; а сообщение «Из сундука извлечена серебряная монета» за S2; k1 – количество золотых монет; k2 – количество серебряных монет; k3 – количество медных монет; общее количество монет k = k1+ k2 + k3=96.
По формуле (7)
I(Si)=
-log2
P(Si)
= log2
и соотношения
можно найти:
I(S1)=5
бит,
;
– в сундуке 3 золотых монеты
I(S2)=4
бита,
;
– в сундуке 6 серебряных монет
k3 = k – ( k1+ k2 )= 96 – (6+3) =87 – в сундуке 87 медных монет.
Теорема Шеннона. Если система X обладает дискретными состояниями, их количество равно n, а вероятность нахождения в каждом из состояний p(A1), p(A2) ,…, p(An), то энтропия система H(X) равна:
(8)
Свойства энтропии
H=0 в двух случаях: Какая-либо из P(Aj)=1, следовательно, все остальные P(Ai)=0 (i j) или все P(Ai)=0.
и независимые опыты: H()=H()+H().
и зависимые опыты: H()=H()+H(), где
Пример 6: Имеются 2 ящика, в каждом по 12 шаров. В первом 3 белых, 3 черных и 6 красных. Во втором – каждого цвета по 4. Опыт состоит в извлечении по одному шару из каждого ящика. Найти энтропию извлечения.