
- •Лекция 1. Основные понятия информатики. Измерение информации. [Семакин, глава 1, стр.9-24] План:
- •2. Информация и ее свойства
- •3. Данные и их свойства, кодирование данных
- •4. Измерения информации
- •4.1. Содержательный подход
- •Объемный подход (или алфавитный)
- •Лекция 2. Дискретное представление данных в компьютере
- •Правила представления данных в компьютере
- •Представление чисел Представление целых чисел
- •Прямой и дополнительный код
- •Вещественные числа в компьютере
- •3. Представление текста, графики и звука в компьютере Текстовая информация
- •Графическая и звуковая информация
- •Пространственная дискретизация изображения
- •Решение:
- •Решение:
- •Временная дискретизация звука
- •Кодирование фильмов
4. Измерения информации
При определении количества информации рассматриваются два подхода:
Содержательный подход (количество информации как мера уменьшения неопределенности знаний) – рассматривает информацию с точки зрения ее содержания (новизны, понятности).
Объемный подход (алфавитный) к определению количества информации – рассматривает информацию с точки зрения хранения на физическом носителе и передаче с помощью технических средств (определяется объем информации).
4.1. Содержательный подход
За единицу измерения информации принимается 1 бит - такое количество информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза.
Что такое неопределенность знаний? Поясним на примере.
Допустим, вы бросаете монету, загадывая: орел или решка? Есть всего два возможных результата. Причем ни один из этих результатов не имеет преимущества перед другим, т.е. они равновероятны. Любой из вариантов ответа уменьшает неопределенность в 2 раза и, следовательно, количество информации равно 1 биту.
Количество информации (i), содержащееся в сообщении о том, что произошло одно из N равновесных событий, определяется из решения уравнения:
-
2i=N
(1)
где: N – количество возможных результатов события
i – количество информации в сообщении об одном результате события (бит)
Формулу (1) назвали главной формулой информатики (учебник Семакина, Хеннера).
Прологарифмировав равенство (1) по основанию 2, получим: i*log22= log2N, следовательно,
-
i = log2N
(2)
Задача.
Определить количество информации, полученное вторым игроком после первого хода первого игрока, в игре «крестики-нолики» на поле размером 8х8 клеток.
Решение. Перед первым ходом существует 64 возможных варианта расположения крестика: 64 = 2i , i =6. т.е. количество информации полученное вторым игроком после первого хода первого игрока составляет 6 битов.
Формула для вычисления количества информации для событий с различными вероятностями (например, если монета несимметрична (одна сторона тяжелее другой) - К.Шеннон (1948 год):
,
где I – количество информации,
N – количество возможных событий,
pi – вероятности отдельных событий
Чем меньше вероятности некоторого события (р), тем больше информации i содержит сообщение об этом событии:
i = log2(1/p)
Задача. В непрозрачном мешочке хранится 10 белых, 20 красных, 30 синих и 40 зеленых шариков. Какое количество информации будет содержать зрительное сообщение о цвете вытянутого шарика?
Решение. Так как количество шариков различных цветов неодинаково, то вероятности зрительных сообщений о цвете вытянутого из мешочка шарика также различаются и равны количеству шариков данного цвета, деленному на общее количество шариков:
рб = 10/100=0,1; рк = 20/100=0,2; рс = 30/100=0,3; рз = 40/100=0,4
Применим формулу Шеннона для неравновероятных событий:
i = -(0,1*log20,1+0,2*log20,2+0,3*log20,3+0,4*log20,4) = 1,85 бита
Самостоятельно:
Задача 1.Группа школьников пришла в бассейн, в котором 4 дорожки для плаванья. Тренер сообщил. Что группа будет плавать на дорожке №3. Сколько информации получили школьники от этого сообщения? (Ответ – 2)
Задача 2. Сообщение о том, что ваш друг живет на 10 этаже несет 4 бита информации. Сколько этажей в доме? (Ответ – 16)