- •Введение
- •1. Предмет информатики
- •1.1 Роль информации в современном обществе
- •1.2 Информационные барьеры в истории человечества
- •1.3 Предметная область информатики
- •2. Теория информации
- •2.1 Исходные понятия теории информации
- •2.2 Формы представления информации
- •2.3 Преобразование сообщений
- •3. Понятие информации в теории Шеннона
- •3.1 Понятие энтропии
- •3.2 Условная энтропия
- •3.3 Статистическое определение информации
- •3.4 Энтропия и информация
- •3.5 Информация и алфавит
- •4. Кодирование символьной информации
- •4.1 Постановка задачи кодирования. Первая теорема Шеннона
- •4.2 Алфавитное неравномерное двоичное кодирование сигналами равной длительности
- •4.2.1 Неравномерный код с разделителем
- •4.2.2 Префиксное неравномерное кодирование
- •4.3 Равномерное алфавитное двоичное кодирование. Байтовый код
- •4.4 Алфавитное кодирование с неравной длительностью элементарных сигналов. Код Морзе
- •4.5 Блочное двоичное кодирование
- •5. Кодирование и представление чисел в компьютере
- •5.1 Системы счисления
- •5.2 Перевод чисел из одной системы счисления в другую
- •5.3 Перевод чисел между системами счисления с основанием 2k
- •5.4 Формы представления вещественных чисел
- •5.5 Кодирование целых чисел в компьютере
- •5.5.1 Кодирование в компьютере целых чисел без знака
- •5.5.2 Кодирование в компьютере целых чисел со знаком
- •5.6 Кодирование в компьютере вещественных чисел
- •5.7 Двоично-десятичные коды
- •5.7.1 Код (8421) – код прямого замещения
- •6. Обработка чисел в компьютере
- •6.1 Выполнение операций сложения
- •6.2 Сложение нормализованных чисел
- •6.3 Выполнение операции умножения
- •6.3.1 Общий алгоритм умножения
- •6.3.2 Особенности умножения в форме с плавающей запятой
- •6.4 Деление чисел
- •7. Кодирование графической и звуковой информации
- •7.1 Представление изображений
- •7.2 Представление звука
- •Список литературы
- •Родина Наталья Васильевна Информатика
- •Часть 1
- •107846, Москва, ул.Стромынка, 20
3.4 Энтропия и информация
Обобщим и осмыслим еще раз вышеприведенные результаты.
1. Выражение (3.6) является статистическим определением понятия «информация», поскольку в него входят вероятности возможных исходов опыта.
Выражение I(, можно интерпретировать следующим образом: если начальная энтропия опыта Н1, а в результате сообщения информации I энтропия становится равной Н2, (Н1Н2), то
I = Н1 – Н2 , – то есть информация равна убыли энтропии.
В частном случае, если изначально равновероятных исходов было n1, в результате передачи информации I неопределенность уменьшилась и число исходов стало n2 (n2 n1), то I = log2n1 – log2n2 = log2 .
Таким образом, можно дать следующее определение:
Информация – это содержание сообщения, понижающего неопределенность некоторого опыта с неоднозначным исходом. Убыль связанной с ним энтропии является количественной мерой информации.
В случае равновероятных исходов информация равна логарифму отношения числа возможных исходов до и после получения сообщения.
2. Следствием аддитивности энтропии независимых опытов оказывается аддитивность информации. Пусть с выбором одного из элементов хА множества А, содержащего nА элементов, связано IA = log2nA информации, а с выбором хВ из множества В с nВ элементами информации связано IB=log2nB. Если второй выбор никак не связан с первым, то при объединении множеств число возможных состояний элементов составляет n=nAnB и для выбора комбинации хАхВ потребуется количество информации
I = log2(nAnB) = log2na + log2nB = IA + IB.
3. Вернемся к утверждению о том, что количество информации может быть измерено числом вопросов с двумя равновероятными ответами. Означает ли это, что I должно быть всегда целой величиной?
Из формулы Хартли I = k бит только в случае n = 2k. А в остальных ситуациях? Например, с карточной колодой из 36 карт I = log236 Число вопросов в ряде случаев должно быть 5, а в ряде случаев – 6. Усреднение по случаям как раз и дает нецелую величину. Таким образом,
величина I, определяемая описанным выше способом, показывает, сколько в среднем необходимо сделать парных выборов для установления результата (полного снятия неопределенности), если опыт повторить многократно.
4. Необходимо понимать также, что не всегда с каждым из ответов на вопрос, имеющим только 2 варианта ответа (бинарный вопрос), связан ровно 1 бит информации.
Р ассмотрим опыт, реализующийся посредством двух случайных событий; Так как их всего два, то они являются дополнительными друг к другу.
Если эти события равновероятны, то р1 = р2 = 0,5 и I = 1 бит.
Однако если их вероятности различны р1 = р, то р2 = 1 – р и
I(p)= рlog2р (1 р) log2(1 – р).
При р 0 и при р 1, функция I(p) 0. График этой функции приведен на рис.3.2. Кривая симметрична относительно р=1/2 и достигает максимума при этом значении.
Ответ на бинарный вопрос может содержать не более 1 бит информации. Информация равна 1 бит только для равновероятных ответов; в остальных случаях она меньше 1 бит.
Пример 7. При угадывании результата броска игральной кости задается вопрос «Выпало 6?» Какое количество информации содержит ответ?
бит 1 бит.
«Выпало больше 2»? .
I = 0.387+0.527=0.914.
5. Формула (3.6) приводит еще к одному выводу. Пусть некоторый опыт имеет два исхода А и В, причем рА = 0.99, а рВ = 0.01.
В случае исхода А получим количество информации IА = log20.99 = 0.0145 бит, а в случае исхода В IB = log20.01 = 6.644 бит. Следовательно,
больше информации связано с теми исходами, которые менее вероятны.
Действительно, то, что наступит А, почти наверняка знали и до опыта; поэтому реализация такого исхода мало добавляет к нашей осведомленности.
Наоборот, исход В – очень редкий; информации связано с ним больше, осуществилось трудно ожидаемое событие.
Однако такое большое количество информации будем при повторах получать редко, поскольку мала вероятность В. Среднее количество информации
I = 0,99 IA + 0,01 IB = 0,081 бит.
6. В данном разделе рассмотрен вероятностный подход к определению количества информации. Он не является единственным. Как будет показано далее, количество информации можно связать с числом знаков в дискретном сообщении – такой способ измерения называется объемным. Можно доказать, что при любом варианте кодирования I вер. I об.
7. Объективность информации. При использовании людьми одна и та же информация может иметь различную оценку с точки зрения важности (значимости). Определяющим в такой оценке оказывается смысл (содержание) сообщения для конкретного потребителя.
Однако при решении практических задач технического характера содержание сообщения может не играть роли. Например, задача любой линии связи – точная и безошибочная передача сообщения. Техническое устройство не может оценить важность информации.
Вышеприведенное определение информации в статистическом смысле не зависит от того, кто и каким образом осуществляет выбор, а связанная с ним количественная мера одинакова для любого потребителя. Следовательно, появляется возможность описывать информационные процессы математическими уравнениями.
8. Информация и знание. На бытовом уровне, в науках социальной направленности, «информация» отождествляется с «информированностью», то есть человеческим знанием. В теории информации, напротив, информация является мерой нашего незнания чего-либо (но что в принципе может произойти). Состоявшееся событие не несет информации, поскольку пропадает его неопределенность.
Недопонимание указанных различий порождает попытки применения законов теории информации в тех сферах, где условия ее применимости не выполнены. Любая теория справедлива лишь в рамках своих исходных ограничений.