- •Введение
- •1. Предмет информатики
- •1.1 Роль информации в современном обществе
- •1.2 Информационные барьеры в истории человечества
- •1.3 Предметная область информатики
- •2. Теория информации
- •2.1 Исходные понятия теории информации
- •2.2 Формы представления информации
- •2.3 Преобразование сообщений
- •3. Понятие информации в теории Шеннона
- •3.1 Понятие энтропии
- •3.2 Условная энтропия
- •3.3 Статистическое определение информации
- •3.4 Энтропия и информация
- •3.5 Информация и алфавит
- •4. Кодирование символьной информации
- •4.1 Постановка задачи кодирования. Первая теорема Шеннона
- •4.2 Алфавитное неравномерное двоичное кодирование сигналами равной длительности
- •4.2.1 Неравномерный код с разделителем
- •4.2.2 Префиксное неравномерное кодирование
- •4.3 Равномерное алфавитное двоичное кодирование. Байтовый код
- •4.4 Алфавитное кодирование с неравной длительностью элементарных сигналов. Код Морзе
- •4.5 Блочное двоичное кодирование
- •5. Кодирование и представление чисел в компьютере
- •5.1 Системы счисления
- •5.2 Перевод чисел из одной системы счисления в другую
- •5.3 Перевод чисел между системами счисления с основанием 2k
- •5.4 Формы представления вещественных чисел
- •5.5 Кодирование целых чисел в компьютере
- •5.5.1 Кодирование в компьютере целых чисел без знака
- •5.5.2 Кодирование в компьютере целых чисел со знаком
- •5.6 Кодирование в компьютере вещественных чисел
- •5.7 Двоично-десятичные коды
- •5.7.1 Код (8421) – код прямого замещения
- •6. Обработка чисел в компьютере
- •6.1 Выполнение операций сложения
- •6.2 Сложение нормализованных чисел
- •6.3 Выполнение операции умножения
- •6.3.1 Общий алгоритм умножения
- •6.3.2 Особенности умножения в форме с плавающей запятой
- •6.4 Деление чисел
- •7. Кодирование графической и звуковой информации
- •7.1 Представление изображений
- •7.2 Представление звука
- •Список литературы
- •Родина Наталья Васильевна Информатика
- •Часть 1
- •107846, Москва, ул.Стромынка, 20
3.2 Условная энтропия
Найдем энтропию сложного опыта в том случае, если опыты не являются независимыми, то есть если на исход оказывает влияние результат опыта .
Например, если в ящике всего 2 разноцветных шара и состоит в извлечении первого, а – второго из них, то полностью снимает неопределенность сложного опыта , то есть H()=H(), а не сумме энтропии.
Связь между и состоит в том, что какие-то из исходов А() могут оказывать влияние на исходы из B(), то есть некоторые пары событий AiBj не является независимыми, тогда следует р(AiBj)= р(Ai)рAi(Bj), где рAi(Bj) – вероятность наступления исхода Bj при условии того, что в первом опыте имел место исход Ai – условная вероятность. Энтропия такого опыта
log2р(AiBj)=log2р(Ai) + log2рAi(Bj). (3.5)
Окончательно для энтропии сложного опыта:
H() = H()+ H(), где H() – средняя условная энтропия опыта при условии выполнения опыта .
Относительно условной энтропии верны следующие утверждения:
Условная энтропия является величиной неотрицательной.
H()=0, только в том случае, если любой исход полностью определяет исход (пример с двумя шарами), то есть HA1()= HA2() = HA3()= … = = HAn() = 0. Тогда H() = H().
2. Если опыты и независимы, то H() = H(), причем это оказывается наибольшим значением условной энтропии. Другими словами, опыт не может повысить неопределенность опыта – он может либо не оказать никакого влияния (если опыты независимы), либо понизить энтропию .
Утверждения 1 и 2 можно объединить неравенством 0 H() H().
3. Из соотношений 1 и 2 следует, что H() H() + H(), причем равенство реализуется только в том случае, если опыты и – независимы.
Пример 3. В ящике имеются 2 белых шара и 4 черных. Из ящика извлекают последовательно 2 шара без возврата. Найти энтропию, связанную с 1-ым извлечением, 2-м извлечением, а также энтропию обоих извлечений.
Будем считать опытом извлечение 1-го шара.
Он имеет 2 исхода: A1 – вынут белый шар р(A1)= 2/6 = 1/3,
A2 – вынут черный шар р(A2) = 4/6 = 2/3.
H= р(A1)log2р(A1) р(A2)log2р(A2) = бит.
Опыт также имеет 2 исхода: B1 – вынут белый шар;
B2 – вынут черный шар.
Однако их вероятности будут зависеть от того, каким был исход опыта . В частности,
при A1 рA1(B1) = 1/5 рA1(B2) = 4/5,
при A2 рA2(B1) = 2/5 рA2(B2) = 3/5.
Следовательно, энтропия второго опыта является условной:
HA1() = .
HA2() = .
H = 0,722 + 0,971 = 1,693.
H() = р(A1) HA1() + р(A2) HA2()= бит.
H() = H()+ H() = 0,918 + 0,888 = 1,806 бит.
3.3 Статистическое определение информации
Поучительность только что рассмотренного примера в том, что у него отчетливо видно, как предшествующий опыт () может уменьшить количество исходов, и, следовательно, неопределенность последующего опыта ().
Разность H() и H(), очевидно, показывает, какие новые сведения относительно получаем, проведя опыт .
Эта величина называется информацией (I) относительно опыта , содержащейся в опыте
I (,) = H().
Данное выражение открывает возможность численного измерения количества информации, поскольку оценивать энтропию уже умеем. Из него легко получить ряд следствий:
Следствие 1. Поскольку единицей измерения энтропии является бит, то в этих же единицах может быть измерено количество информации.
Следствие 2. Пусть опыт = , то есть просто произведен опыт . Поскольку он несет полную информацию о себе самом, неопределенность исхода полностью снимается, то есть
H() = 0. Тогда I (,) = H (), следовательно,
энтропия равна информации относительно опыта, которая содержится в нем самом, или
энтропия опыта равна той информации, которую получаем в результате его осуществления.
Отметим ряд свойств информации:
1. I (,) 0, причем I (,) = 0 тогда и только тогда, когда опыты и независимы.
2. I (,) = I (,), то есть информация симметрична относительно последовательности опыта.
3. Формула определения количественного значения информации
I = . (3.6)
То есть информация опыта равна среднему значению количества информации, содержащейся в каком-либо одном его исходе.
Пример 4. Какое количество информации требуется, чтобы узнать исход броска монеты?
n=2, события равновероятны р1=р2= и
I = .
Пример 5. «Угадайка-4». Некто задумал число в интервале от 0 до 3. Опыт состоит в угадывании этого числа. На наши вопросы Некто может отвечать лишь Да/Нет. Какое количество информации должны получить, чтобы узнать задуманное число? Как правильно построить процесс угадывания?
Возможные исходы: А1 – задуман 0, А2 – задумана 1, А3 – задумана 2, А4 - задумана 3.
Так как все исходы равновероятны, то р(А1) = р(А2) = р(А3) = р(А4) = ,
I = ( бит информации.
Какие вопросы надо задать, чтобы процесс угадывания был оптимальным, то есть содержал минимальное их число?
Дерево вопросов для угадывания приведено на рисунке 3.1. Вопросы, задаваемые отгадывающим игроком – бинарные (т.е. имеют 2 возможных равновероятных ответа).
Следовательно, для решения задачи оказалось достаточно 2-х вопросов независимо от того, какое число было задумано. Совпадение между количеством информации и числом вопросов с бинарными ответами неслучайно.
Количество информации численно равно числу вопросов с равновероятными бинарными вариантами ответов, которые необходимо задать, чтобы полностью снять неопределенность задачи.
Если все n исходов равновероятны, то формула (3.6) приобретает вид
, то есть
I = log2 n . (3.7)
Эта формула была выведена в 1928 году американским инженером З. Хартли и носит его имя. Она связывает количество равновероятных состояний (n) и количество информации в сообщении (I), что любое из этих состояний реализовалось.
Частным случаем для n = 2k является I = k бит (примеры с монетой и «Угадайка-4»).