- •Теория информации, данные, знания
- •Лекции читает канд.техн.наук, доцент Литвинов Владислав Леонидович
- •Раздел 3: Основы количественной
- •Основные понятия теории информации. Количественные меры информации.
- •Литература
- ••Цель лекции: изучение количественных мер информации, изучение понятия энтропии и ее свойств.
- ••Информация (от лат. informātiō «разъяснение, представление, понятие о чём-либо» ← informare «придавать вид,
- •В международных и российских стандартах даются следующие определения:
- ••А.Н. Колмогоров определил кибернетику как науку о системах,
- ••Колмогоров Андрей Николаевич (1903 - 1987). Великий русский ученый, один из крупнейших математиков
- ••Сигнал – материальный носитель информации, обладающий переменными параметрами (звук, свет, радиосигналы, напряжение, угловое
- •Существует несколько взглядов на то, что принято считать информацией. Один взгляд сводится к
- ••Второй взгляд состоит в том, что информация – это физическая величина, такая же,
- ••Набор символов, в котором установлен порядок их следования, называется
- ••Поскольку при передаче сообщения параметр сигнала должен меняться, очевидно, что минимальное количество различных
- •Количество информации
- ••2-я количественная мера – мера Р.Хартли
- ••3-я количественная мера – мера К.Шеннона
- ••Количественная мера Шеннона получена из следующих соображений. Если символ появляется в сообщении с
- ••Допустим, поступило n независимых сообщений (ансамбль сообщений):
- ••Количество информации для неравновероятных независимых символов в сообщении
- ••Пример 1. Студент Вася сообщил, что у него день рождения 25 октября. Какое
- ••Количество информации в случае неравновероятных зависимых символов
- •Энтропия и ее свойства
- ••Энтропия – мера неопределенности случайного состояния некоторой системы.
- ••Пусть информационная система может порождать ансамбль
- ••Энтропия не зависит от конкретного сообщения. Это характеристика информационной системы (источника сообщений или
- •Свойства энтропии
- •• Раскроем неопределенность вида 0∙∞ по правилу Лопиталя.
- •2.Энтропия - величина неотрицательная и ограниченная.
- •3.Энтропия системы, имеющей m равновероятных состояний, максимальна и равна log2m.
- ••Следовательно, при двух символах в алфавите максимум энтропии достигается в случае равновероятных символов.
- •4.Совместная энтропия независимых источников сообщений равна сумме энтропий.
- •Заключение
- •Вопросы и задачи для самостоятельной работы
- •3.Бросаются одновременно две игральные кости. Определить количество информации, содержащееся в сообщении о том,
- •5.Имеются два ящика, в каждом из которых по 12 шаров. В первом –
- ••6.Какое количество информации требуется, чтобы узнать исход броска монеты?
- ••7. Игра «Угадайка–4». Некто задумал целое число в интервале от 0 до 3.
- •Таким образом, для решения задачи оказалось достаточно двух вопросов независимо от того, какое
- ••В Белгороде 280000 жителей. Какое минимальное количество вопросов, требующих ответа "да" или "нет",
- •• 8. АСУТП посредством АЦП опрашивает потенциометрические датчики Д1 и Д2, имеющие погрешность
- ••9. Эллочка-Людоедка знает 20 слов. В обычном состоянии она произносит в среднем 50
- ••10. В буфере ИС ожидают обработки 6 заданий. 2 из них запрашивают дополнительный
• Раскроем неопределенность вида 0∙∞ по правилу Лопиталя.
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
lim( x log2 x) limx log |
|
1 |
lim |
log x |
|
1 |
z |
|
|
|
|
|
|
||||||||
2 |
|
|
|
|
|
|
|
||||||||||||||
x |
|
x |
|
|
|
|
|
||||||||||||||
x 0 |
|
|
x 0 |
|
x 0 |
1 |
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
x |
|
|
|
|
|
|
|
|
|
|
|
lim |
log z |
lim |
(log2 z) |
|
|
(log2 z)' |
|
1 |
,log2 e |
1 |
|
lim |
loge |
0 |
|||||||
|
|
|
|||||||||||||||||||
z |
z' |
|
z ln 2 |
ln 2 |
|
z |
|||||||||||||||
z |
z |
|
|
|
|
|
|
|
|
|
|
|
z |
|
|||||||
•Следовательно, для детерминированного источника hi= 0 для всех i. С другой стороны, если ни одна p(ai)≠1, то ни одно слагаемое hi не обращается в 0. Что и требовалось доказать.
2.Энтропия - величина неотрицательная и ограниченная.
•Если каждое слагаемое hi=-p(ai)•log2p(ai) неотрицательно и ограниченно, то и их сумма также будет неотрицательна и ограниченна.
•Докажем неотрицательность:
•p(a) ≥ 0; p(a) ≤ 1 следовательно log p(a) ≤ 0 и (- p(a) log p(a)) ≥ 0.
•Докажем ограниченность, продифференцировав по p:
hi |
|
pi |
logpi pi |
logpi logpi pi |
1 |
logpi loge 0 |
|
pi ln 2 |
|||||||
pi |
|
pi |
|
pi |
|
•Следовательно, величина hi имеет экстремум (можно доказать, что это максимум), а значит это величина ограниченная (см. рис.2).
h
i
pi
0 |
1/e |
1 |
Рис. 2. К свойству ограниченности энтропии.
3.Энтропия системы, имеющей m равновероятных состояний, максимальна и равна log2m.
•Докажем максимальность
•Пусть m=2, тогда p1+p2=1
•H = -p1∙logp1 - p2∙logp2 = -p1∙logp1-(1-p1)∙log(1-p1). Чтобы найти максимум энтропии, определим и приравняем нулю частную производную.
H |
logp1 loge (1 p1 ) log(1 |
p1 ) (1 p1 ) |
log(1 p1 ) |
|||
|
||||||
p1 |
|
p1 |
|
|
p1 |
|
logp1 |
loge log(1 |
p1 ) (1 p1 ) |
1 |
|
||
(1 p1 ) ln 2 |
||||||
logp1 |
loge log(1 |
p1 ) loge 0. |
|
|
||
•-log p1 + log(1-p1) = 0
•p1= ½ = p2
•Следовательно, при двух символах в алфавите максимум энтропии достигается в случае равновероятных символов. То же можно доказать и для большего числа символов в алфавите.
•Найдем значение максимальной энтропии. Пусть все символы равновероятны: pi = 1/m.
m |
1 |
|
|
1 |
m |
1 |
|
|
Hmax |
log |
|
|
log |
2 m log2 m |
|||
|
2 |
m |
|
|||||
i 1 |
m |
|
i 1 |
m |
|
|||
• Q.e.d.
4.Совместная энтропия независимых источников сообщений равна сумме энтропий.
•Пусть источник А порождает ансамбль Na сообщений (a1, a2,…, aNa), источник B порождает ансамбль Nb сообщений (b1, b2,…, bNb) и источники независимы. Общий алфавит источников представляет собой множество пар вида (ai, bj), общая мощность алфавита равна
•Na ×Nb.
•Совместная энтропия композиции двух источников равна
Na Nb
H(A,B) P(ai ,bj )log P(ai ,bj )
i 1 j 1
•Поскольку A и B независимы, то P(ai,bj) = P(ai)∙P(bj), a log P(ai,bj) = log P(ai) + log P(bj). Отсюда вытекает:
|
Na Nb |
|
|
|
H(A,B) |
P(ai )P(bj )(log P(ai ) log P(bj )) |
|||
|
i 1 j 1 |
|
|
|
Na Nb |
|
|
Na Nb |
|
P(ai )P(bj )log P(ai ) P(ai )P(bj )log P(bj ) |
||||
i 1 j 1 |
|
|
i 1 j 1 |
|
• Изменим порядок суммирования |
|
|
||
|
Na |
Nb |
Nb |
Na |
H(A,B) P(ai )log P(ai ) P(bj ) P(bj )log P(bj ) P(ai ) |
||||
|
i 1 |
j 1 |
j 1 |
i 1 |
•
• |
учитывая, что |
Na |
Nb |
получим |
P(ai ) 1 |
и , P(bj ) 1 |
|||
|
|
i 1 |
j 1 |
|
|
Na |
|
Nb |
|
|
H(A,B) P(ai )log P(ai ) P(bj )log P(bj ) H(A) H(B) |
|||
|
i 1 |
j 1 |
|
|
•Вывод можно распространить и на большее количество независимых источников
Заключение
1.Информация – свойство материи, состоящее в том, что в результате взаимодействия объектов между их состояниями устанавливается определенное соответствие.
2.Предложены 3 количественные меры информации. Наиболее общий подход на основе теории вероятности используется в 3-й (шенноновской) мере.
3.Энтропия – мера неопределенности случайного состояния некоторой системы, определяется как математическое ожидание количества информации в сообщении.
4.Энтропия - величина неотрицательная и ограниченная, равна 0 только в случае детерминированности системы.
5.Энтропия системы, имеющей m равновероятных состояний, максимальна и равна log2m.
Вопросы и задачи для самостоятельной работы
1.В студенческой группе 24 человека: 21 юношей и 3 девушки. Определить количество информации, содержащееся в сообщении, что староста группы – девушка.
–Pешение. Вероятность того, что староста группы – девушка, равна P = 3/24 = 1/8 (считаем, что решение о назначении старосты не зависит от пола студента). По
формуле (4) количество информации в таком сообщении равно
log2P = log21/8 = 3 (бита).
2.В лотерее N билетов, из них k выигрышных. Студент купил M билетов и после розыгрыша сообщил вам, что выиграл (но, возможно, и не на один билет). Какое количество информации вы получили?
