- •Э.Н.Гордеев теория информации и сложность алгоритмов
- •Гордеев Эдуард Николаевич теория информации и сложность алгоритмов.
- •Раздел 1. Информация и Алгоритм. Коды объектов. 6
- •Раздел 2. Сжатие информации. 11
- •Раздел 1. Информация и Алгоритм. Коды объектов. 5
- •2.2 Основной вывод: информация и алгоритм – взаимообусловленные понятия. 8
- •Раздел 2. Сжатие информации. 11
- •Раздел 1. Информация и Алгоритм. Коды объектов.
- •Введение
- •Предмет курса
- •Основная цель курса
- •Что такое информация?
- •Подходы к определению информации.
- •Описательный подход
- •Использование аналогии и эквивалентности
- •Основной вывод: информация и алгоритм – взаимообусловленные понятия.
- •Представление (кодирование) информации.
- •Раздел 2. Сжатие информации.
- •Кодирование информации. Количество информации. Сжатие информации.
- •Энтропия по Хартли.
- •Энтропия по Шеннону.
- •Математическая модель: алфавитное кодирование случайного источника.
- •Энтропия по Шеннону и энтропия по Хартли.
- •Свойства энтропии.
- •Алгоритмы кодирования
- •Алгоритм Шеннона (Фано).
- •Алгоритм Хаффмана
- •Блочное кодирование Хаффмена.
- •Замечание. О длине блока и сложности кодирования.
- •Блочное кодирование и теорема Шеннона.
- •Раздел 3. Передача информации. Защита от искажений.
- •Передача информации по каналу с шумом.
- •Передача информации по двоичному симметричному каналу с шумом
- •Корректирующие способности кодов. Границы мощности.
- •Теорема Шеннона для канала с шумом.
- •Факты из теории вероятности.
- •XI → канал → y
- •Вероятностное доказательство теоремы.
- •Комбинаторное доказательство теоремы.
- •Примеры кодов, исправляющих ошибки. Линейные коды.
- •Спектр кода.
- •Линейные коды.
- •Теорема об эквидистнантных кодах
- •Рекомендованная литература
Свойства энтропии.
Здесь в качестве справки мы приведем некоторые свойства энтропии по Шеннону. Это даст вам возможность лучше понять смысл этого понятия и сферу его практического применения.
Случайный источник можно трактовать как событие с множеством исходов, вероятности которых заданы.
Рассмотрим два события X и Y. Исходы первого события будем обозначать через x, а второго - через y. Введем по определению понятие условной энтропии H(X/y).
H(X|y)
=
.
Это случайная величина. А теперь усредним H(X|y) по всему множеству Y и получим уже неслучайную величину H(X|Y).
Перейдем теперь к перечислению свойств. В некоторых случаях приводятся доказательства.
H(X)
0 .H(X) является выпуклой вверх функцией своих аргументов функция своих аргументов p1…pn .
H(X)
log|X| (если
все события равновероятны, то энтропия
максимальна).H(X|Y) H(X) (Аналог свойства 3 для условной энтропии. Дополнительная
информация не увеличивает энтропию).
Пусть Х и Y – независимые события. Справедливо равенство
H(XY) = H(X) + H(Y).
Пусть два события имеют равное число исходов, а вероятности этих исходов как множества совпадают, т.е. они состоят из одних и тех же (p1,…,pn), но в разном порядке. Справедливо равенство
H(X) = H( X’).
Пусть есть событие Х = (p1,…,pn) и некоторое подмножество его исходов А
(p1,…,pn).
Построим новое событие ХА
таким образом, что его исходы задаются
вероятностями
(«сглаживание» фрагмента).
Справедливо неравенство
H(х) H(ХА).
Доказательство. Доказательство следует из свойств следует из (2) и (6).
По свойству
(2) энтропия выпуклая вверх функция своих
аргументов, а для такой функции f
выполняется неравенство Йенсена
.(Здесь
числа α1…αn
, αi>0
,
.)
Без ограничения общности считаем, что первые m элементов Х образуют подмножество А, т.е. исходы X задаются вероятностями p1…pmpm+1…pn
Строим вспомогательные события:
X
1
= X
X2 = p2p3…pmp1 pm+1…pn
X3 = p3p4…p1p2 pm+1…pn
Xm = pmp1…pm-2pm-1 pm+1…pn
Из свойства (6)следует, что H(X) = H(X1) = … = H(Xm) (все события состоит из одинаковых множеств значений вероятностей). Тогда можно ХА представить в виде (H(X) + H(X1)+ … + H(Xm))/m. Применяем неравенство Йенсена, где все αi=1/m. Получаем H(ХА)≥ (H(X) + H(X1)+ … + H(Xm))/m. Отсюда следуетH(ХА)≥H(A).
H(XY) = H(X) + H(Y|X) = H(Y) + H(X|Y).
Следует из известных в теории
вероятностей соотношений: P(XY)
= P(X)
P(Y|X)
и P(XY)
= P(Y)
P(X|Y).
H(X1X2…Xn) = H(X1) + H(X2| X1) + H(X3| X1 X2) + … + H(Xn| X1 X2… Xn-1).
Следует из известных в теории вероятностей соотношения: P(X1…Xn) = P(X1) P(X2|X1) … P(Xn|X1,…,Xn-1).
H(X|YZ) H(X|Y).
Доказывается по аналогии с доказательством свойства (4).
Пусть задано событие X и на множестве его исходов определена функция y = g(x). Введем событие Y с множеством исходов y = g(x). Тогда H(Y) H(X). Равенство H(Y) = H(X) достигается тогда и только тогда, когда существует обратная функция g – 1.
Доказательство. Следует из свойства (8).
H(X)
+ H(Y|X)
= H(Y)
+ H(X|Y)
H(Y)
= H(X)
+ H(Y|X)
– H(X|Y)
0.
Т.к. у полностью определяется по х, то H(Y|X) = 0.
