
- •Основы Теории Информации Гордеев э.Н.
- •Содержание
- •1Введение
- •1.1Предмет курса
- •1.2Основная цель курса
- •1.3Теория информации и смежные дисциплины
- •1.4Подходы к определению понятия информация.
- •2Алфавит. Слово. Язык. Информация.
- •3Информация и алгоритм.
- •3.1Задачи, алгоритмы
- •3.1.1Задача
- •3.2Алгоритм
- •3.2.1Нормальные алгорифмы Маркова (нам).
- •3.2.2Машины Тьюринга
- •4Кодирование информации. Количество информации. Сжатие информации.
- •4.1Кодирование информации.
- •4.1.1Примеры кодировок
- •4.1.2Свойства кодировок
- •4.2Наиболее распространенные способы кодирования и их свойства. Алгоритмы кодирования.
- •4.2.1Кодирование слов и поиск минимального кода
- •4.2.2Признаковое кодирование.
- •4.2.3Признаковое кодирование и проблема распознавания.
- •4.2.4Сериальное кодирование
- •4.2.5Алфавитное кодирование.
- •4.2.5.1Неравенство Крафта.
- •4.2.5.2Префиксные коды.
- •4.2.6Кодирование натурального ряда.
- •4.2.6.1Код Элайеса.
- •4.2.6.2Код Левенштейна
- •5Количество информации. Энтропия.
- •5.1.1Энтропия по Хартли.
- •5.1.2Энтропия по Шеннону.
- •5.1.2.1Математическая модель: алфавитное кодирование случайного источника.
- •5.1.2.2Энтропия по Шеннону
- •5.1.2.3Энтропия по Шеннону и энтропия по Хартли.
- •6Теорема Шеннона
- •7Свойства энтропии.
- •8Алгоритмы кодирования
- •8.1Алгоритм Шеннона (Фано)
- •8.2Алгоритм Хаффмана
- •8.3Блочное кодирование
- •8.4Алгоритм арифметического кодирования
- •8.5Код Элайеса
- •8.6Код Левенштейна
- •9Блочное кодирование и теорема Шеннона.
- •10Канал с шумом.
- •10.1Модели каналов.
- •10.2Передача информации по двоичному симметричному каналу с шумом
- •10.2.1Схема и принципы кодирования.
- •10.3Корректирующие способности кодов. Границы мощности.
- •10.4Теорема Шеннона для канала с шумом.
- •10.4.1Факты из теории вероятности.
- •10.4.2Схема кодирования и декодирования. Вспомогательные утверждения.
- •10.4.3Вероятностное доказательство теоремы.
- •10.4.4Комбинаторное доказательство теоремы.
- •10.5Линейные коды
- •10.5.1Пример. Код Хемминга.
- •10.5.2Замечание. Совершенные коды и теорема Шеннона.
- •10.5.3Бчх – коды
- •10.6Спектр кода. Эквидистантные коды
- •11Рекомендованная литература
5.1.2Энтропия по Шеннону.
Этот теоретический предел возможного сжатия и определяется количеством информации в том слове (множестве слов) с помощью которых информация представлена.
5.1.2.1Математическая модель: алфавитное кодирование случайного источника.
Рассмотрим следующую модель. Имеется источник, который поочередно генерирует буквы алфавита A=(a1…an) с вероятностями p1…pn. То есть имеет место следующая ситуация.
Каждая буква ai генерируется с некоторой вероятностью pi. Эта вероятность pi не зависит от того, что выдал источник ранее и что он будет выдавать потом. Она также не зависит от очередности выдачи букв источником и от того, какой по счету от начала выдачи выдана данная буква. Такой источник называется источником Бернулли, что является частным случаем стационарного источника. На практике встречаются и другие источники. Для них приведенный ниже результаты неверны, но могут быть получены их аналоги.
5.1.2.2Энтропия по Шеннону
Опр. Энтропией случайного источника (энтропией Шеннона) называется число
H(A)
=
.
В качестве замечания приведем следующее рассмотрение, которое показывает, почему данная формула выглядит именно так.
Пусть мы хотим ввести меру µ(A), которая характеризовала бы случайный источник.
Наложим на меру ограничения:
µ(A) = φ(p1…pn)
µ(A) ≥ 0, µ(A) < M
A×A – опыт на множестве A – 2 раза. Вероятность генерации следующей буквы не зависит от предыдущей итерации. φ(n2) исходов. φ(nk) = k φ(n)
φ(n) – монотонна по n
p1 < … pn = 1/n → φ(n) схожа с энтропией по Хартли.
Пусть a, n – целые неотрицательные числа.
Для любых a, n существует k: 2k ≤ an ≤ 2k+1
(1)
k < n log a < k+1
Применим монотонность φ к (1):
φ(2k) ≤ φ(an) ≤ φ(2k+1)
k φ(2) ≤ n φ(a) ≤ (k+1) φ(2)
k
k+1
(поделим на n и устремим
к ∞)
φ(a) – φ(ε) log a → 0
φ(a) = φ(2) log a (возникает в 5 случае) – мера неопределенности
φ(n) = φ(2) log n – константа, необходимая для различия 2 элементов, полагаем ее равной 1 (отсюда и следует понятие бита)
Опыт A:
Пусть pi – рациональные числа, p1…pk, n – НОК знаменателей pi.
Тогда
Опыт B:
n
равновероятных событий
разобьем на k групп
.
Сначала определим, в какой группе
необходимо исследовать события. Тогда
5.1.2.3Энтропия по Шеннону и энтропия по Хартли.
Заметим, что Энтропия по Хартли является
частным случаем энтропии по Шеннону.
Если все
, то H(A)
= log n
, а это и есть Энтропия по Хартли
множества из n
элементов. В общем случае справедливо
следующее утверждение, которое показывает,
что энтропия по Хартли является оценкой
сверху для энтропии по Шеннону. То есть
ситуация равновероятных событий
наихудшая с точки зрения информативности.
В следующем и других доказательствах нам потребуется математический факт, известный как неравенство Йенсена.
Неравенство
Йенсена. Пусть даны числа α1…αn
, αi>0
,
.
Тогда для выпуклой вверх функции
f(x) справедливо неравенство.
Теорема: Пусть имеется случайный источник, который генерирует буквы алфавита A = (a1…an) с вероятностями p1…pn,тогда справедливо соотношение
H(A)
=
.
Доказательство. Рассмотрим функцию f(x) = -x log x. Так как f’(x) = - log x – 1/ln2 и f’’(x) = - 1/x , то при
x ≥ 0 функция f(x) выпукла вверх. Тогда для нее справедливо неравенство Йенсена:
Возьмем
α1…αn
, αi>0
,
Положим ai = 1/n, xi = pi ,i=1,…,n.
H(A)
=
Здесь мы учли, что
.
Теорема доказана.