
- •Основы Теории Информации Гордеев э.Н.
- •Содержание
- •1Введение
- •1.1Предмет курса
- •1.2Основная цель курса
- •1.3Теория информации и смежные дисциплины
- •1.4Подходы к определению понятия информация.
- •2Алфавит. Слово. Язык. Информация.
- •3Информация и алгоритм.
- •3.1Задачи, алгоритмы
- •3.1.1Задача
- •3.2Алгоритм
- •3.2.1Нормальные алгорифмы Маркова (нам).
- •3.2.2Машины Тьюринга
- •4Кодирование информации. Количество информации. Сжатие информации.
- •4.1Кодирование информации.
- •4.1.1Примеры кодировок
- •4.1.2Свойства кодировок
- •4.2Наиболее распространенные способы кодирования и их свойства. Алгоритмы кодирования.
- •4.2.1Кодирование слов и поиск минимального кода
- •4.2.2Признаковое кодирование.
- •4.2.3Признаковое кодирование и проблема распознавания.
- •4.2.4Сериальное кодирование
- •4.2.5Алфавитное кодирование.
- •4.2.5.1Неравенство Крафта.
- •4.2.5.2Префиксные коды.
- •4.2.6Кодирование натурального ряда.
- •4.2.6.1Код Элайеса.
- •4.2.6.2Код Левенштейна
- •5Количество информации. Энтропия.
- •5.1.1Энтропия по Хартли.
- •5.1.2Энтропия по Шеннону.
- •5.1.2.1Математическая модель: алфавитное кодирование случайного источника.
- •5.1.2.2Энтропия по Шеннону
- •5.1.2.3Энтропия по Шеннону и энтропия по Хартли.
- •6Теорема Шеннона
- •7Свойства энтропии.
- •8Алгоритмы кодирования
- •8.1Алгоритм Шеннона (Фано)
- •8.2Алгоритм Хаффмана
- •8.3Блочное кодирование
- •8.4Алгоритм арифметического кодирования
- •8.5Код Элайеса
- •8.6Код Левенштейна
- •9Блочное кодирование и теорема Шеннона.
- •10Канал с шумом.
- •10.1Модели каналов.
- •10.2Передача информации по двоичному симметричному каналу с шумом
- •10.2.1Схема и принципы кодирования.
- •10.3Корректирующие способности кодов. Границы мощности.
- •10.4Теорема Шеннона для канала с шумом.
- •10.4.1Факты из теории вероятности.
- •10.4.2Схема кодирования и декодирования. Вспомогательные утверждения.
- •10.4.3Вероятностное доказательство теоремы.
- •10.4.4Комбинаторное доказательство теоремы.
- •10.5Линейные коды
- •10.5.1Пример. Код Хемминга.
- •10.5.2Замечание. Совершенные коды и теорема Шеннона.
- •10.5.3Бчх – коды
- •10.6Спектр кода. Эквидистантные коды
- •11Рекомендованная литература
10.3Корректирующие способности кодов. Границы мощности.
Пусть k – число информационных символов. Закодировали 2k слов.
C(p) = 1 – H(p) – доля канала, предназначенного для информации.
Ниже (теорема Шеннона для канала с шумом) будет показано, что существуют коды, когда для любого Ԑ V(C) и 1- H(p) отличаются на Ԑ.
Опр. Код называется кодом, исправляющим t ошибок, если алгоритм декодирования
правильно декодирует все слова, в которых при передаче по каналу произошло
не более t ошибок.
Утверждение. (n,M,d)-код
– код с исправлением
ошибок.
Есть еще коды, обнаруживающие ошибки.
Опр. Код называется кодом, обнаруживающим t ошибок, если в случае, когда
произошло не более t ошибок, декодер выдает сообщение об ошибке.
Утверждение. (n,M,d)-код
обнаруживает
ошибку.
Мажоритарное кодирование – схема, где слово повторяется p раз.
a = 11 → 11|10|11|00|11|11|11 – передали по каналу 7 раз.
На первой позиции 6 раз «1» и 1 раз «0» a = 1х.
На второй позиции 5 раз «1» и 2 раза «0» a = 11.
Избыточность огромна. Уместно при высоких p (~1/10), при p~1/1000 уже бессмысленно.
Введем A(n,d) – максимальная мощность кода в Bn с расстоянием d.
Утверждение. Пусть есть множество
V=(α1…
αk),
.
Также есть множество V’=(β1…
βS),
и
для любых x,y
V’:
множества
не пересекаются.
Доказательство. От противного.
где
,
.
Теорема (граница Хемминга)
Доказательство:
Пусть V – наш код,
V’ – шар радиуса
t, тогда в это шаре
расстояние между двумя любыми точками
.
Таких множеств //
//
.
По определению
и получим искомое неравенство.
Теорема (граница Джоши)
Доказательство:
Пусть V – код с
расстоянием d,
,
V’ – множество
всех векторов, у которых
.
Тогда
,
для любых x,y
V’:
.
.
Теперь получим оценку снизу.
0
0.1
0.2
0.3
0.4
0.5
d/2n
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
k/n
0.156
x
П
ВГ
Теорема (Варшамова-Гильберта)
Доказательство:
Построим код V*следующим образом:
И
терации:
x1 → V*
x2 → V* \ St(x’)
… p-1 точка кода.
p)
xp
→ V*
\
В какой-то момент сделать это не сумеем. Расстояние между любыми точками таким образом построенного кода равняется 2t, откуда и следует неравенство.
Теорема (Плоткина)
Доказательство:
Рассмотрим код
.
Построим таблицу.
k1 k2 kn – количество единиц в каждом столбце.
Рассмотрим сумму расстояний между всеми кодовыми словами.
Здесь каждое расстояние подсчитано 2
раза. Тогда
.
max x(S-x) достигается при x = S/2. Воспользуемся этим.
(
)
Хотим, чтобы
.
Поставим это неравенство в (
):
10.4Теорема Шеннона для канала с шумом.
10.4.1Факты из теории вероятности.
- случайная величина.
- мат. ожидание.
- дисперсия.
Теорема (неравенство Чебышева)
Испытание Бернулли, вероятность успеха
p (неудача 1- p).
Есть n испытаний. Тогда
.
Доказательство:
10.4.2Схема кодирования и декодирования. Вспомогательные утверждения.
Если передается слово из n
0 и 1, то
- вектор, подчиняется распределению
Бернулли
мат.
ожидание и дисперсия такого вектора
считаются по доказанному выше.
1) Есть код C = {x1…xm} – кодовые слова
2) Применяем декодирование в ближайшее слово (по наибольшему правдоподобию)
П
ередача Прием
a x1 T(C) – таблица
b x2
… …
… xM
3) Вероятность ошибки декодирования
P(x) – вероятность неправильного декодирования x * Bn. ∑P(x) – зависит от комбинаторных свойств кода, ошибки p, потерь в канале и т.д.
Pc (характеристика кода C) = 1\M ∑P(x)
Число различных кодов в Bn:
*формула*
- число кодов мощности M
в Bn.
Пусть L – множество таких кодов. ρ(x) – вероятность правильного декодирования.
ρс = 1\M ∑ρ (x)
Pc + ρс = 1
P*(M,
n, p)
= min Pc →
P*(M,
n, p)
≤
,
где P*(M,
n, p)
– характеристика существующего кода,
являющаяся наилучшей из возможных с
точки зрения ошибки декодирования.
На сегодняшний день наилучший код не найден, все существующие отличны от него в константу раз.
Лемма ( ): Возьмем точку в Bn и шар S[pn](x), оценим число точек в нем: |S[pn](x)| ≤ 2nH(p)
Доказательство: |S[pn](x)|
=
Вспомним, что 0 ≤ p < 1\2, принцип – декодирование в ближайшее, (1 – p)n ≥ p(1 – p)n-1 ≥ … ≥ pk(1-p)n-k
,
где
- мощность.
Тогда |S[pn](x)|
≤ (p[pn]
(1 – p) n
– [pn])-1
=
= 2nH(p)
xi → канал → Y
Считаем, что Y = xi + e, e – вектор ошибок
τ – случайная величина = |e| (количество ошибок)
Т.к. источник Бернулли, то E(τ) = np, D(τ) = np (1 – p)
b =
- добавим к мат ожиданию, тогда радиус
шара *формула*
Лемма (
):
P{ τ > ρ}
≤ ε\2 для любого заранее
заданного ε.
Доказательство: Применим неравенство Чебышева:
P{| τ – E(τ)| > ε} ≤ D(τ)\ε2
ρ = [E(τ) + b]
P {|τ – nP| > b} ≤ D(τ) \ b2
P{| τ – nP| > b} ≤ ε\2
P(τ > ρ) = P{|τ – nP| > b} – проверим это:
- τ np τ
τ > nP +b
τ – nP > b
Лемма (
):
Пусть ρ = [E(τ)
+ b] и b
= формула, тогда 1\n log
|Sρ(x)|
≤ H(P) –
O(n-1\2)
при n → ∞.
Доказательство: Из леммы ( ) и леммы ( ):
|Sρ(x)| ≤ 2nH(ρ\n) . Домножим на log и поделим на n.
1\n log |Sρ(x)| ≤ H(ρ\n) = - ρ\n log ρ\n – (1 – ρ\n) log (1 – ρ\n) = - [nP + b]\n log [nP + b]\n – (1 – [nP + b]\n] log (1 – [nP + b]\n) ≈ -P log P – (1 – P) log (1 – P) – O(b\n) = O(n-1\2)