
- •Сибирская Аэрокосмическая Академия
- •Статический метод
- •Энтропия и её свойства
- •Энтропия сложной системы
- •Условная энтропия. Объединение зависимых систем.
- •Полная условная энтропия
- •Теорема сложения энтропий
- •Определение информационных потерь в каналах связи
- •Энтропия и информация
- •Взаимная информация
- •Сумма равна единице
- •Частная информация о системе
- •Частная информация о событии, получаемая в результате сообщения о другом событии.
- •Энтропия и информация для систем с непрерывным множеством состояний
- •Условная энтропия непрерывной системы
- •Количественное определения избыточности
- •Блочное кодирование
- •Избыточность от округления
- •1 Символ – 4 бита
- •Код Хафмана
- •Процедура кодирования
- •Передача информации по дискретным каналам связи
- •Основная теорема Шеннона о кодировании для дискретного канала без помех
- •Дискретный канал с помехами
- •Теорема о кодировании Шеннона для дискретного канала с помехами
- •Корректирующие коды
- •Исправление ошибок с помощью полной кодовой таблицы
- •Разбиение
- •Систематические коды
- •Декодирование систематических кодов
- •Код Хэминга
- •Декодирование кода Хэминга
- •Особенности декодирования.
- •Циклические коды
- •Декодирование циклических кодов
- •Построение декодированного конкретного циклического кода
- •Обнаружение и определение ошибок
- •Коды, обнаруживающие трёхкратные ошибки
Условная энтропия непрерывной системы
Пусть имеется две системы: X и Y, они взаимозависимы и непрерывны.
f(x, y) – плотность распределения для состояния определнной системы.
f1(x) – плотность распределения системы X.
f2(y) – плотность распределения системы Y.
f(y/x), f(x/y) – условная плотность распределения. Имея эти плотности, можно определить
условную энтропию.
Частная условная энтропия
Полная средняя условная энтропия получившаяся в результате осреднения
Для непрерывных систем – энтропия совместимых систем равна сумме энтропий.
H(x, y) = H(x) + H(y / x)
Пример:
Найти энтропию непрерывной системы X,
все состояния которой на участке от
до
равновероятны.
H*
=
=
Пример:
Для нормального закона распределения.
H(x)
=
Подставляем f(x) и log в интеграл, получим после вычисления
Проводимые исследования различных законов распределения показали, что наилучшим законом распределения является равномерный закон. Если накладываются ограничения - мощность сигнала равная постоянной величине, - наилучшим законом распределения является нормальный.
Количественное определения избыточности
Наличие вероятностных зависимостей между элементами сообщения уменьшает количество информации, приходящейся на каждый элемент сообщения.
Пример, который подтверждает справедливость данного утверждения.
Пример: Пусть имеется два элемента a, в. Рассмотрим случаи передачи информации с помощью этих элементов:
1) Элементы независимы и равновероятны
1
бит/символ m
– количество
переданных символов
Элементы независимы и неравновероятны
бит/символ
Элементы взаимозависимы и равновероятны
p(a) = p(b) = ½
Пусть p(a / a) = p(b / b) = p1 – вероятность повторения символов
p(a / b) = p(b / a) = p2 - вероятность чередования символов
-
p1,p2
½, ½
¼, ¾
1/8, 4/8
0, 1
1
0.815
0.541
0
Элементы взаимозависимы и неравновероятны
p(a) = ¾; p(b) = ¼
p(a / a) = 2/3 p(b / a) = 1/3
p(a / b) = 1 p(b / b) = 0
I|
=
=
0.685бит/символ
Пусть передаётся сообщение из n взаимозависимых и не равновероятных элементов.
I = n * I|
Если устранить внутренние вероятностные связи, то информация возрастёт до максимального значения Imax . При этом тоже количество информации может содержаться в сообщении из меньшего числа элементов n0.
В
данном случае мерой избыточности может
служить относительное число лишних
элементов. Обозначим избыточность
символом D.
-
мера избыточности
Если принять, что избыточность определяется только взаимосвязью элементов, то
Если
принять, что избыточность определяется
только распределением вероятностей,
то в качестве
,
m –количество
элементов
Таким образом, выделяют две частных избыточности:
Частная избыточность, обусловленная взаимосвязью между элементами
Частная избыточность, зависящая от распределения вероятностей
m
– количество
символов алфавита
Выделяют полную информацию избыточность
D
= Dp
+ Ds
– DpDs
Dp
+ Вы
Рассмотрим основные цифры и порядки для рассмотрения примера
-
относительная величина
Ds
* Dp
= 0.03 принебрегаем
Пример избыточности в нашем языке можно проиллюстрировать следующими цифрами. Если бы все комбинации букв были возможны, то имея 30 букв, можно было бы составить 301 = 30 однобуквенных слов. 302 = 900 – двухбуквенных слова. 303 = 27 000 – трёхбуквенных слова. 304 = 810 000 – четырёх буквенных слова.
Обычный
язык содержит 50 000 слов, т.е. среднее
число букв в слове, составляет примерно
3,5. В обычном в языке среднее число букв
в слове семь, следовательно, возможные
комбинации 307= 21 * 109- столько
слов можно было бы иметь, следовательно,
количество букв, которые являются
словами =
.
Один из методов борьбы с избыточностью применение неравномерных кодов. Метод построения оптимального неравномерного кода Шеннона - Фана. Пусть в алфавите имеется n букв и вероятности появления этих букв. Расположим эти буквы в порядке убывания их вероятностей. Затем разбиваем их на две группы так, чтобы суммарная вероятность в каждой группе по возможности была одинаковой (верхнюю группу кодируем единицей, а нижнюю нулём). Это будет первый символ кода. каждую из полученных групп делим снова на две части возможно близкой к суммарной вероятности, присваиваем каждой группе двойной символ: (один или ноль). Процесс деления продолжаем, пока не придём к первой группе.
Пример: Данный алфавит, содержит шесть букв.
-
Буква
Вер-ть
1
2
3
4
a1
0.4
1
a2
0.2
0
1
a3
0.2
0
0
1
a4
0.1
0
0
0
1
a5
0.05
0
0
0
0
1
Длина буквы
a60.05
0
0
0
0
0
В случае равномерного кодирования потребовалось бы три бита (23 = 8).
Для данного кода
Длина
буквы
бит/символ
Подсчитаем энтропию данного алфавита
бит/сим
m
– количество
символов вторичного алфавита
Если
вторичный алфавит – двоичный, то m
= 2, следовательно
.
Пример: Задан алфавит из восьми букв и вероятности их появления. Построить оптимальный неравномерный код Шеннона-Фана.
-
Буква
Вер-ть
1
2
3
4
a1
0.25
1
1
a2
0.25
1
0
a3
0.125
0
1
1
a4
0.125
0
1
0
a5
0.625
0
0
1
1
a6
0.625
0
0
1
0
a7
0.625
0
0
0
1
a8
0.625
0
0
0
0
бит
бит/символ
Коэффициент статического сжатия
Коэффициент общей эффективности
КСС и КОЭ характеризуют оптимальность алфавита
Пример:
Построить оптимальный код Шеннона-Фана.
-
Буква
Вер-ть
1
2
3
4
а1
0.25
1
1
а2
0.25
1
0
а3
0.25
0
1
а4
0.1
0
0
1
а5
0.1
0
0
0
1
а6
0.5
0
0
0
0
lср = 2.4 бит
бит/символ
– т.к. разделили неравномерно три
столбца, лучше не получиться.