
- •Сибирская Аэрокосмическая Академия
- •Статический метод
- •Энтропия и её свойства
- •Энтропия сложной системы
- •Условная энтропия. Объединение зависимых систем.
- •Полная условная энтропия
- •Теорема сложения энтропий
- •Определение информационных потерь в каналах связи
- •Энтропия и информация
- •Взаимная информация
- •Сумма равна единице
- •Частная информация о системе
- •Частная информация о событии, получаемая в результате сообщения о другом событии.
- •Энтропия и информация для систем с непрерывным множеством состояний
- •Условная энтропия непрерывной системы
- •Количественное определения избыточности
- •Блочное кодирование
- •Избыточность от округления
- •1 Символ – 4 бита
- •Код Хафмана
- •Процедура кодирования
- •Передача информации по дискретным каналам связи
- •Основная теорема Шеннона о кодировании для дискретного канала без помех
- •Дискретный канал с помехами
- •Теорема о кодировании Шеннона для дискретного канала с помехами
- •Корректирующие коды
- •Исправление ошибок с помощью полной кодовой таблицы
- •Разбиение
- •Систематические коды
- •Декодирование систематических кодов
- •Код Хэминга
- •Декодирование кода Хэминга
- •Особенности декодирования.
- •Циклические коды
- •Декодирование циклических кодов
- •Построение декодированного конкретного циклического кода
- •Обнаружение и определение ошибок
- •Коды, обнаруживающие трёхкратные ошибки
Основная теорема Шеннона о кодировании для дискретного канала без помех
1). Дискретный канал без помех:
Основная теорема Шеннона утверждает: если источник информации имеет энтропию H(z), а канал связи обладает пропускной способностью, то:
1. Сообщения, вырабатываемое источником всегда можно закодировать так, чтобы скорость их передачи vz была сколь угодно близка к vz max .
2. Не существует способа кодирования, позволяющего сделать эту скорость больше, чем vz max.
Величина
- называется потоком информации, т.е.
согласно Шеннона, при потоке информации
существует
способ кодирования,
при котором можно вырабатывать всю
информацию, переданную источником. Если
то такого способа кодирования не
существует.
Теорема Шеннона (другая). Если источник информации имеет энтропию Н(z), то сообщение всегда можно закодировать так, чтобы средняя длина кода lср была близка к величине
Доказательство: В качестве доказательства будем использовать методику Шеннона-Фана. Предположим, что при последовательном делении совокупности кодируемых букв по методу Шеннона-Фана на меньшие группы, каждый раз удается добиться равенства вероятностей двух получаемых групп.
1. После первого деления, получается группа с вероятностью ½;
2. После второго деления, получается группа с вероятностью ¼;
и т. д. ….
После
-делений
получим группы с вероятностью
.
Если
после -делений
в группе будет одна буква, то она будет
иметь
-значное
кодовое обозначение.
При
выполнении этого условия длина кодового
обозначения li
будет связана
с вероятностью pi
соотношением
pi=½li
или,
преобразуя это
выражение, получим li
= log=
- log pi.
В
общем случае величина log
pi
целым числом не будет, поэтому в качестве
iвыбирают ближайшее
большее целое число.
Величина
i
будет лежать:
Далее Шеннон утверждал, что существует такой метод кодирования, при котором длина
i
= - log
pi
В качестве доказательства рассмотрим процедуру кодирования:
Пусть имеется алфавит с буквами и заданы вероятности их появления. Расположим буквы алфавита в порядке убывания их вероятностей.
коды
z1 Q1 - числа Qi будем определять следующим образом; Q1 = 0
z2 Q2 Q2=p(z1)
… … Q3=p(z1) + p(z2)
zn Qn …
Qn = p(z1) + p(z2) + … + p(zn-1)
Все Qi≠0, кроме первого, следовательно, совпадения с первым не будет, все Qi – разные и меньше единицы. Шеннон предлагает перевести каждое Qi число в двоичную дробь.
В
целом
.
Эти числа можно определить из соотношения:
qi – либо 1, либо 0.
Пример:
…
Разложение каждого числа ограничивается до тех пор, пока не будет выполняться равенство:
Пример: Дан алфавит состоит из восьми букв и их вероятности. Рассмотрим процедуру кодирования
-
Буква
Вероятность
- log pi
li
Qi
коды
z1
1/4
2
2
0
00
z2
1/4
2
2
1/4
01
z3
1/8
3
3
2/4
100
z4
1/8
3
3
5/8
101
z5
1/8
3
3
6/8
110
z6
1/16
4
4
7/8
1110
z7
1/32
5
5
15/16
11110
z8
1/32
5
5
31/32
11111
Средняя длина кодового сообщения
Теорема доказана
В
случае кодирования буквенных блоков
по N
букв, получаем новый алфавит z’.
m – количество символов во вторичном алфавите, в двоичном - m = 2.
Скорость передачи Максимальная скорость
Пример:
Сообщения передаются в двоичном коде.
Время передачи от нуля до одной секунды,
r0
=
1 сек,
секунд.
Определить скорость передачи информации
для случая:
1) Символы равновероятны и независимы.
2) Символы неравновероятны