
- •Сибирская Аэрокосмическая Академия
- •Статический метод
- •Энтропия и её свойства
- •Энтропия сложной системы
- •Условная энтропия. Объединение зависимых систем.
- •Полная условная энтропия
- •Теорема сложения энтропий
- •Определение информационных потерь в каналах связи
- •Энтропия и информация
- •Взаимная информация
- •Сумма равна единице
- •Частная информация о системе
- •Частная информация о событии, получаемая в результате сообщения о другом событии.
- •Энтропия и информация для систем с непрерывным множеством состояний
- •Условная энтропия непрерывной системы
- •Количественное определения избыточности
- •Блочное кодирование
- •Избыточность от округления
- •1 Символ – 4 бита
- •Код Хафмана
- •Процедура кодирования
- •Передача информации по дискретным каналам связи
- •Основная теорема Шеннона о кодировании для дискретного канала без помех
- •Дискретный канал с помехами
- •Теорема о кодировании Шеннона для дискретного канала с помехами
- •Корректирующие коды
- •Исправление ошибок с помощью полной кодовой таблицы
- •Разбиение
- •Систематические коды
- •Декодирование систематических кодов
- •Код Хэминга
- •Декодирование кода Хэминга
- •Особенности декодирования.
- •Циклические коды
- •Декодирование циклических кодов
- •Построение декодированного конкретного циклического кода
- •Обнаружение и определение ошибок
- •Коды, обнаруживающие трёхкратные ошибки
Процедура кодирования
Две буквы последнего алфавита кодируем 1 и 0. Затем кодируется предыдущий алфавит. Процесс кодирования закончен. Чтобы определить эффективность, надо посчитать среднее число символов на алфавит.
Кодирование алфавита по методу Хафмана не является однозначно определенной процедурой. Можно получать разные коды Хафмана.
Чтобы посмотреть изменение кода Хафмана, рассмотрим пример другой кодировки:
Буква а1 а2 а3 а4 а5 а6 |
А Вероятность 0,4 11 0,2 01 0,2 00 0,1 100 0,05 101 0,05 1010 |
Сжатые алфавиты | |||
А1 0,4 11 0,2 01 0,2 00 0,1 101 0,1 100 |
А2 0,4 11 0,2 10 0,2 01 0,2 00 |
А3 0,4 0 0,4 11 0,2 10 |
А4 0,6 (1) 0,4 (0) |
Если
посчитать
,
то оно не изменилось
,т.е.
каким образом кодировать роли не играет.
Процедура декодирования кодов Хафмана является однозначной.
Используя методику Хафмана, можно строить оптимальные коды, если для кодирования используется m элементарных сигналов. При построении таких кодов используется процедура сжатия, при которой сливаются каждый раз m букв алфавита. Последовательность сжатия приводит к алфавиту из m букв.
Число букв исходного алфавита n должно быть представляемо n = m + k *(m -1), k – целое число. Этого условия всегда можно достичь, если ввести в исходный алфавит фиктивные буквы, вероятность которых равна нулю.
Дан алфавит из 6 букв с вероятностями. Построить троичный код Хафмана 0, 1, 2.
Требуемое число букв:
n = 3 + k * (3 - 1),
k = 1 n = 5
k = 2 n = 7
не хватает одной буквы а7 с вероятностью равной нулю
Буква а1 а2 а3 а4 а5 а6 а7 |
А Вероятность 0 0,4 2 0,2 10 0,2 11 0,1 120 0,05 121 0,05 122 0 |
С ж а т и е | |
А1 0 0,4 2 0,2 10 0,2 11 0,1 12 0,1 |
А2 0,4 (0) 0,4 (1) 0,2 (2) |
Подсчитаем энтропию
m
– количество
символов
Существует еще одна методика
С
1 0 1 (7)
Д
1 0
1 0 (5) 0,5 (6)
а
0,28
1 0,5
0 0,22 0,08 0,05 (4)
011 а3 0,12 1
0 (2)
0 0,13
0 (3)
0 (1)
00000 а8 0,02 0
Находят 2 буквы с вероятностями (а7 и а8) и проводят от них линию к точке, в которой вероятность равна их сумме
Теперь меньшими вероятностями обладают буквы а5 и а6. Соединяют их линиями в одной точке с вероятностью 0.08
Соединяем 0,08 и 0,05, получает 0,13
Соединяем буквы а3 и а4
Соединяем 0,15 и 0,13
И так далее…
Кодируем ветки
Обозначим цифрой один верхнюю линию узла, нижнюю ноль.
Коды представляют собой последовательность 0 и 1, которые встречаются по пути от точки с вероятностью единица, до кодируемой буквы.
Передача информации по дискретным каналам связи
Для анализа информационных возможностей канала связи используется обобщённая информационная модель каналов связи.
Z
X Y
И
ЛС
ИИ – источник информации
П1, П2 – преобразователи
ЛС – линия связи
ИП – источник помех
ПИ – приёмник информации
Источник
информации создаёт cигналы
z,
которые кодируются в преобразователе
П1, превращаются в сигналы x
и поступают в линию связи (ЛС). В результате
действия помех, сигнал Y
на приёмном конце, отличается от X.
Помехи создаются воображаемым источником
помех (ИП) и поступают в линии связи в
виде мешающего сигнала.
Преобразователь П2 декодирует сигналы,
и передаёт в приёмник информации.
Приёмник информации перерабатывает
принятое сообщение. Для организации
эффективной передачи информации решают
три задачи:
Определение максимально возможной скорости передачи информации по каналу;
Разработка кодов, позволяющих увеличить скорость передачи информации;
Согласование канала с источником.
Важнейшей характеристикой канала является пропускная способность (обозначается символом С). - Наибольшая возможная скорость передачи информации по каналу. Пропускная способность определяют следующим образом:
,
где Vx-
средняя скорость передачи символов,
Iyx
– максимальное
возможное значение среднего количества
информации на один символ принятого
сигнала.
,
-
средняя длительность передаваемых
символов
Взаимная информация
-
характеризует потери информации.
При
отсутствии помех H(x
/ y) = 0 и
.
А максимальныеIyx
= log2m
Пропускная способность канала
m
– количество символов алфавита, который
кодируется