- •Федеральное агентство связи
- •«Поволжский государственный университет телекоммуникаций и информатики»
- •Системы и сети передачи дискретных сообщений
- •1. Принципы построения и основные характеристики систем передачи дискретных сообщений
- •1.1. Основные понятия: информация, сообщение, сигнал
- •1.2. Первичное кодирование дискретных сообщений
- •1.3. Основные преобразования в системе пдс
- •1.4. Структурная схема системы пдс
- •1.5. Стыки в системах пдс
- •1.6. Способы передачи и обработки сигналов в системах пдс
- •1.7. Внешние и внутренние параметры систем пдс
- •2. Характеристики каналов систем передачи дискретных сообщений
- •2.1. Непрерывные каналы связи
- •2.2. Дискретный канал непрерывного времени и искажения единичных
- •2.2.1. Аналитическое описание краевых искажений
- •2.2.2. Аналитическое описание дроблений
- •2.3. Методы регистрации единичных элементов.
- •2.3.1. Регистрация методом стробирования
- •2.3.2. Интегральный метод регистрации
- •2.3.3. Комбинированный метод регистрации
- •2.3.4. Регистрация со стиранием
- •2.4. Классификация и основные характеристики дискретных каналов
- •2.4.1. Пропускная способность дискретного канала
- •2.5.Основные аналитические модели дискретных каналов
- •2.5.1 Модель канала с независимыми ошибками
- •2.5.2. Модель неоднородного канала
- •2.5.3. Двухпараметрическая модель(модель вкас, модель Пуртова)
- •3.Методы сопряжения источников дискретных сообщений с дискретными каналами
- •3.1 Основы эффективного кодирования
- •3.2. Метод Шеннона-Фано
- •3.3. Метод Хаффмена
- •3.4.Особенности сопряжения источников дискретных сообщений с асинхронными и синхронными дискретными каналами
- •3.4.1. Сопряжение синхронного оу с синхронным дк
- •3.4.2. Сопряжение стартстопных оу с синхронным дк (метод наложения)
- •3.4.3. Сопряжение стартстопных оу с синхронными дк (метод скользящего индекса)
- •1 Зоне – 00
- •2 Зоне – 01
- •3 Зоне – 10
- •4 Зоне – 11
- •4.Принципы построения и техническая реализация корректирующих кодов
- •4.1 Основные характеристики спдс
- •4.2. Классификация методов повышения верности
- •4.3 Системы пдс без ос с многократным повторением
- •4.4. Системы пдс без ос с корректирующими кодами
- •Для биномиальной модели дискретного канала
- •4.3.1. Декорреляция ошибок в системах пдс
- •4.4. Принципы помехоустойчивого кодирования
- •4.5. Основные характеристики помехоустойчивых кодов
- •4.6. Классификация помехоустойчивых кодов
- •4.7. Коды Хемминга
- •4.8. Матричное представление кодов с поэлементным формированием проверочных разрядов
- •4.10 Техническая реализация кодов Хэмминга
- •1 Dc 1
- •1 2 3 4 5 6 7 8 9
- •4.11. Циклические коды
- •4.12. Выбор образующего полинома
- •4.13. Определение места ошибки в кк циклического кода
- •4.14 Матричное представление кодов с формированием проверочных элементов в целом
- •4.15 Техническая реализация циклических кодов
- •4.16. Итеративные коды
- •5. Адаптация в системах передачи дискретных сообщений
- •5.1. Принципы адаптации. Классификация систем пдс с ос
- •5.2 Основные параметры систем с ос.
- •5.3 Система пдс с рос – ож. Алгоритм работы.
- •5.4. Структурная схема системы пдс с рос – ож.
- •5.5 Основные параметры системы рос-ож
- •5.6. Система пдс с рос-пп (нп)
- •5.7. Алгоритмы работы систем пдс с рос-пПбл
- •5.8. Структурная схема системы рос-пПбл
- •5.9. Параметры системы рос-пПбл
- •5.10. Системы пдс с рос и накоплением правильно принятых комбинаций
- •5.11. Система пдс с рос и адресным переспросом ( рос – ап)
- •5.12. Сравнение методов повышения верности в системах пдс
- •6. Методы и устройства синхронизации и фазирования
- •6.1. Задачи синхронизации и фазирования в системах пдс
- •6.2. Классификация методов реализации утс
- •6.3. Резонансные утс
- •6.4. Замкнутые утс с непосредственным воздействием на задающий генератор (зг)
- •6.5. Замкнутые утс без непосредственного воздействия на зг
- •6.6. Влияние погрешности тактовой синхронизации на достоверность приема
- •6.8. Системы фазирования по циклам. Предъявляемые требования
- •6.9. Классификация уцф.
3.2. Метод Шеннона-Фано
Все К букв алфавита располагаются в один столбец в порядке убывания их вероятностей.
Эти буквы разбиваются на две группы: верхнюю и нижнюю так, чтобы суммы вероятностей в каждой из групп были по возможности ближе друг к другу.
Для букв верхней группы в качестве первого символа кодовой комбинации выбирается “1”, а для нижней - “0”.
Вновь каждую из полученных групп делят на две части с близкими, по возможности, суммарными вероятностями.
Верхним частям вновь образованных групп присваивается “1”, а нижним — “0”. Эти значения элементов считаются вторыми разрядами формируемых кодовых комбинаций.
Эти процедуры повторяются до тех пор, пока в каждой группе останется по одной букве.
Построение кода Шеннона-Фано для ансамбля из 8 букв приведено в
табл. 3.1 .
При равномерном кодировании 8-ми букв кодовые комбинации содержат по три двоичных разряда. При использовании кода Шеннона-Фано средняя длина кодовой комбинации составляет:
к
l=åni pi=0,2·2+0,2· 3+0,15·3+0,13·3+0,12·3+0,10·3+0,07·4+0,03·4=2,9
i=1Это меньше, чем при равномерном кодировании и не очень далеко от энтропии к
Н(А)=-å рi log2pi=2,806 бит/буква. (3.4)
i=1
3.3. Метод Хаффмена
Буквы алфавита выписываются столбцом в порядке убывания вероятностей.
Находится сумма вероятностей последних двух букв.
Вероятности букв, не участвующих в объединении, и полученная суммарная вероятность снова располагаются столбцом в порядке убывания.
Второй и третий этапы повторяются до тех пор, пока суммарная вероятность не будет равна единице.
Таблица 3.1.Построение кода Шеннона - Фано
|
Буквы |
Рi |
Деление букв на группы |
Код Шеннона-Фано |
|
А1 |
0,20 |
|
11 |
|
А2 |
0,20 |
|
101 |
|
А3 |
0,15 |
|
100 |
|
А4 |
0,13 |
|
011 |
|
А5 |
0,12 |
|
010 |
|
А6 |
0,10 |
|
001 |
|
А7 |
0,07 |
|
0001 |
|
А8 |
0,03 |
|
0000 |
Построение кода Хаффмена для ансамбля из 8 букв приведено в табл. 3.2.
Таблица 3.2. Построение кода Хаффмена
|
Буквы |
Pi |
Вспомогательные столбцы |
|
|
|
1 2 3 4 5 6 7 |
|
А1 |
0,20 |
0,20 0,20 0,25 0,35 0,40 0,60 1 |
|
А2 |
0,20 |
0,20 0,20 0,20 0,25 0,35 0,04 |
|
А3 |
0,15 |
0,15 0,20 0,20 0,20 0,25 |
|
А4 |
0,13 |
0,13 0,15 0,20 0,20 |
|
А5 |
0,12 |
0,12 0,13 0,15 |
|
А6 |
0,10 |
0,10 0,12 |
|
А7 |
0,07 |
0,10 |
|
А8 |
0,03 |
|
Кодовое дерево строится следующим образом (рис.3.1). Сначала находятся буквы с наименьшими вероятностями 0,07 (A7) и 0,03 (A8), затем от них проводятся линии к точке, изображающей “укрупненный” символ с суммарной вероятностью 0,10. На рисунке эта процедура обозначена цифрой I. Затем берутся две наименьшие вероятности со значением 0,10 и получают новый “укрупненный” символ с вероятностью 0,20 (процедура I I). Теперь наименьшие вероятности имеют символы А4 (0,13) и А5 (0,12). Соединяя их линиями формируют новый символ с суммарной вероятностью 0,25 (процедура I I I).
Эти процедуры повторяются до тех пор, пока линии от основных и “укрупненных” символов не соединятся в точке с суммарной вероятностью, равной 1. Верхнюю линию обозначают цифрой “1”, а нижнюю “0”. Любая кодовая комбинация представляет собой последовательность “1” и “0”, которые встречаются на пути от вершины дерева с вероятностью 1 к точке, изображающей нужную букву.
Сравнение рассмотренных методик построения эффективных кодов позволяет сделать вывод, что методика Хаффмена более удобна для практического использования. В общем случае код Хаффмена экономичнее кода Шеннона-Фано.
|
Буква |
pi |
Кодовое дерево |
Код |
ni |
nipi |
|
А1 |
0,2 |
|
01 |
2 |
0,4 |
|
А2 |
0,2 |
|
111 |
3 |
0,6 |
|
А3 |
0,15 |
|
110 |
3 |
0,45 |
|
А4 |
0,13 |
|
101 |
3 |
0,39 |
|
А5 |
0,12 |
|
100 |
3 |
0,36 |
|
А6 |
0,10 |
|
001 |
3 |
0,3 |
|
А7 |
0,07 |
|
0001 |
4 |
0,28 |
|
А8 |
0,03 |
|
0000 |
4 |
0,12 |
Рис. 3.1 Кодовое дерево.
Нетрудно заметить, что сокращение средней длины кодовой комбинации эффективного кода по сравнению с равномерными кодами достигается благодаря присвоению более вероятным буквам коротких кодовых комбинаций, а менее вероятным буквам — более длинных кодовых комбинаций. Таким образом, эффективность рассматриваемых кодов связана с различием в числе символов кодовых комбинаций. Это приводит к определенным трудностям при декодировании. Конечно, для различия кодовых комбинаций можно ставить разделительный символ, но при этом существенно снижается эффект, который достигается использованием неравномерных кодов, так как средняя длина кодовой комбинации, по существу, увеличивается на один символ. Более разумным является обеспечение однозначного декодирования без введения разделительных символов. Для этого эффективный код строят так, чтобы ни одна комбинация кода не совпадала с первыми символами более длинной кодовой комбинации. Коды, удовлетворяющие этому условию, называются префиксными.
Коды, представляющие первичные алфавиты с неравновероятными символами, имеющие минимальную среднюю длину кодового слова, называются оптимальными неравномерными кодами (ОНК).
Максимально эффективными будут те ОНК, у которых энтропия дискретного источника Н(А) численно равна среднему числу двоичных символов на букву l:
Н(А)=l (3.5)
или с учетом (3.1) и (3.3)
к к
ånipi=-åpilog2pi (3.6)
i=1 i=1
Очевидно, что это равенство будет иметь место только тогда, когда
ni=-log2pi=log2(1/pi) (3.7)
Величина l точно равна Н(А), если вероятности рi представляют собой целочисленные отрицательные степени двойки. Если это не выполняется, то l>Н(А) и согласно основной теореме кодирования Шеннона для каналов без шумов средняя длина кодовой комбинации приближается к энтропии источника сообщений по мере укрупнения кодируемых блоков.
Для оценки эффективности ОНК предназначены следующие характеристики.
1. Коэффициент статистического сжатия.
Нmax (А) log2К

l
=
(3.8)
к åni pi
i=1
Он характеризует уменьшение количества двоичных символов на букву алфавита при применении ОНК по сравнению с применением методов нестатистического кодирования.
2. Коэффициент относительной эффективности.
Н(А)
l=
Кэ (3.9)
Этот коэффициент показывает, насколько устраняется статистическая избыточность передаваемого сообщения.
Методы устранения избыточности позволяют эффективно использовать пропускную способность канала связи. Они полезны также в тех случаях, когда требуется хранить большой объем информации в различных запоминающих устройствах. Экономия в пропускной способности канала или в объеме запоминающего устройства приводит к снижению стоимости, сокращению размеров и веса аппаратуры. Рассмотренные методы кодирования получили применение при передаче факсимильных сообщений.
