- •Лабораторная работа 1 Исследование статистики ошибок в каналах связи
- •1. Краткие теоретические сведения.
- •1.2 Модель источника ошибок
- •Контрольные вопросы.
- •Лабораторная работа 2
- •1. Краткие теоретические сведения
- •1.1. Постановка задачи
- •1.2. Простые гипотезы
- •1.3. Радиолокация ( )
- •1.4. Двоичный симметричный канал
- •1.5. Вероятность ошибок при передаче сигнала по каналу с гауссовым шумом
- •2. Помехоустойчивый прием
- •2.1. Прием импульсного сигнала на фоне помех
- •2.2. Виртуальный лабораторный стенд для исследования статистических характеристик передачи импульсных сигналов по каналу с шумами
- •3. Задания к работе
- •3.1. Определение вероятности правильного приема импульса
- •3.2. Определение интегрального распределения вероятности пропуска импульса
- •3.3. Определение интегрального распределения вероятности ложного приема импульса
- •3. Контрольные вопросы
- •Лабораторная работа № 3 Изучение краевых искажений в дискретном канале
- •1. Краткие теоретические сведения.
- •Дроблением значащих интервалов называется однократное или многократное изменение значащих позиций внутри значащего интервала.
- •2. Ход выполнения работы
- •2.1. Задание
- •3. Содержание отчета
- •4. Контрольные вопросы
- •Лабораторная работа №4 Эффективное кодирование сообщений. Коды Шеннона – Фано, Хаффмена
- •1. Краткие теоретические сведения
- •1.1 Основные понятия и приемы.
- •2. Обработка полученных результатов
- •3. Контрольные вопросы
- •1. Краткие теоретические сведения
- •1.1. Оптимальный прием дискретных радиосигналов
- •1.2.Амплитудная модуляция с пассивной паузой.
- •1.3. Частотная двоичная модуляция
- •1.4. Относительная фазовая модуляция
- •2. Исследование модулированных сигналов
- •2.1. Порядок выполнения лабораторной работы
- •1. Краткие теоретические сведения
- •1.1. Виды синхронизации
- •1.2. Синхронизация приемника
- •1.3. Частотная и фазовая синхронизация
- •1.4. Символьная синхронизация
- •1.5. Разомкнутые символьные синхронизаторы
- •1.6. Замкнутые символьные синхронизаторы
- •1.7. Ошибки символьной синхронизации и вероятность символьной ошибки
- •2. Порядок выполнения работы
- •2.1. Результаты моделирования.
- •2.2. Восстановление фазы несущей
- •2.3. Результаты моделирования
- •3. Контрольные вопросы
- •Лабораторная работа № 7
- •Корректирующие коды Хемминга.
- •Моделирование кодов Хемминга в среде Матлаб
- •Ход выполнения работы.
- •4. Содержание отчета
- •1. Краткие теоретические сведения
- •1.1. Представление сверточного кода порождающими многочленами
- •1.2. Порождающая матрица сверточного кода
- •1.3. Кодовое дерево сверточного кода и решетчатая диаграмма
- •1.4. Свободное расстояние. Спектр
- •1.5. Катастрофические кодеры
- •2. Методы декодирования сверточных кодов
- •2.1. Метод порогового декодирования
- •2.2. Метод последовательного декодирования
- •2.3. Метод декодирования по алгоритму Витерби
- •2.3.1. Декодирование в случае отсутствия ошибок при приеме
- •2.3.2. Декодирование в случае наличия ошибок при приеме.
- •2.3.3. Схемное построение декодера Витерби
- •3. Моделирование сверточных кодов в среде Матлаб
- •4. Порядок выполнения работы
- •4. Литература
1.1 Основные понятия и приемы.
Под кодированием в широком смысле слова подразумевается представление сообщений в форме, удобной для передачи по данному каналу. Операция восстановления сообщения по принятому сигналу называется декодированием. Одна из целей кодирования - путем устранения избыточности снизить среднее число символов, требующихся на букву сообщения, Пои отсутствии помех это непосредственно дает выигрыш во времени передачи или в объеме запоминающего устройства, т.е. повышает эффективность системы. Поэтому такое кодирование получило название эффективного, или оптимального.
При построении оптимальных кодов наибольшее распространение получили методики Шсннона - Фано и Хаффмена.
Согласно методике Шеннона - Фано построение оптимального кода ансамбля из сообщений сводится к следующему:
й шаг. Множество из сообщений располагается в порядке убывания вероятностей.
й шаг. Первоначальный ансамбль кодируемых сигналов разбивается на две группы таким образом, чтобы суммарные вероятности сообщений обеих групп были по возможности равны.
й шаг. Первой группе присваивается символ 0, а второй группе - символ 1.
й шаг. Каждую из образованных подгрупп делят на две части таким образом, чтобы суммарные вероятности вновь образованных подгрупп были по возможности равны.
й шаг. Первым группам каждой из подгрупп вновь присваивается 0, а вторым - 1. Таким образом, мы получаем вторые цифры кода. Затем каждая из четырех групп вновь делится на равные (с точки зрения суммарной вероятности) части до тех пор, пока в каждой из подгрупп не останется по одной букве.
Согласно
методике Хаффмена, для построения
оптимального кода N символы первичного
алфавита выписываются в порядке убывания
вероятностей. Последние n0
символов, где 2
n0
m
и
- целое число,
объединяют
в некоторый новый символ с вероятностью,
равной сумме вероятностей объединенных
символов. Последние символы с учетом
образованного символа вновь объединяют,
получают новый, вспомогательный символ,
опять выписывают символы в порядке
убывания вероятностей с учетом
вспомогательного символа и так далее,
до тех пор, пока сумма вероятностей
m
оставшихся
символов не даст в сумме вероятность,
равную 1. На практике
обычно
не производят многократного выписывания
вероятностей символов с учетом вероятности
вспомогательного символа, а обходятся
элементарными геометрическими
построениями, суть которых сводится к
тому, что символы кодируемого алфавита
попарно объединяют в новые символы,
начиная с символов, имеющих наименьшую
вероятность. Затем с учетом вновь
образованных символов, которым
присваивается значение суммарной
вероятности двух предыдущих, строят
кодовое дерево, в вершине которого стоит
символ 1.
Построенные по указанным выше методикам коды с неравномерным распределением символов, имеющие минимальную среднюю длину кодового слова, называют оптимальными неравномерными кодами (ОНК), или эффективными.
Рассмотрев методики построения эффективных кодов, нетрудно убедиться в том, что эффект достигается благодаря присвоению более коротких кодовых комбинаций более вероятным буквам. Таким образом, эффект связан с различием в числе символов кодовых комбинаций. А это приводит к трудностям при декодировании. Для этого эффективный код необходимо строить так, чтобы ни одна комбинация кода не совпадала с началом более длинной комбинации. Коды, удовлетворяющие этому условию, называются префиксными кодами. Нетрудно убедиться, что коды, получаемые в результате применения методики Шеннона-Фано или Хаффмена. являются префиксными.
Эффективность оптимальных кодов оценивают при помощи коэффициента статистического сжатия:
Ксс=Нмах/Iср,
который характеризует уменьшение количества двоичных знаков на символ сообщения при применении ОНК по сравнению с применением методов нестатического кодирования и коэффициента относительной эффективности Коэ=Н/Iср, который показывает, насколько используется статистическая избыточность передаваемого сообщения.
Рисунок 1. Интерфейс приложения Eff_Code.
Построить оптимальный неравномерный код сообщения, для которого далее вычисляются вероятности появления символов первичного алфавита. Определить среднюю длину кода, коэффициенты относительной эффективности и статистического сжатия. Сравнить и обосновать различия в качественных характеристиках полученных кодов. Построение кода выполнить по методике Шеннона-Фано и Хаффмена.
