- •Основы теории цифровой связи Часть 1 кодирование информации
- •1. Введение
- •1.1. Модель радиотехнической системы связи
- •Контрольные вопросы
- •1.2. Статистическая трактовка процесса передачи информации
- •Контрольные вопросы
- •1.3. Основные понятия и элементы математического аппарата теории связи
- •1.3.1. Сигналы и помехи
- •1.3.2. Разложение сигнала по системе ортогональных функций. Спектр сигнала
- •1.3.3. Cвойства преобразования Фурье
- •1.3.4. Корреляционная функция сигнала
- •1.3.5. Связь между корреляционной функцией и спектром сигнала
- •1.3.6. Случайные сигналы и их характеристики
- •Контрольные вопросы
- •1.4. Источники информации
- •1.5. Теорема дискретизации
- •1.6. Дискретизация изображений
- •Контрольные вопросы
- •1.7. Квантование. Ошибки квантования
- •Контрольные вопросы
- •1.8. Количество информации, содержащейся в сообщении
- •1.8.1. Энтропия сложных сообщений, избыточность источника
- •Контрольные вопросы и задачи
- •2. Основы экономного кодирования информации
- •2.1. Способы представления кодов
- •Контрольные вопросы и задачи
- •2.2. Типы систем сжатия
- •X Квантователь Xq Кодер без потерь информации b (Xq) Декодер X*
- •Методы кодирования без потерь
- •2.3.1. Понятие префиксного множества
- •2.3.2. Алгоритм кодирования Хаффмена
- •2.3.3. Алгоритм Шеннона–Фано
- •2.3.4. Блочные коды
- •2.3.5. Арифметическое кодирование
- •2.3.6. Словарное кодирование. Метод Зива–Лемпеля
- •2.3.7. Кодирование длин повторений (rle)
- •2.3.8. Дифференциальное кодирование
- •Контрольные вопросы и задачи
- •2.4. Методы сжатия с потерей информации
- •2.4.1. Функции “скорость–искажение” и “искажение–скорость”
- •2.5. Сжатие речевых сигналов
- •2.5.1. Кодирование формы сигнала, икм
- •2.5.2. Дифференциальная икм
- •2.5.3. Адаптивная дифференциальная икм (адикм)
- •2.5.4. Дельта-модуляция
- •2.5.5. Другие методы кодирования формы сигнала
- •2.5.6. Кодирование источника
- •2.5.7. Гибридные методы кодирования речи
- •2.5.8. Полноскоростной кодер rpe-ltp (стандарт gsm 06.10)
- •2.5.9. Кодер vselp (стандарт d-amps)
- •Контрольные вопросы и задачи
- •2.6. Кодирование изображений. Стандарт сжатия jpeg
- •Процедуру дкп можно записать в матричной форме:
- •2.6.1. Рекурсивный (вэйвлет) алгоритм
- •2.7. Сжатие подвижных изображений (видео)
- •3. Основы помехоустойчивого кодирования
- •3.1. Основные принципы. Типы кодов
- •3.2. Линейные блочные коды
- •3.2.1. Код с проверкой на четность
- •3.2.2. Итеративный код
- •3.2.3. Порождающая матрица линейного блочного кода
- •3.2.4. Проверочная матрица
- •3.2.5. Дуальные коды
- •3.2.6. Синдром и обнаружение ошибок
- •3.2.7. Синдромное декодирование линейных блочных кодов
- •3.2.8. Мажоритарное декодирование линейных блочных кодов
- •3.2.9. Декодирование методом максимального правдоподобия
- •Поскольку
- •Если принятый сигнал дискретизован и Si – I-й отсчет принятого сигнала.
- •3.2.10. Вес и расстояние Хемминга. Способность кодов обнаруживать и исправлять ошибки
- •Контрольные вопросы и задачи
- •3.3. Полиномиальные коды
- •3.3.1. Циклические коды
- •3.3.2. Кодирование с использованием циклических кодов
- •3.3.3. Вычисление синдрома и исправление ошибок в циклических кодах
- •3.3.4. Неалгебраические методы декодирования циклических кодов
- •3.4. Сверточные коды
- •3.4.1. Кодирование с использованием сверточных кодов
- •3.4.2. Синдромное декодирование сверточных кодов
- •3.4.3. Кодовое дерево и решетчатая диаграмма
- •3.4.4. Декодирование сверточных кодов. Алгоритм Витерби
- •3.4.5. Алгоритмы поиска по решетке
- •Контрольные вопросы и задачи
- •3.5. Применение корректирующего кодирования в системах связи
- •3.5.1. Каскадные коды
- •3.5.2. Кодирование с перемежением
- •Библиографический список
- •Часть 1 1
Контрольные вопросы
Что такое “квантование сигнала по уровню” и как оно осуществляется?
Что такое “погрешность квантования” сигнала по уровню и как она определяется?
Из каких соображений выбирается количество уровней квантования сигнала?
Какой вид имеет распределение вероятностей шума квантования?
Что означает понятие “разрядность АЦП ”?
Каким образом разрядность АЦП связана с количеством уровней квантования сигнала?
1.8. Количество информации, содержащейся в сообщении
Для сравнения между собой различных источников сообщений и систем передачи сообщений необходимо ввести некоторую количественную меру, которая дала бы возможность объективно оценить информацию, содержащуюся в сообщении. Такая мера впервые была введена K. Шенноном в работе “Математическая теория связи” в 1948 году. Рассмотрим основы данного подхода.
Всякая информация получается потребителем после приема сообщения. Сообщение, получаемое на приемной стороне, несет полезную информацию лишь в том случае, если у получателя имеется неопределенность относительно того, что будет передано. Если получатель заранее знает то, что будет передано, то по результату этой передачи он не получает никакой информации.
Предположим, источник вырабатывает последовательность независимых дискретных сообщений {i}, каждое из которых случайным образом выбирают из алфавита сообщения A (i ) = 1, 2, 3, ..., K, где K размер алфавита источника. Примером такого сообщения может быть, например, некоторый русский текст, где элементарными сообщениями являются буквы, или последовательность чисел из десятичного алфавита 0…9 и т.п.
В каждом элементарном сообщении i для получателя содержится некоторая информация. Определим количество этой информации и выясним, от чего оно зависит.
До того как связь состоялась, у получателя имелась большая или меньшая неопределенность относительно того, какое сообщение i из числа возможных будет передано.
Очевидно, что степень этой неопределенности, или неожиданности передачи i, зависит от вероятности передачи того или иного сообщения. Например, если вероятность передачи какого-либо сообщения i близка к единице, то еще до передачи почти наверняка известно, какое сообщение будет передано, и его прием не принесет почти никакой новой информации.
Таким образом, очевидно, что количество информации, содержащейся в элементарном сообщении i, является некоторой функцией от вероятности передачи этого сообщения Р(i):
J (i) = {P (i)}. (1.69)
Определим вид функции . Для этого потребуем, чтобы мера количества информации J(i) удовлетворяла двум интуитивным свойствам:
1. Если выбор сообщения i заранее предопределен и известно, какое сообщение будет передано (Р(i) = 1), то количество информации в этом сообщении равно нулю: J (i) = {1} = 0.
2. Если источник последовательно выбирает сообщения i и j и вероятность такого выбора Р(i , j ) есть совместная вероятность событий i и j , то количество информации в этих двух элементарных сообщениях будет равно сумме количеств информации в каждом из них.
Вероятность совместного выпадения событий i и j Р(i , j ), как известно, определяется по формуле полной вероятности
Р (i , j ) = Р(i ) Р(j /i ) = P Q. (1.70)
Тогда в соответствии с требованием (2) должно выполняться условие
{ P Q } = (P) + (Q). (1.71)
Нетрудно догадаться, что функцией, удовлетворяющей этим двум предъявляемым к ней условиям, является функция вида
J (i) = a log P(i). (1.72)
Для удобства (чтобы количественная мера информации была положительной) принимают a = 1. Основание логарифма обычно выбирают равным двум, тогда
J (i) = – log2 P(i). (1.73)
Определенная таким образом единица измерения информации называется битом информации.
Например, если передаваемое сообщение i выбрается из алфавита размером K = 32, в котором все буквы равновероятны, т.е. P(i) = 1/32, то говорят, что в этом сообщении (в этой букве) содержится log2 (1/32) = = 5 бит информации.
Количество информации, содержащееся в одном элементарном сообщении i, еще не характеризует источник в целом. Одни элементарные сообщения могут нести много информации, но передаваться очень редко, другие передаваться чаще, но нести меньше информации. Поэтому источник может быть охарактеризован средним количеством информации, приходящимся на одно элементарное сообщение, носящим название “энтропия источника” и определяемым следующим образом:
,
i = 1, K.
(1.74)
Энтропия как количественная мера информативности источника обладает следующими свойствами:
1. Энтропия есть величина вещественная, ограниченная и неотрицательная. Эти ее свойства вытекают из вида выражения для Н(), а также с учетом того, что 0 < P(i) < 1.
2. Энтропия детерминированных сообщений равна нулю, то есть Н() = 0, если хотя бы одно из сообщений имеет вероятность, равную единице.
3. Энтропия максимальна, если сообщения i равновероятны, то есть
P(1) = P(2) = ... = P(k) = 1/K , и тогда
(1.75)
Как видно из данного выражения, в случае равновероятных сообщений энтропия растет с увеличением объема алфавита источника (с ростом числа сообщений). При неравновероятных элементарных сообщениях i энтропия соответственно уменьшается.
