- •Б.И. Филиппов
- •654200 (Радиотехника), 550400 (телекоммуникации), по направлению общепрофессиональных дисциплин (опд) – «Теория электрической связи»,
- •Часть I. Теория нелинейных электрических цепей
- •1. Задачи курса тэс
- •2. Сигналы связи
- •2.1. Формирование и преобразование сигналов. Кодирование и декодирование. Модуляция и демодуляция
- •2.2. Классификация сигналов и их основные свойства
- •2.3. Кодирование, декодирование. Модуляция и демодуляция
- •2.4. Детерминированные (регулярные) сигналы и их классификация
- •2.5. Разложение сигналов в ряд по ортогональным функциям
- •3. Теорема и ряд Котельникова
- •3.1. Восстановление непрерывного сигнала по отсчетам
- •3.2. Погрешности дискретизации и восстановления непрерывных сигналов
- •3.3. Структурная схема передачи аналогового сигнала отсчетами Котельникова
- •4. Методы формирования и преобразования сигналов
- •4.1. Классификация радиотехнических цепей
- •4.2. Виды преобразования спектров сигнала
- •4.3. Амплитудно-модулированные сигналы
- •4.4. Дискретная амплитудная модуляция (дам)
- •4.5. Спектральное и векторное представление амплитудно-модулированного сигнала
- •4.6. Определение глубины модуляции по спектральной диаграмме (графический метод)
- •4.7. Спектр ам сигнала при модуляции сообщением сложной формы
- •4.8. Амплитудная модуляция с подавленной несущей (балансная модуляция)
- •4.9. Однополосная ам модуляция
- •4.10. Получение ам колебаний
- •4.11. Выбор режима работы модулятора для обеспечения неискаженной модуляции
- •4.12. Балансный модулятор
- •4.13. Кольцевой модулятор (двойной балансный)
- •4.14. Амплитудные модуляторы на интегральных микросхемах
- •4.15. Детектирование ам колебаний (демодуляция)
- •4.16. Квадратичный детектор
- •5.4. Модуляция сигналом произвольной формы
- •5.5. Спектры при угловой модуляции
- •5.6. Сходства и различия чм и фм
- •5.7. Методы получения сигналов угловой модуляции
- •5.8. Детектирование сигналов угловой модуляции
- •5.9. Фазовый (синхронный) детектор (фд)
- •6. Модуляция дискретными сигналами
- •6.1. Дискретные виды модуляции
- •6.2. Спектры сигналов дискретной модуляции
- •6.3. Дискретная относительная фазовая модуляция (дофм)
- •6.4. Импульсные виды модуляции (аналитическое представление, временные и спектральные диаграммы)
- •6.5. Использование компандирования в икм
- •6.6. Системы передачи с дельта-модуляцией
- •7. Случайные процессы
- •7.1. Вероятносные характеристики случайных сигналов (процессов); числовые характеристики и физическая интерпретация
- •7.2. Числовые характеристики случайных процессов
- •7.3. Стационарные случайные процессы
- •7.3. Интервал корреляции
- •7.4. Эргодические случайные процессы
- •7.5. Гауссовский (нормальный) случайный процесс и его свойства
- •7.6. Нормальный случайный процесс
- •7.7. Функция корреляции одиночного прямоугольного импульса
- •7.8. Применение корреляционных методов обработки сигналов в технике связи
- •Часть II. Теория передачи сигналов
- •8. Случайные сигналы
- •8.1. Энергетический спектр случайных сигналов
- •8.2. Узкополосные и широкополосные случайные процессы. Белый шум
- •8.3. Эффективная ширина энергетического спектра и ее связь с интервалом корреляции
- •8.4. Функция корреляции узкополосного случайного процесса
- •8.5. Функция корреляции «белого» шума, ограниченного полосой частот от 0 до
- •8.6. Функция корреляции «белого» шума, ограниченного полосой частот от до
- •8.7. Прохождение случайных процессов через линейные инерционные радиотехнические цепи
- •8.8. Прохождение случайного сигнала через нелинейные безинерционные радиотехнические цепи
- •8.9. Примеры прохождения случайных сигналов через линейные инерционные и нелинейные безинерционные радиотехнические цепи
- •8.10. Представление сигнала в комплексной форме. Преобразование Гильберта. Аналитический сигнал
- •8.11. Комплексное представление узкополосного процесса. Квадратурные составляющие и их свойства
- •8.12. Огибающая и фаза узкополосного гауссовского случайного процесса и суммы гармонического сигнала и узкополосного гауссовского случайного сигнала
- •8.13. Математические модели непрерывных и дискретных каналов связи
- •8.14. Классификация дискретных каналов связи
- •8.15. Помехи в каналах связи и их классификация
- •8.16. Геометрическое представление сигналов и помех
- •9. Основы теории помехоустойчивости
- •9.1. Задачи приемного устройства
- •9.2. Критерии приема дискретных сигналов. Отношение правдоподобия
- •9.3. Оптимальный приемник полностью известных сигналов. Приемник Котельникова
- •9.4. Вероятность ошибки в приемнике Котельникова (общий случай и частные случаи)
- •9.5. Частные случаи
- •9.6. Оптимальная фильтрация дискретных сигналов
- •9.7. Примеры согласованных фильтров. Квазиоптимальные фильтры
- •9.8. Оптимальная фильтрация непрерывных сообщений
- •9.9. Оптимальная фильтрация непрерывных сигналов
- •9.10. Отношение с/ш на входе приемника непрерывных сообщений
- •9.11. Обеляющий фильтр
- •9.12. Прием сигналов с неизвестной фазой (некогерентный прием)
- •9.13. Прием дискретных сигналов со случайной амплитудой
- •9.14. Прием сигналов дофм
- •9.15. Помехоустойчивость передачи непрерывных сообщений
- •10. Основы теории информации
- •10.1. Информационные характеристики сигнала
- •10.2. Энтропия дискретного источника с независимым выбором сообщений
- •10.3. Энтропия дискретного источника с зависимыми сообщениями
- •10.4. Избыточность источника
- •10.5. Производительность источника
- •10.6. Совместная энтропия двух источников
- •10.7. Взаимная информация источников сообщений
- •10.8. Скорость передачи и пропускная способность канала связи
- •10.9. Статическое кодирование дискретных сообщений
- •10.10. Энтропия непрерывного источника и ее свойства
- •10.11. Пропускная способность непрерывного канала связи
- •10.12. Эпсилон-энтропия источника непрерывных сообщений
- •11. Корректирующие коды
- •11.1. Принципы помехоустойчивого кодирования. Кодовое расстояние
- •11.2. Классификация корректирующих кодов
- •11.3. Обнаруживающая и исправляющая способность кодов
- •11.4. Простейшие корректирующие коды
- •11.5. Сложные систематические коды
- •12. Системы передачи сообщений с обратной связью
- •12.1. Классификация систем с обратной связью
- •12.2. Системы прерывистой связи
- •12.3. Разнесенный прием
- •12.4. Широкополосные системы связи
- •1. Задачи курса тэс 4
- •2. Сигналы связи 8
- •4. Методы формирования и преобразования сигналов 28
- •5. Угловая модуляция (частотная и фазовая) 66
- •6. Модуляция дискретными сигналами 86
- •7. Случайные процессы 101
- •8. Случайные сигналы 119
- •9. Основы теории помехоустойчивости 169
- •10. Основы теории информации 213
- •11. Корректирующие коды 233
- •12. Системы передачи сообщений с обратной связью 247
10.7. Взаимная информация источников сообщений
На рисунке 10.3 показана (условно) собственная энтропия и , условные энтропии и и совместная энтропия . Из этого рисунка, в частности, следуют соотношения (10.18) и (10.19).
Рисунок 10.3. Графическое представление собственных условных, совместных и взаимной энтропий
Заштрихованная часть рисунка называется взаимной информацией . Она показывает, какое в среднем количество информации содержит сообщение о сообщении (или наоборот). Как следует из рис. 10.3:
Рисунок 10.4. Графическое представление влияния потерь при передаче и приеме информации
Если сообщения и полностью независимы, то взаимная информация отсутствует и .
Если сообщения и полностью зависимы ( и содержат одну и ту же информацию), то .
Понятие взаимной информации очень широко используется в теории передачи информации. Требования к взаимной информации различны в зависимости от того, с какой информацией мы имеем дело. Например, если и – это сообщения, публикуемые различными газетами, то для получения возможно большей суммарной (совместной) информации взаимная (т.е. одинаковая в данном случае) информация должна быть минимальной. Если же и – это сообщения на входе и на выходе канала связи с помехами, то для получения возможно большей информации ее получателем необходимо, чтобы взаимная информация была наибольшей. Тогда условная энтропия – это потери информации в канале связи (надежность канала).
– энтропия шума (помех), равная , т.е. .
10.8. Скорость передачи и пропускная способность канала связи
В дискретной системе связи при отсутствии помех информация на выходе канала связи (канала, передающего информацию) полностью совпадает с информацией на его входе, поэтому скорость передачи информации численно равна производительности источника сообщений:
При наличии помех количество информации на выходе канала оказывается меньше, чем производительность источника. Одновременно в сообщении на выходе канала добавляется информация о помехах (рисунок 10.4).
Рисунок 10.4. Влияние помех при передаче информации
Поэтому при наличии помех необходимо учитывать на выходе канала не всю информацию, даваемую источником, а только взаимную информацию.
На основании формулы (10.21) имеем:
или
где – производительность источника,
– «ненадежность» канала (потери) в ед. времени,
– энтропия выходного сообщения в ед. времени,
– энтропия помех (шума) в ед. времени.
Пропускной способностью канала связи (канала передачи информации) называется максимально возможная скорость передачи информации по каналу:
Для достижения максимума учитываются все возможные источники на входе и все возможные способы кодирования.
Таким образом, пропускная способность канала связи равна максимальной производительности источника на входе канала, полностью согласованного с характеристиками этого канала, за вычетом потерь информации в канале из-за помех.
В канале без помех , т.к . При использовании равномерного кода с основанием , состоящего из элементов, длительностью , в канале без помех:
– длительность элемента.
При бит/с.
Для эффективного использования пропускной способности канала необходимо его согласование с источником информации на входе. Такое согласование возможно как для каналов без помех, так и для каналов связи с помехами на основании двух теорем, доказанных К.Шенноном.
Первая теорема (для канала связи без помех):
Если источник сообщений имеет энтропию (бит на символ), а канал связи – пропускную способность (бит в секунду), то можно закодировать сообщение таким образом, чтобы передавать информацию по каналу со средней скоростью, сколь угодно близкой к величине , но не превзойти ее.
К.Шеннон предложил и метод такого кодирования, который получил название статического или оптимального кодирования. В дальнейшем идея такого кодирования была развита в работах Фано и Хаффмана и в настоящее время широко используется на практике для «сжатия сообщений».
Вторая теорема (для каналов связи с помехами):
Если пропускная способность канала равна , а производительность источника , то путем соответствующего кодирования можно передавать информацию по каналу связи со скоростью, сколь угодно близкой к , и с вероятностью ошибки, сколь угодно близкой к нулю. При такая передача невозможна.
К сожалению, теорема К.Шеннона для канала связи с шумом (помехами) указывает только на возможность такого кодирования, но не указывает способа построения соответствующего кода. Однако известно, что при приближению к пределу, устанавливаемому Теоремой Шеннона, резко возрастает время запаздывания сигнала в устройствах кодирования и декодирования из-за увеличения длины кодового слова . При этом вероятность эквивалентной ошибки на выходе канала стремится к величине
Очевидно, что , когда и , и, следовательно, имеет место «обмен» вероятности ошибки на скорость и задержку передачи.