- •Б.И. Филиппов
- •654200 (Радиотехника), 550400 (телекоммуникации), по направлению общепрофессиональных дисциплин (опд) – «Теория электрической связи»,
- •Часть I. Теория нелинейных электрических цепей
- •1. Задачи курса тэс
- •2. Сигналы связи
- •2.1. Формирование и преобразование сигналов. Кодирование и декодирование. Модуляция и демодуляция
- •2.2. Классификация сигналов и их основные свойства
- •2.3. Кодирование, декодирование. Модуляция и демодуляция
- •2.4. Детерминированные (регулярные) сигналы и их классификация
- •2.5. Разложение сигналов в ряд по ортогональным функциям
- •3. Теорема и ряд Котельникова
- •3.1. Восстановление непрерывного сигнала по отсчетам
- •3.2. Погрешности дискретизации и восстановления непрерывных сигналов
- •3.3. Структурная схема передачи аналогового сигнала отсчетами Котельникова
- •4. Методы формирования и преобразования сигналов
- •4.1. Классификация радиотехнических цепей
- •4.2. Виды преобразования спектров сигнала
- •4.3. Амплитудно-модулированные сигналы
- •4.4. Дискретная амплитудная модуляция (дам)
- •4.5. Спектральное и векторное представление амплитудно-модулированного сигнала
- •4.6. Определение глубины модуляции по спектральной диаграмме (графический метод)
- •4.7. Спектр ам сигнала при модуляции сообщением сложной формы
- •4.8. Амплитудная модуляция с подавленной несущей (балансная модуляция)
- •4.9. Однополосная ам модуляция
- •4.10. Получение ам колебаний
- •4.11. Выбор режима работы модулятора для обеспечения неискаженной модуляции
- •4.12. Балансный модулятор
- •4.13. Кольцевой модулятор (двойной балансный)
- •4.14. Амплитудные модуляторы на интегральных микросхемах
- •4.15. Детектирование ам колебаний (демодуляция)
- •4.16. Квадратичный детектор
- •5.4. Модуляция сигналом произвольной формы
- •5.5. Спектры при угловой модуляции
- •5.6. Сходства и различия чм и фм
- •5.7. Методы получения сигналов угловой модуляции
- •5.8. Детектирование сигналов угловой модуляции
- •5.9. Фазовый (синхронный) детектор (фд)
- •6. Модуляция дискретными сигналами
- •6.1. Дискретные виды модуляции
- •6.2. Спектры сигналов дискретной модуляции
- •6.3. Дискретная относительная фазовая модуляция (дофм)
- •6.4. Импульсные виды модуляции (аналитическое представление, временные и спектральные диаграммы)
- •6.5. Использование компандирования в икм
- •6.6. Системы передачи с дельта-модуляцией
- •7. Случайные процессы
- •7.1. Вероятносные характеристики случайных сигналов (процессов); числовые характеристики и физическая интерпретация
- •7.2. Числовые характеристики случайных процессов
- •7.3. Стационарные случайные процессы
- •7.3. Интервал корреляции
- •7.4. Эргодические случайные процессы
- •7.5. Гауссовский (нормальный) случайный процесс и его свойства
- •7.6. Нормальный случайный процесс
- •7.7. Функция корреляции одиночного прямоугольного импульса
- •7.8. Применение корреляционных методов обработки сигналов в технике связи
- •Часть II. Теория передачи сигналов
- •8. Случайные сигналы
- •8.1. Энергетический спектр случайных сигналов
- •8.2. Узкополосные и широкополосные случайные процессы. Белый шум
- •8.3. Эффективная ширина энергетического спектра и ее связь с интервалом корреляции
- •8.4. Функция корреляции узкополосного случайного процесса
- •8.5. Функция корреляции «белого» шума, ограниченного полосой частот от 0 до
- •8.6. Функция корреляции «белого» шума, ограниченного полосой частот от до
- •8.7. Прохождение случайных процессов через линейные инерционные радиотехнические цепи
- •8.8. Прохождение случайного сигнала через нелинейные безинерционные радиотехнические цепи
- •8.9. Примеры прохождения случайных сигналов через линейные инерционные и нелинейные безинерционные радиотехнические цепи
- •8.10. Представление сигнала в комплексной форме. Преобразование Гильберта. Аналитический сигнал
- •8.11. Комплексное представление узкополосного процесса. Квадратурные составляющие и их свойства
- •8.12. Огибающая и фаза узкополосного гауссовского случайного процесса и суммы гармонического сигнала и узкополосного гауссовского случайного сигнала
- •8.13. Математические модели непрерывных и дискретных каналов связи
- •8.14. Классификация дискретных каналов связи
- •8.15. Помехи в каналах связи и их классификация
- •8.16. Геометрическое представление сигналов и помех
- •9. Основы теории помехоустойчивости
- •9.1. Задачи приемного устройства
- •9.2. Критерии приема дискретных сигналов. Отношение правдоподобия
- •9.3. Оптимальный приемник полностью известных сигналов. Приемник Котельникова
- •9.4. Вероятность ошибки в приемнике Котельникова (общий случай и частные случаи)
- •9.5. Частные случаи
- •9.6. Оптимальная фильтрация дискретных сигналов
- •9.7. Примеры согласованных фильтров. Квазиоптимальные фильтры
- •9.8. Оптимальная фильтрация непрерывных сообщений
- •9.9. Оптимальная фильтрация непрерывных сигналов
- •9.10. Отношение с/ш на входе приемника непрерывных сообщений
- •9.11. Обеляющий фильтр
- •9.12. Прием сигналов с неизвестной фазой (некогерентный прием)
- •9.13. Прием дискретных сигналов со случайной амплитудой
- •9.14. Прием сигналов дофм
- •9.15. Помехоустойчивость передачи непрерывных сообщений
- •10. Основы теории информации
- •10.1. Информационные характеристики сигнала
- •10.2. Энтропия дискретного источника с независимым выбором сообщений
- •10.3. Энтропия дискретного источника с зависимыми сообщениями
- •10.4. Избыточность источника
- •10.5. Производительность источника
- •10.6. Совместная энтропия двух источников
- •10.7. Взаимная информация источников сообщений
- •10.8. Скорость передачи и пропускная способность канала связи
- •10.9. Статическое кодирование дискретных сообщений
- •10.10. Энтропия непрерывного источника и ее свойства
- •10.11. Пропускная способность непрерывного канала связи
- •10.12. Эпсилон-энтропия источника непрерывных сообщений
- •11. Корректирующие коды
- •11.1. Принципы помехоустойчивого кодирования. Кодовое расстояние
- •11.2. Классификация корректирующих кодов
- •11.3. Обнаруживающая и исправляющая способность кодов
- •11.4. Простейшие корректирующие коды
- •11.5. Сложные систематические коды
- •12. Системы передачи сообщений с обратной связью
- •12.1. Классификация систем с обратной связью
- •12.2. Системы прерывистой связи
- •12.3. Разнесенный прием
- •12.4. Широкополосные системы связи
- •1. Задачи курса тэс 4
- •2. Сигналы связи 8
- •4. Методы формирования и преобразования сигналов 28
- •5. Угловая модуляция (частотная и фазовая) 66
- •6. Модуляция дискретными сигналами 86
- •7. Случайные процессы 101
- •8. Случайные сигналы 119
- •9. Основы теории помехоустойчивости 169
- •10. Основы теории информации 213
- •11. Корректирующие коды 233
- •12. Системы передачи сообщений с обратной связью 247
10.10. Энтропия непрерывного источника и ее свойства
Энтропия дискретных источников определяется выражением (10.2). Для непрерывных источников сообщений воспользуемся этим же выражением, заменив вероятность на . В результате получим:
Но логарифм бесконечно малой величины ( ) равен минус бесконечности, в результате чего получаем:
Таким образом, энтропия непрерывных источников сообщений бесконечно велика. Но т.к. в последнем выражении первое слагаемое ( ) от величины или от не зависит, при определении энтропии непрерывных источников это слагаемое отбрасывают, учитывая только втрое слагаемое (некоторую «добавку» к бесконечности). Эта добавочная энтропия определяется формулой:
и называется дифференциальной энтропией непрерывных источников. В дальнейшем слово «дифференциальная» в определении энтропии будем иногда отпускать.
Как и для дискретных сообщений, существуют следующие разновидности дифференциальной энтропии непрерывных источников сообщений:
Условная энтропия относительно источника :
или
Совместная энтропия двух непрерывных источников сообщений:
или
Для независимых и .
Для совместной дифференциальной энтропии непрерывной случайной величины справедливы соотношения (10.18) и (10.19).
Взаимная информация , содержащаяся в двух непрерывных источниках сообщений и , определяется формулой (10.21).
Для независимых и .
Если случайная величина ограничена в объеме , то ее дифференциальная энтропия максимальна при равномерном законе распределения этой величины:
Рисунок 10.5. Равномерный закон распределения
Т.к. эта величина зависит только от разности и не зависит от абсолютных величин и , то не зависит от мат. ожидания случайной величины .
Если случайная величина не ограничена в объеме (т.е. может изменяться в пределах от до ), а ограничена только по мощности, то дифференциальная энтропия максимальна в случае гауссовского закона распределения этой величины. Определим этот максимум.
В соответствии с (10.28):
Отсюда:
Но математическое ожидание , отсюда получим:
Или окончательно:
Следовательно, энтропия зависит только от мощности . Эта важная формула будет использоваться позднее для определения пропускной способности непрерывного канала связи.
Заметим, что, как и ранее, не зависит от математического ожидания случайной величины . Это важное свойство энтропии. Оно объясняется тем, что математическое ожидание является неслучайной величиной.
10.11. Пропускная способность непрерывного канала связи
Если – сигнал на входе канала связи, а – сигнал на его выходе ( – аддитивная помеха), то скорость передачи информации по непрерывному каналу связи будет определяться выражением (10.24), в котором величину надо заменить на :
где, как и ранее – это энтропия выходного сообщения, – энтропия шума (почему она так называется, будет видно из дальнейшего изложения).
Пропускная способность равна максимально возможной скорости передачи по каналу связи, когда источник сигнала полностью согласован с характеристиками канала связи:
Максимум достигается в случае гауссовского закона распределения величины . При этом:
При учете влияния помехи необходимо рассматривать наихудший случай, когда помеха распределена также по гауссовскому закону. Условная вероятность – это фактически плотность вероятности случайной величины при якобы известном заранее значении , хотя величина является случайной. Но, т.к. , можно записать:
где – дисперсия величины при известном , т.е. дисперсия помехи . Определим условную энтропию h :
В этом выражении предполагается, что известно заранее. Таким образом, величина в приведенном выражении является математическим ожиданием величины . Однако известно, что энтропия непрерывного случайного процесса от математического ожидания не зависит. Тогда получаем:
Отсюда видно, почему условная энтропия называется энтропией шума.
Для гауссовского закона распределения помехи максимальное значение энтропии шума в соответствии (10.31) будет равно
Подставляя (10.34) и (10.35) в (10.33), получаем:
Перенося число 2 под знак логарифма, получим:
В этом выражении – мощность помехи, а , где – мощность сигнала на выходе канала связи. С учетом этого получаем окончательную формулу для вычисления пропускной способности непрерывного канала связи (формулу Шеннона):
В заключение отметим следующее.
Для достижения скорости передачи информации по непрерывному каналу связи, близкой к пропускной способности канала связи, сигнал по статической структуре должен быть близок к флуктуационной помехе (белому шуму) с гауссовским законом распределения.