
- •Введение
- •1 Лекция 1. Сигнал, информация и сообщение.
- •1.1 Сообщение как случайный процесс
- •1.2. Формы представления детерминированных сигналов.
- •1.2.1. Временная форма
- •1.3 Мера Хартли. Количественная оценка информации
- •2 Лекция 2. Дискретный канал без помех
- •2.1. Понятие информации
- •2.2 Дискретный канал передачи информации без помех
- •2.3 Пропускная способность канала
- •2.4 Теоремы для пропускной способности канала без помех
- •2.5 Математическая модель дискретного канала без помех
- •3 Лекция 3. Дискретный канал с помехами
- •3.1 Понятие помехи
- •3.2. Виды помех
- •4 Лекция 4. Дискретный канал передачи информации с помехами
- •4.1 Дискретный канал передачи информации с помехами
- •4.2 Пропускная способность канала с помехами
- •4.3 Теоремы для пропускной способности канала с помехами
- •4.4 Математическая модель дискретного канала с помехами
- •5 Лекция 5. Принципы дискретизации и восстановление информации
- •5.1 Представление информации в непрерывном виде
- •5.2 Принципы дискретизации и восстановление информации
- •5.3 Критерии качества восстановления.
- •6 Лекция 6. Непрерывный канал
- •6.1 Разложение непрерывного сигнала в ортогональные ряды
- •6.2 Ряды Фурье и их применение в технике связи
- •6.3 Теорема Котельникова (Основная теорема Шеннона)
- •6.4 Пропускная способность непрерывного канала (без помех и с помехами)
- •6.5 Модель нкс
- •7 Лекция 7. Методы формирования и преобразования сигналов в системах связи
- •7.1 Методы модуляции носителей информации
- •7.2 Модуляция гармонического сигнала (несущей частоты)
- •7.3 Амплитудная (ам), частотная(чм), фазовая(фм) модуляции
- •7.3.2 Частотная модуляция
- •8 Лекция 8. Фазовая модуляция.
- •8.1 Фазовая модуляция
- •8.2 Временное, спектральное и векторное представление сигналов
- •8.3 Ширина полосы частот и различие в спектрах чм и фм сигналов
- •9 Лекция 9. Импульсная модуляция.
- •9.2 Методы дискретной модуляции.
- •10.2 Избыточность сообщений
- •10.3 Теорема об эффективном кодировании.
- •11 Лекция 11. Помехоустойчивые корректирующие коды.
- •11.1. Общие сведения.
- •11.2 Блоковые коды
- •11.2.1. Общие принципы использования избыточности
- •11.2.2 Связь корректирующей способности кода с кодовым расстоянием.
- •12 Лекция 12. Коды обнаруживающие ошибки.
- •12.1 Коды обнаруживающие ошибки.
- •12.2 Математическое введение к групповым кодам
- •12.3 Построение двоичного группового кода
- •12.3.1 Определение числа избыточных символов.
- •13 Лекция 13. Помехоустойчивые корректирующие коды.
- •13.1 Составление таблиц опознавателей.
- •13.2 Определение проверочных равенств.
- •13.3 Коды Хэмминга.
- •13.4 Коды Рида-Соломона.
- •13.5 Код Голея.
- •13.6 Непрерывные коды.
- •14 Лекция 14. Циклические коды.
- •14.1 Циклические коды
- •14.2 Выбор образующего многочлена по заданному объему кода и заданной корректирующей способности.
- •15 Лекция 15. Методы построения циклических кодов.
- •15.1 Методы построения циклических кодов.
- •15.2 Декодирование цк.
- •16 Лекция 16. Теория помехоустойчивых систем
- •16 Теория помехоустойчивых систем
- •16.1 Критерии оптимального приёма сообщений
- •16.2 Синтез алгоритмов и схем оптимальных приёмников, корреляционный приёмник, приёмник с согласованным фильтром
- •17 Лекция 17. Приёмник с согласованным фильтром
- •17.1 Приёмник с согласованным фильтром (продолжение)
- •17.2 Анализ помехоустойчивости систем связи с различными видами модуляций и различными методами приема сигналов
- •18 Лекция 18. Различные методы приема сигналов
- •18.1 Фазоманипулированные сигналы
- •18.2 Сигналы с относительной фазовой манипуляцией
- •1 9 Лекция 19. Многоканальная связь
- •19. Многоканальная связь
- •19.1 Методы частотного, временного и фазового разделения сигналов
- •20 Лекция 20. Методы многоканальной связи
- •20.1 Разделение сигналов по форме
- •20.2 Комбинационное разделение
- •20.3 Цифровые методы передачи непрерывных сообщений
- •20.4 Аналого-цифровые и цифро-аналоговые преобразователи
- •21 Лекция 21. Цифровые методы модуляции
- •21.1 Дискретизация по времени и квантования
- •21.2 Импульсная - кодовая модуляция (икм)-модуляция, дифференциальная икм
- •21.3 Структура кадров икм-30
- •Содержание
2.3 Пропускная способность канала
Максимально возможная скорость передачи информации по каналу связи при фиксированных ограничениях называются пропускной способностью канала: C= max R= max H(u)/τ (дв.ед./сек). (2.2)
Пропускная способность канала характеризует его предельные возможности в отношении передачи среднего количества информации за единицу времени. Максимум скорости R в выражении (2.9) ищется по всем возможным ансамблям сигналов u.
Определим пропускную способность канала, в котором существуют 2 ограничения: число используемых сигналов не должно превышать m, а длительность их не может быть меньше τ, сек. Так как Н(u) и τ не зависимый, то согласно выражению (2.9) следует искать раздельно максимум Н(u) и минимум τ. Тогда:
С= max H(u)/min τ=( log m)/τ . (2.3)
Для двоичных сигналов m=2 и пропускная способность
,
(2.4)
т.е. совпадает со скоростью телеграфирования в бодах. При передаче информации простейшими двоичными сигналами – телеграфными посылками – необходимая полоса пропускания канала зависит от частоты манипуляции Fm=1/2τ, которая по определению равна частоте первой гармонике спектра сигнала, представляющего собой периодическую последовательность посылок и пауз. Очевидно, минимальная полоса пропускания канала, при которой ещё возможна передача сигналов, F= Fm. Отсюда максимальная скорость передачи двоичных сигналов по каналу без помех равна:
C=V=2 Fm. (Предел Найквиста).
Понятие пропускной способности применима не только по всему каналу в целом, но и к отдельным его звеньям. Существенным здесь является то, что пропускная способность C’ какого- либо звена не превышает пропускной способности C’’ второго звена, если оно расположено внутри первого. Соотношение C’≤ C’’ обусловлено возможностью появления дополнительных ограничений, накладываемых на участок канала при его расширении и снижающих пропускную способность.
2.4 Теоремы для пропускной способности канала без помех
Для
дискретных каналов без помех
Шенноном была доказана следующая
теорема: если производительность
источника Rи
C-ξ,
где ξ-
сколь угодно малая величина, то всегда
существует способ кодирования, позволяющий
передавать по каналу все сообщения
источника. Передачу всех сообщений при
Rи>С
осуществить невозможно.
Смысл
теоремы сводится к тому, что как бы не
была велика избыточность источника,
все его сообщения могут быть переданы
по каналу, если Rи
С-ξ
. Обратное утверждение теоремы легко
доказывается от противного. Допустим,
Rи>С,
но для передачи всех сообщений источника
по каналу необходимо, чтобы скорость
передачи информации R
была не меньше Rи.
Тогда имеем R
Rи>С,
что невозможно, так как по определению
пропускная способность С=Rmax
.
Для рационального использования пропускной способности канала необходимо применять соответствующие способы кодирования сообщений. Статистическим или оптимальным называется кодирование, при котором наилучшим образом используется пропускная способность канала без помех. При оптимальном кодировании фактическая скорость передачи по каналу R приближается к пропускной способности С, что достигается путем согласования источника с каналом. Сообщения источника кодируются таким образом, чтобы они в наибольшей степени соответствовали ограничениям, которые накладываются на сигналы, передаваемые по каналу связи. Поэтому структура оптимального кода зависит как от статистических характеристик источника, так и от особенностей канала.
Рассмотрим основные принципы оптимального кодирования на примере источника независимых сообщений, который необходимо согласовать с двоичным каналом без помех. При этих условиях процесс кодирования заключается в преобразовании сообщений источника в двоичные кодовые комбинации.
Энтропия кодовых комбинаций равна энтропии источника:
.
(2.5)
Скорость передачи информации в канале:
.
(2.6)
Здесь числитель определяется исключительно статистическими свойствами источника, а величина τ0 – характеристиками канала. Можно закодировать сообщения, чтобы скорость передачи R (2.6) достигла своего максимального значения, равного пропускной способности двоичного канала С=1/ τ0, если выполняется условие:
.
(2.7)
Одним из кодов, удовлетворяющих условию (2.7), является код Шеннона-Фано.