- •Конспект лекцій
- •Содержание
- •Лекция № 1. Основные понятия и определения системы электросвязи.
- •Лекция № 2. Структурная схема системы электросвязи.
- •Лекция № 3. Каналы электросвязи.
- •Лекция № 4. Помехи и искажения.
- •Лекция № 5. Сигнал и его математическая модель.
- •Лекция № 6. Ряд Фурье и спектр периодического сигнала.
- •Лекция № 7. Теорема в.А.Котельникова.
- •Лекция № 8. Первичные сигналы электросвязи.
- •Лекция № 9. Нелинейные и параметрические элементы и цепи.
- •Лекция № 10. Общие понятия о модуляции.
- •Лекция № 11. Амплитудная модуляция (ам) гармонической несущей.
- •Лекция № 12. Частотная и фазовая модуляции гармонической несущей.
- •Лекция № 13. Дискретная модуляция гармонической несущей.
- •Лекция № 14.
- •Лекция № 15. Импульсно – кодовая модуляция (икм).
- •Лекция № 16. Общие понятия о детектировании сигналов.
- •Лекция № 17. Амплитудное детектирование.
- •Частотное детектирование.
- •Лекция № 18. Детектирование сигналов импульсных и дискретных модуляций.
- •Лекция № 19 Общие сведения о конструкции длинных линий.
- •Лекция № 20.
- •Лекция № 21. Вторичные параметры линий.
- •Лекция № 22. Режимы работы линии.
- •Лекция № 23. Особенности передачи электромагнитной энергии по проводным линиям связи.
- •Лекция № 24. Волноводы.
- •Лекция № 25. Волоконно – оптические линии связи.
- •Лекция № 26. Распространение радиоволн и антенны.
- •Лекция № 27. Основы теории помехоустойчивости.
- •Потенциальная и реальная помехоустойчивость.
- •Лекция № 28. Оптимальный прием дискретных сигналов.
- •Лекция № 29.
- •Лекция № 30. Оптимальный прием непрерывных сигналов.
- •Лекция № 31. Неоптимальный прием сигналов.
- •Лекция 32. Элементы теории информации.
- •Лекция 33. Основные параметры корректирующих кодов.
- •Лекция 34. Принципы построения корректирующих кодов.
Лекция № 31. Неоптимальный прием сигналов.
Условия применения. Реализация оптимальных схем приема как дискретных, так и непрерывных сигналов требует некоторой априорной информации о сигналах и свойствах канала. Чем больше априорной информации имеется в точке приема, тем совершенней и сложней будет приемное устройство и выше его помехоустойчивость. Для сигналов с известными параметрами можно реализовать оптимальный когерентный приемник В. А. Котельникова.
Однако на практике во многих случаях применяют более простые и надежные неоптимальные варианты приемного устройства ценой некоторой потери помехоустойчивости. Для простых сигналов и наиболее часто применяемых видов дискретной и аналоговой модуляцией (АМ, ЧМ, ФМ) схемы неоптимального приема по помехоустойчивости незначительно отличаются от потенциальной. Рассмотрим некоторые из этих схем.
Структурная схема приемника ФМн сигналов.
Структурные схемы приемника ОФМн сигналов:
а) – по методу сравнения фаз; б) – по методу сравнения полярностей.
Прием непрерывных АМ и ЧМ сигналов. Структурные схемы реальных приемников АМ и ЧМ сигналов идентичны оптимальным и содержат три основных функциональных узла: полосовой фильтр детекторной обработки, детектор, низкочастотный фильтр последетекторной обработки. Технические требования к фильтрам и их особенности описаны ранее. Необходимое усиление сигналов производится как до детектора, так и после него. В радиоприемных устройствах применяется, как правило, супергетеродинный прием и основное усиление обеспечивается на промежуточной частоте. При выборе характеристик фильтров, приближающихся к идеальным, реальные схемы приемников обеспечивают помехоустойчивость незначительно (2... 5 дБ) хуже потенциальной. Но для обеспечения высокого качества передачи непрерывных первичных сигналов необходимо добиваться также малых амплитудно-частотных и фазо-частотных искажений сигнала в фильтрах передатчика, канала связи, приемника, линейности характеристик детекторов.
Лекция 32. Элементы теории информации.
Информационные характеристики источника сообщений.
Количественная мера информации. Из определения информации как совокупности неизвестных для получателя сведений следует, что в общем случае дать оценку количества информации довольно затруднительно, так как всякое подлежащее передаче сообщение имеет свое содержание, свой смысл и определенную ценность для получателя. Одно и то же сообщение может давать одному получателю много информации, другому мало. Однако содержательная сторона сообщений несущественна для теории и техники связи и поэтому не учитывается при определении количественной меры информации.
В основу измерения количества информации положены вероятностные характеристики передаваемых сообщений, которые не связаны с конкретным содержанием сообщений, а отражают степень их неопределенности (неожиданности). Естественно, что чем меньше вероятность сообщения, тем больше информации оно несет.
Логарифмическая мера, впервые предложенная в 1928 г. английским ученым Р. Хартли, обладает свойством аддитивности, что соответствует нашим интуитивным представлениям об информации (сведения, полученные от двух источников, складываются). Кроме того, при Р(а) = 1 количество информации равно нулю, что соответствует принятому определению информации (сообщение об известном событии никакой информации не несет).
Энтропия источника. Большинство реальных источников выдают сообщения с различными вероятностями. Например, в тексте буквы А, Е, О встречаются сравнительно часто, а Щ, Ы, Ъ — редко. При разных вероятностях сообщения несут различное количество информации. При решении большинства практических задач необходимо знать среднее количество информации, приходящееся на одно сообщение.
Термин «энтропия» заимствован из термодинамики, где выражение характеризует среднюю неопределенность состояния системы молекул вещества. В теории информации этот термин и способ вычисления введен в 1948 г. американским ученым К. Шенноном и далее более строго определен советскими математиками А. Я- Хинчиным и А. Н. Колмогоровым. Физически энтропия Я (Л) выражает среднюю неопределенность состояния источника сообщений и является объективной информационной характеристикой источника. Энтропия всегда положительна и принимает максимальное значение.
Для источника с зависимыми сообщениями энтропия также вычисляется как математическое ожидание количества информации этих сообщений. Следует отметить, что полученное в этом случае значение энтропии меньше, чем источника независимых сообщений. Это физически следует из того, что при наличии зависимости сообщений неопределенность выбора уменьшается и, соответственно, уменьшается энтропия. Так, в тексте после сочетания «чт» вероятнее всего, что третьей буквой будет «о» и маловероятно появление в качестве третьей буквы «ж» или «ъ». В среднем сочетание «что» несет меньше информации, чем эти буквы в отдельности.
Избыточность источника. Под избыточностью всегда понимают что-то лишнее (ненужное). Что же избыточное (лишнее) имеется в источнике, выдающим какую-то информацию? Избыточными в источнике считаются сообщения, которые несут малое, а иногда и нулевое, количество информации. Время на их передачу тратится, а информации передается мало. Наличие избыточности означает, что часть сообщений можно и не передавать по каналу связи, а восстановить на приеме по известным статистическим связям. Так и поступают при передаче телеграмм, исключая из текста союзы, предлоги, знаки препинания, поскольку они легко восстанавливаются по смыслу телеграммы на основании известных правил построения фаз.
Избыточность при передаче сообщений имеет свои положительные и отрицательные стороны. Увеличение избыточности приводит к увеличению времени передачи сообщений, излишней загрузке каналов связи. За заданный промежуток времени по каналу передается меньшее количество информации, чем это возможно, поэтому одной из задач теории информации и техники кодирования является задача сокращения избыточности.
Однако при увеличении избыточности появляется возможность повышения помехоустойчивости передачи сообщений. Так, избыточность текста позволяет легко исправлять отдельные ошибки или восстанавливать пропуски букв или даже слов в телеграмме. У русского, да и у всех европейских языков, избыточность с учетом всех статистических зависимостей букв примерно одинакова. Она сформировалась в результате длительной, общественной практики на основе требований исправления искажения слов и фраз под воздействием различных мешающих факторов. При практическом выполнении систем связи устанавливается компромиссное значение избыточности, обеспечивающее заданные скорость и надежность передачи сообщений.
Производительность источников сообщений
Производительность источника сообщений является одной иэ основных его характеристик, так как каналы передачи сообщений должны строиться так, чтобы обеспечить передачу выдаваемого источником количества информации. Для типовых первичных сигналов, считая, что преобразователь сообщения — первичный сигнал — не вносит искажений, расчеты производительности сведены в таблицу. При подсчете производительности источников непрерывных сообщений (первичных сигналов) считалось, что распределение уровней квантования равновероятно и АЦП обеспечивает высокое качество (малый шум квантования).
Информационные характеристики каналов связи.
Скорость передачи информации по каналам. Под скоростью передачи информации понимают среднее количество информации, получаемое на выходе канала в единицу временщ размерность — бит/с.
Совершенно ясно, что в идеальном канале без помех и искажений количество принятой информации тождественно равно количеству переданной. Скорость передачи информации по идеальному каналу вычисляется аналогично производительности источника по информационным параметрам передаваемого первичного сигнала.
Наличие в канале помех приводит к искажению передаваемых сигналов, вследствие чего, приняв сигнал, мы не можем с полной достоверностью определить, какое же сообщение было передано. Можно утверждать, что в канале связи с помехами возникают потери информации. Сказанное подтверждает хотя бы такой всем известный факт: при разговоре по телефону при наличии помех абонент просит повторить сказанное, так как он не все понял. А это значит, что какая-то часть информации не пошла к получателю и потеряна в канале. Следовательно, при вычислении скорости передачи информации в канале с помехами необходимо учитывать потери информации, и скорость передачи информации в дискретном канале.
Пропускная способность каналов. Наибольшее значение скорости передачи информации по каналу связи при заданных ограничениях называется пропускной способностью канала, бит/с:
Под заданными ограничениями понимают тип канала (дискретный или непрерывный), характеристики сигналов и помех. Напомним, что канал называют дискретным, на входе и выходе которого имеются дискретные сигналы, непрерывным называется канал, на входе и выходе которого имеются непрерывные сигналы.
Пропускная способность канала, как предельное значение скорости безошибочной передачи информации, является одной из основных характеристик любого канала. Для типовых непрерывных каналов многоканальной связи основные технические характеристики и пропускная способность вычисленная по формуле Шеннона, приведены в таблице.
Зная пропускную способность канала и информационные характеристики сообщений (первичных сигналов), можно определить, какие сообщения (первичные сигналы) можно передавать по заданному каналу.