
- •Министерство образования и науки Российской Федерации Федеральное агентство по образованию
- •Е.А.Чернецова
- •Часть 1
- • Российский государственный гидрометеорологический университет (рггму), 2007 Лекция 1
- •1.1 Цели разработчика систем связи
- •1.2 Характеристики вероятности появления ошибки
- •1.3 Теорема Шеннона о пропускной способности канала
- •1.4 Энтропия и неопределенность при передаче сообщений
- •1.5 Плоскость «полоса-эффективность»
- •Лекция 2
- •2.1 Разложение вектора сигнала в ортогональном базисе
- •2.2 Корреляционный приемник
- •2.3 Когерентный прием многофазных сигналов
- •2.4 Дифференциальное детектирование
- •2.5 Некогерентное детектирование частотномодулированных сигналов
- •Лекция 3
- •3.1 Диаграмма рассеяния.
- •3.2 Глазковая диаграмма
- •3.3 Фильтр типа приподнятого косинуса
- •3.4 Выравнивание
- •3.5 Виды эквалайзеров
- •Лекция 4
- •4.1 Виды синхронизации
- •4.2 Частотная и фазовая синхронизация
- •4.4 Характеристика стационарного состояния контура фапч
- •4.5 Нелинейный контур фапч
- •4.6 Схемы подавления несущей
- •4.7 Начальная синхронизация.
- •4.8 Ошибки сопровождения фазы и производительность контуров.
- •4.9 Методы анализа спектра
- •4.10 Символьная синхронизация
- •4.11 Разомкнутые символьные синхронизаторы
- •4.12 Замкнутые символьные синхронизаторы
- •4.13 Синхронизация при модуляциях без разрыва фазы.
- •4.14 Синхронизация с использованием данных.
- •4.15 Синхронизация без использования данных
- •4.16 Кадровая синхронизация.
- •4.17 Сетевая синхронизация
- •Лекция 5
- •5.1 Модуляция с эффективным использованием полосы частот.
- •Лекция 6
- •6.1 Канальное кодирование
- •6.2 Использование кодирования с коррекцией ошибок
- •6.3 Сверточные коды
- •6.4 Алгоритм декодирования Витерби
- •6.5 Решетчатое кодирование (Trellis code modulation – tcm)
- •Лекция 7
- •7.1 Компромиссы при использовании модуляции и кодирования
- •7.2 Система ограниченной полосы пропускания без кодирования
- •7.3 Код Грея
- •7.4 Система ограниченной мощности без кодирования
- •7.5 Система ограниченной мощности и полосы пропускания с кодированием
- •Лекция 8
- •8.1 Чередование (interleaving)
- •8.2 Блочное чередование
- •8.3 Пример характеристики устройства чередования.
- •8.4 Сверточное чередование
- •Лекция 9
- •9.1 Модуляция и кодирование в каналах ограниченной полосы
- •Лекция 10
- •10.1 Уплотнение и множественный доступ
- •10.2 Использование уплотнения с частотным разделением в телефонной связи
- •10.3 Множественный доступ с частотным разделением в спутниковых системах.
- •10.4 Уплотнение/множественный доступ с временным разделением
- •10.5 Сравнение производительности fdma и tdma
- •Лекция 11
- •11.1 Методы расширенного спектра
- •11.2 Преимущества систем связи расширенного спектра
- •Подавление помех
- •2. Снижение плотности энергии
- •3. Высокая временная разрешающая способность
- •4. Множественный доступ
- •11.3 Метод расширения спектра с помощью прямой последовательности
- •11.4 Передачи или хранение опорного сигнала
- •11.5 Свойства псевдослучайной последовательности
- •11.6 Последовательности, генерируемые регистром сдвига
- •11.7 Система со скачкообразной перестройкой частоты.
- •11.8 Сравнительные характеристики систем ds и fh
- •11.9 Синхронизация в системах ds и fh.
- •Лекция 12
- •12.1 Радиоинтерфейс системы cdmAone (is-95)
- •12.2 Прямой канал связи ( линиz «вниз»)
- •12.3 Обратный канал связи
- •12.4 Регулирование мощности
- •12.5 Эстафетная передача
- •12.6 Rake-приемник
- •12.7 Алгоритм типичного телефонного звонка.
- •Лекция 13
- •13.1 Перспективы развития систем мобильной связи третьего поколения
- •13.2 Общая характеристика радиоинтерфейса umts.
- •13.3 Эволюция стандарта is-95 в cdma 2000
- •13.4 Разнесенный прием
- •Лекция 14
- •14.1 Частотное планирование систем сотовой связи.
- •14.2 Помехи и информационная емкость системы.
- •14.3 Энергетическое планирование с применением моделей потерь на распространение
- •Список литературы:
- •Часть 1
1.4 Энтропия и неопределенность при передаче сообщений
Для разработки системы связи с определенной способностью к обработке сообщений нужна метрика измерения объема передаваемой информации. Шеннон ввел такую метрик Н, называемую энтропией источника сообщений (имеющего n возможных выходных значений). Энтропия определяется как среднее количество информации, приходящееся на один выход источника. Двоичная энтропия:
,
где р – вероятность появления символа 0
q=1-p – вероятность появления символа 1.
Если последовательность
из n
символов равновероятно принимает
какое-либо значение из множества,
состоящего из
элементов, то требуется
бит
для описания n
символов или Н
бит/символ.
Пусть последовательность
равновероятно
оказывается одной из четырех комбинаций
.
Для описания трех символов требуется
2 бита или
бит/символ. ( Действительно, т.к. k=3;
H=2/3;
элемента алфавита). Так как выходной
сигнал может иметь
равновероятных значений, то вероятность
того, что выходной сигнал, содержащий
кодовое слово j
попадет в множество, соответствующее
другому кодовому слову i
равна
Если имеется
кодовых слов, то вероятность того, что
приемное устройство сделает неправильный
выбор равно
*
и стремится к нулю при k
если
.
Пусть по двоичному симметричному каналу ( дискретный канал без памяти, входной и выходной алфавиты которого состоят из двоичных элементов (0,1)) со скоростью 1000 символов/с передается информация, а априорная вероятность передачи нуля и единицы одинакова. Пусть помехи в канале настолько значительны, что независимо от переданного символа, вероятность приема единицы равна ½ ( то же и для нуля). В таком случае половина принятых символов должна случайно оказаться правильной, и может создаться впечатление, что система обеспечивает скорость 500 бит/c, хотя на самом деле никакой информации не передается. Утраченной является информация о корректности переданных символов. Для оценки неопределенности в принятом сигнале Шеннон использует поправочных коэффициент, который называет неоднозначностью . Неоднозначность определяется как условная энтропия сообщения Х, обусловленная данным сообщением Y:
(1.5)
где Х – сообщение, переданное источником,
Y- принятый сигнал,
- условная вероятность
Х при приеме Y,
- совместная
вероятность Х и Y.
Неоднозначность
можно представить как неуверенность в
передаче Х при условии принятия Y.
Для канала без ошибок
=0,
поскольку принятие сообщения Y
абсолютно точно определяет Х. В то же
время для канала с ненулевой вероятностью
возникновения символьной ошибки
,
поскольку канал вносит некоторую
неопределенность.
Рассмотрим двоичную последовательность Х, для которой априорные вероятности источника Р(Х=1)=Р(Х=0)=1/2 и где, в среднем, в принятую последовательность из 100 бит канал вносит одну ошибку ( =0,01). Исходя из уравнения (5) неоднозначность можно записать следующим образом:
Таким образом, в каждый принятый символ канал вносит 0,081 бит неопределенности.
Шеннон показал,
что среднее эффективное количество
информации
в
приемнике получается путем вычитания
неоднозначности из энтропии источника:
(1.6)
Для системы,
передающей равновероятные двоичные
символы, энтропия
равна 1 бит/символ. Тогда для приведенного
примера
=1-0,081=0,919
бит/полученный символ. Если за секунду
передается R=1000
бит, то эффективная скорость передачи
информации:
бит/с
(1.7)
В предельном
случае, когда апостериорная вероятность
получения 0 или 1 равна ½, то
бит/с