
- •Теория передачи сигналов (задачи, основные понятия, определения).
- •Обобщенная модель системы передачи информации, основные параметры.
- •Помехи и искажения в канале связи.
- •Сигналы и их формирование.
- •Кодирование и модуляция.
- •Достоверность и скорость передачи.
- •Модели сигналов и помех.
- •Тригонометрический ряд Фурье.
- •Амплитудно-фазовое представление ряда Фурье.
- •Аналитический сигнал.
- •Вычисление сигнала через спектральные и временные характеристики.
- •Функция отсчетов sin(X)/X и ее свойства.
- •Спектры сигналов при аналоговых видах модуляции.
- •Спектры сигналов при импульсных видах модуляции.
- •Импульсная несущая
- •Теоремы о спектрах.
- •Сигналы и помехи как случайные процессы.
- •Флуктуационная помеха (статистические и энергетические свойства)
- •Функция корреляции и ее свойства.
- •Энергетический спектр случайного процесса.
- •«Белый» и «окрашенный» шум.
- •Прохождение случайного процесса через линейные и нелинейные системы.
- •Понятие ширины энергетического спектра и интервала корреляции.
- •Основные типы задач приема сигналов.
- •Количественные критерии.
- •Прием сигналов, как статистическая задача.
- •Оптимальный прием сигналов – статистические критерии.
- •Критерий Неймана-Пирсона.
- •Оптимальный корреляционный приемник.
- •Прием сигналов методом синхронного повторения.
- •Комплексный ряд Фурье.
- •Временное представление сигналов и помех. Теорема о дискретизации. Ряд Котельникова.
- •Интеграл Фурье.
- •Равенство Парсеваля. Понятие ширины спектра.
- •Разложение сигналов на элементарные. Обобщенный ряд и коэффициенты Фурье.
- •Случайные процессы (способы задания, характеристики, параметры).
- •Оптимальный прием сигналов на согласованный фильтр.
- •Автокорреляционный прием.
- •Энтропия источника и ее свойства.
- •Энтропия непрерывного источника.
- •Количественная мера информации.
- •Условная энтропия.
- •Скорость передачи и пропускная способность.
- •43.Геометрическая модель системы передачи информации.
- •Оптимальный прием непрерывных сигналов.
- •Принцип помехоустойчивого кодирования.
- •Геометрическая модель сигналов, помех и канала.
- •Интегральный прием.
- •Циклический код.
- •Рекуррентный код.
- •Критерий среднего риска.
- •Статистические критерии оптимального приема, решающее устройство.
- •Стационарные случайные процессы.
- •Эргодическая теорема.
- •Корреляционный прием.
Оптимальный прием сигналов на согласованный фильтр.
В
принципе все методы приёма сигналов
заключаются в фильтрации (когда помеха
подавляется, а полезный сигнал выделяется).
Выигрыш:
Известно:
Форма сигнала S(t)
Есть прямое и обратное преобразование Фурье
Фильтр – это четырёхполюсник (линейный)
g(τ) – временная характеристика (реакция фильтра на дельта импульс).
k(jw) – комплексный коэффициент передачи по частоте.
k(jw) и g(τ) – однозначно жестко связаны законом Винера-Колмогорова.
Условия согласования:
Надо:
1.
2.
Длительность сигнала 0÷τ.
Как найти y(t), если есть x(t)=S(t)+W(t)
Зная процесс на выходе y(t), можно найти его мощность.
Полагая, что помеха W(t) – белый гауссовский шум с плотностью No, можно найти мощность шума. При заданной плотности S(jw) можно найти ширину спектра сигнала S(t).
Подставим
значения и зная, что длительность
сигнала:
Получаем:
Таким образом, процесс на выходе y(t) в точности до масштабного коэффициента со сдвигом на время Т повторяет автокорреляционную функцию сигнала x(t). В этом смысле приём сигнала на согласованный фильтр аналогичен корреляционному приёму. И не надо иметь эталонный генератор, потому что его заменяют характеристики согласованного фильтра.
Шумовая полоса будет ограничена ΔFn, следовательно, шум становиться окрашенным.
Если на входе случайные процессы с различными законами распределения, то процесс на выходе будет иметь нормальный закон распределения.
Автокорреляционный прием.
x(t)=S(t)+W(t) (помеха гауссовская)
Будем искать функцию взаимной корреляции между принимаемой функцией x(t) и её задержанной копией на время τ.
АКФ зависит от τ, а не от t.
(1)
(2)
Зная, что значения сигнала сильно коррелированны.
Пусть W(t) – гауссовский шум
Выигрыш так же не превысит 2TF, но нет множества генераторов.
Энтропия источника и ее свойства.
это
среднее количество информации на
сообщение, которое вырабатывает источник.
[бит/сообщение
]
Энтропия
источника:
- характеризует степень неопределенности
состояния источника. (Но с точки зрения
получателя информации: энтропия
частично или полностью уменьшается).
Отсюда, энтропия
- это математическое ожидание по частным
количествам информации сообщений,
генерируемых источником. Безусловная
энтропия источника
вычисляется по формуле
[бит/сообщ.] (8)
Отметим, что формула (8) не учитывает статистическую связь между символами, поэтому такая энтропия называется безусловной.
Энтропия является показателем средней априорной неопределенности при выборе очередного символа из источника. Выражение (8) можно рассматривать, как меру неопределенности (энтропии) состояния источника, заданного своими безусловными вероятностями.
Из
выражения (8) следует, что энтропия
источника равна нулю тогда и только
тогда, когда одна из вероятностей
равна единице, а остальные вероятности
соответственно равны нулю, т.е. когда
имеет место полной определенности
выбора.
Свойства энтропии:
1. Максимальное значение энтропии - это когда все состояния источника равновероятны.
-
числе состояний источника.
2. Энтропия равна нулю, если одно из состояний источника является достоверным событием, т.е. равна 1.
Энтропия всегда величина положительная (неотрицательная).
Учет статистических связей между символами, последовательно выбираемых источником ведет к дальнейшему уменьшению энтропии, определяемой формулой (8), не учитывающей этой связи. На самом деле, чем больше вероятностные связи символов, тем меньше свобода выбора последующих символов, тем меньше в среднем информации приходится на каждый вновь выбираемый символ источника и тем меньше энтропия.