- •1. Основные определения: информация, сообщение, система связи, сигнал, алфавит.
- •2. Функциональная система цифровой системы связи.
- •3. Преимущества и недостатки цифровой связи
- •4.Четырехуровневая коммуникационная система
- •5. Эталонная модель (osi): стек протоколов
- •6. Уровни модели взаимодействия открытых систем osi
- •Блочная диаграмма типичной системы цифровой связи от источника к передатчику
- •Блочная диаграмма типичной системы цифровой связи от приемника к потребителю информации
- •9. Отображение цифрового сигнала в виде аналоговой функции времени
- •10. Сигнал как реализация процесса. Классификация процессов
- •12. Полигармонические и почти периодические процессы
- •13. Определение случайного процесса
- •14. Процесс стационарный в широком смысле
- •15. Процесс стационарный в узком смысле
- •16. Случайные эргодические процессы, гауссов процесс
- •17. Процессы авторегрессии
- •18. Ковариационная и корреляционная матрицы случайного процесса, автоковариационная и автокорреляционная функции
- •19. Оценивание ковариационной и корреляционной матриц случайного процесса и автоковариационной и автокорреляционной функций
- •20. Случайные нестационарные процессы, характеристики случайных процессов
- •21. Классификация шумов в системах связи.
- •22. Определение спектральной плотности мощности. Теорема Винера-Хинчина.
- •23. Непрерывное преобразования Фурье
- •24. Финитное преобразование Фурье
- •25. Дискретное преобразование Фурье (дпф).
- •26. Свойства дпф.
- •27. Оценивание спектральной плотности с помощью дпф
- •28. Модель белого шума.
- •29. Линейные системы с постоянными параметрами.
- •Характеристики линейных систем с постоянными параметрами.
- •31. Последовательное включение систем с постоянными параметрами.
- •32. Связь спектральных плотностей входного и выходного процессов линейной системы с постоянными параметрами.
- •3 5. Узкополосные и широкополосные сигналы.
- •36. Критерии определения ширины полосы.
- •Форматирование текстовой информации в системах dcs.
- •38. Теорема о дискретном представлении. Критерий Найквиста. Инженерный критерий Найквиста.
- •Дискретизация с помощью идеальных единичных импульсов (идеальная дискретизация).
- •Естественная дискретизация.
- •41.Дискретизация по методу «выборка-хранение».
- •42.Квантование амплитуды и характеристики.
- •45.Шум квантования.
- •46.Импульсно кодовая модуляция квантованных выборок аналогового сигнала.
- •47.Кодирование источников определения.
- •48.Дискретные источники и их характеристики.
- •49.Типы дискретных источников.
- •50.Свойства кодов.
- •51. Показатели кодирования
- •52. Кодирование источников без памяти: код шеннона-фано
- •54. Кодирование источников с памятью: методы подавления нулей и групповое кодирование
- •55. Кодирование источников с памятью: методы подстановки образцов и дифференциальное сжатие
- •56. Униполярные и биполярные сигналы pcm
- •57. Сигналы рсм в кодировке nrz (nrz-l, nrz-m, nrz-s)
- •58. Кодировки nrz-ami и rz-ami
- •59. Фазовое кодирование
- •60. Кодирование модуляцией задержки
- •61. Многоуровневое кодирование рсм. Достоинства и недостатки
- •62. Искажение сигналов шумом awgn
- •63. Межсимвольная интерференция
- •64. Обобщенная схема передачи узкополосного сигнала
- •65. Основные этапы демодуляции/обнаружения
- •68. Униполярная передача двоичных сигналов
- •69. Биполярная передача двоичных сигналов
- •70. Эквивалентная модель системы dcs
- •71. Импульсы Найквиста
- •72. Компенсация искажений с помощью выравнивания
- •73. Виды выравнивания и типы эквалайзеров.
- •74. Дискретный канал без памяти
- •75. Теорема кодирования канала
- •76. Теорема о пропускной способности канала
- •Зачем нужна широкополосная модуляция?
- •78, 79. Амплитудная и частотная модуляция (ask и fsk)
- •80. Частотная манипуляция и бинарная частотная манипуляция
- •81. Бинарная фазовая манипуляция, квадратурная фазовая манипуляция
- •82. Амплитудно-фазовая манипуляция (арк)
- •83. Определение полосовой демодуляции и ее виды
- •84. Ресурс связи и способы его распределения
- •85. Сигналы, ортогональные во времени и по частоте
- •86. Уплотнение/множественный доступ с частотным разделением
- •87. Множественный доступ с временным разделением
17. Процессы авторегрессии
Существуют модели образования случайных стационарных сигналов, в которых наиболее существенные свойства временной последовательности заключены в математико-вероятностной структуре. Наиболее простой и часто используемой моделью такого рода является модель процесса авторегрессии (модель АР), которая описывается стохастическим разностным уравнением вида
,
(9)
где предполагается,
что случайные величины
имеют одинаковые и независимые
распределения, нулевое математическое
ожидание, а также общую дисперсию
(т.е. являются отсчетами белого шума).
Величина
по-прежнему обозначает среднее
(матожидание) сигнала
.
Следует уточнить, что процесс авторегрессии,
задаваемый соотношением (9), называется
процессом
авторегрессии М-ого порядка.
18. Ковариационная и корреляционная матрицы случайного процесса, автоковариационная и автокорреляционная функции
Анализ процессов в большинстве случаев выполняется в предположении, что независимая повторная выборка сигнала не может быть получена. Поэтому все оценки, полученные по единственной реализации , «зависящей» от времени, предполагаются идентичными оценкам, которые можно было бы получить по ансамблю реализаций.
Из
предположения о стационарности процесса,
порождающего сигнал, следует, что
совместное распределение вероятностей
величин
и
одинаково для всех времен
и
,
разделенных одним и тем же сдвигом
времени
.
Для эквидистантных сигналов сдвиг между
и
обычно характеризуется разностью
индексов
временных точек
и
,
которая
называется задержкой
или сдвигом;
для наблюдений
и
сдвиг равен k.
Ковариация между значениями
и
,
отделенными k
равными интервалами времени, называется
автоковариацией
с
задержкой
k
и определяется как
. (3.1)
Очевидно, дисперсия
величины
равна C(0),
и, поскольку она не зависит от времени
(во всех точках
дисперсия стационарного процесса
одинакова),
можно записать
.
Автокорреляция
со сдвигом k
равна
, (3.2)
откуда вытекает, что
и
для k
=1, 2, …
Отметим, что,
согласно определению, автоковариации
и автокорреляции могут быть заданы и
для отрицательных сдвигов, причем
формула (3.1) показывает, что
(3.3)
и, следовательно,
. (3.4)
Ковариационная
матрица,
связанная с процессом, для наблюдений
,
где
и
,
имеет вид
=
=
. (3.5)
Ковариационная
матрица
такого вида (симметричная и с одними и
теми же элементами на любой диагонали)
называется автоковариационной
матрицей;
соответствующая корреляционная матрица
называется автокорреляционной
матрицей.
Матрицы
и
являются положительно определенными
(определитель и все главные миноры
каждой из этих матриц положительны).
Функция C(k)
от задержки k
называется автоковариационной
функцией
соответствующего процесса. Аналогично
функция
от задержки k
называется автокорреляционной
функцией.
Заметим, что автокорреляционная функция
безразмерна, т. е. независима от
масштаба измерения сигнала. Так как
,
знание автокорреляционной функции
и дисперсии
эквивалентно знанию автоковариационной
функции
.
На рисунках 3.1 и 3.2 показаны правые (для
неотрицательных сдвигов) половины двух
различных автокорреляционных функций.
Из рисунков видно, что автокорреляционные
функции характеризуются тенденцией к
затуханию по мере роста сдвига k.
Такие автокорреляционные функции часто
встречаются на практике. В дальнейшем,
когда будем говорить об автокорреляционной
функции, мы будем иметь в виду ее правую
половину.
Положительное
значение корреляции
свидетельствует о положительной
статистической зависимости между
отсчетами ряда, разделенными интервалом
,
где
интервал дискретизации процесса по
времени. Положительное значение
(
)
означает, что при превышении отсчетом
математического ожидания
,
наиболее вероятным будет исход, при
котором значение
также будет больше, чем
,
а если
,
то значение
будет меньше, чем
,
для большинства индексов n.
При отрицательной корреляции (
)
разности
и
будут иметь в основном различные знаки.
