- •1. Основные определения.
- •2. Этапы обращения информации.
- •3. Понятие сигнала и его модели.
- •4. Формы представления детерминированных сигналов.
- •5. Представление сигнала в виде взвешенной суммы базисных функций. Понятие дискретного спектра сигнала и спектральной плотности.
- •6. Ортогональное представление сигналов.
- •7. Временная форма представления сигнала.
- •8. Частотная форма представления сигнала.
- •9. Спектры периодических сигналов.
- •10. Распределение энергии в спектре периодичного сигнала.
- •11. Спектры непериодических сигналов.
- •12. Распределение энергии в спектре непериодического сигнала. Равенство Парсеваля.
- •13. Соотношение между длительностью импульсов и шириной их спектра.
- •14. Спектральная плотность мощности детерминированного сигнала.
- •15. Функция автокорреляции детерминированного сигнала.
- •16. Случайный процесс как модель сигнала. Понятие ансамбля и пространства состояний. Виды случайных процессов.
- •17. Вероятностные характеристики случайного процесса.
- •18. Стационарные и эргодические случайные процессы.
- •19. Спектральное представление случайных сигналов.
- •20. Частотное представление стационарных случайных сигналов. Дискретные спектры.
- •21. Частотное представление стационарных случайных сигналов. Непрерывные спектры.
- •22. Основные свойства спектральной плотности.
- •23. Дискретизация непрерывных величин.
- •24. Квантование по времени. Теорема Котельникова.
- •25. Понятие модуляции.
- •26. Амплитудная модуляция.
- •27. Частотная модуляция.
- •28. Фазовая модуляция.
- •29. Модуляция импульсного тока.
- •30. Кодоимпульсные сигналы.
- •31. Многократная модуляция.
- •32. Количество информации в дискретных сообщениях. Энтропия дискретного источника.
- •33. Свойства энтропии.
- •34. Условия энтропии и ее свойства.
- •35. Передача информации от дискретного источника. Частное количество информации.
- •37. Частная условная энтропия. Условная энтропия источника. Апостериорная энтропия источника.
- •38. Количество информации в переданном сообщении дискретным источником.
- •39. Энтропия квантовой величины.
- •40. Количество информации в непрерывном сообщении. Априорная (безусловная) и апостериорная (условная) дифференциальные энтропии. Симметричность выражения количества информации.
- •43. Количество и скорость передачи информации при нормальном распределении сигнала и помехе (погрешности).
- •42. Количество информации, передаваемое за определенное время. Скорость передачи информации.
- •41. Количество передаваемой информации с учетом наличия аддитивной помехи.
- •44. Количество и скорость передачи информации при равномерном распределении сигнала и нормальном распределении помехи (погрешности).
- •45. Дифференциальная энтропия равномерно распределенной погрешности. Энтропийная погрешность.
- •46. Код, кодирование, кодовые сигналы.
- •47. Системы счисления.
- •48. Числовые коды.
- •49. Коды, не обнаруживающие возможных искажений.
- •50. Коды, обнаруживающие ошибки.
- •51. Информационная способность кода и избыточность.
- •52. Коды с коррекцией искажений.
6. Ортогональное представление сигналов.
Вычисление спектральных составляющих сигнала значительно упрощаются при выборе в качестве базиса системы ортогональных функций.
Систему функций 0(t), 1(t), . . ., k(t), . . ., j(t), . . ., n(t) называют ортогональной на отрезке [ta, tb] если для всех k = o,n; j = o,n, за исключением случаев k = j, удовлетворяется условие
(3)
эта система функций будет ортонормированной (ортонормальной), если для всех j = o,n справедливо соотношение
(4)
Если (4) не выполняется и
то систему можно нормировать, умножая функции j(t) на .
Определим коэффициенты Сk при представлении сигнала U(t) совокупностью ортонормированных функций в виде
(5)
предполагая, что интервал [t1, t2] лежит внутри отрезка ортонормальности [ta, tb].
Правую и левую части (5) умножаем на j(t) и интегрируем на интервале [t1, t2]:
(6)
В силу справедливости (3) все интегралы в правой части (6) при k j будут равны 0. При k = j в соответствии с (4) интеграл равен 1.
Следовательно
(7)
В теоретических исследованиях обычно используются полные системы ортогональных функций, обеспечивающих сколь угодно малую разность непрерывной функции U(t) и представляющего ее ряда при неограниченном увеличении числа его членов. Разность оценивают по критерию
(8)
При этом говорят о среднеквадратической сходимости ряда к функции U(t).
Широко известной ортонормированной системой является совокупность тригонометрических функций кратных аргументов:
Она ортонормальна на отрезке [-,]. Т.к. соответствующее разложение исторически появилось первым и было названо рядом Фурье, то соотношения (5) часто именуют обобщенным рядом Фурье, а значения Ck – обобщенными коэффициентами Фурье.
В теории сигналов доказывается, что любой периодический сигнал U(t), имеющий на периоде конечное число точек разрыва первого ряда, может быть представлена в виде
(*)
Иными словами, периодический сигнал U(t) сложной формы может быть разложен на элементарные гармонические колебания с амплитудой Ак, частотой к1 и начальной фазой к. Здесь 1 – круговая частота первой гармоники (Т1=2/1).
Если знать, что
и ввести обозначение
то выражение (*) примет вид
(**)
Здесь А=U0/2 представляет нулевую гармонику. Выражение (**) представляет разложение периодического сигнала U(t) в ряд Фурье. При этом коэффициенты ряда Фурье могут быть определены по формулам
Легко заметить, что амплитуда Ак и начальная фаза к в разложении (*) равны
и
Отметим важное свойство системы функций
cos1t, sin1t, cos21t, sin21t, . . . ,cosk1t, sink1t, используемых в разложении (**). Это свойство состоит в том, что интеграл взятый от произведения любых двух функций на периоде Т=2/1, равен нулю, т.е.
,
где Р – действительное число; l – натуральное число (l к). Указанное свойство называется ортогональностью.