- •1. Основные определения.
- •2. Этапы обращения информации.
- •3. Понятие сигнала и его модели.
- •4. Формы представления детерминированных сигналов.
- •5. Представление сигнала в виде взвешенной суммы базисных функций. Понятие дискретного спектра сигнала и спектральной плотности.
- •6. Ортогональное представление сигналов.
- •7. Временная форма представления сигнала.
- •8. Частотная форма представления сигнала.
- •9. Спектры периодических сигналов.
- •10. Распределение энергии в спектре периодичного сигнала.
- •11. Спектры непериодических сигналов.
- •12. Распределение энергии в спектре непериодического сигнала. Равенство Парсеваля.
- •13. Соотношение между длительностью импульсов и шириной их спектра.
- •14. Спектральная плотность мощности детерминированного сигнала.
- •15. Функция автокорреляции детерминированного сигнала.
- •16. Случайный процесс как модель сигнала. Понятие ансамбля и пространства состояний. Виды случайных процессов.
- •17. Вероятностные характеристики случайного процесса.
- •18. Стационарные и эргодические случайные процессы.
- •19. Спектральное представление случайных сигналов.
- •20. Частотное представление стационарных случайных сигналов. Дискретные спектры.
- •21. Частотное представление стационарных случайных сигналов. Непрерывные спектры.
- •22. Основные свойства спектральной плотности.
- •23. Дискретизация непрерывных величин.
- •24. Квантование по времени. Теорема Котельникова.
- •25. Понятие модуляции.
- •26. Амплитудная модуляция.
- •27. Частотная модуляция.
- •28. Фазовая модуляция.
- •29. Модуляция импульсного тока.
- •30. Кодоимпульсные сигналы.
- •31. Многократная модуляция.
- •32. Количество информации в дискретных сообщениях. Энтропия дискретного источника.
- •33. Свойства энтропии.
- •34. Условия энтропии и ее свойства.
- •35. Передача информации от дискретного источника. Частное количество информации.
- •37. Частная условная энтропия. Условная энтропия источника. Апостериорная энтропия источника.
- •38. Количество информации в переданном сообщении дискретным источником.
- •39. Энтропия квантовой величины.
- •40. Количество информации в непрерывном сообщении. Априорная (безусловная) и апостериорная (условная) дифференциальные энтропии. Симметричность выражения количества информации.
- •43. Количество и скорость передачи информации при нормальном распределении сигнала и помехе (погрешности).
- •42. Количество информации, передаваемое за определенное время. Скорость передачи информации.
- •41. Количество передаваемой информации с учетом наличия аддитивной помехи.
- •44. Количество и скорость передачи информации при равномерном распределении сигнала и нормальном распределении помехи (погрешности).
- •45. Дифференциальная энтропия равномерно распределенной погрешности. Энтропийная погрешность.
- •46. Код, кодирование, кодовые сигналы.
- •47. Системы счисления.
- •48. Числовые коды.
- •49. Коды, не обнаруживающие возможных искажений.
- •50. Коды, обнаруживающие ошибки.
- •51. Информационная способность кода и избыточность.
- •52. Коды с коррекцией искажений.
17. Вероятностные характеристики случайного процесса.
В соответствии с определением случайный процесс U(t) может быть описан системой N обычно зависимых случайных величин U1 = U(t1), …, Ui = U(ti), …, UN=U(tN), взятых в различные моменты времени t1, …, ti, …, tN. При N такая система эквивалентна рассматриваемому случайному процессу U(t).
Исчерпывающей характеристикой доказанной системы является N – мерная плотность вероятности PN(U1, …, Ui, …, UN, t1, …, ti, …, tN). Она позволяет вычислить вероятность PN реализации, значения которой в моменты времени t1, ti, tN будут находиться соответственно в интервалах (u1, u1 + u1),…, (ui, ui + ui), …,(uN, uN +uN), где ui(i=1, N)– значение, принимаемое случайной величиной Ui (рис. 13).
Если ui выбираем достаточно малыми, то справедливо соотношение
Экспериментальное получение величины крайне сложно, а последующее использование результатов наталкивается на существенные математические трудности.
На практике обычно ограничиваются одно- или двумерной плотностью вероятности.
Одномерная плотность вероятности случайного процесса U(t) характеризует распределение одной случайной величины U1 взятой в произвольный момент времени t1. В ней не находит отражения зависимость случайных величин в различные моменты времени.
Двумерная плотность вероятности позволяет определить вероятность совместной реализации любых двух значений случайных величин в произвольные моменты времени t1 и t2 и, следовательно, оценить динамику развития процесса. Одномерную плотность вероятности случайного процесса U(t) можно получить из двумерной плотности, воспользовавшись соотношением:
(67)
Использование плотности вероятности даже низших порядков часто приводит к неоправданным трудностям. В большинстве случаев достаточно знать простейшие характеристики случайного процесса, аналогичные числовым характеристикам случайных величин. Наиболее распространены моменты функции первых двух порядков: математическое ожидание, дисперсия и корреляционная функция.
Математическим ожиданием случайного процесса U(t) называют неслучайную функцию времени mu(t1), которая при любом аргументе ti равна среднему значению случайной величины U(t1) по всему множеству возможных реализаций:
(68)
Степень разброса случайных значений процесса U(t1) от своего среднего значения mu(t1) для каждого t1 характеризуется дисперсией DU(t1):
(69)
где U(t1)= U(t1) - mu(t1) – центрированная случайная величина
(70)
где - среднеквадратическое отклонение.
Случайные процессы могут иметь одинаковые математические ожидания и дисперсии (рис. 14, а, б), однако резко различаться по быстроте изменения своих значений во времени.
Для оценки статистической зависимости мгновенных значений процесса u(t) в произвольные моменты времени t1 и t2 Ru (t1, t2), называемая автокорреляционной или просто корреляционной функцией.
При конкретных аргументах t1 и t2 она равна корреляционному моменту значений процесса U(t1) и U(t2):
(71)
Через двумерную плотность вероятности выражение (71) представляется в виде
(72)
В силу симметричности этой формулы относительно аргументов справедливо равенство
(73)
Для сравнения различных случайных процессов вместо корреляционной функции удобно пользоваться нормированной функцией автокорреляции:
(74)
При произвольном t1 = t2 автокорреляционная функция вырождается в дисперсию
(75)
а нормированная функция автокорреляции равна единице
(76)
т.е. дисперсия случайного процесса является частным значением автокорреляционной функции.
Аналогично устанавливается мера связи между двумя случайными процессами u(t) и U(t). Она оказывается функцией взаимной корреляции
(77)