- •Н.Н. Куцый теория информации
- •1. О понятии "информация"
- •2. Этапы обращения информации
- •3. Информационные системы
- •4. Система передачи информации: основные понятия и определения
- •5. Уровни проблем передачи информации
- •6. Теория информации
- •7. Понятия сигнала и его модели
- •8. Формы представления детерминированных сигналов
- •9. Ортогональные представления сигналов
- •10. Временная форма представления сигнала
- •11. Частотная форма представления сигнала. Спектры периодических сигналов
- •12. Распределение энергии в спектре периодического сигнала
- •13. Частотная форма представления сигнала. Спектры непериодических сигналов
- •14. Распределение энергии в спектре непериодического сигнала
- •15.Соотношения между длительностью импульсов и шириной их спектра
- •16.Спектральная плотность мощности детерминированного сигнала
- •17.Функция автокорреляции детерминированного сигнала
- •18.Случайный процесс как модель сигнала
- •19.Стационарные и эргодические процессы
- •20.Спектральное представление случайных сигналов
- •21.Частотное представление стационарных случайных процессов (дискретный спектр)
- •22.Частотное представление стационарных случайных сигналов. Непрерывные спектры
- •23.Основные свойства спектральной плотности
- •24.Преимущества цифровой формы представления сигналов
- •25.Общая постановка задачи дискретизации
- •26.Способы восстановления непрерывного сигнала
- •27.Критерии качества восстановления
- •28.Методы дискретизации посредством выборок
- •29.Равномерная дискретизация. Теорема котельникова
- •30.Теоретические и практические аспекты использования теоремы котельникова
- •31.Дискретизация по критерию наибольшего отклонения
- •32.Адаптивная дискретизация
- •33.Квантование сигнала
- •34.Квантование сигналов при наличии помех
- •35.Геометрическая форма представления сигналов
- •36.Энтропия как мера неопределенности выбора
- •37.Свойства энтропии
- •38.Условная энтропия и её свойства
- •39.Энтропия непрерывного источника информации (дифференциальная энтропия)
- •40.Свойства дифференциальной энтропии
- •41.Количество информации как мера снятой неопределенности
- •42.Эпсилон-энтропия случайной величины
- •43.Информационные характеристики источника сообщений и канала связи. Основные понятия и определения
- •44.Информационные характеристики источника дискретных сообщений
- •45.Информационные характеристики дискретных каналов связи
- •46.Информационные характеристики источника непрерывных сообщений
- •47.Информационные характеристики непрерывных каналов связи
20.Спектральное представление случайных сигналов
Выше была показана эффективность представления детерминированных сигналов совокупностью элементарных базисных сигналов для облегчения анализа прохождения их через линейные системы. Аналогичный подход может быть использован и в случае сигналов, которые описываются случайными процессами.
Рассмотрим случайный процесс который имеет математическое ожидание Соответствующий центрированный случайный процесс характеризуется в любой момент времени центрированной случайной величиной
Центрированный случайный процесс можно выразить в виде конечной или бесконечной суммы ортогональных составляющих, каждая из которых представляет собой неслучайную базисную функцию с коэффициентом который сам является случайной величиной. В результате имеем разложение центрированного случайного процесса
Случайные величины называются коэффициентами разложения. В общем случае они статистически зависимы и эта связь задается матрицей коэффициентов корреляции Математические ожидания коэффициентов разложения равны нулю. Неслучайные базисные функции принято называть координатными функциями.
Для конкретной реализации коэффициенты разложения являются действительными величинами и определяются по формуле
.
Предположив, что
детерминированную функцию в (20.1) на интервале также можно разложить по функциям представим в виде
.
Подставляя эти формулы в (20.1) для случайного процесса с отличным от нуля средним, получим
.
Выражение случайного процесса в виде (20.5) позволяет существенно упростить его линейные преобразования, поскольку они сводятся к преобразованиям детерминированных функциям а коэффициенты разложения, которые являются случайными величинами, остаются неизменными.
Чтобы определить требования к координатным функциям, рассмотрим корреляционную функцию процесса , заданную разложением
Так как
то
Это соотношение становится значительно проще, если коэффициенты некоррелированы при при
В частности, при получим дисперсию случайного процесса
Поэтому целесообразно выбирать такие координатные функции, которые обеспечивают некоррелированность случайных величин Разложение (20.2), которое удовлетворяет этому условию, называют каноническим разложением.
Доказано, что по известному каноническому разложению корреляционной функции случайного процесса можно записать каноническое разложение случайного процесса с теми же координатными функциями, причем дисперсии коэффициентов этого разложения будут равны дисперсиям коэффициентов разложения корреляционной функции.
Таким образом, при выбранном наборе координатных функций центрированный случайный процесс характеризуется совокупностью дисперсий коэффициентов разложения можно рассматривать как обобщенный спектр случайного процесса.
В каноническом разложении (20.2) этот спектр является дискретным (линейчатым) и может содержать как конечное, так и бесконечное число членов (линий).
Однако используются и интегральные канонические разложения в форме
где базисная функция с непрерывно изменяющимся параметром
В этом случае мы имеем непрерывный спектр, который представляется спектральной плотностью дисперсий.
Основным препятствием к широкому практическому использованию канонических разложений случайных процессов является сложность процедуры нахождения координатных функций. Однако для ряда стационарных случайных процессов эта процедура вполне приемлема.