Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
УчПособие.doc
Скачиваний:
2
Добавлен:
01.04.2025
Размер:
5.34 Mб
Скачать

5.4. Свойства векторных случайных процессов

Систему n скалярных случайных процессов X1(t), X2(t), …, Xi(t), …, Xn(t) удобно объединить в n-мерный вектор-столбец или в в. сл. пр.

X(t) = |X1(t), X2(t), …, Xi(t), …, Xn(t)|T , i = (1, n). (5.95)

Для в. сл. пр. (5.95), аналогично скалярному случаю, принципиально могут быть введены понятия сечений, реализации и проч. Так, при фиксированном значении аргумента в. сл. пр. (5.95) превращается в вектор случайных величин или в n-мерный случайный вектор, для которого ранее были введены вектор математических ожиданий и ковариационная матрица. Учитывая это, понятия вектора математических ожиданий и ковариационной матрицы могут быть обобщены и рассмотрены применительно и к в. сл. пр.

Так, вектор математических ожиданий и ковариационная матрица в. сл. пр. (5.95), используя ранее введенные обозначения, определим как:

mx (t) = М[X(t)]. (5.96)

P(t) = M = cov[X(t)]; = Х(t) – mx (t). (5.97)

Здесь ‑ центрированный в. сл. пр.

Математическим ожиданием в. сл. пр. служит вектор, состоящий из математических ожиданий случайных процессов, его составляющих, т. е. из математических ожиданий элементов вектора X(t) (5.95). Основные свойства математических ожиданий случайных величин и векторов подробно рассматривались в п. 5.2. Естественно, они остаются в силе и применительно к сл.пр. и в. сл. пр.

Из определения (5.97), так же, как и для случайных векторов, следует, что ковариационная матрица P(t) ‑ симметричная, объединяет все вторые центральные моменты сл. пр., составляющих вектор (5.95). Так, на главной диагонали P(t) расположены дисперсии элементов вектора (5.95):

Pi i (t) = М[Xi(t) – mxi(t)]2 = = D[Xi(t)]; i = (1, 2, …, n).

Недиагональными элементами P(t) служат корреляционные моменты пар разноименных элементов Х(t) при совпадающих значениях аргумента, т. е.

Pi j (t) = Pj i(t) = ; ij; i, j = (1, 2, …, n).

В скалярном случае для сл.пр. (см. п. 5.3), кроме математических ожиданий и дисперсий, вводилось понятие корреляционной функции в качестве характеристики взаимной обусловленности двух различных сечений случайного процесса. Понятно, что для в. сл. пр. аналогичным понятием служит корреляционная матрица.

Kx (t1, t2) = . (5.98)

Из определения (5.98) следует, что для n-мерного в. сл. пр. (5.95) корреляционная матрица Kx (t1, t2) ‑ не симметричная квадратная, размерности (nn). Простым анализом структуры этой матрицы несложно установить, что на главной ее диагонали расположены корреляционные функции (5.89). Так, i-ый диагональный элемент корреляционной матрицы (5.98) равен корреляционной функции сл. пр. Xi(t):

KX i i (t1, t2) = .

Недиагональными элементами матрицы (5.98) служат так называемые взаимные корреляционные функции. Так, ij-ый элемент корреляционной матрицы (5.98) содержит взаимную корреляционную функцию

KX i j (t1, t2) = ,

которая характеризует взаимосвязь случайных величин Xi(t1) и Xj(t2).

Выражение для KX i j (t1, t2) может рассматриваться в качестве определения понятия взаимной корреляционной функции. Из (8.21) следует, что взаимная корреляционная функция — это функция двух аргументов t1 и t2, численно равная корреляционному моменту соответствующих сечений случайных процессов Xi(t) и Xj(t).

В частном случае два сл.пр. могут быть некоррелированными.

Некоррелированными называются два сл.пр., взаимная корреляционная функция которых при произвольных значениях аргументов t1 и t2 равна нулю.

Из проведенного анализа структур матриц (5.97), (5.98) следует, что при некоррелированности элементов вектора , матрицы P(t) и Kx (t1, t2) становятся диагональными матрицами с дисперсиями Pi i(t) и корреляционными функциями KX i i(t1, t2) в качестве диагональных элементов соответственно.