Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Glava1-TV.pdf
Скачиваний:
129
Добавлен:
02.04.2015
Размер:
1.29 Mб
Скачать

42

компоненты, в частности, f xi ,x j (xi , x j ) = fx j ,xi (x j , xi ) .

1.2.2 Статистические характеристики случайных векторов

Вероятность попадания случайного вектора в область Ω, его математическое ожидание x и матрица ковариаций P , которая является обобщением понятия дисперсии на многомерный

случай, определяются как

 

Pr(x Ω) = fx (x)dx;

(1.2.6)

Ω

 

x = xfx (x)dx = M (x);

(1.2.7)

P = (x x)(x x)т fx (x)dx = Mxxт xx т .

(1.2.8)

Здесь и в дальнейшем интегралы понимаются как многократные, причем если область интегрирования не указана, как уже отмечалось выше, то пределы по каждой компоненте предполагаются от − ∞ до + ∞ .

Из условия согласованности в частности следует, что диагональные элементы матрицы ковариаций

Pii = σi2 = (xi xi )2 fxi (xi )dxi , i =1.n

определяют дисперсии соответствующих компонент случайного вектора.

Математическое ожидание M xi ,x j {(xi xi )(x j x j )} для двух случайных величин xi и x j

называется коэффициентом корреляции. Таким образом, недиагональные элементы

Pij = M xi ,x j {(xi xi )(x j x j )} = ∫∫(xi xi )(x j x j ) fxi ,x j (xi , x j )dxi dx j , i j , i, j =1.n ,

определяют коэффициенты корреляции между различными компонентами.

В силу свойства симметричности ф.п.р.в., справедливо равенство Pij = Pji , означающее

симметричность матрицы ковариаций, т.е. P = P т . Важным свойством матрицы ковариаций является тот факт, что она является неотрицательно определенной матрицей, т.е., такой, для

которой при любом x 0 , xтPx 0 .

Если математическое ожидание случайного вектора нулевое, то, как и в скалярном случае, такой вектор называется центрированным.

Понятие квантиля для векторного случая может быть в принципе введено, если определена область, для которой вычисляется вероятность. Понятие моды вводится аналогично, а понятие медианы не используется.

Если

43

M xi ,x j {(xi xi )(x j x j )}= 0 ,

то случайные величины называются некоррелированными или ортогональными. Отсюда следует, что для случайного вектора, у которого компоненты некоррелированы между собой, матрица ковариаций имеет диагональный вид. Если заданы два случайных вектора, то можно ввести матрицу взаимной корреляции, определяемую как

 

B = ∫ ∫

(x x)(y y)т fx,y (x, y)dxdy ,

где f x,y (x, y) -

совместная ф.п.р.в.

Если эта матрица равна нулю, то говорят о том, что

случайные векторы некоррелированы или ортогональны.

Важным также

является понятие

независимости с.в. Случайные величины xi , i =

 

 

1.n

называются взаимно независимыми, если совместная ф.п.р.в. равна произведению ф.п.р.в. для каждой из этих с.в., т.е.

n

fx (x1...xn ) =fxi (xi ) .

i=1

Аналогично вводится определение и для независимых случайных векторов. Независимые случайные величины являются некоррелированными, поскольку

M xi ,x j {(xi xi )(x j x j )}= ∫∫(xi xi )(x j x j ) fxi ,x j (xi , x j )dxi dx j =

= (xi xi ) fxi (xi )dxi (x j x j ) fx j (x j )dx j = 0 .

Обратное утверждение в общем случае не справедливо.

Приведенные выше понятия, конкретизированные для двумерного вектора x = (x1 , x2 )т ,

представлены в таблице 1.2.1.

Таблица.1.2.1 Основные определения и соотношения для двумерного случайного вектора.

Соотношение

 

 

Определение

 

 

 

Функция распределения

 

Fx (x) = Pr(x1 < x1 , x2 < x2 );

вероятностей

 

 

 

 

 

 

 

 

 

 

2 F(x) , Fx (x) =

x

x

 

 

Связь ф.п.р.в. и ф.р.в.

fx (x) =

1

2

fx (u)du2 du1

 

 

x1x2

−∞ −∞

 

 

 

 

 

 

 

Условие нормировки

 

fx (x)dx1dx2 =1

 

 

−∞ −∞

 

 

 

 

Симметричность ф.п.р.в.

 

f x (x1 , x2 ) = f x (x2 , x1 )

Условия согласованности

 

fx1 (x1 ) = fx (x1, x2 )dx2

 

fx2 (x2 ) = fx (x1 , x2 )dx1

 

 

Независимость

 

f x (x1

, x2 ) = f x (x1 ) fx

2

(x2 )

 

 

 

1

 

 

 

Некоррелированность

 

M x (x1 x1 )(x2 x2 ) = 0

 

 

44

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Вероятность попадания

Pr(x Ω) = fx (x)dx1dx2

 

 

случайного вектора в область

 

 

Ω

 

 

Ω

 

 

 

Математическое ожидание

xi = ∫ ∫xi fx (x1, x2 )dx1dx2 = xi fxi (xi )dxi ,

 

 

 

 

i =1,2

 

 

 

Коэффициенты корреляции

P12 = P21 = ∫∫(x1 x1)(x2 x2 ) fx (x1, x2 )dx1dx2

 

 

Дисперсии компонент

σi2 = ∫∫(xi xi )2 fxi (xi )dxi , i =1,2

 

 

 

P = P11

P12

 

, P

= σ2 , i =1,2

 

 

Матрица ковариаций

P

P

 

ii

i

 

 

21

22

 

 

 

 

 

 

 

P = Pт 0

 

Как и в скалярном случае, располагая случайным вектором

x с известной ф.п.р.в. f x (x) ,

можно с помощью некоторой в общем случае нелинейной функции g() сформировать новый

с.в. y = g(x) . Математическое ожидание и матрица ковариаций для нового вектора

y = g(x)

могут быть найдены с помощью следующих соотношений

 

M y {y}= у = M x {g(x)}= g(x) fx (x)dx ,

(1.2.9)

M y {( y y)(y y)т}= (g(x) y)(g(x) y)т fx (x)dx .

(1.2.10)

Из этих соотношений следует, что и здесь для нахождения моментов преобразованного случайного вектора необходимо знать ф.п.р.в. f x (x) для исходного вектора и вычислять соответствующие интегралы. Задача упрощается, если функция, с помощью которой осуществляется преобразование является линейным. В этой ситуации достаточно знать только соответствующие моменты для исходного вектора.

Пример 1.2.1. Пусть для двух случайных величин x1 и x 2 заданы математические ожидания x1 , x2 , дисперсии σ12 , σ22 и коэффициент корреляции K . Требуется найти математическое ожидание и дисперсию случайной величины, формируемой как y = αx1 + βx2 ,

где α и β известные коэффициенты.

С использованием (1.2.9), (1.2.10) можем записать

My {y}= M x {αx1 + βx2 }= αMx1 + βMx2 = αx1 + βx2 ,

σ2y = M y {( y y)2 }= M x {(α(x1 x1 ) + β(x2 x2 ))2 }= α2σ12 + β2σ22 + 2Kαβ .

Полученные в примере соотношения легко обобщить и на векторный случай (см. задачи

1.2.1, 1.2.2).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]