
- •Введение.
- •1.1 Случайные величины и методы их описания
- •1.1.1 Определение случайной величины и ее описание
- •1.1.2 Статистические характеристики случайных величин
- •1.1.3 Гауссовские случайные величины и их характеристики
- •1.1.4 Различные типы случайных величин
- •1.1.5. Задачи к разделу 1.1
- •1.1.6 Вопросы к разделу 1.1
- •1.2 Случайные векторы и методы их описания
- •1.2.1 Определение случайного вектора и его описание
- •1.2.2 Статистические характеристики случайных векторов
- •Определение
- •1.2.3 Гауссовские случайные векторы и их характеристики
- •1.2.4 Среднеквадратический эллипс ошибок, круговая вероятная ошибка.
- •1.2.5. Задачи к разделу 1.2
- •1.2.6 Вопросы к разделу 1.2
- •1.3 Преобразование случайных величин и векторов
- •1.3.1 Функции случайных величин
- •1.3.2 Функции случайных векторов
- •1.3.3 Линейные преобразования случайных векторов.
- •1.3.4 Определение статистических свойств длины проекции случайного двумерного вектора на заданное направление
- •1.3.5 Ортогонализация случайных величин. Связь матрицы ковариаций и среднеквадратического эллипса
- •1.3.6. Задачи к разделу 1.3
- •1.3.7 Вопросы к разделу 1.3
- •1.4 Условная плотность распределения вероятностей
- •1.4.1. Формулы Байеса. Условные математическое ожидание и матрица ковариаций
- •1.4.2 Правила нахождения параметров условной гауссовской плотности
- •1.4.3 Примеры нахождения параметров условной гауссовской плотности
- •1.4.4 Задача регрессии.
- •1.4.5 Задачи к разделу 1.4
- •1.4.6 Вопросы к разделу 1.4
- •1.5 Моделирование случайных величин и векторов и вычисление их выборочных характеристик.
- •1.5.1. Псевдослучайные последовательности, датчики случайных чисел
- •1.5.2 Метод Монте-Карло.
- •1.5.3 Выборочные статистические характеристики
- •1.5.4 Гистограмма
- •1.5.5 Моделирование случайных величин в Matlab
- •1.5.7 Вопросы к разделу 1.5
- •1.6 Задание для моделирования с использованием Matlab.
- •1.7 Заключение.

42
компоненты, в частности, f xi ,x j (xi , x j ) = fx j ,xi (x j , xi ) .
1.2.2 Статистические характеристики случайных векторов
Вероятность попадания случайного вектора в область Ω, его математическое ожидание x и матрица ковариаций P , которая является обобщением понятия дисперсии на многомерный
случай, определяются как |
|
Pr(x Ω) = ∫ fx (x)dx; |
(1.2.6) |
Ω |
|
x = ∫xfx (x)dx = M (x); |
(1.2.7) |
P = ∫ (x − x)(x − x)т fx (x)dx = Mxxт − xx т . |
(1.2.8) |
Здесь и в дальнейшем интегралы понимаются как многократные, причем если область интегрирования не указана, как уже отмечалось выше, то пределы по каждой компоненте предполагаются от − ∞ до + ∞ .
Из условия согласованности в частности следует, что диагональные элементы матрицы ковариаций
Pii = σi2 = ∫(xi − xi )2 fxi (xi )dxi , i =1.n
определяют дисперсии соответствующих компонент случайного вектора.
Математическое ожидание M xi ,x j {(xi − xi )(x j − x j )} для двух случайных величин xi и x j
называется коэффициентом корреляции. Таким образом, недиагональные элементы
Pij = M xi ,x j {(xi − xi )(x j − x j )} = ∫∫(xi − xi )(x j − x j ) fxi ,x j (xi , x j )dxi dx j , i ≠ j , i, j =1.n ,
определяют коэффициенты корреляции между различными компонентами.
В силу свойства симметричности ф.п.р.в., справедливо равенство Pij = Pji , означающее
симметричность матрицы ковариаций, т.е. P = P т . Важным свойством матрицы ковариаций является тот факт, что она является неотрицательно определенной матрицей, т.е., такой, для
которой при любом x ≠ 0 , xтPx ≥ 0 .
Если математическое ожидание случайного вектора нулевое, то, как и в скалярном случае, такой вектор называется центрированным.
Понятие квантиля для векторного случая может быть в принципе введено, если определена область, для которой вычисляется вероятность. Понятие моды вводится аналогично, а понятие медианы не используется.
Если
43
M xi ,x j {(xi − xi )(x j − x j )}= 0 ,
то случайные величины называются некоррелированными или ортогональными. Отсюда следует, что для случайного вектора, у которого компоненты некоррелированы между собой, матрица ковариаций имеет диагональный вид. Если заданы два случайных вектора, то можно ввести матрицу взаимной корреляции, определяемую как
|
B = ∫ ∫ |
(x − x)(y − y)т fx,y (x, y)dxdy , |
||
где f x,y (x, y) - |
совместная ф.п.р.в. |
Если эта матрица равна нулю, то говорят о том, что |
||
случайные векторы некоррелированы или ортогональны. |
||||
Важным также |
является понятие |
независимости с.в. Случайные величины xi , i = |
|
|
1.n |
называются взаимно независимыми, если совместная ф.п.р.в. равна произведению ф.п.р.в. для каждой из этих с.в., т.е.
n
fx (x1...xn ) =∏ fxi (xi ) .
i=1
Аналогично вводится определение и для независимых случайных векторов. Независимые случайные величины являются некоррелированными, поскольку
M xi ,x j {(xi − xi )(x j − x j )}= ∫∫(xi − xi )(x j − x j ) fxi ,x j (xi , x j )dxi dx j =
= ∫(xi − xi ) fxi (xi )dxi ∫(x j − x j ) fx j (x j )dx j = 0 .
Обратное утверждение в общем случае не справедливо.
Приведенные выше понятия, конкретизированные для двумерного вектора x = (x1 , x2 )т ,
представлены в таблице 1.2.1.
Таблица.1.2.1 Основные определения и соотношения для двумерного случайного вектора.
Соотношение |
|
|
Определение |
|
|
|
|
Функция распределения |
|
Fx (x) = Pr(x1 < x1 , x2 < x2 ); |
|||||
вероятностей |
|
||||||
|
|
|
|
|
|
|
|
|
|
∂2 F(x) , Fx (x) = |
x |
x |
|
|
|
Связь ф.п.р.в. и ф.р.в. |
fx (x) = |
∫1 |
∫2 |
fx (u)du2 du1 |
|||
|
|
∂x1∂x2 |
−∞ −∞ |
|
|||
|
|
∞ |
∞ |
|
|
|
|
Условие нормировки |
|
∫ |
∫ fx (x)dx1dx2 =1 |
||||
|
|
−∞ −∞ |
|
|
|
|
|
Симметричность ф.п.р.в. |
|
f x (x1 , x2 ) = f x (x2 , x1 ) |
|||||
Условия согласованности |
|
fx1 (x1 ) = ∫ fx (x1, x2 )dx2 |
|||||
|
fx2 (x2 ) = ∫ fx (x1 , x2 )dx1 |
||||||
|
|
||||||
Независимость |
|
f x (x1 |
, x2 ) = f x (x1 ) fx |
2 |
(x2 ) |
||
|
|
|
1 |
|
|
|
|
Некоррелированность |
|
M x (x1 − x1 )(x2 − x2 ) = 0 |
|
|
44 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Вероятность попадания |
Pr(x Ω) = ∫ fx (x)dx1dx2 |
|
||||
|
случайного вектора в область |
|
|||||
|
Ω |
|
|
Ω |
|
|
|
|
Математическое ожидание |
xi = ∫ ∫xi fx (x1, x2 )dx1dx2 = ∫xi fxi (xi )dxi , |
|
||||
|
|
|
i =1,2 |
|
|
||
|
Коэффициенты корреляции |
P12 = P21 = ∫∫(x1 − x1)(x2 − x2 ) fx (x1, x2 )dx1dx2 |
|
||||
|
Дисперсии компонент |
σi2 = ∫∫(xi − xi )2 fxi (xi )dxi , i =1,2 |
|
||||
|
|
P = P11 |
P12 |
|
, P |
= σ2 , i =1,2 |
|
|
Матрица ковариаций |
P |
P |
|
ii |
i |
|
|
21 |
22 |
|
|
|
|
|
|
|
|
P = Pт ≥ 0 |
|
|||
Как и в скалярном случае, располагая случайным вектором |
x с известной ф.п.р.в. f x (x) , |
можно с помощью некоторой в общем случае нелинейной функции g(•) сформировать новый
с.в. y = g(x) . Математическое ожидание и матрица ковариаций для нового вектора |
y = g(x) |
могут быть найдены с помощью следующих соотношений |
|
M y {y}= у = M x {g(x)}= ∫ g(x) fx (x)dx , |
(1.2.9) |
M y {( y − y)(y − y)т}= ∫(g(x) − y)(g(x) − y)т fx (x)dx . |
(1.2.10) |
Из этих соотношений следует, что и здесь для нахождения моментов преобразованного случайного вектора необходимо знать ф.п.р.в. f x (x) для исходного вектора и вычислять соответствующие интегралы. Задача упрощается, если функция, с помощью которой осуществляется преобразование является линейным. В этой ситуации достаточно знать только соответствующие моменты для исходного вектора.
Пример 1.2.1. Пусть для двух случайных величин x1 и x 2 заданы математические ожидания x1 , x2 , дисперсии σ12 , σ22 и коэффициент корреляции K . Требуется найти математическое ожидание и дисперсию случайной величины, формируемой как y = αx1 + βx2 ,
где α и β известные коэффициенты.
С использованием (1.2.9), (1.2.10) можем записать
My {y}= M x {αx1 + βx2 }= αMx1 + βMx2 = αx1 + βx2 ,
σ2y = M y {( y − y)2 }= M x {(α(x1 − x1 ) + β(x2 − x2 ))2 }= α2σ12 + β2σ22 + 2Kαβ .♦
Полученные в примере соотношения легко обобщить и на векторный случай (см. задачи
1.2.1, 1.2.2).