Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
21-25 вв.doc
Скачиваний:
2
Добавлен:
01.03.2025
Размер:
180.22 Кб
Скачать

22. Ковариация и коэффициент корреляции случайных величин.

Ковариация  — это мера линейной зависимости случайных величин.

Пусть   — две случайные величины, определённые на одном и том же вероятностном пространстве. Тогда их ковариация определяется следующим образом:

,

в предположении, что все математические ожидания в правой части определены.

Вычисление: В силу линейности математического ожидания, ковариация может быть записана как:

Итого, 

Свойства ковариации 

Ковариация симметрична:

.

В силу линейности математического ожидания, ковариация может быть записана как

.

Пусть   случайные величины, а   их две произвольные линейные комбинации. Тогда

.

В частности ковариация (в отличие от коэффициента корреляции) не инварианта относительно смены масштаба, что не всегда удобно в приложениях.

Ковариация случайной величины с собой равна дисперсии:

.

Если   независимые случайные величины, то

.

Обратное, вообще говоря, неверно.

Неравенство Коши — Буняковского:

.

Коэффициент корреляции rxy случайных величин X и Y называют отношение корреляционного момента к произведению средних квадратических отклонений этих величин : rxy =μxy/(σxσy)

Так как размерность μxy ровна произведению размерностей величин X и Y, σx имеет размерность величины то rxy –безразмерная величина. Таким образом , величина коэффициента корреляции не зависит от выбора единиц измерения случайных величин. В этом состоит преимущество коэффициента корреляции перед корреляционным моментом. Очевидно , коэффициент корреляции независимых случайных величин равен нулю (т.е μxy=0).

Теорема: Абсолютная величина корреляционного момента двух случайных величин X и Y не превышает среднего геометрического их дисперсий:

| μxy|≤ квадратный корень из (DxDy)

Доказательство: Введем в рассмотрение случайную величину Z1=σyX-σxY и найдем ее дисперсию D(Z1)=2 σx^2σy^2-2 μxyσxσy

Любая дисперсия неотрицательна , поэтому 2 σx^2σy^2-2 μxyσxσy ≥0, отсюда μxy≤ σxσy

μxy≥ -σxσy отсюда - σxσy ≤ μxy ≤ σxσy (1)

т.е μxy ≤ квадратный корень из (DxDy)

Теорема: Абсолютная величина коэффициента корреляции не превышает единицы:

|rxy |≤1

Доказательство : разделим обе части двойного неравенства (1) на произведение положительных чисел σxσy :

-1 ≤rxy ≤1 т.е |rxy |≤1

23. Математическое ожидание произведения и дисперсия суммы и разности случайных величин.

Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий: M(XY)=M(Y)M(X)

Доказательство: пусть независимые случайные величины X и Y заданы своими законами распределения вероятностей:

X x1x2 Y y1y2

P p1p2 g g1g2

Составим все значения, которые может принимать случайная величина XY. Для каждого перемножим все возможные значения X на каждое возможное значение Y; в итоге получим x1y1, x2y1 , x1y2 и x2y2 .

Напишем закон распределения XY:

XY x1y1 x2y1 x1y2 x2y2

p p1g1 p2g1 p1g2 p2g2

Математическое ожидание равно сумме произведения всех возможных значений на их вероятность:

М(XY)= x1y1* p1g1+ x2y1 * p2g1+ x1y2* p1g2 + x2y2* p2g2 или

М(XY)=y1g1 (x1p1+x2p2)+ y2g2 (x1p1+x2p2)= (x1p1+x2p2)(y1g1+y2g2)=M(X)*M(Y)

Следствие . Математическое ожидание произведения нескольких взаимно независимых случайных величин равно произведению их математического ожидания.

М(XYZ)= М(XY*Z)= М(XY)M(Z)= М(X)M(Y)M(Z)

Дисперсия суммы двух независимых случайных величин равна сумме дисперсии этих величин:

D(X+Y)=D(X)+D(Y)

Доказательство:

По формуле для вычисления дисперсии имеем D(X+Y)=M[(X+Y)^2]-[M(X+Y)]^2

Раскрыв скобки и пользуясь св-ми математического ожидания суммы нескольких величин и произведения двух независимых случайных величин, получим

D(X+Y)=M[(X^2+2XY+Y^2]-[M(X+Y)]^2=M(X^2)+2M(X)M(Y)+M(Y^2)-M^2(X)-2M(X)M(Y)-M^2(Y)={M(X^2)-[M(X)]^2}+{M(Y^2)-[M(Y)]^2}=D(X)+D(Y)

Итак D(X+Y)=D(X)+D(Y)

Следствие: дисперсия суммы нескольких взаимно независимых случайных величин равна сумме дисперсий этих величин.

D(X+Y+Z)=D[X+(Y+Z)]=D(X)+D(Y+Z)=D(X)+D(Y)+D(Z)

Следствие: дисперсия суммы постоянной величины и случайной равна дисперсии случайной величины

D(X+С)=D(X)

Т.к D(С)=0

Значит D(X+С)=D(X)

Св-во. Дисперсия разности двух независимых случайных величин равна сумме их дисперсий:

D(X-Y)=D(X)+D(Y)

Доказательсво: D(X-Y)=D(X)+D(-Y)

По св-ву D(CX)=C^2*D(X) следует что D(X-Y)=D(X)+(-1)^2*D(Y)

Таким образом, D(X-Y)=D(X)+D(Y)

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]