Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория вероятности.doc
Скачиваний:
15
Добавлен:
21.04.2019
Размер:
573.44 Кб
Скачать

6.7.2. Корреляционный момент и коэффициент корреляции

Для двумерной случайной величины (системы двух случайных величин) можно ввести понятие корреляционного момента. Такой момент равен математическому ожиданию произведения отклонений величин (X, Y), то есть ковариации компонент.

xy= M([X-M(X)][Y-M(Y)])=Cov(X, Y)

Для дискретной двумерной случайной величины

xy=  [xi- M(X)][yj- M(Y)] p(xi, yj)

ij

Для непрерывной двумерной случайной величины

xy= ∫ ∫[x-M(X)][y-M(Y)]f(x, y)dxdy

--

Отношение корреляционного момента к произведению среднеквадратичных отклонений случайной величины равно коэффициенту корреляции

rxy=xy/(xy)

Напомним, что для коэфициента корреляции всегда выполняется свойство:

|rxy|1

Случайные величины X и Y называются коррелированными, если их корреляционный момент (и коэффициент корреляции) отличен от нуля. Такие величины всегда являются зависимыми. Независимые величины являются некоррелированными и их коэффициент корреляции равен нулю. Вместе с тем, обратное не всегда верно и некоррелированные величины (rxy=0) могут оказаться зависимыми.

Однозначное соответствие между зависимостью и коррелированностью выполняется для двумерной случайной величины только при нормальном распределении:

f(x, y)=1/ (2xy (1- rxy2)0.5)exp[-1/(2(1- rxy2)0.5)((x-ax)2/x2+

+(y-ay)2/y2- 2 rxy(x-ax)/x(y-ay)/y)]

Еще одна особенность нормального закона распределения двумерной случайной величины состоит в том, что коррелированные компоненты X и Y связывает линейная регрессионная зависимость.

6.7.3. Линейная регрессия, линейная корреляционная зависимость.

Рассмотрим двумерную случайную величину (X, Y), для которой компоненты X и Y являются зависимыми (коррелированными). Предположим, что одна из них может быть приближенно описана некоторой функцией другой:

Yg(X)

Чтобы определить параметры, входящие в функцию g(X) (в случае линейного приближения g(X)=X+ это параметры  и ), обычно используют метод наименьших квадратов. Функцию g(X) называют наилучшим приближением Y в смысле метода наименьших квадратов, если математическое ожидание квадрата отклонения Y от g(X)

M([Y-g(X)]2)

при подстановке данных параметров принимает наименьшее возможное значение. Функцию g(X) называют среднеквадратической регрессией Y на X. Для линейного приближения существует следующая теорема:

Линейная средняя квадратическая регрессия Y на X имеет вид:

g(X)=M(Y)+rxyy/x (X-M(X))= X+, где

= rxyy/x, = M(Y)-rxyy/xM(X),

M(Y), M(X) – математические ожидания соответствующих величин, y, x – их среднеквадратичные отклонения. Коэффициент  называют коэффициентом линейной регрессии Y на X, а прямую

Y- M(Y)=rxyy/x (X-M(X))

- прямой среднеквадратической регрессии Y на X.

Рассмотрим функцию двух независимых переменных

F(, )= M([Y-g(X)]2)

Если подставить в нее коэффициенты  и , соответствующие уравнению линейной средней квадратической регрессии, данная функция примет наименьшее возможное значение, равное

F(, )=y2(1- rxy2)

Полученную величину называют остаточной дисперсией случайной величины Y относительно X. Она характеризует величину ошибки, которая допускается при замене случайной величины Y функцией g(X). При |rxy|=1 остаточная дисперсия равна 0 и Y действительно является линейной функцией X. Аналогично строится прямая среднеквадратичной регрессии X на Y

X- M(X)=rxyx/y (Y-M(Y))

С остаточной регрессией x2(1- rxy2). При |rxy|=1 обе прямые совпадают. В общем случае прямые линейной регрессии проходят через точку (M(X), M(Y)), которую называют центром совместного распределения X и Y.

В случае, если коэффициент корреляции для компонент двумерной случайной величины равен по модулю единице, говорят, что эти компоненты связаны линейной корреляционной зависимостью. Именно такая зависимость наблюдается для коррелированных компонент случайной величины X и Y, распределенной по нормальному закону.

74