Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

06_Системы_Сл_Вел_Часть_3_2005

.pdf
Скачиваний:
8
Добавлен:
23.02.2015
Размер:
341.19 Кб
Скачать

Многомерные случайные события

65

3°. Ковариация не изменится, если к случайным величинам добавить посто-

 

янные:

 

 

cov (X + a,Y )= cov (X ,Y +b)= cov (X + a,Y +b)= cov (X ,Y ).

4°.

Дисперсия с.в. есть ее ковариация с самой собой, DX = KXX .

5°. Дисперсия суммы (разности) двух с.в. равна сумме их дисперсий плюс

 

(минус) их удвоенная ковариация:

 

 

D (X ±Y )= DX + DY ±2KXY .

 

6°.

Если случайные величины X и Y независимы, то KXY

= 0 .

7°. Ковариация двух с.в. по абсолютной величине не превосходит произве-

 

дения их средних квадратических отклонений,

 

 

 

KXY

 

σx σy .

 

 

 

 

 

Свойства 1 – 5 следуют из определения ковариации, свойство 6 – из определения независимости. Докажем свойство 7, для чего применим свойство 5 к

случайным величинам

 

X m

x

 

и

Y my

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X m

x

 

 

Y my

 

 

 

 

 

 

 

 

X m

x

 

 

Y my

 

 

 

 

 

 

 

 

 

 

 

 

D

 

 

 

±

 

 

 

 

 

 

 

= D

 

 

 

 

 

 

 

 

 

+ D

 

 

 

 

 

 

 

 

±

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

 

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X m

x

 

 

 

 

 

 

 

X

m

x

 

 

 

Y my

 

 

Y

my

 

 

 

 

 

 

 

 

 

 

±2M

 

 

 

M

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M

 

 

 

 

 

 

 

 

=

 

 

 

 

 

σx

 

 

 

 

σx

 

 

 

σy

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X m

x

 

 

Y

my

 

 

 

 

 

 

K

XY

 

 

 

 

 

 

 

 

 

 

 

=1 +1 ±

2M

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= 2 1

±

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

σ

 

 

 

σ σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

y

 

 

 

 

 

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

Так как любая дисперсия неотрицательна,

1 ±

KXY

0,

σ σ

y

K

XY

σ σ

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σxσy

 

 

 

 

 

 

 

x

 

 

 

 

x y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

или

 

KXY

 

σx σy .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Из свойства 6 следует, что KXY 0 , то с.в.

 

X

 

 

и Y

зависимы. Если KXY

0 ,

с.в. X и Y называют коррелированными.

Однако из условия

KXY = 0 не

следует независимость с.в. X

 

и Y

(этот факт будет доказан позднее,

при

рассмотрении функций от случайных величин). Если KXY = 0 , с.в.

X и Y на-

зывают некоррелированными. Из независимости следует некоррелированность, обратное утверждение неверно, из некоррелированности независи-

мость не следует.

Из определения ковариации видно, что она описывает и степень рассеяния с.в. X и Y , и связь между этими величинами. Для того, чтобы исключить влияние рассеяния и оценить только степень зависимости, обычно переходят

к стандартным с.в.

X m

x

и

Y my

.

σx

 

σy

 

 

 

 

66

Лекция 6

ОКоэффициентом корреляции с.в. X и Y называется ковариация соответствующих им стандартных с.в.:

 

 

 

 

 

 

 

 

 

 

 

 

X m

x

 

Y my

 

 

cov (X ,Y )

 

 

K

XY

 

 

 

 

 

 

 

 

 

 

r

= cov

 

 

 

 

,

 

 

 

 

=

 

=

 

 

.

 

 

 

 

 

 

 

 

 

 

σ

 

 

σ

 

 

σ σ

 

 

 

 

 

 

 

 

 

 

 

 

XY

 

 

 

x

 

 

y

 

 

 

σ σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x y

 

 

x

y

Свойства коэффициента корреляции

 

 

 

 

 

 

 

 

 

 

1°.

 

rXY

 

1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2°.

Для независимых с.в. rXY

= 0 .

 

 

 

 

 

 

 

 

 

 

 

 

3°.

Если с.в.

X и

Y

связаны линейной функциональной зависимостью,

 

Y = aX +b, a 0 ,

то

 

rXY

 

=1,

причем

 

rXY =1 при a > 0 и rXY = −1 при

 

 

 

 

 

a < 0 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4°.

Если

 

rXY

 

 

=1, то с.в.

X и Y связаны линейной функциональной зависи-

 

 

 

мостью.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Свойство 1° следует из свойства 7° ковариации, свойство 2° – из свойства 6°. Докажем свойства 3° и 4°.

3°.

4°.

rXY

 

 

cov

(

X ,aX +b

)

 

 

 

a cov

(

X ,X

)

 

 

a

 

DX

 

 

a

 

1,

a > 0,

=

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

=

 

 

=

 

 

=

 

 

 

DX D (aX +b)

 

 

 

 

 

 

 

 

 

 

 

a

 

 

 

a

 

 

< 0.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

DX a2 DX

 

DX

 

1, a

Пусть rXY

=1. Тогда (см. доказательство свойства 7 ковариации)

 

 

X m

x

 

 

Y my

 

 

 

 

 

 

K

XY

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D

 

 

 

 

 

 

=

2

1

 

 

 

= 0 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

σ

 

σ σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

откуда

 

 

 

 

 

 

 

 

 

 

 

X m

x

Y my

 

= c = const .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Найдем M (c):

X m

Y my

 

 

M (c)=c = M

 

x

 

 

 

=

σ

 

σ

 

 

x

y

 

 

 

 

 

 

 

т.е.

X m

x

=

Y my

, откуда

σx

 

 

σy

 

 

 

 

 

 

 

X m

Y my

 

 

M

 

x

 

M

 

 

=0,

 

 

 

 

 

σy

 

 

 

 

σx

 

 

 

Y= σy (X mx )+ my .

σx

аналогично, при

r = −1 Y = −

σy

(X m

x

)+ m

y

.

 

 

 

 

 

 

 

 

 

 

XY

σx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом,

коэффициент корреляции rXY является мерой линейной

связи между случайными величинами: если rXY

= 0 , с.в. независимы, ес-

ли

 

rXY

 

=1, с.в.

связаны линейной зависимостью, при

 

rXY

 

1 зависи-

 

 

 

 

мость носит иной характер. Чем больше

 

rXY

 

 

,

тем больше связь между

 

 

X и Y похожа на линейную. При rXY

> 0

говорят о положительной

Многомерные случайные события

67

корреляции между X и Y , при rXY < 0 – об отрицательной корреляции.

Пример:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ранее (пример в пункте 6.2) была рассмотрена случайная величина (X ,Y ):

 

 

Y

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

2

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

0,05

 

 

0,15

 

 

0,1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

0,1

 

 

0,2

 

 

 

0,2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

0,05

 

 

0,1

 

 

 

0,05

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

rXY .

 

 

 

 

 

 

Найдем

коэффициент корреляции

 

 

 

 

 

 

Решение: Ранее были найдены законы распределения компонент

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

1

 

2

3

 

 

Y

1

 

 

2

3

 

 

 

 

 

 

p

0,2

 

0,45

0,35

 

 

p

0,3

 

0,5

0,2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

mx =1 0,2 +2 0,45 +3 0,35 = 0,2 +0,9 +1,05 = 2,15 ,

 

 

 

 

 

my =1 0,3 +2 0,5 +3 0,2 = 0,3 +1,0 +0,6 =1,9 ,

 

 

 

Законы распределения центрированных компонент

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X mx

 

-1,15

 

-0,15

 

0,85

 

 

 

 

Y my

-0,9

 

0,1

1,1

 

 

 

p

 

0,2

 

0,45

 

 

0,35

 

 

 

 

 

p

0,3

 

0,5

0,2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Дисперсии

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

DX = M ((X mx )2 )= 0,5275 , DY = M ((Y my )2 )= 0,49 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx

0,7263, σy = 0,7

 

 

 

 

 

ковариация KXY = M ((X mx )(Y my ))= −0,035 ,

коэффициент корреляции

 

r

=

KXY

= −0,0688 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

XY

σ σ

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Как видно, компоненты скоррелированы слабо, так что если зависимость и есть, то она далека от линейной.

6.3.2. Числовые характеристики условных распределений

Для условных распределений компонент двумерной случайной величины также можно ввести числовые характеристики. Наиболее важными являются условные математические ожидания.

О Условное математическим ожидание случайной величины X при

Y = y , где y – одно из возможных значений с.в. Y , называется (для дискретной с.в.) сумма произведений значений с.в. X на их условные вероятности:

68

Лекция 6

k

M (X Y = y)= xi p (xi y);

i=1

для непрерывной с.в.

M (X Y = y)= xf (x y)dx ,

−∞

где f (x y) – условная плотность распределения.

Условное математическим ожидание M (X y) является функцией y :

M (X y)=ϕ (y),

которую называют функцией регрессии X на Y .

Аналогично определяются условное математическим ожидание M (Y x) и функция регрессии Y на X M (Y x)=ψ (x).

6.3.3. Линейная регрессия. Прямые линии среднеквадратической регрессии

Рассмотрим двумерную случайную величину (X ,Y ), где X и Y – зави-

симые случайные величины и представим одну из величин как функцию другой. Подобное представление в общем случае может быть только приближенным. Ограничимся простейшим случаем линейной зависимости:

Y g (X )=αX + β ,

где α и β – параметры, подлежащие определению. Чаще всего для этого используется метод наименьших квадратов.

Функция g (X )=αX + β называется наилучшим приближением Y в смысле метода наименьших квадратов (МНК), если математическое ожи-

дание M Y g (X ) 2 принимает наименьшее возможное значение; функцию g (X ) называют среднеквадратической регрессией Y на X .

Используя МНК, найдем коэффициенты уравнения регрессии. Рассмотрим математическое ожидание квадрата отклонения

M Y g (X ) 2 = M [Y αX β]2 = F (α,β ),

которое зависит от неизвестных параметров α и β . Обозначим M (X )= mx ,

M (Y )= my , σx = D (X ), σy = D (Y ), r = µxy – коэффициент корреляции

σxσy

величин X и Y .

F (α,β )= M (Y my )α (X mx )+(my αmx β ) 2 =

= M (Y my )2 +α2 M (X mx )2 +(my αmx β )2 2αM (Y my )(X mx ) +

Многомерные случайные события

69

+2 (my αmx β ) M (Y my ) 2a (my αmx β ) M (X mx ) = =σy2 +α2σx2 2ασxσy r +(my αmx β )2 .

Исследуем F (α,β ) на экстремум.

 

F

2

2σxσy r 2mx (my αmx β ),

 

α

= 2ασx

 

 

 

 

F

= −2 (my αmx β )= 0,

 

 

β

 

 

 

 

Решая систему, получаем α = r

σy

,

β = m

 

 

r

σy

m

.

Легко убедиться, что

 

 

 

σx

 

 

 

 

σx

 

 

 

y

 

x

 

 

 

 

 

при этих значениях α и β F (α,β ) минимальна.

 

 

 

 

 

 

Итак, линейная среднеквадратическая регрессия Y на X имеет вид:

g (X )=αX + β = r

σy

X +my r

σy

 

mx = my + r

 

σy

(X mx ).

 

 

 

 

σ

x

 

σ

x

 

 

 

 

 

σ

x

 

 

 

 

 

 

 

 

 

 

Коэффициент α = r σy называется коэффициентом регрессии Y на X , а

σx

прямую y = my + r σy (x mx ) прямой среднеквадратической регрессии

σx

Y на X .

Минимальное значение F (α,β )min =σy2 (1r2 ), достигающееся при найденных выше значениях параметров α и β , называется остаточной диспер-

сией случайной величины Y относительно случайной величины X ; она описывает величину ошибки, возникающей при замене Y линейной функцией g (X )=αX + β . Если r = ±1, остаточная дисперсия равна нулю , так как в

этом случае X и Y связаны строгой, а не приближенной линейной функциональной зависимостью.

Аналогично построенной функции среднеквадратической регрессии Y на X можно построить среднеквадратическую регрессию X на Y :

 

 

 

h (Y )= mx + r

σx

(Y my ),

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

y

 

 

 

 

для которой r

σx

коэффициент регрессии X на Y , x = mx + r

σx

(y my )

 

σ

y

 

 

 

σ

y

 

 

 

 

 

 

 

 

прямая среднеквадратической регрессии X на Y , σx2 (1 r2 ) остаточ-

ная дисперсия величины X относительно величины Y .

Из уравнений прямых среднеквадратической регрессии видно, что они обе проходят через центр рассеяния – точку с координатами (mx ,my ). Если r = ±1, то обе прямые регрессии совпадают.

70

Лекция 6

6.3.4. Линейная корреляция. Двумерный

 

нормальный закон распределения

 

 

 

Рассмотрим двумерную случайную величину (X ,Y ).

Если и функция

регрессии X

на Y M (X

 

y)=ϕ (y) и

функция регрессии Y

на X

 

M (Y

 

x)=ψ (x)

оказываются

 

линейными,

то говорят, что

X и Y

связаны

 

 

линейной корреляционной зависимостью. Очевидно, графики функций регрессии в этом случае оказываются прямыми. Можно показать, что эти прямые совпадают с рассмотренными ранее прямыми среднеквадратической регрессии.

Описанная ситуация имеет место в одном важном частном случае – если двумерная случайная величина распределена по двумерному нормальному закону. Этот закон является обобщением одномерного нормального распределения, его плотность вероятности задается формулой

 

 

 

 

 

 

 

 

1

 

 

(xax )

2

 

(yay )

2

 

 

 

 

 

 

 

1

 

 

 

 

 

+

2rxy

xax yay

 

 

 

 

 

 

 

2

 

2

 

2

σx

σy

 

f (x, y)=

 

 

 

 

e

 

2(1rxy )

σx

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

2πσ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

σ

y

1r2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xy

 

 

 

 

 

 

 

 

 

 

 

 

Нормальный закон на плоскости определяется пятью параметрами: ax , ay , σx , σy и rxy . Можно доказать что эти параметры имеют следующий вероятностный смысл: ax , ay - математические ожидания, σx , σy – среднеквадратические отклонения, rxy – коэффициент корреляции величин X и Y . Для

двумерного нормального распределения связь между некоррелированностью и независимостью компонент X и Y становится взаимно однозначной: если компоненты независимы, они некоррелированы, если они некоррелированы, то они независимы. (Если f (x,y)= f1 (x) f2 (y), то rxy = 0 , если rxy = 0 , то

f (x, y)= f1 (x) f2 (y)).

Покажем, что для двумерного нормального распределения между компонентами существует линейная корреляционная зависимость. Обозначим

для краткости u =

x a

x

, v =

y ay

, r

= r .

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

σy

xy

 

 

 

 

 

 

 

 

 

 

 

 

 

Тогда

 

 

 

 

 

 

 

 

 

u2

+v2 2ruv

 

 

 

 

 

 

 

1

 

e

 

f (x, y)=

 

 

 

 

2(1r2 ) .

 

 

 

 

 

 

 

 

 

 

 

 

2πσxσy

1r2

 

 

Плотность распределения составляющей X

Многомерные случайные события

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

71

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

u2

+v2

2ruv

 

 

 

 

 

 

 

 

 

dy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f1 (x)

 

 

(x, y)dy =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= f

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

 

 

 

 

dy =

 

= dv

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσxσy

 

 

1 r

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u2 r2u2

 

 

 

 

 

 

 

 

 

(vru)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u2 r2u2 +v2 2ruv+r2u2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

2(1r2 )

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

 

 

 

 

 

2(1r2 )

 

 

 

 

 

 

 

dv =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

2(1r2 )dv =

 

 

 

 

 

 

2πσx

1 r

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσx

 

1 r

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

v ru

 

 

 

 

 

 

 

 

e

u2

 

 

 

 

1

 

 

 

 

 

 

t

2

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

u

2

 

 

 

 

 

 

 

 

1

 

 

 

(x ax )2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2σ 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

= t

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

2 dt

=

 

 

 

 

 

 

 

 

 

 

 

 

e

2 =

 

 

 

 

 

 

 

 

 

e

 

 

 

x .

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 r

 

 

 

 

 

 

 

 

 

 

2πσx

 

2π

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσx

 

 

 

 

 

 

 

Найдем функцию регрессии M (Y

 

x)=ψ (x),

 

для чего вначале найдем

 

 

 

 

условный закон распределения

 

 

 

 

 

 

 

 

u2

+v2 2ruv

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

e

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u2

+v2 2ruv

 

u2

 

 

 

 

 

 

 

 

 

f

(x, y)

 

 

 

 

 

2πσxσy 1r2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσx

 

 

 

+

 

f (y

 

x)=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1r2 )

 

2

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

 

=

 

 

 

 

 

f1 (x)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

e

u2

 

 

 

 

 

 

 

 

 

 

2πσ

x

σ

y

 

 

1r2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

v2

2ruv+r2u2

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

(vru)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

e

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

e

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2π (σy 1 r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

2π

(σy 1 r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

Окончательно заменяя u и v , получаем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

y

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(xax )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yay

r

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f (y

 

x)=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

 

2σy2

(1r2 )

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(σy 1 r2

 

) 2π

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Полученное условное распределение нормально с математическим ожиданием (функцией регрессии Y на X )

M(Y x)=ψ (x)= ay r σy (x ax )

σx

идисперсией σy 2 (1 r2 ).

Аналогично можно получить функцию регрессии X на Y ,

M(X y)=ϕ (y)= ax r σx (y ay )

σy

идисперсией σx2 (1 r2 ).

Так как обе функции регрессии линейны, то и корреляция между компонентами линейная. Можно также отметить, что уравнения прямых регрессии совпадают с уравнениями прямых среднеквадратической регрессии.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]