Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ТВ_и_МС

.pdf
Скачиваний:
27
Добавлен:
23.02.2015
Размер:
1.72 Mб
Скачать

Многомерные случайные события

 

 

 

63

f (x

 

y)=

f (x, y)

=

f (x, y)

, f2 (y) 0 .

 

 

f2 (y)

 

 

 

 

−∞ f (x, y)dx

 

 

 

 

 

 

 

Условная плотность обладает всеми свойствами плотности распределения: f (x y)0, f (x y)dx =1.

Аналогично определяется условная плотность распределения случайной ве-

личины Y при условии, что случайная величина X = x :

f (y

 

x)=

f (x, y)

=

f (x, y)

, f1 (y) 0 .

 

 

 

 

 

 

f1 (x)

−∞ f (x, y)dy

 

 

 

 

 

 

 

 

 

 

Соотношения для условных плотностей могут быть записаны в виде:

f(x, y) = f1 (x) f (y x)= f2 (y) f (x y).

6.3.Числовые характеристики двумерной случайной величины

Для многомерных случайных величин используются числовые характеристики, аналогичные одномерному случаю: математическое ожидание, дисперсия и различные моменты. В многомерном случае числовые характеристики могут описывать не только среднее значение и степень рассеяния компонент, но и степень зависимости между компонентами. Приведем основные определения для дискретных и непрерывных двумерных случайных величин.

ОМатематическим ожиданием двумерной случайной величины (X ,Y ) называется упорядоченная пара чисел (MX ,MY ).

Для дискретной с.в.

 

k

s

k s

 

MX = mx = ∑∑xi pij , MY = my = ∑∑y j pij , pij =P(X = xi ;Y = yj ).

 

i=1 j=1

i=1 j=1

 

Для непрерывной с.в.

 

 

∞ ∞

 

MX =

xf

(x, y)dxdy , MY = ∫ ∫ yf (x,y)dxdy , f (x, y) – плотность рас-

−∞ −∞

 

−∞ −∞

 

пределения.

 

(X ,Y ) называется

 

О Дисперсией

с.в.

упорядоченная пара чисел

(DX ,DY ).

 

 

 

Для дискретной с.в.

k s

 

k

s

 

 

DX = ∑∑(xi mx )2

pij , DY = ∑∑(y j my )2 pij .

i=1 j=1

 

i=1 j=1

 

Для непрерывной с.в.

 

 

∞ ∞

(y my )2 f (x, y)dxdy .

DX =

(x mx )2 f

(x, y)dxdy , DY = ∫ ∫

−∞ −∞

 

−∞ −∞

 

64

Лекция 6

!Геометрическая интерпретация этих понятий следующая: математическое ожидание (mx ,my ) – координаты средней точки, относительно ко-

 

торой разбросаны случайные точки

(X ,Y ). По

этой причине точка

 

(mx ,my )

иногда называется центром рассеяния.

Дисперсия (DX ,DY )

 

показывает, насколько облако точек

(X ,Y ) разбросано в направлении

 

осей Ox и Oy .

 

 

О

Начальный момент порядка k+s

двумерной

случайной величины

 

(X ,Y ):

αk ,s = M (X kY s ).

 

 

 

 

 

О Центральный

(X ,Y ):

µk ,s

!В соответствии

момент порядка k+s двумерной случайной величины

= M ((X mx )k (Y my )s ).

с этим определением:

mx = M (X 1Y 0 )=α1,0 , my = M (X 0Y 1 )=α0,1 ;

DX = M ((X mx )2 (Y my )0 )= µ2,0 , DY = M ((X mx )0 (Y my )2 )= µ0,2 .

6.3.1. Корреляционный момент и коэффициент корреляции

ОКорреляционный момент с.в. (X ,Y ) (момент связи, ковариация) –

смешанный центральный момент второго порядка: )).yx1,1XY

 

k

s

 

Для дискретной с.в. (X ,Y )

KXY = ∑∑(xi mx )(y j my )pij ,

 

i=1 j=1

 

 

 

для непрерывной с.в. (X ,Y )

KXY =

(x mx )(y my ) f

(x, y)dxdy .

 

−∞ −∞

 

Для вычисления ковариации удобно использовать формулу

 

KXY = cov (X ,Y ) == M (XY )MX MY ,

 

 

которая получается из определения:

 

 

KXY = M ((X mx )(Y my ))= M (XY mxY my X + my mx )=

 

= M (XY )mx M (Y )my M (X )+ my mx = M (XY )my mx .

Свойства ковариации:

 

 

 

1°. Ковариация симметрична: KXY

= KYX .

 

 

2°. Постоянный множитель можно выносить за знак ковариации:

cov (cX ,Y ) = c cov (X ,Y )

= cov (X ,cY ).

 

Многомерные случайные события

65

3°. Ковариация не изменится, если к случайным величинам добавить посто-

 

янные:

 

 

cov (X + a,Y ) = cov (X ,Y + b) = cov (X + a,Y + b)= cov (X ,Y ).

4°.

Дисперсия с.в. есть ее ковариация с самой собой, DX = KXX .

5°. Дисперсия суммы (разности) двух с.в. равна сумме их дисперсий плюс

 

(минус) их удвоенная ковариация:

 

 

D (X ±Y )= DX + DY ± 2KXY .

 

6°.

Если случайные величины X и Y независимы, то KXY

= 0 .

7°. Ковариация двух с.в. по абсолютной величине не превосходит произве-

 

дения их средних квадратических отклонений,

 

 

 

KXY

 

σx σy .

 

 

 

 

 

Свойства 1 – 5 следуют из определения ковариации, свойство 6 – из определения независимости. Докажем свойство 7, для чего применим свойство 5 к

случайным величинам

 

X m

x

 

и

Y my

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X m

x

 

 

Y my

 

 

 

 

 

 

 

 

X m

x

 

 

Y my

 

 

 

 

 

 

 

 

 

 

 

 

D

 

 

 

±

 

 

 

 

 

 

 

= D

 

 

 

 

 

 

 

 

 

+ D

 

 

 

 

 

 

 

 

±

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

 

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X m

x

 

 

 

 

 

 

 

X

m

x

 

 

 

Y my

 

 

Y

my

 

 

 

 

 

 

 

 

 

 

±2M

 

 

 

M

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M

 

 

 

 

 

 

 

 

=

 

 

 

 

 

σx

 

 

 

 

σx

 

 

 

σy

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X m

x

 

 

Y

my

 

 

 

 

 

 

K

XY

 

 

 

 

 

 

 

 

 

 

 

=1 +1 ±

2M

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= 2 1

±

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

σ

 

 

 

σ σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

y

 

 

 

 

 

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

Так как любая дисперсия неотрицательна,

1 ±

KXY

0,

σ σ

y

K

XY

σ σ

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σxσy

 

 

 

 

 

 

 

x

 

 

 

 

x y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

или

 

KXY

 

σx σy .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Из свойства 6 следует, что KXY 0 , то с.в.

 

X

 

 

и Y

зависимы. Если KXY

0 ,

с.в. X и Y называют коррелированными.

Однако из условия

KXY = 0 не

следует независимость с.в. X

 

и Y

(этот факт будет доказан позднее,

при

рассмотрении функций от случайных величин). Если KXY = 0 , с.в.

X и Y на-

зывают некоррелированными. Из независимости следует некоррелированность, обратное утверждение неверно, из некоррелированности независи-

мость не следует.

Из определения ковариации видно, что она описывает и степень рассеяния с.в. X и Y , и связь между этими величинами. Для того, чтобы исключить влияние рассеяния и оценить только степень зависимости, обычно переходят

к стандартным с.в.

X m

x

и

Y my

.

σx

 

σy

 

 

 

 

66

Лекция 6

ОКоэффициентом корреляции с.в. X и Y называется ковариация соответствующих им стандартных с.в.:

 

 

 

 

 

 

 

 

 

 

 

 

X m

x

 

Y my

 

 

cov (X ,Y )

 

 

K

XY

 

 

 

 

 

 

 

 

 

 

r

= cov

 

 

 

 

,

 

 

 

 

=

 

=

 

 

.

 

 

 

 

 

 

 

 

 

 

σ

 

 

σ

 

 

σ σ

 

 

 

 

 

 

 

 

 

 

 

 

XY

 

 

 

x

 

 

y

 

 

 

σ σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x y

 

 

x

y

Свойства коэффициента корреляции

 

 

 

 

 

 

 

 

 

 

1°.

 

rXY

 

1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2°.

Для независимых с.в. rXY

= 0 .

 

 

 

 

 

 

 

 

 

 

 

 

3°.

Если с.в.

X и

Y

связаны линейной функциональной зависимостью,

 

Y = aX +b, a 0 ,

то

 

rXY

 

=1,

причем

 

rXY =1 при a > 0 и rXY = −1 при

 

 

 

 

 

a < 0 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4°.

Если

 

rXY

 

 

=1, то с.в.

X и Y связаны линейной функциональной зависи-

 

 

 

мостью.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Свойство 1° следует из свойства 7° ковариации, свойство 2° – из свойства 6°. Докажем свойства 3° и 4°.

3°.

4°.

rXY

=

 

cov

(

X ,aX +b

)

 

 

=

 

a cov

(

X ,X

)

=

 

 

a

 

DX

=

 

a

 

=

1,

a > 0,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

DX D (aX + b)

 

 

 

 

 

 

 

 

 

 

 

 

 

a

 

 

 

a

 

 

< 0.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

DX a2 DX

 

DX

 

 

 

1, a

Пусть rXY =1. Тогда (см. доказательство свойства 7 ковариации)

 

 

X m

x

 

 

Y my

 

 

 

 

 

 

K

XY

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D

 

 

 

 

 

 

 

 

 

 

 

 

=

 

2 1

 

 

 

 

= 0 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

σ

 

 

 

σ σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

откуда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X m

x

Y my

 

= c = const .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

σy

 

 

 

 

 

 

Найдем M (c):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

m

 

 

 

Y my

 

 

 

 

 

 

X

m

 

 

 

Y my

 

 

 

 

M (c)=c = M

 

 

 

 

x

 

 

 

 

 

= M

 

 

 

x

 

 

M

 

 

 

=0,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

 

 

σy

 

 

 

 

 

 

σx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σy

 

 

 

 

 

т.е.

 

 

 

X m

x

=

Y my

, откуда

 

 

 

 

 

Y =

σy

(X mx )+ my .

 

 

 

 

 

 

σx

 

 

 

σy

 

 

 

 

 

 

 

σx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

аналогично, при

r = −1 Y = −

σy

(X m

x

)+ m

y

.

 

 

 

 

 

 

 

 

 

 

XY

σx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом,

коэффициент корреляции rXY является мерой линейной

связи между случайными величинами: если rXY

= 0 , с.в. независимы, ес-

ли

 

rXY

 

=1, с.в.

связаны линейной зависимостью, при

 

rXY

 

1 зависи-

 

 

 

 

мость носит иной характер. Чем больше

 

rXY

 

 

,

тем больше связь между

 

 

X и Y похожа на линейную. При rXY

> 0

говорят о положительной

Многомерные случайные события

67

корреляции между X и Y , при rXY < 0 – об отрицательной корреляции.

Пример:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ранее (пример в пункте 6.2) была рассмотрена случайная величина (X ,Y ):

 

 

Y

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

2

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

0,05

 

 

0,15

 

 

0,1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

0,1

 

 

0,2

 

 

 

0,2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

0,05

 

 

0,1

 

 

 

0,05

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

rXY .

 

 

 

 

 

 

Найдем

коэффициент корреляции

 

 

 

 

 

 

Решение: Ранее были найдены законы распределения компонент

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

1

 

2

3

 

 

Y

1

 

 

2

3

 

 

 

 

 

 

p

0,2

 

0,45

0,35

 

 

p

0,3

 

0,5

0,2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

mx =1 0,2 + 2 0,45 +3 0,35 = 0,2 +0,9 +1,05 = 2,15 ,

 

 

 

 

 

my =1 0,3 + 2 0,5 +3 0,2 = 0,3 +1,0 +0,6 =1,9 ,

 

 

 

Законы распределения центрированных компонент

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X mx

 

-1,15

 

-0,15

 

0,85

 

 

 

 

Y my

-0,9

 

0,1

1,1

 

 

 

p

 

0,2

 

0,45

 

 

0,35

 

 

 

 

 

p

0,3

 

0,5

0,2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Дисперсии

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

DX = M ((X mx )2 )= 0,5275 , DY = M ((Y my )2 )= 0,49 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx

0,7263, σy = 0,7

 

 

 

 

 

ковариация KXY = M ((X mx )(Y my ))= −0,035 ,

коэффициент корреляции

 

r

=

KXY

= −0,0688 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

XY

σ σ

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Как видно, компоненты скоррелированы слабо, так что если зависимость и есть, то она далека от линейной.

6.3.2. Числовые характеристики условных распределений

Для условных распределений компонент двумерной случайной величины также можно ввести числовые характеристики. Наиболее важными являются условные математические ожидания.

О Условное математическим ожидание случайной величины X при

Y = y , где y – одно из возможных значений с.в. Y , называется (для дискретной с.в.) сумма произведений значений с.в. X на их условные вероятности:

68

Лекция 6

k

M (X Y = y)= xi p (xi y);

i=1

для непрерывной с.в.

M (X Y = y)= xf (x y)dx ,

−∞

где f (x y) – условная плотность распределения.

Условное математическим ожидание M (X y) является функцией y :

M (X y)=ϕ (y),

которую называют функцией регрессии X на Y .

Аналогично определяются условное математическим ожидание M (Y x) и функция регрессии Y на X M (Y x)=ψ (x).

6.3.3. Линейная регрессия. Прямые линии среднеквадратической регрессии

Рассмотрим двумерную случайную величину (X ,Y ), где X и Y – зави-

симые случайные величины и представим одну из величин как функцию другой. Подобное представление в общем случае может быть только приближенным. Ограничимся простейшим случаем линейной зависимости:

Y g (X )=αX + β ,

где α и β – параметры, подлежащие определению. Чаще всего для этого используется метод наименьших квадратов.

Функция g (X ) = αX + β называется наилучшим приближением Y в смысле метода наименьших квадратов (МНК), если математическое ожи-

дание M Y g (X ) 2 принимает наименьшее возможное значение; функцию g (X ) называют среднеквадратической регрессией Y на X .

Используя МНК, найдем коэффициенты уравнения регрессии. Рассмотрим математическое ожидание квадрата отклонения

M Y g (X ) 2 = M [Y αX β]2 = F (α,β ),

которое зависит от неизвестных параметров α и β . Обозначим M (X )= mx ,

M (Y ) = my , σx = D (X ), σy = D (Y ), r = µxy – коэффициент корреляции

σxσy

величин X и Y .

F (α,β ) = M (Y my )α (X mx )+ (my αmx β ) 2 =

= M (Y my )2 +α2 M (X mx )2 + (my αmx β )2 2αM (Y my )(X mx ) +

Многомерные случайные события

69

+2 (my αmx β ) M (Y my ) 2a (my αmx β ) M (X mx ) = = σy2 +α2σx2 2ασxσy r + (my αmx β )2 .

Исследуем F (α,β ) на экстремум.

 

F

2

2σxσy r 2mx (my αmx β ),

 

α

= 2ασx

 

 

 

 

F

= −2 (my αmx β )= 0,

 

 

β

 

 

 

 

Решая систему, получаем α = r

σy

,

β = m

 

 

r

σy

m

.

Легко убедиться, что

 

 

 

σx

 

 

 

 

σx

 

 

 

y

 

x

 

 

 

 

 

при этих значениях α и β F (α,β ) минимальна.

 

 

 

 

 

 

Итак, линейная среднеквадратическая регрессия Y на X имеет вид:

g (X )=αX + β = r

σy

X + my r

σy

 

mx = my + r

 

σy

(X mx ).

 

 

 

 

σ

x

 

σ

x

 

 

 

 

 

σ

x

 

 

 

 

 

 

 

 

 

 

Коэффициент α = r σy называется коэффициентом регрессии Y на X , а

σx

прямую y = my + r σy (x mx ) прямой среднеквадратической регрессии

σx

Y на X .

Минимальное значение F (α,β )min =σy2 (1r2 ), достигающееся при найденных выше значениях параметров α и β , называется остаточной диспер-

сией случайной величины Y относительно случайной величины X ; она описывает величину ошибки, возникающей при замене Y линейной функцией g (X ) = αX + β . Если r = ±1, остаточная дисперсия равна нулю , так как в

этом случае X и Y связаны строгой, а не приближенной линейной функциональной зависимостью.

Аналогично построенной функции среднеквадратической регрессии Y на X можно построить среднеквадратическую регрессию X на Y :

 

 

 

h (Y ) = mx + r

σx

(Y my ),

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

y

 

 

 

 

для которой r

σx

коэффициент регрессии X на Y , x = mx + r

σx

(y my )

 

σ

y

 

 

 

σ

y

 

 

 

 

 

 

 

 

прямая среднеквадратической регрессии X на Y , σx2 (1 r2 ) остаточ-

ная дисперсия величины X относительно величины Y .

Из уравнений прямых среднеквадратической регрессии видно, что они обе проходят через центр рассеяния – точку с координатами (mx ,my ). Если r = ±1, то обе прямые регрессии совпадают.

70

Лекция 6

6.3.4. Линейная корреляция. Двумерный

 

нормальный закон распределения

 

 

 

Рассмотрим двумерную случайную величину (X ,Y ).

Если и функция

регрессии X

на Y M (X

 

y)=ϕ (y) и

функция регрессии Y

на X

 

M (Y

 

x)=ψ (x)

оказываются

 

линейными,

то говорят, что

X и Y

связаны

 

 

линейной корреляционной зависимостью. Очевидно, графики функций регрессии в этом случае оказываются прямыми. Можно показать, что эти прямые совпадают с рассмотренными ранее прямыми среднеквадратической регрессии.

Описанная ситуация имеет место в одном важном частном случае – если двумерная случайная величина распределена по двумерному нормальному закону. Этот закон является обобщением одномерного нормального распределения, его плотность вероятности задается формулой

 

 

 

 

 

 

 

 

1

 

 

(xax )

2

 

(yay )

2

 

 

 

 

 

 

 

1

 

 

 

 

 

+

2rxy

xax yay

 

 

 

 

 

 

 

2

 

2

 

2

σx

σy

 

f (x, y)=

 

 

 

 

e

 

2(1rxy )

σx

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

2πσ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

σ

y

1r2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xy

 

 

 

 

 

 

 

 

 

 

 

 

Нормальный закон на плоскости определяется пятью параметрами: ax , ay , σx , σy и rxy . Можно доказать что эти параметры имеют следующий вероятностный смысл: ax , ay - математические ожидания, σx , σy – среднеквадратические отклонения, rxy – коэффициент корреляции величин X и Y . Для

двумерного нормального распределения связь между некоррелированностью и независимостью компонент X и Y становится взаимно однозначной: если компоненты независимы, они некоррелированы, если они некоррелированы, то они независимы. (Если f (x,y)= f1 (x) f2 (y), то rxy = 0 , если rxy = 0 , то

f (x, y)= f1 (x) f2 (y)).

Покажем, что для двумерного нормального распределения между компонентами существует линейная корреляционная зависимость. Обозначим

для краткости u =

x a

x

, v =

y ay

, r

= r .

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

σy

xy

 

 

 

 

 

 

 

 

 

 

 

 

 

Тогда

 

 

 

 

 

 

 

 

 

u2

+v2 2ruv

 

 

 

 

 

 

 

1

 

e

 

f (x, y)=

 

 

 

 

2(1r2 ) .

 

 

 

 

 

 

 

 

 

 

 

 

2πσxσy

1r2

 

 

Плотность распределения составляющей X

Многомерные случайные события

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

71

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

u2

+v2

2ruv

 

 

 

 

 

 

 

 

 

dy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f1 (x)

 

 

(x, y)dy =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= f

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

 

 

 

 

dy =

 

= dv

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσxσy

 

 

1 r

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u2 r2u2

 

 

 

 

 

 

 

 

 

(vru)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u2 r2u2 +v2 2ruv+r2u2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

2(1r2 )

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

 

 

 

 

 

2(1r2 )

 

 

 

 

 

 

 

dv =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

2(1r2 )dv =

 

 

 

 

 

 

2πσx

1 r

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσx

 

1 r

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

v ru

 

 

 

 

 

 

 

 

e

u2

 

 

 

 

1

 

 

 

 

 

 

t

2

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

u

2

 

 

 

 

 

 

 

 

1

 

 

 

(x ax )2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2σ 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

= t

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

2 dt

=

 

 

 

 

 

 

 

 

 

 

 

 

e

2 =

 

 

 

 

 

 

 

 

 

e

 

 

 

x .

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 r

 

 

 

 

 

 

 

 

 

 

2πσx

 

2π

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσx

 

 

 

 

 

 

 

Найдем функцию регрессии M (Y

 

x)=ψ (x),

 

для чего вначале найдем

 

 

 

 

условный закон распределения

 

 

 

 

 

 

 

 

u2

+v2 2ruv

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

e

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u2

+v2 2ruv

 

u2

 

 

 

 

 

 

 

 

 

f

(x, y)

 

 

 

 

 

2πσxσy 1r2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσx

 

 

 

+

 

f (y

 

x)=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1r2 )

 

2

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

 

=

 

 

 

 

 

f1 (x)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

e

u2

 

 

 

 

 

 

 

 

 

 

2πσ

x

σ

y

 

 

1r2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2πσx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

v2

2ruv+r2u2

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

(vru)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

e

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

e

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2π (σy 1 r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

2π

(σy 1 r2 )

 

 

 

 

 

 

 

 

 

 

 

 

 

Окончательно заменяя u и v , получаем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

y

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(xax )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yay

r

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f (y

 

x)=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

 

2σy2

(1r2 )

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(σy 1 r2

 

) 2π

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Полученное условное распределение нормально с математическим ожиданием (функцией регрессии Y на X )

M(Y x)=ψ (x)= ay r σy (x ax )

σx

идисперсией σy 2 (1 r2 ).

Аналогично можно получить функцию регрессии X на Y ,

M(X y)=ϕ (y)= ax r σx (y ay )

σy

идисперсией σx2 (1 r2 ).

Так как обе функции регрессии линейны, то и корреляция между компонентами линейная. Можно также отметить, что уравнения прямых регрессии совпадают с уравнениями прямых среднеквадратической регрессии.

Лекция 7 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ

В лекции рассматриваются теоретические обоснования основных положений теории вероятностей (закон больших чисел) и объясняется широкое распространение нормального закона распределения (центральная предельная теорема).

7.1.Закон больших чисел (предельные теоремы теории вероятностей)

7.1.1.Неравенство Чебышева

7.1.2.Теорема Чебышева

7.1.3.Теорема Маркова

7.1.4.Теорема Бернулли

7.2.Центральная предельная теорема

7.2.1. Формула Муавра-Лапласа как частный случай центральной предельной теоремы

1.1.Закон больших чисел (предельные теоремы теории вероятностей)

На практике часто рассматривают случайные величины, являющиеся, в свою очередь, суммами большого числа случайных величин. Вычисления непосредственно вероятностей распределения представляют собой определенные трудности. Однако при очень большом числе случайных явлений средний их результат практически не является случайным и может быть предсказан с большой степенью определенности. Например, если в каждом опыте случайная величина X принимает некоторое значение, то при возрастании n→∞ среднее арифметическое наблюденных значений случайной величины X становится устойчивым (сходится) к математическому ожиданию случайной величины X. Условия, при которых совокупный результат воздействия случайных факторов практически перестает быть случайным, описываются в нескольких теоремах, которые носят общее название закона больших чисел.

ТЛемма. Пусть случайная величина неотрицательна, X 0, тогда

P(X ε) Mε(X) .