Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Высшая математика IV. Теория вероятностей

.pdf
Скачиваний:
16
Добавлен:
05.02.2023
Размер:
764.74 Кб
Скачать

Пример 4. Даны плотности распределения независимых

случайных величин X и Y : ρ1(x) = 0,5e0,5x, 0

x < +

,

ρ2(y) = 0,2e

0,2y

 

 

 

, 0 ≤ y < +. Найти плотность распределения

случайной величины Z = X + Y .

 

 

 

Решение. Так как случайные величины X и Y независи-

мы, то плотность распределения системы ρ(x, y)

= ρ1(x) ·

ρ2(y), по свойству 8. В нашем примере получаем, что ρ(x, y) =

= 0,1e0,5x−0,2y , если x ≥ 0, y ≥ 0. Для отыскания ρ(z) воспользуемся приёмом, описанным в свойстве 10 плотности рас-

пределения. Сначала находим

z

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

F (z) = P (Z < z) = P (X + Y < z) =

 

Dz 0,1e0,5x−0,2y dxdy,

 

 

 

 

 

 

где D

область, все точки ко-

 

y

 

 

 

 

торой лежат внутри треугольника

 

 

 

 

 

OAB. Поэтому F (z) =

 

 

B(0, z)

z

 

 

 

2

 

0 0,5z

0

5

 

0,2z

 

 

 

 

 

 

 

 

= 0,1

z dx

 

z−x e

 

0,5x−0,2y dy =

 

 

 

x + y = z

 

 

=

 

· e

 

 

· e

 

+ 1.

 

 

 

 

 

3

 

3

 

 

 

 

 

 

 

Дифференцируя

по

z

последнее

 

 

 

Dz

 

 

соотношение,

 

находим

искомую

 

 

 

z

 

 

плотность распределения ρ(z) =

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

0

 

A(z, 0)

x

= (e0,2z − e0,5z ) ·

 

, если z ≥ 0,

 

3

 

 

 

 

 

 

если же z < 0, то ρ(z) = 0.

 

 

 

 

 

 

3.4. Математическое ожидание от функции нескольких случайных аргументов

Пусть дана случайная величина Z = ϕ(X, Y ), являющаяся функцией двух случайных аргументов X и Y .

Если случайные величины X и Y дискретны и известна матрица распределения, т.е. заданы вероятности pij = P (X = = xi, Y = yj ), то

 

 

 

M [Z] =

ϕ(xi, yj )pij .

(3.14)

i,j

Пусть система непрерывных величин (X, Y ) распределена в области D плоскости (O, X, Y ) с плотностью ρ(x, y). Найдём математическое ожидание случайной величины Z = ϕ(X, Y ),

81

не находя плотности распределения ρ(z). Предположим функции ϕ(x, y) и ρ(x, y) интегрируемыми по Риману. Разобьём область D на n частичных областей Di площадью ∆Si, в каждой из частичных областей выберем по точке (ξi, ηi) и построим

дискретную случайную величину ˜ с рядом распределения

Z

 

˜

ϕ(ξ1, η1)

 

 

ϕ(ξ2, η2)

. . .

ϕ(ξn, ηn)

 

 

Z

 

 

 

 

P

ρ(ξ1, η1)∆S1

 

ρ(ξ2, η2)∆S2

. . .

ρ(ξn, ηn)∆Sn

 

По формуле (3.14) находим

 

 

 

 

 

 

 

n

 

 

 

 

 

 

˜

] =

i

ϕ(ξi, ηi)ρ(ξi, ηi)∆Si

(3.15)

 

 

M [Z

 

 

 

 

 

 

=1

 

 

 

 

 

˜

 

 

 

Величину M [Z] можно принять за приближённое значение

M [Z]. Переходя к пределу при λ → 0, где λ — максимальный

диаметр областей Di, получаем

 

M [Z] = (D)

ϕ(x, y)ρ(x, y)dxdy

(3.16)

Если система (X, Y ) задана на всей плоскости, то

(3.17)

M [Z] = −∞

−∞ ϕ(x, y)ρ(x, y)dxdy

+

+

 

при условии сходимости этого интеграла.

Формулы (3.15) и (3.17) легко обобщаются на любое число

аргументов. Так, если U = ϕ(x, y, z), то

M [U ] = (D)ϕ(x, y, z)ρ(x, y, z)dxdydz, где D — область определения системы.

Пример 1. Дана матрица

 

 

X

Y

2

 

3

1

0,32

 

0,18

4

0,13

 

0,37

распределения системы (X, Y ) двух дискретных случайных величин. Найти M [Z], если Z = X2 + Y 2.

82

Решение. Применяя формулу (3.14), получаем

M [Z] = [(2)2 + 1] · 0,32 + (32 + 1) · 0,18 + [(2)2 + 42] · 0,13+

+(32 + 42) · 0,37=1,60+1,80+2,60+9,25=15,25. Пример 2. Система непрерывных случайных величин

(X, Y ) задана в круге x2 + y2 ≤ R2 плотностью распределе-

2

ния ρ(x, y) = πR4 (x2 + y2). Найти математическое ожидание случайной величины Z = X2 · Y 2.

Решение. Применим формулу (3.16):

 

 

 

 

M [Z] =

2

 

(D)x2y2(x2

+ y2)dxdy,

 

 

 

 

 

 

πR4

 

 

где D — круг x2 + y2

≤ R2. Перейдём к полярной системе

координат x = r cos ϕ, y = r sin ϕ. Получим

 

 

 

 

 

 

2

 

R

 

2π

 

 

 

 

 

M [Z] =

0

r7dr 0

cos2 ϕ sin2 ϕdϕ =

 

 

 

 

πR4

 

 

 

 

R4

 

2π

 

 

 

 

R4

2π

cos 4ϕ

 

R4

=

 

 

0

sin2 2ϕdϕ =

 

0

1

=

 

.

16π

16π

2

16

3.5. Характеристики связи двух случайных величин

3.5.1. Кривые регрессии (условные математические ожидания)

Пусть даны две случайные величины X и Y . Наиболее полную характеристику их связи дают либо условные функции распределения F (x/y), F (y/x), либо условные плотности ρ(x/y), ρ(y/x). Иногда достаточны менее полные характеристики, но более просто определяемые. К таким и относятся условные математические ожидания или функции регрессии одной случайной величины на другую.

Для дискретных случайных величин X и Y условные математические ожидания мы определили в подразделе 3.1. Для непрерывных величин полагают:

+

 

M [X/Y = y] = −∞ (x/y)dx,

(3.18)

+

 

M [Y /X = x] = −∞ (y/x)dy.

(3.19)

83

ρ(x, y) =
(y − M [Y /X = x])2ρ(y/x)dy, (x − M [X/Y = y])2ρ(x/y)dx.

Условное математическое ожидание M [X/Y = y], как это следует из (3.18), есть некоторая функция ψ(y) аргумента y. Её называют функцией регрессии случайной величины X на случайную величину Y . График функции x = ψ(y) называют кривой регрессии случайной величины X на Y . Соотношение (3.19) определяет функцию ϕ(x), называемую функцией регрессии Y на X, а её график называют кривой регрессии Y на X.

Функции ϕ(x) и ψ(y) дают представление о виде зависимости случайных величин X и Y . Графики этих функций получаются при экспериментальном исследовании вида зависимости двух случайных величин.

Если случайные величины X и Y независимы, то кривые регрессии являются прямыми, параллельными осям координат, пересекающимися в точке (mx, my ).

Для характеристики степени отклонения экспериментальных точек от кривой регрессии применяют условные диспер-

сии, определяемые для непрерывных величин соотношениями:

D[Y /X = x] = +

D[X/Y = y] = +

−∞

Для дискретных величин эти формулы принимают вид:

D[Y /X = xi] = (yj − M [Y /X = xi])2P (yj /xi),

j

D[X/Y = yj ] = (xi − M [X/Y = yj ])2P (xi/yj ).

i

Пример. Система (X, Y ) распределена равномерно в тре-

угольнике с вершинами O(0, 0), A(2, 0), B(2, 4), т.е.

c, если (x, y) лежит внутри треугольника OAB, 0, в остальных точках.

Найти функции регрессии y = ϕ(x) и x = ψ(y). (Так как c = S1 ,

1

где S — площадь области D, то в нашем случае c = 4 = 0,25.)

Решение. Зафиксируем каким-либо образом X = x в промежутке (0,2). При этом значении x величина Y меняется равно-

мерно в интервале [0, 2x). Поэтому M [Y /X = x] = 0 + 2x = x

2

84

(см. подраздел 2.9). Следовательно, ϕ(x) = x. При фиксированном значении y величины Y из промежутка (0,4) величина

y

 

 

 

 

 

X изменяется равномерно в про-

 

B(2, 4)

 

 

межутке (0,5y; 4). Следователь-

 

 

 

 

 

 

0,5y + 4

 

 

 

 

.

 

 

но, M [X/Y = y] =

=

 

 

 

 

 

 

 

2

y .

 

 

 

= 0,25y + 2. Поэтому

 

 

 

 

ψ(y) = 0,25y + 2. Кривые регрес-

 

. . .

 

 

сии являются прямыми линия-

 

 

ми, не параллельными осям ко-

O

 

x

 

 

x A(2, 0)

ординат. Следовательно, случай-

 

 

 

 

 

 

 

 

 

 

 

 

ные величины X и Y зависимы.

Такой простой способ отыскания функций регрессии пригоден лишь для равномерных распределений. В общем случае

необходимо использовать формулы (3.18) и (3.19).

 

 

 

 

Найдём функцию ϕ(x) данного примера, применяя форму-

 

(3.19). Получаем ρ

(x) =

2x

0,25dy = 0,5x, ρ(y/x) =

0,25

=

лу

0

 

1

1

 

 

 

 

 

 

 

 

 

 

0,5x

 

=

 

. Теперь, из формулы (3.19) следует:

 

 

 

 

 

 

 

 

2x

2x ·

2

0

= x.

 

 

 

ϕ(x) = M [Y /X = x] = 0

 

2x dy =

 

 

 

 

 

 

2x y

1

 

y2

 

2x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Мы пришли к тому же результату.

3.5.2. Коэффициент корреляции

Функции регрессии хорошо характеризуют зависимость одной случайной величины от другой, но их отыскание связано с громоздкими вычислениями. Применяют более простые, хотя и не столь полные характеристики. К таким и относится коэффициент корреляции.

Для числовой характеристики степени зависимости величин X и Y используют величину M [(X − mx)(Y − my )], называемую ковариацией случайных величин X и Y , которая обозначается cov(X, Y ). Для непрерывных величин

++

cov(X, Y ) = (x − mx)(y − my )ρ(x, y)dxdy, (3.20)

−∞ −∞

85

а для дискретных —

(xi − mx)(yj − my )pij .

 

cov(X, Y ) =

(3.21)

ij

Теорема. Если случайные величины X и Y независимы, то cov(X, Y ) = 0.

Доказательство проведём для непрерывных случайных величин. Если случайные величины X и Y независимы, то ρ(x, y) = ρ1(x)ρ2(y), следовательно, по формуле (3.20)

= M [(X

mx)] M [(Y my )]

 

+

 

x

 

x y

 

y .

cov(X, Y ) =

+

(x − mx)ρ1(x)dx

 

(y − my )ρ2(y)dy =

−∞

 

−∞

·

= (m

 

m )(m

m ) = 0

 

 

 

 

 

 

Обратное утверждение неверно, т.е. из того, что cov(X, Y ) = = 0, не следует независимость величин X и Y . Для зависимых величин cov(X, Y ) может быть как равной нулю, так и отличной от нуля.

Величину rxy =

cov(X, Y )

 

=

cov(X, Y )

называют коэффи-

 

 

 

 

 

циентом корреляции. Dx Dy

σxσy

Случайные величины X и Y называются коррелированными, если rxy = 0 и некоррелированными, если rxy = 0. Если случайные величины независимы, то они и некоррелированы. Зависимые случайные величины могут быть как некоррелированными, так и коррелированными.

Как мы покажем в следующем подразделе, коэффициент корреляции характеризует не любого вида зависимости случайных величин, а лишь только линейные. Величина rxy — это мера линейной зависимости случайных величин.

Непосредственное применение формул (3.20) и (3.21) для вычисления ковариации не всегда удобно. Преобразуем эти формулы.

Пользуясь аддитивным свойством двойного интеграла, из (3.20) получаем

 

+

 

 

+

 

x

 

 

(

 

 

 

 

 

 

 

 

 

 

 

y

 

 

 

cov(X,

 

) =

+

+xyρ(x, y)dxdy

+

 

 

 

 

 

 

 

+

 

Y+

 

−∞

 

 

−∞

 

 

 

 

 

+

 

 

 

 

 

 

 

 

 

 

 

 

x y ρ(x,

 

 

 

 

 

 

 

m xρ(x, y)dxdy+

 

 

 

 

 

m yρ x, y)dxdy

 

 

 

 

 

 

 

 

 

−∞

 

−∞

 

 

 

 

 

 

 

 

 

 

−∞

−∞

 

 

 

 

 

+

y

 

m m

 

 

y)dxdy =

x

y

 

 

 

 

 

 

= +

+xyρ(x, y)dxdy

mx

 

+ydy

+ρ(x, y)dx

 

 

−∞+ −∞

 

+

 

 

 

 

 

 

 

 

−∞

 

+

 

 

+

 

m

−∞

 

−∞

 

 

 

 

+ m m

 

−∞

−∞

 

 

 

xdx

 

ρ(x, y)dy

 

 

 

 

ρ(x, y)dxdy.

86

Воспользуемся далее свойствами 7 и 5 плотности распределения. Получим

cov(X, Y ) =

++xyρ(x, y)dxdy

m

x

 

+

(y)dy

 

 

 

+

 

−∞ −∞

 

 

 

 

 

 

 

−∞

2

 

 

my

 

 

1(x)

dx + m

m

y

=

 

 

 

 

 

 

 

 

 

 

 

−∞+

 

x

 

 

 

 

 

 

 

 

 

 

 

 

+

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

xyρ(x, y)dxdy

 

 

mxmy

 

 

my mx + mxmy .

 

 

 

 

 

 

 

 

−∞ −∞

 

 

 

 

 

 

 

 

 

 

 

 

 

Мы получили

 

+

+

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

cov(X, Y ) = −∞

−∞ xyρ(x, y)dxdy − mxmy .

 

(3.22)

Аналогично соотношение (3.21) можно привести к виду

 

 

 

 

 

cov(X, Y ) = xiyj pij − mxmy .

 

(3.23)

ij

Формулы (3.22) и (3.23) можно объединить в одну

cov(X, Y ) = M [X · Y ] − mxmy .

(3.24)

Пример 1. Дана матрица

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

 

Y

1

 

2

 

 

 

3

0,20

 

0,30

 

 

 

4

0,40

 

0,10

 

 

распределения системы дискретных случайных величин. Найти cov(X, Y ).

Решение. Находим ряды распределения для X и Y :

X

1

2

p

0,6

0,4

Y

3

4

p

0,5

0,5

Следовательно, mx = 0,6 + 0,8 = 1,4, my = 1,5 + 2,0 = 3,5.

По формуле (3.23) получаем cov(X, Y ) = 1 · 3 · 0,2 + 3 · 2 · 0,3+ +4 · 1 · 0,4 + 4 · 2 · 0,1 1,4 · 3,5 = 0,6 + 1,8 + 1,6 + 0,8 4,9 = = 4,8 4,9 = 0,1.

Пример 2. Двумерная случайная величина (X, Y ) задана плотностью распределения

 

 

24xy,

если (x, y) лежит внутри треугольника,

ρ(x, y) =

 

с вершинами O(0, 0), A(1, 0), B(0, 1),

Найти cov(

 

0

в остальных точках.

.

 

X, Y )

 

87

Решение. В примере 3 из подраздела 3.3 мы нашли, что

 

 

 

 

 

 

 

ρ1(x) =

12x(1

x)2,

 

если 0 < x < 1,

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

в остальных точках;

 

 

 

 

 

 

 

ρ2(y) =

12y(1

y)2,

 

если 0 < y < 1,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

в остальных точках.

 

 

 

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

Поэтому

 

 

 

2x3

+ x4)dx =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

1

12(x2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

my

= mx

=

 

 

01

12x2(1

− x)2dx =

 

B(0, 1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

2

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= 12

 

 

 

+

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x + y = 1

 

 

 

3

4

5

 

24

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= 12

·

 

20 30 + 12

=

 

=

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

60

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

60

 

 

 

 

 

 

 

 

5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= 0,4.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

По формуле (3.22) вычисляем:

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

A(1, 0)

x

 

cov(X, Y ) =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

(D)24x2y2dxdy−(0,4)2,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где

 

 

 

— область, лежащая внутри

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0 16 = 8

 

0 (

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

01 x2(1 − x)3dx−

cov(X, Y ) = 24

 

 

01 x2dx 01−x y2dy −

0,16 = 8

 

= 8

1

 

 

 

 

+

 

 

 

 

 

 

 

 

0,16 =

x5)dx

 

 

 

 

 

 

=

 

 

 

 

 

 

=

 

 

 

 

 

,

3

 

 

 

 

1 x2

 

x3 + 3x4

 

0,16 =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4 5

6

 

 

 

 

 

 

15 25

 

 

 

10

75

12

 

 

 

75 .

 

 

 

 

 

 

 

 

 

3

 

 

3

 

 

 

1

 

 

 

 

 

 

 

 

2

 

 

 

 

4

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

3.6. Теоремы о свойствах числовых характеристик случайных величин

3.6.1.Свойства математического ожидания

Вподразделе 2.4 мы уже показали, что

M [C] = C, M [CX] = CM [X], C = const.

Теорема 1. Если случайные величины X и Y имеют конечные математические ожидания, то M [αX + βY ] = αM [X] + +βM [Y ], где α и β — константы.

Доказательство теоремы проведём для непрерывных случайных величин. Пусть ρ(x, y) — плотность распределения системы (X, Y ), тогда по формуле (3.16) находим

88

= α

 

−∞ −∞

 

 

)

+

 

 

−∞ −∞

 

(

 

M [αx + βy] =

 

+

+(αx + βy)ρ(x, y)dxdy

=

= α

 

 

xdx

 

−∞ −∞

 

 

 

 

 

 

ydy

 

 

ρ(x, y)dx =

 

 

 

ρ(x, y)dy + β

 

 

 

 

= α

 

+

+(x, y dxdy β

2

 

+

+yρ x, y)dxdy =

+

 

1(

+

 

 

 

 

 

+

 

 

+

.

 

 

 

 

 

 

 

 

 

 

 

 

 

(При

 

−∞

 

−∞

 

 

 

 

 

 

−∞

 

 

 

−∞

 

 

 

+

x)dx + β

+

(y)dy = αM [X] + βM [Y ]

 

 

−∞

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

этом мы воспользовались формулами (3.11)).

Если α = β = 1, то M [X + Y ] = M [X] + M [Y ].

Теорему 1 легко обобщить на любое число слагаемых и по-

лучить M [α1X1 + α2X2 + . . . + αnXn] = α1M [X1] + α2M [X2] + + . . . + αnM [Xn].

Теорема 2. Если случайные величины X и Y имеют конеч-

ные математические ожидания, то

 

M [X · Y ] = M [X] · M [Y ] + cov(X, Y ).

(3.25)

Соотношение (3.25) следует из формулы (3.24). В частности, если X и Y некоррелированы, то cov(X, Y ) = 0 и тогда

M [X · Y ] = M [X] · M [Y ].

3.6.2.Свойства дисперсии

Вподразделе 2.6 мы уже показали, что

D[C] = 0, D[CX] = C2D[X], где C — константа.

Теорема 3. Для любых случайных величин, имеющих конечную дисперсию, справедливо соотношение

D[X + Y ] = D[X] + D[Y ] + 2cov(X, Y ).

(3.26)

Доказательство. D[X + Y ] = M [(X + Y − M [X + Y ])2] = = M [{(X −mx) + (Y −my )}2] = M [(X −mx)2] + M [(Y −my )2]+ +2M [(X − mx)(Y − my )] = M [(X − mx)2] + M [(Y − my )2]+ +2M [(X − mx)(Y − my )] = Dx + Dy + 2cov(X, Y ).

Для некоррелированных величин D[X + Y ] = D[X] + D[Y ]. Пользуясь свойством D[CX] = C2D[X] и формулой (3.26),

легко показать, что

D[αX + βY ] =

α2D[X] + β2D[Y ] + 2αβcov(X, Y ). (3.27)

Формулу (3.27)

легко обобщить на любое число слагаемых:

n

n

i,j

n

 

 

 

D αiXi =

α2D[Xi] + 2

 

αiαj cov(Xi, Xj ).

 

i

 

 

i=1

i=1

 

=1,i<j

89

rxy =

3.6.3. Свойства коэффициента корреляции. Понятие линейной среднеквадратичной регрессии

Теорема 4. Для любых случайных величин X и Y , имеющих

конечные дисперсии, значение коэффициента корреляции rxy

не превышает по модулю единицы, т.е. 1 ≤ rxy 1.

 

Доказательство. Найдём математическое ожидание

 

 

 

 

 

M [Z1,2] = M

X − mx

 

 

Y − my

 

2

.

 

 

 

 

 

±

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx

 

 

 

σy

 

 

 

 

Из теоремы 1 следует:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M [Z1,2] =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= M

(X − mx)2

+

 

(Y − my )2

±

2

(X − mx)(Y − my )

 

=

σx2

 

 

 

 

 

 

 

 

 

σy2

 

 

 

 

 

 

σxσy

 

 

 

 

= M [(X − mx)2]

+

 

M [(Y − my )2]

±

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx2

 

 

 

 

 

 

σy2

 

 

 

 

 

 

 

 

 

 

 

 

 

±

2

M [(X − mx)(Y − my )]

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σxσy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Так как M [(X − mx)2] = Dx = σx2, M [(Y − my )2] = Dy

= σy2,

M [(X − mx)(Y − my )]

= r

xy , то

M [Z

 

] = 2(1

±

r

 

 

)

 

 

 

 

 

σxσy

 

 

 

 

 

 

 

1,2

 

 

 

xy

. Посколь-

ку Z1,2 0, то и M [Z1,2] 0, а потому 1 ± rxy 0, т.е. 1 ≤ rxy 1.

Теорема 5. Если случайные величины X и Y связаны ли-

нейной зависимостью Y = aX + b, где a и b константы, то

1, если a > 0, −1, если a < 0.

Доказательство. По свойству математического ожидания

my = amx + b, поэтому Y −my = aX + b −amx −b = a(X −mx). Следовательно,

cov(X, Y ) = M [(X − mx)(Y − my )] = M [a(X − mx)2] = aDx, D[Y ] = M [(Y − my )2] = M [a2(X − mx)2] = a2Dx,

rxy =

cov(X, Y )

=

 

aDx

=

a

= ±1,

 

 

 

 

 

 

 

|a|

Dx

 

Dy

a2DxDx

что и

 

 

 

 

 

 

 

 

 

 

 

требовалось доказать.

 

 

 

90