Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Загребаев Лектсии по теории вероятностеы и математическоы статистике 2015

.pdf
Скачиваний:
30
Добавлен:
12.11.2022
Размер:
4.61 Mб
Скачать

для дискретных случайных величин

n n

 

Kxy = (xi mx )( y j mj ) pij ;

(8.4)

i=1 j=1

 

для непрерывных случайных величин

 

+∞ +∞

 

Kxy = (x mx )( y my ) f (x, y)dxdy.

(8.5)

−∞ −∞

На рис. 8.2,а и 8.2,б показано распределение случайных точек на плоскости при различных значениях корреляционного момента.

а

б

Рис. 8.2. Распределение случайных точек:

а – нет корреляционной связи; б – положительная корреляция

Из рисунка видно, что чем больше корреляционный момент между случайными величинами (X , Y ), тем теснее располагаются

точки друг к другу. Однако корреляционный момент характеризует не только степень «тесноты» зависимости между X и Y, но и их рас-

сеяние. Действительно, если X мало отличается от mx , то Kxy бу-

дет близок к нулю, хотя случайные величины X и Y могут быть и сильно связаны. Поэтому для характеристики именно степени связи между X и Y вводится безразмерная величина

r =

Kxy

.

(8.6)

 

xy

σxσ y

 

 

 

 

 

71

Величина rxy называется коэффициентом корреляции. Если rxy = 0, то случайные величины называются некоррелированными.

Отметим сразу, что некоррелированность в общем случае не означает независимости случайных величин. В то же время из независимости некоррелированность следует. Действительно, если X и Y

независимы, то, согласно выражению (8.2), f (x, y) = f1(x) f2 ( y), тогда

+∞ +∞

Kxy = (x mx )( y my ) f (x, y)dxdy =

 

−∞ −∞

+∞ +∞

=

(x mx )( y my ) f1(x) f2 ( y)dxdy =

−∞ −∞

+∞

+∞

= (x mx ) f1(x)dx ( y my ) f2 ( y)dy = 0.

−∞ −∞

Коэффициент корреляции характеризует степень тесноты линейной зависимости. Можно показать, что если между случайными величинами есть функциональная зависимость Y = a X + b, то

rxy = +1, если a > 0 и rxy = −1, если a < 0. В общем случае, когда X и Y связаны вероятностной зависимостью, то 1 < rxy < 1.

Пример. На рис. 8.3 показан фрагмент листа программы Exel , где показаны результаты случайного розыгрыша роста и веса человека. При этом полагалось, средний рост и средний вес человек связаны эмпирическим соотношением вес(кг) = (рост (см)

110 см) кг/см. Относительное среднее квадратическое отклоне-

ние по росту было принято 5 %, а по весу 10 %. Случайные величины разыгрывались с помощью функции =НОРМОБР(СЛЧИС(); среднее значение; среднее квадратическое отклонениие). Затем с помощью функции =КОРРЕЛ(массив1;массив2) был рассчитан коэффициент корреляции (рис. 8.4).

72

Рис. 8.3. Результаты случайного розыгрыша роста и веса человека

Рис. 8.4. Физические параметры человека в случайно отобранной группе

73

Числовые характеристики системы n-случайных величин

Система случайных величин (X1...Xn ) может быть охарактеризована следующим минимальным числом характеристик:

1.n-математических ожиданий m1... mn ;

2.n-дисперсий;

3.n (n 1)-корреляционных моментов Kij = M[Xi X j ] , где i j.

Корреляционные моменты образуют симметричную положительноопределенную матрицу

ˆ

K ...K

 

11 1n

 

K = ..............

.

 

 

 

 

Kn1...Knn

ˆ

Для некоррелированный случайных величин матрица K диагональна. Два случайных вектора X и Y называются некоррелированными, если каждая из составляющих вектора X некоррелирована с каждой из составляющих вектора Y , т.е. Kij = 0 для всех i = 1,..., n и j = 1,..., n.

Лекция 9. НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН (НОРМАЛЬНЫЙ ЗАКОН НА ПЛОСКОСТИ)

Из законов распределения случайных величин рассмотрим наиболее распространенный – нормальный. Для наглядности ограничимся случаем системы из двух случайных величин, поскольку она может представляться случайной точкой на плоскости. Функция плотности распределения системы в этом случае выражается формулой

 

1

 

1

 

 

 

f (x, y) =

 

exp

2

Q(x, y)

,

(9.1)

 

 

2πσxσ y 1rxy2

 

 

 

 

где

74

 

 

 

1

 

(1mx )2

 

2r(x mx )( y my )

 

(1my )2

 

 

Q(x, y) =

 

 

 

 

 

 

+

 

.

(9.2)

1

r2

σ2

σxσ y

σ2

 

 

 

 

 

 

 

 

 

xy

x

 

 

 

y

 

 

Функция распределения случайной величины Х есть:

 

 

 

 

+∞

 

 

 

 

1

 

 

(xmx )2

 

 

 

 

 

f1(x) =

 

f (x, y)dy =

 

 

 

e

2σ2x .

 

 

(9.3)

 

 

σx

 

2π

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

Функция распределения случайной величины Y:

 

 

 

 

 

 

 

 

+∞

 

 

 

 

1

 

 

( ymy )2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2σ2y

 

 

 

 

f2 ( y) =

 

f (x, y)dx =

 

 

 

e

.

 

 

(9.4)

 

σ y

 

2π

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

Можно показать, что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

+∞ +∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Kxy =

(x mx )( y my ) f (x, y)dxdy = rxyσxσ y .

(9.5)

 

 

−∞ −∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Нетрудно видеть, что при некоррелированных случайных вели-

чинах, т.е. при rxy

= 0 , выражение для плотности распределения

системы имеет вид

 

 

 

 

 

 

 

(ymy )2

 

 

 

 

 

 

 

 

 

 

 

(xmx)2

 

 

 

 

 

 

 

 

 

 

 

 

1

 

1

 

 

2σ2y

 

 

 

 

 

f (x, y) =

 

 

 

2σ2

 

 

 

 

 

 

 

 

 

 

 

e

 

x

 

 

 

e

 

 

 

 

 

= f (x)

f

2

(y).

(9.6)

 

 

 

 

 

 

 

 

 

 

 

 

 

σx

2π

 

 

 

 

σy 2π

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Из формулы (9.6) видно, что при нормальном законе распределения случайных величин из некоррелированности следует их незави-

симость.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

rxy ≠ 0 ,

 

 

 

Если случайные величины коррелированны

 

то можно

найти условные законы распределения

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

ymy

 

 

(xm )

 

 

 

 

f (x, y)

 

1

 

 

 

 

 

 

 

r

 

x

 

 

 

 

 

 

 

 

 

 

 

 

σy

 

σ

 

 

 

 

 

 

 

 

 

2(1r2 )

 

 

xy

 

 

 

 

 

 

f (y / x) =

 

 

 

=

 

 

e

 

 

xy

 

 

 

 

 

 

 

x

 

 

;

 

(9.7)

f1(x)

σy 2π 1r2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

(xm )

 

 

 

ymy

2

 

 

 

f (x, y)

 

1

 

 

 

 

 

 

 

 

 

x

 

r

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1r2)

 

 

xy σy

 

 

f (x / y) =

 

 

 

 

=

 

 

 

e

 

 

 

 

 

 

x

 

 

 

 

 

 

.

(9.8)

 

f2

(y)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σx 2π 1rxy2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Формулу (9.7) можно привести к виду

75

 

 

 

 

 

 

1

ym

 

r

σ y

(xm

 

)

2

 

 

 

 

 

 

 

 

 

y

 

x

 

 

 

 

 

 

1

 

 

 

 

 

xy

σx

 

 

 

f ( y / x) =

 

 

 

 

e

2(1r2 )σ y

 

 

 

 

 

.

(9.9)

σ

y

2π

1

r2

 

 

 

 

 

 

 

 

 

 

 

 

 

xy

 

 

 

 

 

 

 

 

 

 

 

Сравнивая выражение (9.9) с выражением (9.4), легко заметить, что f ( y/x) есть плотность распределения случайной величины,

имеющей нормальный закон распределения, если положить

my/ x = my + r

σ y

(x mx );

(9.10)

σ y

 

 

 

 

 

 

σ

y/ x

= σ

y

1r2 .

(9.11)

 

 

 

xy

 

Из этих формул видно, что от x зависит только математическое ожидание, но не дисперсия. При этом my/x есть условное матема-

тическое ожидание. В геометрическом плане выражение (9.10) представляет собой линию, которая называется линией регрессии случайной величины Y на X.

Числовые характеристики функций случайных величин

На практике часто возникает необходимость определять статистические характеристики функции от случайных величин.

В математическом плане задача ставится следующим образом. Случайная величина Y есть неслучайная функция нескольких слу-

чайных величин Y = ϕ(X1... Xn ). Известны математические ожидания и дисперсии аргументов: mx1 ... mxn и Dx1 ... Dxn . Требуется

определить математическое ожидание и дисперсию функции M[ϕ(X1...Xn )] = mϕ и D[ϕ(X1...Xn )] = Dϕ . Начнем с простейшего

случая, когда имеется случайная величина X с заданным законом распределения f (x) и случайная величина Y, связанная с X функ-

циональной зависимостью Y = ϕ(X ). Требуется определить mϕ и Dϕ . Рассмотрим сначала случай, когда X дискретная случайная величина с известным рядом распределения:

76

xi

x1

x2

xi

xn

pi

p1

p2

pi

pn

Тогда возможные значения величины Y и вероятности этих значений даются рядом распределения

yi

ϕ(x1)

 

ϕ(x2 )

 

ϕ(xi )

 

ϕ(xn )

pi

p1

 

p2

 

pi

 

pn

Отсюда следует

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M[ϕ(X )] = mϕ = ϕ(xi ) pi .

 

(9.12)

 

 

 

 

i=1

 

 

 

 

Для непрерывной случайной величины X получим

 

 

 

 

 

+∞

 

 

 

 

 

 

M[ϕ(X )] = mϕ = ϕ(x) f (x)dx .

 

(9.13)

−∞

Дисперсия функции в соответствии с ее определением есть для дискретной случайной величины

n

 

Dϕ = (ϕ(xi ) mϕ )2 pi .

(9.14)

i=1

Для непрерывной случайной величины

+∞

 

Dϕ = [ϕ(x) mϕ ]2 f (x)dx .

(9.15)

−∞

Обобщая вышеприведенные формулы на функцию многих случайных аргументов, например для непрерывных случайных величин, получим

+∞

+∞

 

M[ϕ(X1...Xn )] = mϕ =

... ϕ(x1... xn ) f (x1... xn )dx1... dxn ;

(9.16)

−∞

−∞

 

+∞ +∞

 

D[ϕ(X1...Xn)]= Dϕ = ... [ϕ(x1... xn) mϕ]2 f (x1... xn)dx1...dxn .

(9.17)

−∞ −∞

Примечательным в приведенных выше выражениях является то,

что для определения числовых характеристик функций случайных

77

аргументов достаточно знать только закон распределения аргу-

ментов. Более того, если функция линейно зависит от своих аргументов, то знать закон их распределения тоже не обязательно. Для определения числовых характеристик в этом случае достаточно знать только числовые характеристики самих аргументов. Нетрудно показать справедливость следующих соотношений.

1. Математическое ожидание постоянной величины есть сама эта величина

M[c] = c.

(9.18)

Действительно, если рассматривать неслучайную величину с как частный вид случайной, принимающей единственное значение с

вероятностью p = 1, то M [c]= p c = 1 c = c.

3. Дисперсия не случайной величины равна нулю:

D[c] = 0.

 

(9.19)

По определению дисперсии D[c]= M (c M [c])2

 

= M [0]= 0.

 

 

 

3. Не случайная величина может быть вынесена за знак матема-

тического ожидания

 

 

M[cX ] = cM[X ].

(9.20)

Для дискретных величин имеем

 

 

M [cX ]= cxi pi = c xi pi = cM [X ].

 

i

i

 

Для непрерывных величин

 

 

+∞

+∞

 

M [cX ]= cxf (x)dx = c xf (x)dx = cM [X ].

 

−∞

−∞

 

4. Вынесение не случайной величины за знак дисперсии и сред-

него квадратического отклонения

 

 

 

 

 

 

 

 

 

 

D[cX ] = c2 D[X ];

σ[cX ] =

 

c

 

σ[X ].

 

 

(9.21)

 

 

 

 

По определению дисперсии имеем

 

 

 

 

D[cX ]= M (cX M [cX ])2

 

= c2M ( X m

x

)2

= c2 D

.

 

 

 

 

x

 

5. Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий

78

 

 

 

 

 

 

 

M[X + Y ] = M[ X ] + M[Y ].

(9.22)

Для дискретных случайных величин:

 

 

 

 

 

 

 

 

M[X + Y ] = (xi + y j ) pij

= xi pij + y j pij =

 

 

 

 

 

i

j

 

 

 

 

i

 

j

 

 

 

i j

 

 

 

 

 

 

 

= xi pij + y j pij .

 

 

 

 

 

 

 

 

 

i

j

 

j

 

 

i

 

 

 

Учитывая,

что pij

= P( X

= xi ) = pi

 

и

pij

= P(Y = y j ) = p j , по-

 

 

 

 

j

 

 

 

 

 

 

 

i

 

 

 

 

лучим

M[X + Y ] = xi pi + y j p j = M[X ] + M[Y ].

Для непрерыв-

 

 

 

 

 

i

 

 

 

j

 

 

 

 

 

 

 

 

ных случайных величин

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

+∞ +∞

 

 

 

 

 

 

+∞

+∞

 

 

 

M[X + Y ] =

 

 

(x

+ y) f (x, y)dxdy =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

f (x, y)dy dx +

 

 

 

 

−∞ −∞

 

 

 

 

 

 

−∞

−∞

 

 

 

+∞

+∞

 

 

 

 

+∞

 

 

+∞

 

 

( y)dy = M [X ]+M [Y ].

+

 

 

 

 

 

 

=

 

xf (x)dx +

 

yf

 

 

y

f (x, y)dx dy

 

 

2

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

−∞

−∞

 

 

 

 

−∞

 

 

−∞

 

 

 

 

 

 

6. Применяя результаты пп. 15, можно показать, что математическое ожидание линейной функции от случайных аргументов равно линейной функции от математических ожиданий аргументов:

n

 

 

n

 

(9.23)

M ai Xi

+ b

= aimx + b.

i=1

 

i=1

i

 

 

 

Дисперсия суммы случайных величин

 

 

D[X + Y ] = D[X ] + D[Y ] + 2 Kxy .

(9.24)

Дисперсия линейной функции

 

 

 

 

n

 

n

 

 

(9.25)

D ai Xi

+ b = ai2D[ Xi ] + 2 aia j Kij ,

i=1

i=1

 

i< j

 

для некоррелированных случайных величин

 

n

 

 

n

 

 

D ai Xi

+ b

= ai2 D[Xi ].

 

i=1

 

i=1

 

 

79

Приведенные правила еще раз подчеркивают важное свойство математического ожидания как линейного оператора. Приведем еще ряд полезных соотношений для нелинейной функции – произведения случайных величин:

а) математическое ожидание произведения случайных величин

M[X Y ] = M[X ] M[Y ] + Kxy ;

(9.26)

б) дисперсия произведения независимых случайных величин

D[XY ] = D[X ]D[Y ] + mx2 D[Y ] + m2y D[X ].

(9.27)

Рассмотренный выше аппарат числовых характеристик позволяет определять числовые характеристики функций случайных аргументов, зная лишь числовые характеристики самих аргументов. В этом заключается его удобство. Однако применим этот аппарат, главным образом, к линейным функциям. Если исходная функция нелинейна, то выйти из положения можно следующим образом.

Допустим, что значения случайной величины X ограничены пре-

делами α и β, а случайная величина Y связана со случайной величиной X функциональной зависимостью

Y = ϕ(X ).

(9.28)

Разложим функцию Y в ряд около точки mx и ограничимся членами первого порядка малости

dϕ

 

 

 

Y ≈ ϕ(mx ) + dx

|x=mx

(X mx ).

(9.29)

Чем меньше интервал (α, β), тем точнее выполняется соотношение

(9.29). Так как теперь функция Y является линейной относительно аргумента X, то для нахождения ее математического ожидания и дисперсии можно применить аппарат числовых характеристик:

 

 

dϕ

|x=mx

 

=

 

M[Y ] = M ϕ(mx ) +

dx

(X mx )

 

 

 

 

 

 

 

= M[ϕ(mx )] +

dϕ

|x=mx M[(X mx )] = ϕ(mx );

(9.30)

dx

80

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]