Скачиваний:
131
Добавлен:
20.05.2014
Размер:
115.32 Кб
Скачать

Лекция 9, ФЭМ Числовые характеристики случайных величин.

Функция распределения полностью определяет закон распределения случайной величины.

Математическое ожидание случайной величины.

Определение. Математическим ожиданием случайной величины X называется число

EX =

(

ufX (u)du,

если X - абсолютно непрерывна.

 

P

 

 

 

k xkp(X = xk),

если X - дискретна

R

−∞

Математическое ожидание определено, если ряд или интеграл сходятся абсолютно.

Математическое ожидание связано с понятием среднего значения. Если слу- чайная величина принимает N значений с одинаковыми вероятностями, то математическое ожидание этой случайной величины в точности совпадает со средним значением.

Пример. Пусть случайная величина X равна числу очков, выпадающих при одном бросании кубика. Тогда

6

EX = Xk 16 = 3.5.

k=1

Пример. Пусть случайная величина имеет равномерное распределение на отрезке [a,b].Тогда

EX = Za

b

ub − adu =

2 .

 

 

 

1

 

a + b

 

Свойства математического ожидания.

Во всех свойствах предполагается, что математические ожидания существу-

þò.

Е1. Для любой Y = g(X)

Eg(X) =

(

g(u)fX (u)du,

если X - абсолютно непрерывна .

 

P

 

 

 

k g(xk)p(X = xk),

если X - дискретна,

R

−∞

Доказательство. Мы докажем это свойство (как в дальнейшем почти все свойства) для дискретного распределения. Пусть Y = g(X) принимает значения

P

b1, b2, ... Тогда p(Y = bk) = l:g(al)=bk p(X = al). Поэтому

 

X

X

X

 

EY = Eg(X) =

bkp(Y = bk) =

bk

p(X = al) =

X

k

k l:g(al)=bk

 

(Xl k

X

g(am)p(X = am).

=

 

alp(X = al) =

k

l:g a )=b

m

 

 

1

E2. Математическое ожидание постоянной равно этой постоянной: Ec = c.

E3. Константу можно вынести за знак математического ожидания: EcX = cEX.

Доказательство свойств E2, E3 следует из определения математического ожидания.

E4. Математическое ожидание суммы случайных величин равно сумме математических ожиданий.

Доказательство. Для дискретных случайных величин пусть ak, bl, (k, l = 1, 2, ..) - возможные значения случайных величин X, Y соответственно. Тогда

X

E(X + Y ) = (ak + bl)p(X = ak, Y = bl) =

k,l

X Xl

Xl

X

= ak

p(X = ak, Y = bl) + bl

p(X = ak, Y = bl) = EX + EY.

k

 

k

В дальнейшем, если некоторое событие имеет вероятность 1, то мы будем говорить, что это событие происходит почти всюду.

Å5. a)Åñëè p(X ≥ 0) = 1, òî EX ≥ 0.

b) Åñëè p(X ≥ 0) = 1 è ïðè ýòîì EX = 0, òî p(X = 0) = 1.

Для дискретных случайных величин доказательство Е5 провести самостоятельно.

Следствие. a) Если p(X ≥ Y ) = 1, то EX ≥ EY.

á) Åñëè p(X ≥ Y ) = 1 è ïðè ýòîì EX = EY, òî p(X = Y ) = 1.

Е6. Математическое ожидание произведения независимых случайных вели- чин равно произведению математических ожиданий этих случайных величин:

если X, Y - независимы, то EXY = EXEY. Доказательство.

X

X

E(XY ) = akblp(X = ak, Y = bl) =

akblp(X = ak)p(Y = bl) =

k,l

k,l

X

= akp(X = ak)

X

blp(Y = bl) = EXEY.

kl

Замечание. Если математическое ожидание произведения случайных вели- чин равно произведению их математических ожиданий, то из этого вовсе не следует независимость случайных величин.

Пример Пусть X случайная величина с равномерным распределением на отрезке [0, 2π]. Тогда случайные величины

Y = cos X, Z = sin X

не являются независимыми случайными величинами. А математическое ожидание произведения этих случайных величин равно произведению математических ожиданий.

2

Моменты старших порядков. Дисперсия.

Определение. Если E|X|k < ∞, то число

EXk называется моментом k-го порядка (k-ым моментом) случайной вели- чины X.

E|X|k называется абсолютным моментом k-го порядка (k-ым абсолютным моментом) случайной величины X.

E(X − EX)k называется центральным моментом k-го порядка (k-ым центральным моментом) случайной величины X.

E|X − EX|k называется абсолютным центральным моментом k-го порядка (k-ым абсолютным центральным моментом) случайной величины X.

Число DX = E(X−EX)2 (центральный момент второго порядка) называется дисперсией случайной величины X.

Все определенные выше моменты существуют, если соответствующие интегралы или ряды сходятся абсолютно.

Пример. Пусть случайная величина X принимает значения 1,-1 с равными

вероятностями 1/2, а случайная величина Y принимает значения 10, -10 также с вероятностями 1/2. Тогда

EX = EY = 0, DX = 1, DY = 100.

Дисперсия характеризует степень разброса случайной величины относительно ее математического ожидания.

Îï√ðåäеление. Если дисперсия случайной величины существует, то число σ = DX называют среднеквадратичным отклонением случайной величины,

или стандартным отклонением случайной величины X.

 

 

 

 

Свойства дисперсии.

По определению

 

 

EX)2f(u)du,

 

DX =

(

 

(u

если X - непрерывна.

 

k

(xk

EX)2p(X = xk),

если X - дискретна,

 

P

 

 

 

 

 

R−∞

 

 

Все свойства дисперсии следуют из соответствующих свойств математиче- ских ожиданий.

D1. a) DX ≥ 0.

б) DX = 0, если и только если p(X = c) = 1.

Доказательство. Дисперсия есть математическое ожидание неотрицательной почти наверное случайной величины. Поэтому неотрицательность дисперсии следует из свойств математического ожидания. По этому же свойству DX = 0

тогда и только тогда, когда p((X − EX)2 = 0) = 1. А это бывает тогда и только тогда, когда p(X − EX = 0) = 1.

D2. DX = EX2 − (EX)2.

Действительно,

DX = E(X − EX)2 = E(X2 − 2XEX + (EX)2) =

= EX2 − 2EXEX + (EX)2 = EX2 − (EX)2.

3

D3. D(cX) = c2DX.

D4. Дисперсия не меняется от сдвига случайной величины на константу:

D(X + c) = DX.

D5. Если случайные величины X, Y независимы, то D(X + Y ) = DX + DY.

Действительно,

D(X + Y ) = E(X + Y )2 − (E(X + Y ))2 = E(X2 + 2XY + Y 2) − (EX + EY )2 =

=EX2 + E(2XY ) + EY 2 − (EX)2 − (EY )2 − 2EXEY =

=EX2 − (EX)2 + EY 2 − (EY )2 = DX + DY.

Âэтих равенствах мы воспользовались тем, что математическое ожидание произведения независимых случайных величин равно произведению математических ожиданий.

Замечание. Если дисперсия суммы случайных величин равна сумме дисперсий, то из этого не следует независимость случайных величин.

D6. mina E(X − a)2 = E(X − EX)2 = DX.

Доказательство.

E(X − a)2 = E((X − EX) + (EX − a))2 =

= E(X − EX)2 + 2E(X − EX)(EX − a) + E(EX − a)2 =

= E(X − EX)2 + (EX − a)2 ≥ DX.

Равенство достигается лищь в том случае, если

a = EX.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Математические ожидания и

 

 

 

 

 

 

 

 

 

 

 

 

 

дисперсии стандартных распределений.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Вид распределения

B(1, p)

B(n, p)

G(p)

Π(λ)

 

R[a, b]

E(α)

(λ, α)

N(a, σ)

 

EX

p

np

1

 

λ

 

 

a+b

 

1

 

 

 

λ

a

 

 

p

 

2

 

 

 

α

 

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

DX

p(1 − p)

np(1 − p)

 

1−p

 

λ

 

(b−a)2

1

 

 

 

λ

σ

2

 

 

 

p2

 

 

 

12

 

 

α2

 

 

α2

 

 

В таблице используются следующие обозначения:

распределение Бернулли - B(1, p); биномиальное распределение - B(n, p); геометрическое распределение - G(p); распределение Пуассона - Π(λ); равномерное распределение - R[a, b];

показательное (экспоненциальное) распределение - E(α) = (1, α); гамма-распределение - (λ, α);

нормальное распределение - N(a, σ2).

4

Распределение Коши с параметрами a, b ( C(a, b)) имеет плотность распределения

b

f(u) = π(b2 + (u − a)2) .

Математическое ожидание и дисперсия распределения Коши не существуют.

Распределение Парето

Говорят, что случайная величина X имеет распределение Парето с параметрами x0 > 0, a > 0, если плотность распределения X имеет вид

u0a

 

(0,

u < u0.

f(u) = aua+1

, u ≥ u0

У распределения Парето существуют только моменты порядка k < a.

Числовые характеристики зависимости случайных величин

Ранее было показано, что дисперсия суммы независимых случайных величин равна сумме дисперсий.

Дисперсия суммы двух случайных величин в общем случае равна

D(X + Y ) = E(X + Y − E(X + Y ))2 =

= E(X − EX)2 − 2E((X − EX)(Y − EY )) + E(Y − EY )2 =

= DX − 2E((X − EX)(Y − EY )) + DY.

Если случайные величины независимы, то второе слагаемое последней суммы равно нулю. В теории вероятностей второе слагаемое используют как индикатор независимости случайных величин X, Y.

Определение. Ковариацией cov(X, Y ) случайных величин X, Y называют число

cov(X, Y ) = E((X − EX)(Y − EY )) =

 

(

∞ ∞

 

(u

 

EX)(v

 

EY )f(u, v)dudv,

X, Y - абсолютно непрерывны.

 

P

− EX)(bl − EY )p(X = ak, Y = bl),

 

=

 

k,l(ak

X, Y - дискретны,

 

R−∞ R−∞

 

 

 

 

В этих формулах f(u, v) плотность совместного распределения случайных вели- чин X, Y.

 

Свойства ковариации

1.

cov(X, Y ) = EXY − EXEY. Доказательство сразу следует из свойств ма-

тематического ожидания.

 

 

 

2.

cov(X, Y ) = cov(Y, X), cov(X, X) = DX.

3.

 

 

 

 

 

DY .

 

|cov(X, Y )| ≤ σX σY , σX = DX, σY =

 

5

Докажем свойство 3. Обозначим через aX = EX, aY = EY. Очевидно, что

 

 

 

 

 

 

 

 

 

 

σX

 

±

Y

σY

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

E

X − aX

 

 

− aY

 

 

 

 

 

0.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Проводя очевидные преобразования, получаем,

 

 

 

 

 

 

 

 

σX

 

 

2

±

 

 

 

σX

 

 

σY

 

 

 

σY

 

2

 

 

 

 

 

 

 

 

 

E

X − aX

 

 

 

 

2E

 

 

X − aX

 

 

Y

− aY

 

 

 

+ E

Y − aY

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

DX

 

cov(X, Y )

 

 

DY

 

 

 

 

 

 

cov(X, Y )

 

 

 

=

 

 

 

±

2

 

 

 

+

 

= 2 ± 2

 

 

 

≥ 0.

 

 

σX2

 

 

 

σX σY

σY2

 

 

σX σY

 

 

Отсюда и следует, что

|cov(X, Y )| ≤ σX σY .

4. Дисперсия суммы нескольких случайных величин вычисляется по одной из следующих формул

D

n

Xi! =

n

DXi +

cov(Xi, Xj) =

 

X

 

X

 

X

 

i=1

 

i=1

 

i6=j

n

 

X

 

 

n

X

 

 

 

X

=

DXi + 2

cov(Xi, Xj) = cov(Xi, Xj).

i=1

 

i<j

 

 

i,j=1

Доказательство этой формулы основано на равенствах

(a + b)2 = a2 + b2 + ab + ba = a2 + b2 + 2ab = aa + bb + ab + ba.

Итак, если случайные величины X, Y независимы, то ковариация равна нулю.

Обратное утверждение неверно. Ковариация между двумя случайными величинами может быть равной нулю, но случайные величины не будут независимыми.

Пример.Пусть совместное распределение двух случайных величин задается таблицей

Y \X

-1

0

1

0

1/3

0

1/3

1

0

1/3

0

Легко убедиться в том, что случайные величины X, Y - зависимы, а cov(X, Y ) =

0.

Пример. Пусть X, Y независимые случайные величины и DX > 0. Нас интересует вопрос, являются ли случайные величины X, X + Y - независимыми. Вы- числять совместное распределение случайных величин X, X+Y довольно сложно. Вычислим ковариацию этих случайных величин.

cov(X, X + Y ) = EX(X + Y ) − EXE(X + Y ).

EX(X + Y ) = EX2 + EXEY, EXE(X + Y ) = (EX)2 + EXEY,

cov(X, X + Y ) = EX2 − (EX)2 = DX > 0.

Так как ковариация двух случайных величин не равна нулю, то эти случайные величины зависимы.

6

Соседние файлы в папке Лекции по теории вероятностей