Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Обработка эксперим данных Роганов

.pdf
Скачиваний:
23
Добавлен:
22.05.2015
Размер:
1.37 Mб
Скачать

Продифференцируем это равенство по х, а затем устремим y 0 и

воспользуемся теоремой о среднем для интеграла по промежутку [y, y + y];

в результате найдем:

pX (x / y)

dF (x /Y = y)

=

p(x, y)

py (y)= 0 .

X

 

 

 

dx

p (y)

 

 

 

 

Y

 

Функция pX (x / y) называется плотностью вероятности условного распределения Х при условии Y=y. Равенство можно переписать в виде

p(x, y)= pY (y)pX (x / y)

напоминающем по форме теорему умножения вероятностей. Имеет место равенство

FX (x /Y = y)= P(X < x /Y = y)= x pX (t / y)dt

 

 

 

 

 

 

 

 

−∞

 

 

 

Непрерывный аналог формулы полной вероятности имеет вид

 

pX (x)= pY (y)pX (x / y)dy

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

Соответствующие рассуждения справедливы и для дискретного

случайного вектора (X, Y): пусть Х принимает значения

 

xi, i = 1, 2, …, а Y

принимает значения yj, j = 1, 2, … и

pij = P(X = xi ,Y = y j ). При этом имеют

место равенства:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

pi = P(X = xi )= pij , q j

= P(Y = y j )= pij ,

i, j =1, 2, ...

 

j=1

 

 

 

 

 

 

i=1

 

 

 

Условные распределения вероятностей определяются следующим

образом:

 

 

 

 

 

P(X = xi ,Y = y j )

 

 

 

 

P

= P(X = x

/Y = y

j

)=

=

Pij

,

 

 

 

 

i / j

i

 

 

 

 

P(Y = y j )

 

q j

 

 

 

 

 

 

 

 

 

Qj / i = P(Y = y j / X = xi )=

Pij

, i, j =1, 2, ...

 

 

 

 

 

 

 

 

 

pi

 

 

 

И как следствие этих равенств

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

pi = q jPi/ j, q j = piQ j/i .

 

 

 

 

j=1

 

 

 

 

i=1

 

 

 

51

§ 4. Независимость случайных величин

 

Определение 8. [9] Случайные величины X1 , ..., X n

называются

независимыми (в совокупности), если для любых x1, ..., xn события

(X1 < x1 )..., (X n < xn ) независимы в совокупности, т.е.

P((X1 < x1 )I ...I (X n < xn ))= P(X1 < x1 )...P (X n < xn )

или, что то же самое,

F(x1, ..., xn )= FX1 (x1 ), ..., FXn (xn )

Для независимых случайных величин Х и Y имеем при любых x1 < x2

и y1 < y2

 

 

 

P(x1 X < x2 , y1 Y < y2 )= P(x1 X < x2 )P(y1 Y < y2 )

(4)

Аналогичный результат справедлив, разумеется, и для произвольного

числа X1 , ..., X n

независимых случайных величин.

 

 

Устремим в последнем равенстве x1 , y1 → −∞, получим

 

 

P(X < x2 ,Y < y2 )= P(X < x2 )P(Y < y2 )

 

Это равенство ввиду произвольности х2 и y2

означает независимость

случайных величин Х и Y. Таким образом, условие (4) необходимо и

достаточно для независимости случайных величин Х и Y.

 

Пусть

теперь Х и Y – дискретные

случайные величины,

x1 < x2 <... < xn <... — значения, принимаемые Х, и y1 < y2 <... < yn <...

значения Y. Тогда

 

 

P(xk X xk+1 )= P(X = xk ), P(y j Y < y j+1 )= P(Y = y j )

 

k, j = 1, 2, ….

Подставляя эти выражения в (4), получаем, что условие

P(X = xk ,Y = y j )= P(X = xk )P(Y = y j ) k, j =1, 2, ...

52

Ω, Ξ, Ρ

является необходимым и достаточным условием независимости дискретных случайных величин Х и Y.

Равенство F(x1, ..., xn )= FX1 (x1 ), ..., FXn (xn ) служит определением независимости случайных величин Х1, …, Хn. Если независимые случайные величины Х и Y имеют соответственно плотности вероятности pX (x) и pY (y),

то вектор (Х, Y) имеет плотность p(x, y)= pX (x)pY (y).

Важным является обратное утверждение: если плотность р(х, у)

случайного вектора (Х, Y) равна произведению

плотностей

координат,

p(x, y)= pX (x)pY (y), то Х и Y независимы.

 

 

§ 5. Функции от случайных величин

 

Рассмотрим функции от случайных величин

[9]. Ради

наглядности

ограничимся случаем двух случайных величин. Итак, пусть на

вероятностном пространстве ( Ω, Ξ, Ρ )

определены

две

случайные

величины X1 = X1 (ω) и X 2 = X 2 (ω), ω Ω

и пусть F(x1 , x2 )

— функция

распределения случайного вектора (X1 , X 2 ). Рассмотрим некоторые функции от случайных величин Х1 и Х2, т.е. новые случайные величины Y1 и Y2, связанные функциональными зависимостями с Х1 и Х2,

Y1 = f1 (X1 , X 2 )= f1 (X1 (ω), X 2 (ω))=Y1 (ω)

Y2 = f2 (X1 , X 2 )= f2 (X1 (ω), X 2 (ω))=Y2 (ω)

Здесь предполагается, что f1 и f2 таковы, что Y1 и Y2 вновь являются случайными величинами, определенными на том же вероятностном пространстве (количество функций Yi может быть любым). Таким образом, Y1 и Y2 являются сложными функциями ω, заданными на Ω.

Основная задача, возникающая в этой ситуации, состоит в том, чтобы,

зная функцию распределения F(x1 , x2 ) случайного вектора(X1 , X 2 ) и

функции f1 и f2 найти функцию распределения Φ(y1 , y2 ) случайного вектора

53

(Y1 ,Y2 ). Для дискретных и непрерывных случайных величин указанная задача решается без труда. Действительно, имеем

Φ(y1 , y2 )= P(Y1 < y1 ,Y2 < y2 )= P(f1 (X1 , X 2 )< y1 , f2 (X1 , X 2 )< y2 ),

и пусть (X1 , X 2 )

— дискретный

случайный вектор, X1 = x1i , X 2 = x2 j

значения Х1 и Х2,

Pij = P(X1 = x1i , X 2

= x2 j ) — вероятности этих значений, i,

j=1, 2, …, тогда

 

 

Φ(y1 , y2 )= pij

i. jΛ

где суммирование распространено на множество индексов (i, j) Λ,

Λ = ((i, j): f1 (x1i , x2 j )< y1, f2 (xi1, x2 j )< y2 ),

(X1 , X 2 ) — непрерывный случайный

вектор,

p(x1 , x2 )

— его плотность

вероятности, тогда

 

 

 

Φ(y1, y2 )= ∫∫ p(x1, x2 )dx1dx2 ,

 

D

 

 

 

где область D определяется условием:

 

 

 

D = ((x1 , x2 ): f1 (x1 , x2 )< y1 , f2 (x1 , x2 )< y2 )

Найдем в качестве примера

функцию распределения суммы

Y = X1 + X 2 , если задана плотность вероятности

p(x1 , x2 )

случайного вектора

(X1 , X 2 ). Имеем

Φ(y)= P(Y < y)= P(X1 + X 2 < y)= ∫∫p(x1, x2 )dx1dx2 =

x1+x2 <y

yx1

= dx1

p(x1, x2 )dx2 =

dx2

−∞

−∞

−∞

yx2

p(x1, x2 )dx1.

−∞

Сделав в интеграле замену переменных x1 + x2 = z, x1 = x1 , якобиан отображения (x1 , x2 )(x1 , z) равен 1, получим

y

Φ(y)= ∫ ∫ p(x1, z x1 )dx1.

−∞ −∞

Отсюда следует, что случайная величина Y имеет плотность вероятности

54

pY (y)= Φ′(y)= p(x1, y x1 )dx1.

−∞

Таким образом, если двумерное распределение слагаемых Х1 и Х2

имеет плотность p(x1 , x2 ), то и их

сумма

Y = X1 + X 2 также имеет

плотность, определенную последним равенством.

 

 

Если случайные величины

Х1 и

Х2

независимы, то

p(x1, x2 )= pX1 (x1 )pX2

(x2 ) и можем записать pY (y) в виде свертки функций р1

и р2:

 

pY (y)= pX1 (x)pX2 (y x)dx = pX2 (x)pX1 (y x)dx =pX1 × pX2 .

−∞

−∞

Определение закона распределения суммы по законам распределения независимых слагаемых называется композицией законов распределения слагаемых.

Имеет место следующая

Теорема.

[9] Пусть Х1 и Х2 независимые случайные величины, а

f1 (X ) и f2 (X )

произвольные функции, такие, что Y1 = f1 (X ) и Y2 = f2 (X )

также случайные величины. Тогда Y1 и Y2 независимы, т.е. функции от независимых случайных величин являются независимыми случайными величинами.

Доказательство. Проведем доказательство для дискретных случайных

величин. Пусть Х1 принимает значения

х1, х2 , ..., а Х2 принимает значения

у1, у2 ,... . Тогда случайные величины

Y1 = f1 (X ) и Y2 = f2 (X )также

дискретны, пусть λ и μ — любые фиксированные значения Y1 и Y2 . В силу независимости случайных величин Х1 и Х2 , можем записать

55

P(f1(X1 )= λ, f2

(X 2 )= μ)=

 

P(X1 = xk , X 2 = y1 )=

 

(k ,1): f1 (xk

)=λ, f2 (y1 )=μ

 

=

 

P(X1 = xk )P(X 2 = y1 )=

 

(k ,1): f1 (xk

)=λ, f2 (y1 )=μ

 

=

P(X1 = xk ) P(X 2 = y1 )=

 

k: f1 (xk

)=λ

1: f2 (y1 )=μ

 

= P(f1

(x1 )= λ)P(f2 (x2 )= μ)

что ввиду независимости случайных величин Х1 и Х2 и произвольностиλ и

μ означает независимость случайных величинY1 = f1 (X1 ) и Y2 = f2 (X 2 ).

Пример. Пусть (X, Y) непрерывный случайный вектор с плотностью вероятности р(х, у). Найдем функцию распределения произведения Z=X+Y. Имеем

FZ (z)= P(XY < z)= ∫∫ p(x, y)dxdy = 0

dx

p(x, y)dy + dxz/ xp(x, y)dy

 

 

xy<z

 

 

−∞

z / x

 

 

 

 

0 −∞

Отсюда получаем выражение для плотности Z

 

 

 

 

 

 

(Z )= F(z)= −

0 1

 

z

 

 

1

 

z

p

 

−∞x

p x

 

 

dx +

0

 

p x

 

dx

 

x

x

 

 

Z

Z

 

 

 

 

x .

56

Глава 3

Числовые характеристики случайных величин § 1. Основные определения. Моменты случайных величин

Определение 1. Моментом (начальным) порядка k дискретной случайной величины Х, принимающей значения xi с вероятностями

P(X = xi )= pi , i = 1, 2, …, называется число [9]

MXk = xik pi ,

i=1

при условии, что данный ряд сходится абсолютно, т.е.

M Xk = xi k pi < ∞.

i=1

M Xk — называется абсолютным моментом порядка k.

Моментом (начальным) порядка k непрерывной случайной величины Х с плотностью вероятности р(х) называется число

MX k = xk p(x)dx

−∞

при условии, что интеграл сходится абсолютно, т.е.

M X k = xk p(x)dx < ∞

−∞

M Xk — называется абсолютным моментом порядка k.

Если M Xk не существует, то говорят, что случайная величина Х не

имеет конечного момента порядка k. По определению моменты MXk и

M Xk существуют или не существуют одновременно.

Определение 2. Момент МХ первого порядка (k=1) называется

математическим ожиданием, или средним значением, случайной величины Х.

57

Примеры.

1.Равномерное распределение: Х равномерно распределена в [a,b],

т.е.

 

 

 

 

 

1

 

x [a,b],

 

 

 

 

 

 

,

 

 

 

 

 

 

 

 

 

p(x)=

 

 

 

 

 

 

 

b a

 

x [a,b],

 

 

 

 

 

0,

 

MX =

1

b x dx = a +b

середина отрезка [a,b].

 

 

b a a

2

 

 

 

 

2.Распределение Пуассона: X = k с вероятностью

pk = P(X = k )=

λk

eλ , λ > 0, k = 0, 1, 2, ...,

 

 

 

 

 

k!

 

 

 

 

 

 

 

k

e

λ

 

 

k

λ

k

 

MX = k

λ

 

= eλ

λ e

 

 

=λeλ λ

 

= λ.

k!

(k 1)!

 

k =0

 

 

k=1

k =0 k!

 

3.Нормальное распределение: X N (a,σ 2 )

 

1

(xa )2

1

 

t2

σ

t2

a

t2

MX =

xe 2σ 2 dx =

(σt + a)e

 

dt =

te

 

dt +

e

 

dt = a

2

2

2

 

σ 2π

−∞

2π

−∞

 

 

2π

−∞

 

 

2π

−∞

 

 

так как первый интеграл в правой части равен нулю.

Рассмотрим важную теорему о математическом ожидании функций от случайных величин.

Теорема 1. [9] Пусть Х – дискретная случайная величина (непрерывная случайная величина), принимающая значения х1, х2 , ... соответственно с вероятностями р1, р2 , ... ( имеющая плотность вероятности р(х)), а Y = f (X )

— новая случайная величина, где f(.) – некоторая функция. Тогда математическое ожидание Y равно

 

 

MY = Mf (X )= f (xi )pi

 

 

 

MY = Mf (X )= f (x)p(x)dx

i=1

 

−∞

 

если ряд (интеграл) сходится абсолютно.

Доказательство проведем для дискретной случайной величины Х. В

этом случае случайная величина Y = f (X )также дискретна, ее значениями

58

являются числа у1, у2 , ..., где множество у1, у2 , ... совпадает с множеством

всех различных чисел среди

f (x1 ), f (x2 ),... , а вероятность каждого значения ys

равна

 

 

 

 

 

qs =

 

(Y = ys )= P(ω : f (X (ω))= ys )= pk

P

 

 

 

 

 

k: f (xk )=ys

Теперь имеем

 

 

 

 

 

f

 

MY = ys qs =ys

pk =

(xk )pk

=f (xi )pi

s=1

s=1

k: f (xk )=ys s=1 k: f (xk )=ys

i=1

последнее равенство выполняется ввиду того, что каждое слагаемое f (xi )pi

участвует в двух последних суммах один и только один раз, поскольку все ys

различны. Возможность объединения в одну сумму следует из леммы о

суммировании по блокам, так как ряд f (xi )pi по условию сходится.

i=1

Следствие. Для любой случайной величины Х и постоянных

k=0, 1, …, n

n

 

n

M ck X k

= ck MX k

k =0

 

k =0

если M Xk < ∞, k = 1, 2, …, n.

n

Это равенство вытекает из теоремы, в которой f (x)= ck xk

k=0

ck ,

полином. Из последнего равенства следует, что Мс = с и М(сХ)=сМХ, с – любая постоянная.

В случае, когда Х – дискретная случайная величина, принимающая значения х1, х2 , ... с вероятностями р1, р2 , ..., определена на дискретном вероятностном пространстве (Ω, Ξ, Ρ), нетрудно дать другое выражение для математического ожидания:

MX = X (ωi )P(ωi )

ωiΩ

59

здесь P(ωi )

вероятность элементарного

исхода ωi , и сумма

распространена на все элементарные события ωi Ω.

 

Определение 3. Математическое ожидание

M (X MX )k

называется k-

м центральным

моментом, если существует

M

 

X MX

 

k .

Центральный

 

 

момент второго порядка называется дисперсией случайной величины Х и

обозначается DX: DX = M (X MX )2 .

Этот момент является очень удобной характеристикой разброса значений Х около ее среднего значения – математического ожидания МХ. Так как

M (X MX )2 = M (X 2 2XMX + (MX )2 )= MX 2 2MX MX + (MX )2

то справедлива следующая формула для дисперсии:

DX = MX 2 (MX )2 .

Отсюда следует, что MX 2 (MX )2 , поскольку DX 0 . Дисперсия имеет размерность квадрата случайной величины; для характеристики разброса, рассеивания иногда бывает удобнее пользоваться значением, размерность которого совпадает с размерностью случайной величины. Такая величина

σX = DX называется среднеквадратичным уклонением Х.

На основании определения дисперсии и теоремы 1 можно записать: 1) если Х – дискретная случайная величина, х1, х2 , ... — ее

значения, а р1, р2 , ... — соответствующие вероятности, то

DX = (xk MX )2 pk

л=1

2) если Х – непрерывная случайная величина и р(х) – ее плотность вероятности, то

DX = (x MX )2 pdx

−∞

Примеры.

60