Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Волковец А. Конспект лекций по теории вероятностей.pdf
Скачиваний:
82
Добавлен:
28.06.2014
Размер:
812.19 Кб
Скачать

ЛЕКЦИЯ 11 Числовые характеристики функции многих переменных

Пусть Y = ϕ(x1, x2, …, xn), где Х1, Х2, …, Хn – случайные величины с известной совместной n-мерной плотностью вероятностей f(x1, x2, …, xn).

Начальные моменты величины Y определяются по формуле

α k ( y ) = M [Y k ] =

... ϕ k ( x1 , ..., x n ) f ( x1 , ..., x n ) d x1 ...d x n ,

(11.1)

 

−∞

−∞

 

 

а центральные моменты по формуле

 

µk ( y) = M [(Y mY )k ] = ... (ϕ( x1 ,..., xn ) mY )k f (x1 ,..., xn )dx1...dxn ,

(11.2)

причем

 

−∞

−∞

 

 

 

 

 

mY

= M[Y] = M[ϕ(x1,..., xn )] =α1(y) ,

(11.3)

 

 

DY

= µ2 ( y) = α2 ( y) mY2 .

(11.4)

В случае, когда совместная плотность вероятности аргументов f(x1, x2, …, xn)неизвестна, а известны числовые характеристики аргументов, то задача определения числовых характеристик Y разрешима только для определения классов функций ϕ.

Числовые характеристики суммы случайных величин

n

Пусть Y = Xi , где Х1, Х2, …, Хn – случайные величины с известными

i=1

числовыми характеристиками:

вектор математических ожиданий M = (m1, m2, …, mn);

вектор дисперсий D = (D1, D2, …, Dn);

корреляционная матрица Kij .

Теорема о математическом ожидании суммы случайных величин.

Математическое ожидание суммы случайных величин равно сумме математических ожиданий слагаемых:

M [Y ] = M

n

 

n

 

X i

= mi .

(11.5)

i=1

 

i=1

 

Доказательство. Пусть n = 2, т.е. Y = Х1 + Х2, и предположим, что слагаемые – непрерывные случайные величины с некоторой совместной

плотностью распределения f (x1, x2 ) . Тогда

m Y

= M [ X 1 + X 2 ] =

( x1 + x 2 ) f ( x1 , x 2 ) d x1 d x2 =

 

 

−∞ −∞

=

x1 f ( x1 , x 2 ) d x1 d x 2 + x 2 f ( x1 , x2 ) d x1 d x2 = m1 + m 2 .

−∞ −∞

−∞ −∞

Аналогично и для дискретных слагаемых. Используя метод математической индукции, легко доказать, что теорема справедлива для любого n.

Теорема о дисперсии суммы случайных величин. Дисперсия суммы случайных величин равна сумме всех элементов корреляционной матрицы слагаемых:

 

 

 

 

 

n

 

n

n

 

n

 

 

n

 

n

 

 

 

 

 

D[Y ] = D Xi

= ∑∑Kij = Di

+ 2∑ ∑ Kij .

 

(11.6)

Доказательство:

i=1

 

i=1 j=1

 

i=1

 

i=1 j=i+1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D[Y ] = M [(Y mY )2

] =

 

 

n

 

n

 

2

 

 

 

n

o

2

=

M

X i

mi

 

= M

 

X i

 

 

 

 

 

 

 

 

i =1

 

i =1

 

 

 

 

 

i =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n n

o o

 

n

n

 

o

o

 

n

n

 

 

 

n

 

 

n n

= M

∑ ∑ X i X j

= ∑ ∑ M X i X j

= ∑ ∑ K ij = Di + 2∑ ∑ K ij .

 

i =1 j =1

 

 

i =1 j =1

 

 

 

 

i =1 j =1

 

 

i =1

 

 

i =1 j =i +1

Следствие. Дисперсия суммы некоррелированных случайных величин равна сумме дисперсий этих величин, так как Kij = 0, i, j :

n

Если Y = a0 +ai Xi ,

i=1

n

 

n

 

D X i

= Di .

(11.7)

i=1

 

i=1

 

a i – неслучайные коэффициенты,

то математическое

ожидание и дисперсия Y равны:

 

 

n

 

n

 

mY

= M a0 + ai X i

= a0 + ai mi ;

(11.8)

 

 

i=1

 

i=1

 

 

n

 

n

n n

 

DY = D a0 +ai Xi

= ai2 Di + 2∑ ∑ ai aj Kij .

(11.9)

 

i=1

 

i=1

i=1 j=i+1

 

Это легко доказать, используя (11.6), (11.7) и свойства математического ожидания (M[c] = c, M[X + c] = mX + c , M[c X] = c mX ) и дисперсии (D[c] = 0,

D[X + c] = DX, D[c X] = c2 DX).

Пример. Докажем, что абсолютная величина корреляционного момента двух случайных величин не превышает среднего геометрического их дисперсий:

Kxy Dx Dy или Kxy σx σy .

Введем в рассмотрение случайные величины Z1 =σY X σXY, Z2 = σYX + σYY и вычислим их дисперсии по формуле (11.9):

D[ Z1 ] = 2σ X2 σ Y2 2σ X σ Y K X Y ; D[Z 2 ] = 2σ X2 σY2 + 2σ X σY K XY .

Так как дисперсия всегда неотрицательна, то

2σX2σY2 2σXσY KXY 0

σX σY KXY и 2σX2 σY2 + 2σX σY KXY 0 σ X σ Y

K X Y . Таким образом,

σX σY K XY σX σY

 

K X Y

 

σ X σ Y .

 

 

 

 

Числовые характеристики произведения случайных величин

n

Пусть Y = X i , где (X1, X2, …, Xn) – случайные величины с известными

i =1

числовыми характеристиками:

вектор математических ожиданий M = (m1, m2, …, mn);

вектор дисперсий D = (D1, D2, …, Dn);

корреляционная матрица Kij .

Теорема о математическом ожидании произведения случайных величин. Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс ковариация:

mY

= M [ X1 X 2 ]= m1m2 + K12 .

(11.10)

Доказательство. По определению ковариация равна

 

o o

 

 

K12 = M [ X1 X 2 ] = M [( X1

m1 )( X 2 m2 )] = M [ X1 X 2 m1 X 2

m2 X1 + m1m2 ] =

M [ X1 X 2 ] m1M [ X 2 ] m2 M [ X1 ] + m1m2 = M [ X1 X 2 ] m1m2 .

Откуда следует формула (11.10).

Следствие. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий:

mY = M

 

n

 

n

(11.11)

 

X i

= mi .

 

 

i =1

 

i =1

 

Доказательство. Пусть n = 2.

Для

независимых

случайных величин

Kij = 0, i, j , тогда формула (11.10)

примет вид mY

= M [ X1 X 2 ]= m1m2 .

Используя метод математической индукции, легко доказать, что (11.11) справедлива для любого n.

Теорема о дисперсии произведения случайных величин. Дисперсия произведения независимых случайных величин равна

DY

 

n

 

n

n

(11.12)

= D

X i

= ( Di + m i2 ) m i2 .

 

 

i =1

 

i =1

i =1

 

Доказательство. По определению дисперсия равна

n

 

 

n

2

 

n

 

2

n

 

n

n

D Xi

= M

Xi

 

M Xi

 

= M Xi2

 

mi2 =

i=1

 

 

 

 

 

 

i=1

 

 

 

i=1

i=1

 

 

i=1

 

 

 

 

i=1

 

 

 

 

 

n

(Di +mi2 ) mi2 .

i=1

Следствие. Дисперсия произведения независимых центрированных случайных величин равна произведению дисперсий этих величин:

DY

 

n

 

 

n

 

(11.12)

= D

X i

= Di .

 

 

i =

1

 

i =

1

 

Соседние файлы в предмете Теория вероятностей и математическая статистика