Скачиваний:
59
Добавлен:
03.06.2014
Размер:
392.94 Кб
Скачать

 

 

 

pη | Ak (x) = (

22k

 

 

2

 

 

 

 

2

 

 

 

k

1

≤x < 1/2

k

 

 

 

 

3 π, x

 

+y

 

< 1, 1/2

 

 

 

 

,

 

 

 

 

 

 

 

0 в остальных случаях.

 

 

 

Следовательно,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

22k

 

 

 

22k

1/2k−1

 

 

E (|η| | Ak) =

Z

Z

 

 

 

 

|y|

 

dydx =

Z

Z0

r2 |sin φ| dφdr =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1/2k−1

x2+y2 [1/2k,1/2k−1)

 

 

 

 

 

 

 

 

 

 

 

 

 

1/2k

 

 

 

22k

 

22k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Z

4r2 dr =

4

 

 

1

 

 

 

 

1

 

 

 

 

 

7

 

 

 

=

 

 

 

·

 

 

 

 

 

=

 

 

 

 

, k

IN.

3

23k−3

23k

9

·

2k−2π

 

 

1/2k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

S

 

 

= 1, а это значит, что с точностью до

Остается отметить, что P Ak

k=1

множеств нулевой меры условное математическое ожидание определено. Случайная величина E (|η||A) имеет дискретное распределение, задаваемое таблицей:

Значения E (|η| | A)

14/9π

7/9π

7/18π

7/36π

. . .

Вероятности

3/4

3/16

3/64

3/256

. . .

Условной дисперсией случайной величины ξ при условии σ-алгебры A называется случайная величина D (ξ | A) = E ((ξ − E (ξ | A))2 | A).

2. Покажем справедливость следующего соотношения:

D ξ = E (D (ξ | A)) + D (E (ξ | A)).

Используя линейность условного математического ожидания, а также свой• ства 1, 2и 4, выводим следующую цепочку равенств:

D (ξ | A) = E ((ξ −E (ξ | A))2 | A) = E (ξ2 −2ξE (ξ | A)+(E (ξ | A))2 | A) = = E(ξ2 | A)−2 E((ξ E(ξ | A)) | A)+E(E(ξ | A))2 | A) = E(ξ2 | A)−(E(ξ | A))2.

Отметим, что величина (E (ξ | A))2 измерима относительно A. Тогда

E (D (ξ | A)) + D (E (ξ | A)) = E (E (ξ2 | A)) − E (E (ξ | A))2+ +E (E (ξ | A))2 − E (E (ξ | A))2 = E ξ2 − (E ξ)2 = D ξ.

В частности, для любых случайных величин ξ и η

D ξ = E (D (ξ | η)) + D (E (ξ | η)).

В ряде приложений важное значение имеет понятие "мартингал". Пусть ξ1, ξ2, . . . последовательность случайных величин; F1

F2 . . . поток вложенных σ-алгебр, согласованный с данной после• довательностью, т.е. величина ξk измерима относительно Fk при каждом k IN. Последовательность случайных величин ξ1, ξ2, . . . образует мартин• гал (субмартингал, супермартингал) относительно согласованного потока

31

вложенных σ-алгебр, если для любых n, k IN : k < n выполнено соотно• шение

E (ξn | Fk) = ξk(≥ ξk, ≤ ξk).

Используя свойства условного математического ожидания, нетрудно пока• зать: для того, чтобы данные равенства имели место, достаточно выполне•

ния равенств E (ξn+1 | Fn) = ξn(≥ ξn, ≤ ξn) при всех n IN. Отметим ряд очевидных свойств мартингалов.

1. Если (ξn, Fn)n IN мартингал (субмартингал, супермартингал), то

E ξn = E ξ1 (≥ E ξ1, ≤ E ξ1), n IN.

2. Если (ξn, Fn)n IN субмартингал (мартингал), то (−ξn, Fn)n IN супер• мартингал (мартингал).

Существует довольно развитая теория сходимости для мартингалов, од• нако сейчас не будем останавливаться на свойствах мартингалов более де• тально. Рассмотрим следующие задачи.

3. Пусть ξ1, ξ2, . . . последовательность независимых случайных вели•

чин таких, что E ξi = 0 при всех i IN; {Fn} : Fn = σ(ξ1, ξ2, . . . , ξn) естественный поток σ-алгебр. Определим последовательность частичных

k

сумм {Sk} : Sk = ξi, k IN. Вычисляем условное математическое ожи•

дание:

=1

 

 

iP

n

ξi | Fk , k, n IN, k ≤ n.

 

E (Sn | Fk) = E (Sk | Fk) + E

 

 

X

 

i=k+1

Очевидно, что Sk измерима относительно Fk при всех k IN. Независи•

мость элементов исходной последовательности влечет независимость слу•

n

чайной величины P ξi и σ-алгебры Fk. Используя свойства 2и 3услов•

i=k+1

ного математического ожидания, выводим соотношения:

 

n

E (Sn | Fk) = Sk +

iX

E ξi = Sk, при всех k, n IN, k ≤ n.

 

=k+1

Следовательно, (Sk, Fk) образуют мартингал.

4. Предположим, что F1, F2, . . . поток вложенных σ-алгебр, ξ некото• рая случайная величина такая, что E |ξ| < ∞. Рассмотрим последователь• ность условных математических ожиданий {ηk} : ηk = E (ξ | Fk), k IN. Вычисляем при n > k:

E (ηn | Fk) = E (E (ξ | Fn) | Fk).

Используя свойство 5, получаем, что

E (ηn | Fk) = E (ξ | Fk) = ηk.

Таким образом, последовательность величин {ηk}k IN образуют мартингал с исходным потоком σ-алгебр.

32

Ln1, ξ2, . . . , ξn) =

В следующей задаче приводится пример так называемого обратного мар• тингала последовательности случайных величин с отрицательными ин• дексами, которая образует мартингал с некоторым потоком σ-алгебр. Помимо свойств условного математического ожидания используется также перестановочность элементов.

5. Рассмотрим последовательность независимых одинаково распределен• ных случайных величин ξ1, ξ2, . . . таких, что E |ξ1| < ∞. Как и в задаче 3 (с. 32), рассмотрим последовательность частичных сумм {Sk}k IN и введем новую последовательность случайных величин {η−n} : η−n = Sn/n и по•

ток σ-алгебр {F−n} : F−n = σ(Sn, Sn+1, . . .), n IN, где σ(Sn, Sn+1, . . .)

σ-алгебра, порожденная величинами Sn, Sn+1, . . .. Поскольку суммы Sn, Sn+1, . . . не зависят от порядка суммирования первых n слагаемых и совместное распределение ξ1, ξ2, . . . симметрично (т.е. не меняется при пе• рестановке компонент),

Z

ξk dP = Z

ξ1 dP =

Z

E (ξ1 | F−n) dP,

 

 

def

 

A

A

 

A

 

для любого события A F−n при каждом k {2, 3, . . . , n}, n IN. При• нимая во внимание единственность условного математического ожидания, заключаем, что

n

n

XX

E (Sn | F−n) = E

ξi | F−n = E (ξi | F−n) = n E (ξ1 | F−n).

i=1

i=1

Следовательно, η−n = E (ξ1 | F−n). Используя свойство 5условного мате• матического ожидания, получаем следующие соотношения:

E (η−n | F−k) = E (E (ξ1 | F−n) | F−k) = E (ξ1 | F−k) = η−k

при каждом k ≥ n, n IN. Таким образом, последовательность {η−n}n IN образует мартингал с потоком σ-алгебр {F−n}n IN.

Далее следует задача на вычисление условного математического ожида• ния через интеграл по условной плотности.

6. В задачах математической статистики часто используется отношение правдоподобия, определяемое равенством

qn1, ξ2, . . . , ξn) , pn1, ξ2, . . . , ξn)

где {pn}n IN и {qn}n IN две последовательности согласованных плотностей распределения относительно доминирующей меры Q, т.е.

Z

pn(x1, x2, . . . , xn) = pn+1(x1, x2, . . . , xn+1) Q(dxn+1),

−∞

Z

qn(x1, x2, . . . , xn) = qn+1(x1, x2, . . . , xn+1) Q(dxn+1).

−∞

33

Пусть ξ1, ξ2, . . . последовательность случайных величин такая, что pξ1,ξ2,...,ξn(x1, x2, . . . , xn) = pn(x1, x2, . . . , xn), x1, x2, . . . , xn IR,

при каждом n IN.

Рассмотрим естественный

поток σ-алгебр {Fn} :

Fn = σ(ξ1, ξ2, . . . , ξn),

n IN. Вычислим условную плотность распределе•

ния:

 

 

 

pn+11, ξ2, . . . , ξn, y)

 

 

 

 

pLn+1 | ξ1,...,ξn(y) =

, x1, x2, . . . , xn IR.

 

 

pn1, ξ2, . . . , ξn)

 

Тогда справедливы следующие соотношения:

 

 

 

E (Ln+11, ξ2, . . . , ξn+1) | σ(ξ1, . . . , ξn)) =

 

 

 

 

pn+11, ξ2, . . . , ξn, y) pn1, ξ2, . . . , ξn)

 

dy =

= Z

 

 

 

qn+11, ξ2, . . . , ξn, y) pn+11, ξ2, . . . , ξn, y)

−∞

 

 

 

 

 

 

 

 

 

=

1

Z

qn+11, ξ2, . . . , ξn, y) dy = Ln1, ξ2, . . . , ξn).

pn1, ξ2, . . . , ξn)

 

 

 

 

−∞

 

 

 

 

 

 

 

Таким образом, последовательность {Ln1, ξ2, . . . , ξn)}n IN образует мар• тингал с естественным потоком σ-алгебр {Fn}n IN.

Задачи для самостоятельного решения

7. Пусть {ξn}n IN {0} последовательность независимых случайных ве•

n

P

личин с нулевым математическим ожиданием; ζn = ξk−1ξk, k IN. Пока•

k=1

зать, что последовательность {ζn}n IN образует мартингал с естественным потоком σ-алгебр.

8. Пусть {ξn}n IN {0} последовательность независимых случайных ве•

n

личин; Sn =

ξi2,

n IN. Подобрать константы an так, чтобы после•

=1

 

}

 

 

 

IN образовывала мартингал с

{

 

: ζn = Sn

an, n

довательностьiPζn

 

 

 

естественным потоком σ-алгебр.

6. Многомерное нормальное распределение

¯

Случайный вектор ξ = (ξ1, ξ2, . . . , ξn) называется нормальным (или гауссовским), если его характеристическая функция представляется в виде

n

 

 

1

n

1 n n

,

f(t¯)=E exp(ij=1tjξj)=exp(i(m,¯ t¯) −

2

(t¯R, t¯)=exp ii=1miti

2i=1 j=1rk,ltktl

¯P n

¯

 

 

P

P P

 

для любого t IR

, где t = (t1

, t2, . . . , tn), m¯ = (m1, m2, . . . , mn) вектор•

строка вещественных констант, R = ||ri,j||, i, j {1, 2, . . . , n} некоторая симметричная неотрицательно-определенная матрица n × n.

34

В этом случае вектор m¯ является вектором математических ожиданий исходной системы случайных величин (E ξk = mk, k {1, 2, . . . , n}), а матрица R представляет собой матрицу ее ковариации (cov(ξi, ξj) = ri,j, i, j {1, 2, . . . , n}). Нетрудно видеть, что распределение нормального век• тора однозначно определяется вектором математических ожиданий m¯ и ковариационной матрицей R.

Плотность распределения невырожденного нормального вектора с век• тором математических ожиданий m¯ и матрицей ковариации R имеет вид:

pξ¯(¯x) = (2π)

|R|¯

 

exp −2(¯x − m¯ )R

(¯x − m¯ )

,

x¯ IR ,

n/2

 

−1/2

 

1

1

 

 

Т

n

Cлучайный вектор

ξ = (ξ1, ξ2, . . . , ξn)

является

нормальным тогда

и только тогда, когда

любая

линейная

комбинация

его компонент

a1ξ1 +a2ξ2 +. . .+anξn,

 

a1, a2, . . . , an IR, имеет нормальное распределение.

Следует отметить, что не любой случайный вектор с нормально распреде• ленными компонентами является нормальным. Это иллюстрирует следую• щая задача.

1. Пусть случайная величина ξ имеет стандартное нормальное распределение (см. задачу 4, с. 12), а величина η определяется соотношением:

η = (

ξ,

 

ξ> 1.

 

 

 

 

 

ξ,

 

ξ

 

1,

 

 

 

 

 

 

 

 

 

 

 

Нетрудно видеть, что P(η <a, b>) = P(ξ <a, b>), если <a, b> [−1, 1], и P(η < a, b >) = P(ξ < −b, −a >), если < a, b > ∩ [−1, 1] = . В силу симметричности величины ξ получаем соотношение P(ξ < −b, −a >) = = P(ξ < a, b >). Следовательно, величина η также имеет стандартное нормальное распределение. В то же время,

ξ + η =

( 0, ξ > 1.

 

2 ξ,

 

 

≤ 1,

 

 

ξ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Поскольку |ξ + η| ≤ 1 с вероятностью 1, величина ξ + η не может иметь нормальное распределение, а это значит, что совместное распределение ξ и η не является нормальным.

Пусть ξ случайный вектор с вектором математических ожиданий m¯ и

¯

ковариационной матрицей R. Тогда η¯ = ξC, где C матрица некоторого линейного преобразования, имеет вектор математических ожиданий m¯ C и ковариационную матрицу CТRC. Известно, что сдвиг и линейное пре• образование переводят нормальный вектор в нормальный вектор. Таким образом, можно рассмотреть аффинное пространство случайных величин,

¯

получающихся из элементов исходного вектора ξ при сдвигах и линейных преобразованиях, и все они имеют нормальное распределение. Более то• го, если рассмотреть совместное распределение любых k векторов данного пространства, то оно будет нормальным. Поскольку ковариационные ха• рактеристики (коэффициенты корреляции и дисперсии) не меняются при

35

¯

− m¯

центрировании случайного вектора, матрицы ковариации векторов ξ

¯

и ξ одинаковы. Размерность линейного пространства случайных векторов, получающихся, как всевозможные линейные комбинации элементов векто•

¯

ра ξ m¯ , равна рангу соответствующей матрицы ковариации. Предположим, что случайный вектор η¯ получается из невырожденного

¯ ¯

нормального вектора ξ линейным преобразованием η¯ = ξC, где C неко• торая неособенная матрица n×n. В этом случае, плотности распределений

¯

случайных векторов ξ и η¯ связаны соотношением

pη¯(¯x) = 1 p¯(¯xC−1), x¯ IRn,

|C| ξ

где |C| определитель матрицы C (якобиан преобразования). Таким обра• зом, если исходный случайный вектор ξ имеет нормальное распределение с нулевым средним и матрицей ковариации R, то плотность распределения вектора η¯ имеет вид

pη¯(¯x) = (2π)

n/2

 

R

1/2

 

C

 

1

exp −

2 x¯ C

R

(C

)

,

x¯ IR

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Известно, что для любой симметричной положительно определенной матрицы A существует ортогональная матрица C такая, что CACТ диагональная матрица. Следовательно, для любого нормального вектора

¯

ξ существует линейное ортогональное преобразование с матрицей C такое,

¯

что случайный вектор η¯ = ξC имеет независимые компоненты. Плотность распределения полученной случайной величины при всех y1, y2, . . . , yn IR задается следующим соотношением:

 

1

 

exp −

1

 

y12

y22

 

yn2

.

pη(y1, y2, . . . , yn) =

 

 

 

+

 

+ . . . +

 

(2π)n/2σ˜12σ˜22 · . . . · σ˜n2

2

σ˜12

σ˜12

σ˜n2

Нетрудно заметить,

что семейство

 

решений

уравнений

pη(y1, y2, . . . , yn) = a при различных a > 0 представляет собой множество эллипсоидов размерности n с определенным соотношением между полуося• ми. Следует отметить, что соотношение между полуосями данного эллипсо• ида сохраняется при ортогональном преобразовании. В двухмерном случае мы получаем эллипс рассеяния.

 

Формула двухмерного нормального распределения величин ξ1 и ξ2 с ма•

тематическими ожиданиями a и b, дисперсиями σ 2

и σ 2 соответственно и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

2

 

 

 

коэффициентом корреляции ρ может быть записана в виде

 

 

 

p

(x, y)=

 

1

 

exp

 

−1

 

(x−a)2

2ρ(x−a)(y−b)

+

(y−b)2

 

 

 

 

 

 

σ22

 

ξ12

2πσ1σ2

1 ρ2

 

2(1

ρ2)

 

σ12

 

σ1σ2

 

для всех x IR.

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рассмотрим следующую задачу.

 

 

 

 

 

 

 

 

 

 

 

 

2. Плотность двухмерного нормального распределения имеет вид

 

 

 

 

 

1

 

2

− 2xy + y

2

+ 22x − 14y + 65 ,

x, y IR,

 

pξ12 (x, y) = c exp −2 2x

 

 

36

где c некоторая положительная константа, которую надо определить. Сначала найдем вектор математических ожиданий и ковариационную мат• рицу данного распределения. Для вычисления математических ожиданий преобразуем выражение, стоящее под экспонентой, методом Лагранжа:

2x2 −2xy + y2 + 22x −14y + 65 = (2x2 −2xy + y2 −14y + 14x + 49)+ +(x2 + 8x + 16) = (x −y + 7)2 + (x + 4)2 = ((x + 4) + (y −3))2+

+(x + 4)2 = 2(x + 4)2 − 2(x + 4)(y − 3) + (y − 3)2.

Мы группируем все слагаемые, содержащие переменную y (можно группи• ровать переменные с x), и выделяем полный квадрат. Затем оставшиеся слагаемые представляем в виде квадрата (x − a)2 и выделяем (x − a) в первой скобке. Остается лишь возвести в квадрат и привести подобные слагаемые. Отметим, что данная процедура всегда выполнима, если квад• ратичная форма, стоящая под знаком экспоненты, положительно опреде• лена. Для нахождения дисперсий и коэффициента корреляции сопоставим исходную плотность распределения с общей формулой. Получаем систему уравнений

(1 ρ2) σ 2 = 1/2

 

 

 

 

σ 22 = 1/2

 

 

σ12 = 1

(1

ρ2) σ

σ /ρ = 1

 

 

ρ σ /σ = 1/2

 

σ2 = 2

 

 

 

 

 

 

ρ = 1/2

 

 

1 2

 

 

 

 

 

1

1

2

 

 

 

 

2 2

 

 

 

 

 

 

 

2

 

2

 

 

(1

 

 

1

 

 

 

 

 

 

 

2

 

 

 

 

 

ρ ) σ2 = 1

 

 

 

(1

ρ) σ2 = 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Итак, данный случайный вектор имеет вектор

математических ожиданий

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(−4, 3) и ковариационную матрицу

 

1 1

. Также ковариационную матрицу

 

1 2

можно было получить как обратную к матрице

 

2 −1

соответствующей

 

 

 

 

2x

2

 

2xy + y

2

 

 

 

−1 1

 

 

 

 

квадратичной формы

 

 

 

 

 

отметить, что c = 1/(2π).

 

 

 

 

 

. Остается

 

 

 

 

 

При разложении выражения, стоящего под экспонентой, было получено

равенство

 

= cexp −2(((x+4)+(y−3)) +(x+4)

 

) .

cexp −2

(2x −2xy+y +22x−14y+65)

 

1

2

2

1

 

2

 

 

2

 

 

 

 

 

 

1

1

имеет

Следовательно, случайный вектор (ζ1, ζ2) = (ξ1 + 4, ξ2 − 3) −1 0

независимые компоненты, распределение которых

стандартное нормаль•

 

 

 

 

 

 

ное. Это означает, что величины ζ1

= ξ1 − ξ2 + 7 и ζ2

= ξ1 + 4 незави•

симы. Однако данное преобразование не ортогонально. Для нахождения ортогонального преобразования, приводящего исходный случайный вектор к независимым компонентам, найдем собственные векторы матрицы R−1. Собственные числа находятся из уравнения

 

 

 

 

 

 

 

2 − λ −1

= λ2

3λ + 1 = 0.

−1 1 − λ

 

 

 

 

 

 

 

 

 

Далее вычисляем нормированные

собственные векторы, соответству•

 

 

 

 

 

37

ющие

собственным

 

 

числам λ1

= (3 +

 

 

 

 

 

и λ2

= (3 −

 

 

 

 

 

5)/2

5)/2 :

q

 

 

 

, −q

 

 

 

 

 

 

 

 

 

 

 

 

q

 

 

 

 

 

, q

 

 

 

.

(5 +

 

 

(5 −

 

 

 

 

 

 

и

(5 −

 

 

(5 +

 

 

5)/10

5)/10

5)/10

5)/10

Обозначим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

C = q(5 +

 

 

 

 

q

(5 −

 

 

 

 

 

 

 

 

 

 

 

 

 

5)/10

5)/10

, m¯ = (

 

4, 3).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

q(5 −

 

 

q(5 +

5)/10

 

 

 

 

 

 

 

 

 

 

 

 

 

 

5)/10

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

C

Т

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В этом случае CR

 

диагональная матрица. Тогда случайный вектор

¯

− m¯ )C имеет независимые компоненты.

 

 

 

 

 

 

 

 

 

 

 

η¯ = (ξ

 

 

 

 

 

 

 

 

 

 

 

Процедура нахождения вектора математических ожиданий для нор• мальных плотностей больших размерностей заключается в последователь• ном выделении полных квадратов, как это делалось в двухмерном случае. Для нахождения матрицы ковариации достаточно обратить матрицу соот•

ветствующей квадратичной формы.

¯

 

¯

 

¯

= (ξ1, ξ2, . . . , ξr)

=

Разобьем вектор ξ на два подвектора

ξ1

и ξ2

r+1, ξr+2, . . . , ξn). Математические ожидания векторов ξ¯1 и ξ¯2 равны, соот•

ветственно, m¯ 1 = (m1, m2, . . . , mr) и m¯ 2 = (mr+1, mr+2, . . . , mn), а матрица ковариации может быть записана в следующем виде:

R =

R1,1

R1,2

,

 

 

 

R2,1

R2,2

 

 

 

 

 

 

¯

¯

соответственно,

где R1,1 и R2,2 ковариационные матрицы векторов ξ1

и ξ2

а матрицы R1,2 = RТ2,1 содержат ковариации элементов вектора ξ¯1 с элемен•

тами вектора ξ¯2. Тогда условное распределение ξ¯2 при условии {ξ¯1 = x¯1}, где x¯1 = (x1, x2, . . . , xr), x1, x2, . . . , xr IR, является нормальным с векто• ром математических ожиданий m¯ 2 + (¯x1 − m¯ 1)R1,11Rт2,1 и ковариационной матрицей R2,2 − R2,1R1,11R1,2.

3.Предположим, что величины ξ1, ξ2, ξ3 имеют нормальное распреде•

ление с нулевым средним и матрицей ковариации R =

1

1

2

. Най•

1 2 3

2,1

1,2

 

 

 

2,2

 

 

 

 

2

3

6

 

 

 

 

 

 

 

. Матрица, обратная к R1,1,

 

 

 

 

 

 

 

 

¯

 

 

¯

 

 

=

1 1

,

дем E (ξ3 | σ(ξ1, ξ2)). Выберем ξ1

= (ξ1, ξ2), ξ2 = ξ3. Тогда R1,1

1 2

R = RТ

= (2, 3), R

 

 

= (6)

 

 

 

 

имеет вид

R1,11 =

2 −1 . В этом случае условное распределение величины ξ3 при

условии

1

1

{

 

 

}

нормальное с математическим ожиданием

{

}

ξ2 = x2

ξ1 = x1 ,

 

 

 

 

(2, 3) −1

1

x2

= (1, 1) x2 = x1 + x2

 

 

 

 

 

 

 

 

2

 

1

x1

x1

 

 

 

 

 

и дисперсией

 

6 − (2, 3) −1

1

3 = 6 − 5 = 1.

 

 

 

 

 

 

 

 

 

 

 

 

2

 

1

2

 

 

 

 

 

38

Следовательно, E (ξ3 | σ(ξ1, ξ2)) = ξ1 + ξ2.

Задачи для самостоятельного решения

4. Вычислить параметры двухмерного нормального распределения с плотностью pξ1,ξ2(x, y) = c exp(−12q(x, y) и построить преобразование, при•

водящее исходный случайный вектор к независимым компонентам, с ис• пользованием которого посчитать распределение величины G(ξ, η):

2

2

− 2x − 2y + 1;

а) q(x, y) = 5x2

+ 6xy + 2y2

б) q(x, y) = 4x2

− 2xy + 4y2

− 2x + 38y + 94;

в) q(x, y) = 4x2

− 2xy + 4y2

+ 18x + 3y + 24;

г) q(x, y) = 2x

+ 4xy + 3y + 8x + 14y + 17;

д) q(x, y) = 2x2 + 4xy + 4y2 + 8x + 4y + 10.

5. Построить ортогональное преобразование, приводящее центрирован• ный нормальный вектор с матрицей ковариации R к независимым компо•

нентам:

 

 

!; б) R =

 

 

 

 

 

 

!.

2

1

2

6

3

1

7

2

1

а) R = −1

5

1

3

6

1

!; в) R = −2

4

2

2

1

5

 

−1

1

2

1

2

7

 

Вычислить E (ξ3 | σ(ξ2, ξ2)) и E (ξ2, ξ3 | σ(ξ1)).

Список литературы

Рекомендуемая литература

Боровков А.А. Теория вероятностей. 2-е изд. М.: Наука, 1986. Гнеденко Б.В. Курс теории вероятностей. М.: Наука, 1988.

Феллер В. Введение в теорию вероятностей и ее приложения. Т.2. М.: Мир, 1984.

Дополнительная литература

Лоэв М. Теория вероятностей. М.: Иностр. лит., 1962.

Рао С.Р. Линейные статистические методы и их примене• ние. М.: Наука, 1965.

Ширяев А.Н. Вероятность. – М.: Наука, 1980.

39

Оглавление

стр.

Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1. Некоторые предварительные замечания . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2. Вычисление распределений функций от случайных величин . . . . . . . 10 3. Совместные распределения случайных величин . . . . . . . . . . . . . . . . . . . . . 14 4. Независимость случайных величин и условные распределения . . . . . 20 5. Условные математические ожидания и вероятности . . . . . . . . . . . . . . . . 28 6. Многомерное нормальное распределение . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

Список литературы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

Редактор И.Б. Синишева

Подп. к печати 09.04.97. Формат 60×90 1/16. Бумага офсетная No 1. Печать офсетная. Усл. печ. л. 2,32. Уч.-изд. л. 2,25. Тираж 600 экз.

Зак. No 750. Издательско-полиграфический центр ГЭТУ, 197376, С.-Петербург, ул. Проф. Попова, 5

Соседние файлы в папке ещё пара методичек