Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Лекции по ЧМ и ТВ

.pdf
Скачиваний:
12
Добавлен:
05.06.2015
Размер:
1.34 Mб
Скачать
F 1(Y ).

7. ПРЕОБРАЗОВАНИЯ ПЛОТНОСТИ РАСПРЕДЕЛЕНИЯ

111

4) Аналогично, можно ограничить задачу подалгеброй порожденной несколькими событиями A1; : : : ; An: Нужно взять случайную величину X, значения которой являются наборы двоичных чисел x1; : : : ; xn:

5) Строгость неравенства в этом определении функции распределения идет, видимо, от А. Н. Колмогорова, в руководствах наблюдается разнобой в этом моменте.

7Преобразования плотности распределения

Пусть случайная величина Y определяется взаимно-однозначной

функцией Y = Y (X) случайной величины X и пусть X = X(Y )

обратное отображение. Тогда равенство вероятностей попадания случайных величин X è Y в соответствующие инфинитезимальные

отрезки запишется в виде:

 

pY

(y) j dyj = pX (x) j dxj:

 

То же самое более подробно:

 

 

 

p

(y)dy = ( p (x) dx)

(y)= p (X(y)) X0

(y) dy =

pX (X(y)) dy

jY 0(X(y))j

Y

X

 

X

j

j

В более общем случае в этой формуле нужно учитывать все прообразы точки y:

pY (y) dy = PX (y dy Y (X) < y) =

 

 

Xk(Y ) обратная

P

 

Y (X)

 

 

 

xk: Y (xk)=y pX (Xk(y))jX0k(y)j dy;

ãäå

 

функция к

 

в окрестности каждого

прообраза xk точки y:

Аналогично, если случайная величина Y дискретна, (yk) все различные ее значения, взятые из списка (Y (xm)), òî

P

pY k = m: Y (xm)=yk pXm

Пример 29.

1

pX

y

 

Y = a X ) pY (y) =

 

 

a

a

Пример 30. Возьмем в качестве случайной величины Y функцию распре-

деления случайной величины X: Y = F (X). Тогда dy = F0

(x) dx = p (x) dx,

X

X

X

следовательно, pY (y) = 1. Таким образом, случайная величина Y = FX (X) всегда равномерно распределена на отрезке [0; 1]. Можно сказать так: функция рас-

пределения, если ее рассматривать как случайную величину, преобразует свою случайную величину в величину равномерно распределенную на отрезке [0; 1].

Следовательно, чтобы получить случайную величину X с заданной функцией распределения F(x) можно взять равномерное распределение на отрезке [0; 1] с

координатой Y и преобразование ее в случайную величину X =

Пример 32.

112 Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ

Пример 31. Пусть Y равномерно распределена на отрезке [0; 1], а X(Y )

должна иметь на прямой функцию распределения F(x) =

+ 2 arctg x

. Тогда

2

 

1

 

 

X(Y ) = tg((Y

) ).

 

 

2

 

 

Замечание. Таким образом, задача получения случайных чисел с заданным распределением сводится к задаче получения равномерно распределенных чисел. Хотя последняя задача не решена даже теоретически, удовлетворительные для некоторых практических нужд ее приближенные решения имеют программные воплощения.

Пусть X равномерно распределена на отрезке [0; 1] и Y = 5X. Требуется найти совместное распределение этих величин. Ясно, что p(y) = 15

на отрезке [0; 5], F(x) = x на отрезке [0; 1], F(y) = 15 y на отрезке [0; 5]. Более сложно вычисляется функция совместного распределения этих величин:

F(x; y) = P(X < x; Y < y) = x ïðè 0 x y5 è x 1,

F(x; y) = 15 y ïðè 0 y5 x è y 5,

F(x; y) = 0 ïðè x; y 0,

F(x; y) = 1 ïðè 1 x; y5.

Этот результат можно выразить с помощью функции Хевисайда:

F(x; y) = x H(y 5x) H(x) H(1 x) + 15 y H(5x y) H(y) H(5 y)+

+ H(x 1) H(y 5).

Но для выражения плотности этого, казалось бы, не слишком сложного сов-

местного распределения приходится привлекать обобщенную функцию Дирака:

p x; y

F00

 

x; y

 

x y

+

 

x

x

 

x

 

0

 

y

 

 

 

(

 

 

 

) = x y(

 

 

 

 

 

 

(5 ) H( )

 

 

 

 

 

 

) =

(

5 ) H( ) H(1

 

 

)

x+

0 + (x 1) (y 5) =

 

 

 

 

 

 

 

 

 

 

 

 

 

y x y

y H(5 y)

=

 

1

y (y

 

5x) H(x) H(1

 

x)

 

0

+ 5x (y

 

5x) H(x) H(1 x)

0 +

 

 

 

 

 

5

 

 

 

 

 

 

 

x

 

 

 

 

 

 

+ (x 1) (y 5) =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

= y 0(y 5x) H(x) H(1 x) + 15 y (y 5x) (x) H(1 x)

15 y (y 5x) H(x) (1 x)+5x 0(y 5x) H(x) H(1 x)+ (x 1) (y 5) =

=(y 5x) 0(y 5x) H(x) H(1 x) = (y 5x) H(x) H(1 x)

Получившееся компактное выражение можно было бы сразу написать с помощью простых соображений, но предшествующие выкладки тоже полезны как пример операционного исчисления обобщенных функций.

8Независимые случайные величины.

Случайные величины X è Y называются независимыми, если их совместное распределение (иначе сказать, распределение векторной случайной величины (X; Y )) есть произведение их распределений.

На языке теории меры это означает, что

P(X 1(A) \ Y 1(B)) = P(X 1(A)) P(Y 1(B))

òèå A (герб) происходит с вероятностью

9. БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ.

ФОРМУЛА БЕРНУЛЛИ

113

для любой пары событий A; B, а на языке теории вероятностей: для любых событий A è B события X 1(A) è Y 1(B) независимы.

В терминах функции распределения и плотности условие независимости принимает вид:

FX;Y

(x; y) = F

X

(x) F

Y

(y);

p (x; y) = p (x) p (y)

 

 

 

X;Y

X

Y

Правильным будет и сказать, что переменные в этих функциях разделяются.

Предложение 34. Плотность распределения суммы независимых случайных величин равна свертке их плотностей распределения.

pX+Y = pX pY

Полагая переменную dz бесконечно малой, вычисляем: pX+Y (z) dz = P(X + Y 2 [z; z + dz]) =

=

ZZ

pX

Y

 

3

ZZ

pX

 

 

Y (t x)

 

x

 

t

 

4

 

 

 

 

 

(x) p (y) dx dy =

 

(x) p

 

d

 

d

 

=

 

 

z x+y z+ dz

 

 

Z

z t z+ dz

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

pX

 

Y

 

 

 

 

 

X

p

Y

 

 

 

=

 

 

(x) ( p (z

 

x) dz) dx = p

 

 

dz

Равенство = получено заменой координаты y íà t = x+y в равенстве

3

= интеграл по t заменен средним значением на бесконечно малом

4

 

 

 

 

 

 

 

 

промежутке dz.

 

 

 

 

 

=

Можно написать аналогичную формулу и для дискретных вели-

 

(X = xm) (Y

Pk

 

m)

 

÷èí: P(X + Y = zk) =

m

P(X = xm; Y = zk xm) =

 

P

 

 

 

 

 

(zk) случайной величины Z = X+Y ,

 

m

 

 

= z

 

x . Ясно, что ненулевые вероятности

 

P

 

P

 

 

получатся только для значений

входящих в список всех значений сумм xi + yj.

9Биномиальное распределение. Формула Бернулли

Найдем распределение дискретной случайной величины, которая связана с независимыми повторениями простейшего испытания бросания, вообще говоря, не симметричной монеты. Спрашивается, с какой вероятностью n раз подброшенная монета упадет гербом k

ðàç.

Дано вероятностное пространство, в котором элементарное событие состоит из n повторений испытания, в каждом из которых собы-

p и оно не происходит с ве-

роятностью q = 1 p: P(A) = p, P(A) = q = 1 p. Это пространство можно отождествить с множеством значений набора двузнач-

114 Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ

ных независимых случайных величин ( Kj;n), 1 j n, каждая из

которых имеет распределение: P(

K

j;n = 1) = p, P(

K

j;n = 0) = q.

n

 

пределение, которое и дает ответ

 

 

 

 

 

 

 

 

P

 

 

 

 

 

 

Покажем, что величина

Kn =

 

1

 

Kj;n имеет биномиальное рас-

 

 

 

 

 

на заданный вопрос:

 

äåëå,

P( K = k) = pk = b(k; n; p) = nk

pk qn k;

 

 

 

 

 

 

 

 

 

 

 

 

 

которое можно называть также распределением Бернулли. В самом

 

Kn = Kn 1

+ K1, поэтому

 

 

 

 

 

 

 

 

 

b(k; n; p) = b(j; n 1; p) b(j; 1; p) =

 

 

 

 

 

= b(k; n 1; p) q + b(k 1; n 1; p) p =

 

 

=

 

(n 1)!

pk qn k +

 

(n 1)!

 

pk qn k = pk

 

k!(n 1 k)!

 

 

 

 

 

 

 

 

(k 1)!(n k)!

 

 

Можно рассудить и иначе. Событие K = k складывается из событий, в каждом из которых событие A происходит k раз в испытаниях

n1; : : : ; nk è n k раз не происходит, следовательно, вероятность этого события равна pk qn k. Число наборов номеров испытаний равно

числу сочетаний из n ïî k.

 

10 Числовые характеристики случайной величины.

Речь пойдет главным образом о моментах интегралах от степеней случайной величины по вероятностной мере. Ясна аналогия с механикой: плечо это значение случайной величины, а масса это функция распределения. С математической точки зрения моменты представляют собой скалярные произведения плотности распределения случайной величины на степень координаты. Числовые характеристики параметризуют пространство распределений, то есть, служат на нем координатами. Ряд популярных распределений эти параметры определяют однозначно. В общем случае они описывают распределения случайной величины с некоторой степенью точности и по ним можно судить о "физических" свойствах распределений.

10.1Математическое ожидание.

Модой (modus лат., мера, правило, предписание) называется зна- чение случайной величины в котором ее плотность распределения достигает максимального значения. Следовательно, мода совпадает с наиболее вероятным значением случайной величины. Поэтому ее называют наиболее правдоподобным значением величины, а саму плотность распределения функцией правдоподобия.

Математическое ожидание это интегральное среднее случайной величины, естественно, по вероятностной мере:

10. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОЙ ВЕЛИЧИНЫ.

115

M(X) = Z

X(!) d P = Z

x d F(x) = Z

x pX (x) dx

 

Математическое ожидание, также как и мода, есть наиболее вероятное значение случайной величины.

10.1.1Свойства математического ожидания

1) Математическое ожидание постоянной равно ее значению.

2) Математическое ожидание линейно.

Центрированной случайной величиной или отклонением называ-

ют величину X = X M(X). Ее математическое ожидание равно нулю.

3) Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий.

M(X Y ) = Z

X(!) Y (!) d P(!) = ZZ

x y d F(X;Y ) =

 

 

x y d FX d FY = Z

x d FX Z

 

= ZZ

y d FY = M(X) M(Y )

10.2Дисперсия и среднее квадратическое отклонение

Дисперсия (dispersio лат., рассеяние) это математическое ожи-

дание квадрата отклонения:

p

 

D(X)=M X2 =Z (x M(X))2 d F(x) =Z (x M(X))2

X

(x) dx

Среднее квадратическое отклонение (а также стандартное уклонение или отклонение) это корень èç äèсперсии:

p

(X) = D(X)

Дисперсия или рассеяние это, очевидно, скалярный квадрат от-

клонения в пространстве L2, а среднее квадратическое отклонениеэто норма отклонения. Поэтому величину X= называют норми-

рованной величиной X, а величину X = X= нормированной и

центрированной величиной (знак читается "бреве").

10.2.1Свойства дисперсии

1)D(X) = D X = M(X2) (M(X))2.

2)D(C) = 0.

3)D(C X) = C 2 D(X).

116 Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ

4) Åñëè X; Y независимы, то D(X Y ) = D(X) + D(Y ).

Пример 33. Найдем математические ожидания и дисперсии величин, описывающих испытание Бернулли. M( Kj;n) = p; D( Kj;n) = p q.

M( Kn) = n p; D( Kn) = n p q

Пример 34. (Студенческая Интернет-олимпиада, 2009.) Найти математи- ческое ожидание квадрата расстояния между двумя точками, случайно выбранными на сторонах прямоугольника размера 7 5.

Полагаем, что речь идет о геометрической вероятности на периметре прямоугольника. Выберем координаты s и t положения точек A и B на периметре,

0 s; t 24. Тогда вероятностное пространство выбора двух точек будет равно квадрату 24 24 с мерой d P = 2412 ds dt и математическое ожидание можно

 

24

 

вычислять прямо по его определению: 242 M(d2(A; B)) =

ZZ

d2(A; B) ds dt.

 

0

 

Расстояние d(A; B) вычисляется по-разному в зависимости от положения точек на сторонах, составляющих периметр: 7 + 5 + 7 + 5 = 24. Учтя все возмож-

7

ZZ

ные случаи, придем к сумме интегралов: 242 M(d2(A; B)) = 2 (s t)2 ds dt+

 

 

0

5

5 7

7

+2 ZZ (s t)2 ds dt + 8 ZZ (s2 + t2) ds dt + 2 ZZ ((s t)2 + 52) ds dt+

0

0 0

0

5

 

 

+2 ZZ ((s t)2

+ 72) ds dt. Если не совершить ошибки при вычислении этих

0

интегралов, то в ответе получится 24.

Для получения более симпатичного решения можно привлечь кое-какие результаты теории. Выберем координаты x; y на плоскости прямоугольника. Тогда

координаты точек A и B будут случайными величинами: A(X1; Y1), B(X2; Y2).

Предвидя, что придется вычислять математические ожидания координат то- чек, расположим начало координат в центре прямоугольника, тогда M(Xj) =

= M(Yj) = 0. Считая величины X1; X2 независимо и одинаково распределенными на отрезке [ 7=2; 7=2], а величины Y1; Y2 на отрезке [ 5=2; 5=2], и поль-

зуясь теоремой Пифагора и свойствами математического ожидания получим:

M(d2(A; B)) = M((X1 X2)2 + (Y1 Y2)2) = M(X12 + X22 + Y12 + Y22

2X1X2 2Y1Y2) = 2 M(X12) + 2 M(Y12) = 2 D(X1) + 2 D(Y1). Чтобы вычислить эти дисперсии, нужно найти законы распределения величин X1 è Y1. Эти законы будут образами меры на сторонах прямоугольника относительно отображений проекции на оси:

dFX1 (x) = 121 dx + 245 (x + 7=2) dx + 245 (x 7=2) dx; dFY1 (y) = 121 dy + 247 (y + 5=2) dy + 247 (y 5=2) dy:

Иными словами, простая геометрическая мера на периметре прямоугольника проектируется в сумму непрерывной меры это проекция меры с двух сторон,

10. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОЙ ВЕЛИЧИНЫ.

117

параллельных оси, и дискретной меры, сосредоточенной в точках, в которые проектируются перпендикулярные оси стороны. Вычисляем интегралы от x2 è y2 ïî

этим мерам:

7=2

 

 

 

 

 

 

5=2

 

 

 

 

 

 

1

Z

2

 

1

Z

2

 

M(d2(A; B)) =

x2 dx +

5

 

7

+

y2 dy +

7

 

5

= 24

6

6

4

6

6

4

 

7=2

 

 

 

 

 

5=2

 

 

 

 

 

10.3Моменты высших порядков

Моменты порядка k:

Начальный (или просто момент) Mk = M(Xk) это математиче- ское ожидание k-й степени X.

Момент относительно a: Mk;a = M((X a)k). Центральный момент: k = M((X M(X))k). Абсолютный момент: k = M(jXjk).

Коэффициент асимметрии, As = 3= 3, измеряет величину несим- метричности распределения относительно точки математического ожидания.

Коэффициент эксцесса, Ek = 4= 4 3, измеряет островершинность

распределения в окрестности моды. Если он положителен (отрицателен), то график плотности имеет в точке моды большую (меньшую) кривизну, чем график нормальной плотности.

Аналогично, набор совместно распределенных случайных вели- чин X1; : : : ; Xn имеет смешанные моменты порядка k = k1 + + kn:

Mk = M(X1k1 : : : Xnkn),

k = M((X1 M(X1))k1 : : : (Xn M(Xn))kn), . . .

Ковариация:

cov(X; Y ) = 2 = M((X M(X))(Y M(Y ))) =

= M(XY ) M(X) M(Y )

Эта величина измеряет степень независимости случайных величин, если она не равна нулю, то они зависимы.

Коэффициент корреляции:

cor(X; Y ) = cov(X; Y )

(X) (Y )

Ясно, что это просто нормированная или безразмерная ковариация. Прикладной смысл этой характеристики пары случайных величин можно извлечь из следующих утверждений.

Предложение 35.

1. Если X и Y независимы, то cor(X; Y ) = 0. 2. jcor(X; Y )j 1.

118

Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ

 

 

3. Если cor(X; Y ) = 1, то X Y = 0 с вероятностью 1.

Это эквивалентно тому, что (Y )X (X)Y = const с вероятностью 1.

Первое следует из соответствующего свойства математического ожидания.

Òàê êàê cor(X; Y ) = cor(X; (Y ), будем считать, что X è Y центрированы и нормированы. Тогда D(aX + bY ) =

= M(a2X2 + 2abXY + b2Y 2) = a2 + 2ab cor(X; Y ) + b2 0.

Отсюда при jaj = jbj = 1 следует 2., а при a = b следует, что

D(X Y ) = 0.

Извлечение звучит так: если cor(X; Y ) = 0, то говорят, что ве-

личины статистически независимы; с ростом коэффициента теснота связи межу величинами возрастает; и когда он достигает значения1, величины X è Y становятся линейно зависимыми (просто, без

всякой вероятности).

11 Условное распределение

Пусть даны две случайные величины X; Y с функцией распределения F(x; y), которая может иметь плотность p(x; y). Тогда услов-

ным распределением величины X при условии, что случайная вели-

÷èíà Y принимает постоянное значение, называется распределение

с плотностью

 

p(x; Y )

p(xjY ) =

 

 

 

 

 

 

pY (Y )

и с функцией распределения

Fy0 (x; Y )

F(xjY ) =

 

pY (Y )

 

Это распределение случайной величины X зависит от случайного параметра Y . Чтобы не путать эту величину X с исходной величи-

íîé X, можно ее обозначать как-нибудь иначе: XjY , XY , Таким об- разом, условное распределение величины X есть величина тоже слу-

чайная, принимающая какое-либо значение и даже существующая в зависимости от значения величины Y . Это определение согласуется

с определением условной вероятности: P(AB) = P(A=B) P(B); согласие задается формулами: A = (X = x), B = (Y = y), P(AB) =

= p(x; y) dx dy = p(xjy) dx p (y) dy.

Y

Условные моменты величины X, естественно, определяются как

моменты случайной величины с условной плотностью p(xjY ), íà-

пример, условное математическое ожидание, которое называется также функцией регрессии X íà Y :

 

 

БОЛЬШИХ ЧИСЕЛ

119

12. НЕРАВЕНСТВО ЧЕБЫШЕВА И ЗАКОНЫ

M(XjY ) = Z

x dx F(xjY )

 

Пример условного распределения см. в упражнении 13 с. 123.

12 Неравенство Чебышева и законы больших чисел

До введения Чебышевым этих почти бессодержательных неравенств между интегралами закон больших чисел доказывался с большими сложностями. Пафнутий Львович Чебышев был славен "умением получить посредством элементарных средств большие научные результаты".

Теорема 36 (Чебышев). Пусть X неотрицательная случайная

величина. Тогда P(X ") M(X)

"

 

1

1

 

 

M(X) =

Z

x p(x) dx " Z

p(x) dx = " P(X ")

 

 

0

"

 

 

Теорема 37. Неравенство Чебышева. (Бьенеме, 1853, Чебышев, 1867)

P(jX M(X)j ") D(X)

"2

Доказательство получится если в формулировку предыдущей тео-

ремы подставить (X M(X))2 вместо X è "2 вместо ".

 

Из неравенства Чебышева легко выводятся несколько законов больших чисел. Рассмотрим их в хронологической последовательности.

Докажем классический закон больших чисел Теорему 33. Применим неравенство к случайной величине K числу появле-

ний события A â n независимых испытаниях:

P(j K p nj " n) q p n

"2 n2

Правая часть стремится к нулю с ростом n, что и требуется.

Теорема 38 (Пуассон, 1837). Пусть 1; : : : ; n независимые ис-

пытания, A1; : : : ; An события, происходящие в этих испытаниях с вероятностями p1; : : : ; pn, K число случившихся событий из

числа (Ai): Тогда

P

Kn

Pnpi

 

" ! 0 ïðè n ! 1

 

 

 

 

 

 

 

 

 

 

 

 

 

120 Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ

Применим неравенство Чебышева к случайной величине

K =

n

Xi, ãäå Xi =

1;

åñëè

!i

 

Ai

 

 

 

противном случае

 

P1

n

0;

â

 

 

 

2

 

P

n

Pn

i

" P"2 ni

2

i

 

 

K

 

p

 

 

q p

 

 

 

 

 

 

 

 

 

 

 

! 0 ïðè n ! 1

 

Теорема 39 (Чебышев, 1867). Пусть (Xi) последовательность

независимых случайных величин с равномерно ограниченными дисперсиями: D(Xi) C. Тогда

Pn = P

n1

P

1n Xi n1

1n mi

" ! 0 ïðè n ! 1

 

 

 

P

 

Снова неравенство

 

 

 

 

 

 

дает оценку

 

 

Чебышева

 

 

 

D

n

 

 

 

!

 

! 1

 

 

 

P

C

 

 

Pn

 

 

( 1 Xi)

 

 

 

 

0 ïðè n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

"2 n2

 

 

"2 n

 

 

 

 

Теорема 40 (Марков, 1907, 1913). Пусть (Xi) такие случайные величины с конечными математическими ожиданиями mi, ÷òî

Тогда

D(X1 + + Xn) ! 0 ïðè n ! 1 n2

Pn ! 0 ïðè n ! 1

Доказательство подобно предыдущему. Отличие этого закона больших чисел от предыдущего состоит лишь в том, что здесь условие независимости случайных величин заменено техническим следствием из него.

В следующем результате словом "вероятность" замаскировано то обстоятельство, что речь идет о мере в бесконечномерном пространстве. В качестве этого пространства элементарных событий можно

1

взять произведение Q Rxj и в качестве вероятностной меры про-

1

изведение мер d FXj . Но еще прежде, чем говорить о мере, было бы "честнее" распространить понятия функции и сходимости на ситуацию бесконечного числа независимых переменных. Обсуждение этого результата см. в замечании на с. 104.

Теорема 41. Усиленный закон больших чисел (Э. Борель, 1909, . . . , А. Н. Колмогоров, 1933, . . . ). Пусть случайные величины X1; : : :

независимы и центрированы, а их дисперсии ограничены: D(Xi) C.

Тогда почти всюду

X1 + + Xn

!0

.

n

 

Для доказательства требуется лемма, в которой сформулирован еще один закон больших чисел.