Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Posit1nov (1)

.pdf
Скачиваний:
17
Добавлен:
21.03.2016
Размер:
872.56 Кб
Скачать

Замечание 7.1 Неравенство (7.1) иногда называется неравенством Маркова. Если применить неравенство (7.1) к |X|, то оно справедливо для любой случайной

величины

P (

X

| ≥

ε)

E|X|

и P (

X

| ≥

ε) = P (

X

s

εs)

E(|X|s)

, s > 0.

|

 

 

ε

|

 

|

|

 

 

εs

 

Следствие 7.1 (Неравенство Чебышева.) Пусть X - случайная величина у которой существует второй начальный момент E(X2) < ∞, тогда для любого ε > 0

справедливы следующие неравенства

P (|X| ≥ ε) ≤

E(X2)

, P (|X − E(X)| ≥ ε) ≤

D(X)

 

 

 

.

ε2

ε2

Второе из этих неравенств называется неравенством Чебышева.

Доказательство. Во-первых, заметим, что можно доказать, что из существования второго начального момента следует существование математического ожидания и дисперсии.

Первое из приведенных неравенств следует из равенства множеств {|X| ≥ ε} = {X2 ≥ ε2} и неравенства Маркова. Второе следует из первого, если применить его

кслучайной величине Y = X − E(X).

Вприложениях часто используются неравенства Маркова и оба приведенных в следствии неравенства. Поясним геометрический смысл, например, неравенства Чебышева.

Вероятность попадания случайной величины X

в заштрихованную область не превосходит D(X)/ε2.

Пример 7.1 Для случайной величины X с заданными математическим ожиданием mx и дисперсией σx2 оценить сверху вероятность того, что величина X отклонится от своего математического ожидания mx не меньше, чем на .

Используя неравенство Чебышева будем иметь

P (|X − mx| ≥ 3σx) ≤

D(X)

=

1

.

 

 

 

x2

9

Доказанное неравенство является обощением правила трех сигм (см. следствие 4.2). Из неравенства Чебышева следует, что P (|X −mx| < ε) > 1 −Dx2, откуда P (|X − mx| < 3σx) > 8/9. То есть при наличии математического ожидания и дисперсии с вероятностью б´oльшей 8/9 (в среднем - 8 значений из 9) все значения случайной величины лежат на промежутке (E(X) −3σ(X), E(X) + 3σ(X)). Более того P (|X − mx| < nσx) > 1 − 1/n2.

63

7.2Закон больших чисел. Теорема Чебышева

Рассмотрим различные виды сходимости последовательностей случайных величин.

Определение 7.1 Говорят, что последовательность случайных величин Xn сходится при n → ∞ к величине X по вероятности, если для любого ε > 0

P (|Xn − X| ≥ ε) → 0.

P

Этот факт обозначают Xn −→ X, n → ∞.

Определение 7.2 Говорят, что последовательность случайных величин Xn сходятся при n → ∞ к величине X с вероятностью 1, если P {ω : Xn(ω) → X(ω)} = 1, то есть вероятность множества тех исходов, для которых последовательность случайных величин Xn сходится к случайной величине X равна 1.

Теорема 7.2 (Теорема Чебышева, закон больших чисел.) Пусть задана последовательность независимых случайных величин X1, X2, . . . , Xn, . . ., с конечными математическими ожиданиями E(Xi), i = 1, 2, . . . , n, . . . и ограниченными сверху по совокупности дисперсиями D(Xi). То есть существует такое число C > 0,

i

)

C для любого i =

1

 

n

 

 

 

 

→ ∞

для последовательности

что D(X

 

 

 

, 2, . . . Тогда при n

 

 

средних арифметических

 

n = Pi=1 Xi/n справедливо соотношение

 

X

 

 

 

 

X

1

n

n

 

1

n

n

)

 

= |Xn − E(Xn)| −→ 0.

(7.2)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Доказательство. Найдем математическое ожидание и дисперсию случайных величин Xn.

E(Xn) = E X1 +

 

n

+

 

 

n

=

E(X1) + .n +

(

 

n) .

 

 

 

 

 

 

 

 

. . .

 

 

X

 

 

 

 

 

. .

E

X

 

 

Используя свойство D2 дисперсии получим

 

= n2 D(X1 + . . . + Xn).

D(Xn) = D

 

1 +

n

 

+

 

 

n

 

 

 

 

 

 

X

 

 

. . .

 

 

X

 

 

 

 

1

 

 

 

 

 

Отсюда, используя независимость случайных величин и ограниченность дисперсий

имеем

D(Xn) = (D(X1) + D(X2) + . . . + D(Xn))/n2 ≤ nC/n2 = C/n.

Применяя неравенство Чебышева и переходя к пределу при n → ∞ получим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D X

 

C

 

P |Xn − E(Xn)| ≥ ε ≤

( n)

 

 

→ 0.

ε2

2

Это и означает (см. определение (7.1)), что |Xn − E(Xn)| сходится по вероятности

к нулю.

64

Следствие 7.2 Пусть в условиях теоремы Чебышева E(Xi) = m для любого i = 1, 2, . . . Тогда

P

Xn −→ m при n → ∞.

Чтобы доказать следствие достаточно заметить, что в этом случае

n

X

E(Xn) = E(Xi)/n = m.

i=1

В частности, условия следствия выполнены для последовательности независимых одинаково распределенных случайных величин: Xi X, i = 1, 2, . . ., если существуют E(X) и D(X) . При этом случайную величину X часто называют генеральной совокупностью, а последовательность X1, X2, . . . - выборкой из генеральной совокупности. Можно интерпретировать X1, X2, . . . как последовательность независимых измерений неизвестной случайной величины X. Мы получили, что при

существовании математического ожидания и дисперсии среднее арифметическое последовательности независимых измерений сходится по вероятности к математическому ожиданию (среднему) измеряемой случайной величины.

Теорема 7.3 (Бернулли) Пусть производится n независимых опытов, в каждом из которых может появится событие A с вероятностью p = p(A). Тогда при неограниченном увеличении n - числа опытов, частота (то есть отношение числа успехов к числу опытов) события A сходится по вероятности к его вероятности p = p(A).

Доказательство. Рассмотрим независимые случайные величины Xi - число появлений события A в i-ом опыте (бернуллиевские случайные величины). Тогда случайная величина Xi принимают при i = 1, 2, ... ровно два значения - 0 и 1. Ряд распределения cлучайной величины Xi при любом i имеет вид

xi

 

0

1

.

pi

 

1 − p

 

 

p

Математическое ожидание - E(Xi) = p, дисперсия - D(Xi) = p(1 − p). Пусть k = X1 + X2 + ... + Xn, тогда k - число успехов в n испытаниях является случайной величиной имеющей биномиальное распределение. Последовательность X1, X2, ..., Xn, ...

удовлетворяет условиям теоремы Чебышева и, следовательно, при n → ∞

k

 

X1 + X2 + ... + Xn

P

m1 + m2 + ... + mn

 

 

=

 

−→

 

= p.

n

n

n

Обобщением теоремы Бернулли является теорема Пуассона.

Теорема 7.4 (Пуассона.) Если производится n независимых опытов и вероятность появления события A в i-ом опыте равна pi, то при увеличении n модуль разности частоты события A и среднего арифметического вероятностей pi сходится по вероятности к 0.

65

Аналогично теореме 7.3 теорема 7.4 выводится из теоремы Чебышева 7.2.

Сформулируем усиленный закон больших чисел в форме Колмогорова.

Теорема 7.5 Пусть X1, X2, . . . , Xn, . . . - последовательность независимых оди-

наково распределенных случайных величин. Тогда существование математических ожиданий E(Xi) = m является необходимым и достаточным для того, чтобы с

вероятностью 1 среднее арифмемическое случайных величин стремилось к их общему математическому ожиданию:

n

X

Xn = Xi/n → m.

i=1

7.3Центральная предельная теорема.

Объектом изучения центральных предельных теорем являются предельные законы распределения последовательностей случайных величин. Мы сформулируем одну из них, на которой базируется изучение выборочной модели в математической статистике.

Теорема 7.6 (Центральная предельная теорема) Пусть X1, X2, ..., Xn, ... - неза-

висимые одинаково распределенные случайные величины, с конечными ожидания-

 

 

P

n

Sn =

ми E(Xi) = m и дисперсиями D(Xi) = σ2. Пусть, как и раньше, Xn = (

 

i=1 Xi)/n.

Рассмотрим последовательность центрированных нормированных величин

 

(Xn − E(Xn))/σ(Xn). Тогда при n → ∞ последовательность FSn (x) функций распределения случайных величин Sn равномерно по x R сходится к Φ(x) - функции

распределения стандартного нормального закона.

Если ввести понятие точной верхней грани множества - sup{D}, D R - наименьшего из таких чисел C, что для всех x D, x ≤ C, то утверждение теоремы примет

вид

sup |FSn (x) − Φ(x)| → 0 при n → ∞.

x R

Заметим, что E(Xn) = m, D(Xn) = σ2/n и, следовательно, Sn = n(Xn − m)/σ.

Рассмотренная в подразделе 3.4 интегральная теорема Муавра-Лапласа является частным случаем центральной предельной теоремы для последовательности бернуллиевских случайных величин.

Этот вариант центральной предельной теоремы демонстрирует значимость нормального распределения – среднее арифметическое случайных величин, распределенных по любым законам в условиях теоремы при больших n имеет распределение близкое к нормальному. Если изменить условия на Xi, то предельные распределе-

ния могут и не быть нормальными.

8Элементарная теория процессов.

8.1Понятие о случайной функции.

Пусть имеется вещественная переменная t, которая принимает свои значения на некотором множестве T . Если каждому значению t из T соответствует случайная

66

величина X, то будем говорить, что мы имеем случайную функцию вещественной

переменной.

Эту функцию будем обозначать X(t).

Пример 8.1 Игральная кость бросается n раз. X(K) – число очков, выпадающее на кости при K-ом бросании. Очевидно, что T – множество натуральных чисел {1, 2, ..., n}. При каждом K случайная величина X дискретна и принимает целые

значения от 1 до 6 с равными вероятностями.

Очевидно также, что случайные величины получающиеся при различных бросаниях X(K1) и X(K2) (K1 6= K2) – независимы. Область определения этой функ-

ции дискретна.

Определение 8.1 Случайные функции с дискретной областью определения называются случайными последовательностями.

Пример 8.2 Пусть X(t) – количество сигналов, поступивших на телефонную станцию за время t. При этом предполагается, что моменты поступления сиг-

налов случайны, независимы и вероятность поступления одного сигнала на малом интервале пропорциональна длине интервала.

Очевидно, что функция X(t) принимает целые значения от 1 до , то есть множество её значений дискретно, тогда как область определения T = [0, ∞)

непрерывна.

Определение 8.2 Случайные функции, аргументом которых является время, как это было в последнем примере, встречаются довольно часто и обычно называются случайными процессами.

Пример 8.3 Несколько раз в день измеряется температура воздуха. Пусть T = {t1, t2, ..., tn} – множество моментов времени, в которые производят измерения и X(tk) – непрерывная случайная величина, равная зарегистрированной темпера-

туре.

Полученный случайный процесс X(t) можно назвать процессом с непрерывны-

ми состояниями и дискретным временем.

Пример 8.4 Пусть Θ(t) – угол крена корабля. Очевидно, что это случайный про-

цесс с непрерывным временем и непрерывными состояниями.

Определение 8.3 Сечением случайной функции будем называть случайную величину, которая получается при некотором фиксированном значении t. Если же, наоборот, изменять t и для каждого t брать полученное при опыте значение случайной величины, то получится неслучайная функция x(t), которую мы будем

называть реализацией случайного процесса.

Например, для примера 8.1 реализацию можно представить в виде таблицы:

K

1

2

3

4

5

 

 

 

 

 

 

X(K)

5

1

2

1

6

 

 

 

 

 

 

67

Для примера 8.2 эту реализацию удобно изобразить на графике:

6x

-

t

и так далее.

Иногда случайный процесс изображают в виде набора реализаций.

6x

 

 

 

 

 

q

 

 

 

q

 

 

 

 

 

 

 

 

 

 

q

 

 

-

 

 

 

 

 

 

 

 

t1 t2 t3

t

Здесь каждая кривая является реализацией случайного процесса, а точки пересечения этих кривых с прямыми вида t = tm дают значения случайной величины в

её сечении.

8.2Характеристики случайных функций.

Очевидно, что одной из наиболее важных характеристик случайной функции является распределение случайной величины, получаемой в сечении функции.

Вернемся к примерам первого параграфа.

В примере 8.1 случайная величина X(K) – дискретна и распределение её вероят-

ностей описывается таблицей:

X(K)

1

2

3

4

5

6

 

 

 

 

 

 

 

P

1/6

1/6

1/6

1/6

1/6

1/6

 

 

 

 

 

 

 

Полезно отметить, что вероятности значений случайной величины X(K) не зависят от сечения, то есть от значения аргумента K.

Второй пример 8.2 более интересен. Зафиксируем некоторый момент τ и выведем закон распределения вероятностей случайной величины X(τ ). Обозначим через P (K, τ ) – вероятность того, что за время τ поступит K сигналов. По условию P (1, τ ) = a · τ , где a – данный коэффициент пропорциональности.

Будем считать, что τ настолько мал, что

 

P (0, τ ) + P (1, τ ) = 1

 

(Это равенство означает, что за время

τ поступает не более одного сигнала). Тогда

P (0,

τ ) = 1 − a τ

(8.1)

Вычислим P (0, τ ) – вероятность того, что за время τ не поступит ни одного сигнала. Так как событие "не поступило ни одного сигнала за промежуток времени от 0

68

(aτ )K e−aτ K!

до τ + τ " является произведением событий "не поступило ни одного сигнала за промежуток от 0 до τ " и "не поступило ни одного сигнала за промежуток от τ до τ + τ " и два последние независимы, то

P (0, τ + τ ) = P (0, τ )P (0, τ ).

Используя (8.1), получаем

P (0, τ + τ ) = P (0, τ )(1 − a τ ),

откуда

P (0, τ + τ ) − P (0, τ ) = −aP (0, τ )Δτ.

Деля обе части последнего равенства на τ и переходя к пределу при τ → 0,

получим

Pτ(0, τ ) = −aP (0, τ ).

Интегрируя это уравнение, получим искомую вероятность P (0, τ ) = Ce−aτ .

Так как в начальный момент сигналов не было, P (0, 0) = 1 и отсюда C = 1. Окончательно P (0, τ ) = e−aτ . Теперь найдем P (1, τ ) – вероятность того, что за время τ поступит 1 сигнал.

Для этого опять рассмотрим сначала промежуток времени от 0 до τ + τ . Очевидно, что событие "поступил 1 сигнал за время от 0 до τ + τ " можно представить в виде суммы произведений A1τ +Δτ = AA0Δτ + AA1Δτ , где Ait означает событие, состоящее в том, что за время t поступило i сигналов. Так как события Aи A, а также события A0Δτ A1Δτ попарно несовместны, а события Aи Ai τ попарно независимы при i = 0, 1 будем иметь

P (1, τ + τ ) = P (AA0Δτ + AA1Δτ ) = P (A)P (A0Δτ ) +

+ P (A)P (A1Δτ ) = P (1, τ )P (0, τ ) + P (0, τ )P (1, τ ) =

= P (1, τ )(1 − a τ ) + e−aτ a

τ.

Отсюда

 

Pτ(1, τ ) = −aP (1, τ ) + ae−aτ ,

где P (1, 0) = 0.

Решая это дифференциальное уравнение, получим P (1, τ ) = (aτ ) · e−aτ .

Аналогично можно получить

P (K, τ ) + aP (K, τ ) = aP (K − 1, τ ),

откуда по индукции имеем P (K, τ ) = .

Таким образом, мы имеем в каждом сечении случайную величину, распределенную по закону Пуассона. При этом вероятности значений этой величины существенно зависят от значения t.

Вернемся к общему случаю.

Если случайная величина в сечении случайного процесса дискретна, то задается распределение вероятностей её значений, как это было в рассмотренных примерах. Если же эта величина непрерывна, то задается функция её распределения F (x, t)

69

или плотность распределения f (x, t) = Fx(x, t). Такой закон распределения назы-

вается одномерным.

Итак, одной из характеристик случайной функции является ее одномерный закон распределения, то есть закон распределения вероятностей значений этой функции в каждый момент времени. Для более полной характеристики вводится многомерный закон.

Рассмотрим несколько сечений случайной функции X(t1), ..., X(tn). Совокуп-

ность этих сечений можно рассматривать, как случайный вектор. Распределение такого вектора называют конечномерным распределением случайной функции.

Например, может быть задана двумерная функция распределения случайной функции F (x1, x2, t1, t2), трехмерная функция и так далее Но эти характеристики на

практике далеко не всегда известны и, даже если известны, то очень трудоемки для обработки. Поэтому чаще используются не законы распределения, а их числовые характеристики.

8.3Числовые характеристики случайных функций.

Пусть X(t) - случайная функция. Фиксируя t, мы получим случайную величи-

ну. Можно говорить о вычислении моментов этой случайной величины, например, математическоого ожидания и дисперсии.

Определение 8.4 Математическим ожиданием случайной функции X(t) называется неслучайная функция, которая каждому значению аргумента t сопостав-

ляет математическое ожидание случайной величины, образующейся в сечении случайной функции при данном t: mx(t) = E(X(t)).

Определение 8.5 Дисперсией случайной функции X(t) называется неслучайная функция, которая каждому значению аргумента t сопоставляет дисперсию случайной величины, образующейся в сечении случайной функции при данном t.

Пример 8.5 Пусть случайная функция имеет вид X(t) = vt+b, где v - случайная величина распределенная по нормальному закону с параметрами mv , σv , b - не случайная величина. Найти одномерную плотность распределения f (x, t) случайной функции и ее характеристики mx(t), Dx(t).

Решение. При фиксированном t случайная величина vt+b является линейной функцией случайного аргумента v распределенного по нормальному закону и, следова-

тельно, она сама будет нормально распределенной с математическим ожиданием

mx(t) = E(vt + b) = tE(v) + b = mv t + b,

и дисперсией

Dx(t) = D(vt + b) = t2D(v) = σv2t2.

Плотность распределения будет иметь вид

f (x, t) =

1

 

e−(x−(mv t+b))2 /(2t2 σv2).

 

σv |t| 2π

70

Пример 8.6 Рассмотрим пример 8.2 из подразд. 8.1 (см. также подразд. 8.2) и найдем параметры этого случайного процесса.

Решение. Как показано в подразд. 8.2, в этом примере закон распределения сечения X(t) есть закон Пуассона с параметром λt. Значит mx(t) = Dx(t) = λt.

Очевидно, что, если случайная функция X(t) в каждом сечении представляет собой случайную величину с одномерной плотностью распределения f (x, t), то

mx(t) = Zxf (x, t)dx и Dx(t) =

Z(x − mx(t))2f (x, t)dx.

−∞

−∞

Определение 8.6 Корреляционной функцией случайной функции X(t) называется неслучайная функция двух аргументов Kx(t1, t2), которая при каждой паре значений аргументов t1, t2 равна корреляционному моменту соответствующих се-

чений случайной функции

Kx(t1, t2) = E[(X(t1) − mx(t1))(X(t2) − mx(t2))].

При t1 = t2 = t корреляционная функция превращается в дисперсию случайной

функции Kx(t, t) = Dx(t) = σx2(t).

Наряду с корреляционной функцией рассматривают нормированную корреляционную функцию, то есть коэффициент корреляции сечений X(t1) и X(t2)

rx(t1, t2) = Kx(t1, t2) . σx(t1x(t2)

Найдем корреляционные функции в примерах, рассмотренных выше. 1. В примере 8.5

Kx(t1, t2) = E[((vt1 + b) − (mv t1 + b))((vt2 + b) − (mv t2 + b))] =

=E((v − mx)2)t1t2 = D(v)t1t2.

2.В примере 8.2 имеем

Kx(t1, t2) = E[(X(t1) − mx(t1))(X(t2) − mx(t2))].

Допустим, что t2 > t1. Тогда X(t2) - число сигналов на промежутке от 0 до t2 будет равно X(t1) + Y (t2 − t1) - сумма числа событий на промежутке от 0 до t1 и числа событий на промежутке от t1 до t2. Случайная функция Y (t2 − t1), равная числу событий на промежутке от t1 до t2, по условию задачи имеет то же распределение, что и X(t), случайные функции X(t1) и Y (t2 − t1) - некоррелированы. Поэтому

Kx(t1, t2)

=

˚

˚

˚

− t1))] =

 

E[(X(t1)(X(t1) + Y(t2

 

 

=

˚

2

 

˚

˚

− t1)] = Dx(t1) = λt1

,

 

E[(X(t1))

] + E[X(t1)

· Y(t2

˚

 

˚

 

 

 

 

 

 

где X(t) = X(t)−mx(t) и Y(t) = Y (t)−my (t) - центрированные случайные величины,

соответствующие данным.

Так как Kx(t1, t2) = Kx(t2, t1), то при t1 > t2 получим Kx(t1, t2) = λt2. Таким

образом, для пуассоновского процесса

Kx(t1, t2) = λt, где t = min(t1, t2).

71

8.4Важнейшие классы случайных процессов

I. Случайная функция X(t) называется гауссовской, если все ее конечномерные

распределения нормальны.

Примером такой функции является винеровский процесс.

II. Случайный процесс X(t) называется процессом с независимыми приращениями, если для t0 ≤ t1 ≤ ... ≤ tn, где tk T случайные величины X(t1) −

X(t0), X(t2) − X(t1), ..., X(tn) − X(tn−1) независимы.

Например, рассмотренный выше пуассоновский процесс является процессом с независимыми приращениями, так как разность X(tk ) − X(tk−1) равна числу сигналов, полученных за время от tk−1 до tk , а это число не зависит от числа сигналов, полученных до момента tk−1, а зависит только от величины промежутка (tk−1, tk).

III. Случайный процесс X(t) - называется стационарным, если для любого h конечномерные распределения случайной функции X(t), не меняются при сдвиге на h, то есть для плотностей распределения

f (x, t) = f (x, t + h), f (x1, x2, t1, t2) = f (x1, x2, t1 + h, t2 + h) и т. д.

III-a. Случайный процесс называется стационарным в широком смысле, если у него существуют первые и вторые моменты и они не меняются при сдвиге

E(X(t + h)) = E(X(t)) и Kx(t1 + h, t2 + h) = Kx(t1, t2).

Это означает, что E[X(t)] = E(X(0)) = const, а Kx(t1, t2) = Kx(0, t2 − t1) =

Kx(t2 − t1) - зависит только от разности t2 − t1, то есть является функцией одного

аргумента. Если стационарный процесс имеет первые два момента, то он является стационарным в широком смысле.

Мы будем в дальнейшем иметь дело только со стационарными в широком смысле процессами и, поэтому, будем называть их просто стационарными.

Корреляционную функцию такого процесса будем обозначать K(τ ), где τ =

t2 −t1. Так как Kx(t1, t2) = Kx(t2, t1), то K(τ ) = K(−τ ), а дисперсия Dx = Kx(t, t) = K(0) - постоянна.

8.5Линейные операторы.

Напомним, что мы говорим, что в некотором классе функций задан оператор, если каждой функции этого класса соответствует (единственным образом) функция того же ( или другого) класса. Например, каждой дифференцируемой на некотором промежутке функции можно сопоставить ее производную:

x(t) → x(t).

Оператор будем обозначать заглавными буквами: y(t) = A(x(t)). Оператор L будем

называть линейным однородным, если

1)L(x1 + x2) = L(x1) + L(x2)

2)L(kx) = kL(x).

72

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]