Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

дов

.pdf
Скачиваний:
2
Добавлен:
23.02.2016
Размер:
1.43 Mб
Скачать
p 1; 2 (x; y) =

Однако последовательность цилиндров с компактными основаниями Kn не обязательно является убывающей. Сделаем из нее убывающую последовательность:

\

~

C(t1; :::; tn; Kn) := C(t1; :::; ti; Ki):

i n

Имеем:

 

X

 

 

X

 

i+1

 

~

; :::; tn; Bi) n C(t1; :::; tn; Ki)]

"=2

"=2:

P[C(t1; :::; tn; Bn) n C(t1; :::; tn; Kn)] P[C(t1

 

i n

 

i n

 

 

~

 

~

 

 

Поэтому P[C(t1; :::; tn; Kn)] > "=2, а это влечет, что все множества C(t1; :::; tn; Kn) непусты.

Далее доказывается, что пересечение этих множеств непусто, что приводит нас к противо-

~

(n)

(n)

 

2

речию. Для доказательства в каждом компакте Kn

выберем по элементу (xt1

; :::; xtn

)

Rft1;:::;tng. Превратим эту точку в элемент RT , считая функцию на остальных элементах T

равной

0

. По построению сужение элементов

x

(m)

,

m

 

n

t

 

; :::; t

ng принадлежит

~

n.

 

 

K

 

 

 

(n)

 

, на f

1

 

 

 

 

~

, из последовательности (xt1

) выделим сходящуюся подпоследова-

Ввиду компактности K1

тельность (x(t1nk)), далее из подпоследовательности (x(t1nk); x(t2nk)) выделим сходящуюся подпо-

следовательность (x(t1nkl ); x(t2nkl )). Повторяя эту процедуру счетное число раз для векторов все большей размерности, а потом используя метод выделения диагональной последовательности, мы получим подпоследовательность (x(ns)), сужение которой на каждое множество ft1; :::; tng сходится. Обозначим поточечный предел нашей подпоследовательности через x. Тогда в силу

~

~

компактности всех Kn, x 2 C(t1

; :::; tn; Kn) для всех n.

11. Парадоксы пуассоновского процесса. Случайные моменты остановки. Марковость.

В теории пуассоновского процесса большое значение имеют случайные величины n моменты n-й поломки станка. Из вероятностных соображений становится ясной независимость случайных величин 1, 2 1,..., n n 1. Но как строго обосновать этот интуитивно очевидный факт, ведь случайные величины n n 1 вроде бы зависят от значений процесса в континуальное число моментов времени. Для упрощения обозначений мы ограничимся доказательством независимости двух первых случайных величин. Сначала вычислим совместную плотность p 1; 2 . Для упрощения записи будем считать = 1. Имеем:

P(f 1 > x; 2 > yg) = P[f x = 0gf y = 0g + f y = 1g] =

= P[f y = 0g] + P[f x = 0g(f y x = 1g)] = e y + e x(y x)e (y x) = = e y(1 + y x):

Тогда

@2 e y(1 + y x)If0<x<yg = e yIf0<x<yg

@x@y

Далее с помощью замены переменных мы посчитаем совместную плотность случайных величин1 и 2 1, она имеет вид

p 1; 2 1 (x; y) = e (x+y)Ifx>0gIfy>0g = p 1 (x)p 2 1 (y):

Отсюда следует независимость и одинаковая распределенность случайных величин 1 и 2 1. Аналогично проверяется, что все случайные величины k k 1 имеют одно и то же распределение и независимы.

Парадокс, связанный с пуассоновским процессом. Если мы зафиксируем большой момент времени t (так что с большой вероятностью он больше момента 1 и рассмотрим следующий момент поломки , то случайная величина t в силу однородности по времени имеет то же распределение, что и любое k k 1. Обозначим через ~ момент поломки, предшествующий t

181

(или 0, если ранее поломок не было). Ясно, что случайная величина t ~ неотрицательна и не тождественный ноль. Поэтому распределение случайной величины ~ сдвинуто в положительную сторону по сравнению с распределением k k 1. В частности, у этого распределения больше среднее (при больших t оно почти вдвое больше). Между тем ~ это тоже время между двумя последовательными поломками, между моментами которых находится фиксированный момент времени t.

§31. Процессы массового обслуживания

1. Процессы массового обслуживания. Общая модель.

Обозначим снова через pn(t) вероятность наличия n элементов, описываемых нашим процессом. Классический однородный по времени процесс массового обслуживания задается бесконечной системой дифференциальных уравнений

pn(t)0 = ( + )pn(t) + pn 1(t) + pn+1(t); n = 0; 1; 2; :::; ( )

где характеристика называется интенсивностью заказов, а

mu интенсивностью исполнения заказов. В самой общей ситуации эти характеристики зависят от t и n. Метод исследования вероятностей pn(t) основан на использовании производящих функций. Эта задача лучше решается в следующем пункте, но лишь для частного случая. В общем случае системы уравнений (*) для производящей функции получаются уравнения в частных производных, содержащие производные высших порядков.

2. Преобразование Лапласа и производящая функция.

Преобразование Лапласа распределения P неотрицательной случайной величины функция неотрицательного параметра , задаваемая соотношением

Z

P( ) = e xdP(x):

[0:1)

Заметим, что для не обязательно неотрицательной величины интеграл может расходиться. Как и для характеристической функции, мы оперируем также с преобразованием Лапласа неотрицательной случайной величины ( ) = Ee . Очевидны свойства преобразования Лапласа: i) (0) = 1, ii) сама функция и все ее производные монотонны (такие функции называются строго монотонными), причем четные производные неотрицательны, нечетные производные неположительны, iii) преобразование Лапласа суммы независимых случайных величин является произведением преобразований Лапласа слагаемых. Замечательная теорема Бернштейна утверждает, что любая функция на [0; 1) со свойствами i), ii) является преобразованием Лапласа некоторого распределения вероятностей на [0; 1) и однозначно определяет это распределение.

Пример использования преобразования Лапласа. Как показать, что равномерное распределение на [0; 1] не является сверткой двух одинаковых распределений? Надо вычислить преобразование Лапласа равномерного распределения ( ( = 1 1 e ), взять корень этого выражения и дифференцировать много раз с помощью пакета ’Математика’, 12-я производная будет принимать не только положительные, но и отрицательные значения.

Для целочисленных неотрицательных случайных величин вместо преобразования Лапласа предпочитают использовать производящую функцию P(z), заданную на [0; 1) соотношением:

1

X

P(z) = Pfngzn:

n=0

Это преобразование получается из преобразования Лапласа подстановкой z = e . Она также однозначно определяет распределение (здесь это очевидно) и удовлетворяет условию iii),

однако P(0) = Pf0g, lim P(z) = 1 (в этом можно легко убедиться).

z&1

182

В следующем пункте мы будем использовать производящую функцию геометрического распределения

g(z) = p + p(1 p)z + p(1 p)2z2 + ::: =

p

:

 

1 (1 p)z

3. Процессы гибели и рождения.

Классический однородный по времени и по свойствам процесс гибели и рождения задается бесконечной системой дифференциальных уравнений

pn(t)0 = n( + )pn(t) + (n 1) pn 1(t) + (n + 1) pn+1(t); n = 0; 1; 2; :::;

где характеристика называется интенсивностью рождения, а интенсивностью гибели. Предполагается, что вероятности перехода из состояния n в несоседние состояния мала по сравнению с вероятностями сохранения состояния или перехода в соседние состояния. Известно, что в ядерной реакции это не так, так как при распаде образуется от 1 до 3 нейтронов (состояние число свободных нейтронов). Эту систему уравнений можно собрать с помощью понятия производящей функции

 

 

 

 

X

 

 

 

 

 

 

(z; t) =

pn(t)zn; 0 < z < 1:

 

 

 

 

 

n

 

 

 

Мы получаем следующее уравнение для производящей функции

 

@

 

(z; t) =

( + )z + z2

@

(z; t):

( )

 

 

 

 

 

@t

@z

Решение уравнения ищется в виде произведения (z; t) = '(t) (z). Получаем дифференциальные уравнения для обеих функций:

'(t)0

(z)0

 

= C;

 

( + )z + z2 = C:

'(t)

(z)

Оба уравнения решаются, но общее решение получается в виде выпуклой комбинации этих решений, зависящих от C, возможно даже в виде интеграла по C по некоторой плотности от C. Впрочем, для получения значений вероятностей pn(t) производящую функцию нужно дифференцировать n раз по z. Это непросто, так как интерес (например, в задачах взрыва) представляют как раз вероятности больших n.

В данном простом случае общее решение получается даже без использования теории уравнений в частных производных. Действительно, уравнение

@

f(x; y) =

@

f(x; y)

( )

 

@x

@u

заменой переменных u = x + y, v = x y. Представляя f(x; y) = g(u; v) мы приходим к уравнению @v@ g(u; v) = 0, решением которого является произвольная дифференцируемая функция g(u; v) = h(u), отсюда получаем f(x; y) = h(x + y). Заметим для будущего, что, так как экспонента является взаимно однозначной функцией, мы можем представить h(x + y) =

'(C

1

eC2(x+y)

. Уравнение (*)

сводится к (**) заменой переменных: (t; z) = ~(t; w), где w = w(z)

 

 

 

1

 

 

 

 

 

@

 

@

 

выбирается так, что w0(z) =

 

 

, тогда ( z )(z 1)

 

(z; t) =

 

~(z; t). Вычисляя

( z )(z 1)

@z

@w

неопределенный интеграл, с учетом сделанного выше замечания, получаем:

 

 

 

 

 

 

 

 

z 1

 

 

 

 

 

 

 

 

 

(z; t) =

z

e ( )t

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Функцию

мы вычисляем исходя из начального условия. А именно, если в момент t = 0

имеется n0 особей, то (z; 0) = zn0 . Предварительно нужно убедиться в том, что

 

 

 

 

 

 

 

 

 

z

 

 

 

 

 

 

 

 

 

 

 

 

 

z 1

= z:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

z

 

 

 

 

 

 

 

 

 

 

 

 

 

z 1

 

 

 

 

 

183

1 (1 p1(t))z

Поэтому

 

 

 

 

 

 

 

 

 

 

n0 :

 

 

 

 

 

 

 

 

 

(u) =

u

 

 

 

 

 

В результате имеем:

 

 

u

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

z

e ( )t

!

n0

 

 

 

)

 

 

 

( )t n0

(z; t) =

 

=

 

( z

( z

 

z e ( )t

 

 

)e ( )t

=

 

 

z 1

 

 

 

 

( z )

( z )e

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

z 1

 

 

 

 

 

=(e ( )t 1) + z( e ( )t) n0 : ( e ( )t ) z(e ( )t 1)

Полное описание распределений мы можем получить при n0 = 1, в этом случае наше распределение будет сверткой геометрического распределения с некоторым параметром p1(t) и распределения Бернулли с параметром p2(t). Для вычисления параметров представим производящую функцию как произведения производящей функции g(z) = p1(t) геометрического распределения и производящей функции b(z) = (1 p2(t)) + p2(t)z распределения Бернулли. Вычисления проводятся в предположении 6= . Сначала находим такое C, что

C (e ( )t 1) + C( e ( )t) = 1:

Имеем:

1

 

(e( )t

 

C =

e( )t; p2(t) =

;

 

 

 

 

 

Деля (z; t) на (1 p2(t)) + p2(t)z и используя представление для g(z), мы получаем

( )e ( )t

p1(t) = e ( )t :

Теперь запишем вероятность n частиц в момент времени t:

pn(t) = p2(t)p1(t)(1 p1(t))n 1 + (1 p2(t))p1(t)(1 p1(t))n =

p

(t) =

(e( )t

 

 

 

 

( )e ( )t

 

1

 

 

( )e ( )t

 

n 1 +

 

 

 

 

 

e ( )t

 

e ( )t

n

 

 

 

 

 

 

 

 

 

n

 

+ 1

 

 

(e( )t

 

 

( )e ( )t

 

1

 

 

( )e ( )t

 

:

 

 

 

 

 

 

 

 

 

 

e ( )t

 

 

e ( )t

 

 

 

 

 

 

 

 

 

 

 

 

§32. Свойства траекторий винеровского процесса

Для удобства мы в дальнейшем введем специальное обозначение для процесса броуновского движения с параметрами m = 0 и = 1. Такой процесс (в момент времени t) мы будем обозначать wt, а иногда и w(t).

1. Непрерывность траекторий винеровского процесса.

Этот факт является следствием более общей теоремы Колмогорова, дающей достаточное условие непрерывности почти всех траекторий случайного процесса.

Теорема. Пусть случайный процесс t удовлетворяет соотношению

E j t sj Cjt sj1+ 8t; s; где > 0; > 0:

(1)

~

Тогда существует процесс t, стохастический эквивалентный t, с п.н. непрерывными траекториями.

184

Напомним, что траекторией процесса называется отображение

!~ : t ! t(!):

Свойство траекторий почти наверное означает, что вероятность множества всех !, для которых это свойство выполняется, равна 1. При несчетном множестве значений времени t свойство траекторий может испортиться, если для каждого момента t процесс t изменится даже лишь на множестве вероятности 0. Разумеется, верно и обратное, в результате такого изменения траектории процесса могут стать хорошими.

Пример. Используем в качестве вероятностного пространство отрезок [0; 1], причем события борелевские подмножества [0; 1], а вероятность сужение на отрезок меры Лебега . Введем процесс

t = 0; 0 t 1:

Разумеется, у такого процесса все траектории непрерывны. Рассмотрим эквивалентный про-

~ 2

цесс t(!) = Iftg(!). Для каждого ! [0; 1] траектория этого процессе везде нуль и непрерывна, за исключением точки t = !. Впрочем, в данном примере свойство непрерывности нарушается не очень сильно. Мы можем сделать траектории всюду разрывными, рассмотрев другой эквивалентный процесс

~

~

t(!) = I[0;1]\tQ(!):

Поэтому для достижения нужного качества траекторий мы должны зарезервировать для себя право менять каждую случайную величину t на множестве вероятности 0, причем это

~

множество зависит от t. Получающийся при этом формально новый процесс t называется стохастически эквивалентным t. Важнейшее связывающее эти процессы свойство состоит в том, что эти процессы имеют одинаковые совместные распределения, т.е.

P t

1

; t

;:::; t

= P~

~

~

:

 

2

n

t1

; t2

;:::; tn

Действительно, при переходе от процесса к эквивалентному процессу на множествах нулевой вероятности меняются лишь случайные величины t1 ; t2 ; :::; tn , вероятность объединения нулевых множеств также равна нулю. Для простоты мы будем считать, что t 2 [0; 1].

Доказательство теоремы Колмогорова. Идея конструкции состоит в следующем: мы рассматриваем процесс t лишь для t = 2kn , где k, n натуральные числа. Такие числа t называются двоично-рациональными, их множество мы обозначим через S. Далее мы считаем траектории

!~ : s ! s(!); s 2 S:

заданными пока только на S. Потом доказываем, что для всех ! 2 1, где P 1 = 1, эти функции равномерно непрерывны на S. Далее продолжаем каждую такую !~ на все [0; 1], а

~

значение этой функции в точке t обозначаем t(!) (теперь это обозначение относится и к

~

двоично рациональным t). Очевидно, что у нового процесса t траектории непрерывны для всех ! 2 1. Но нужно показать, что

n

o

 

~

= 1 8t;

(2)

P t = t

 

~

2 S,

одновременно мы покажем измеримость функций t. Выберем последовательность sn

сходящуюся к t. По неравенству Чебышева и (1)

P

sn ! t:

Согласно известному соотношению между сходимостью по вероятности и почти наверное, некоторая подпоследовательность sn сходится почти наверное. Будем считать, что

п.н.

sn ! t:

185

Таким образом, sn (!) ! t(!) для всех ! из некоторого множества 1 вероятности 1. В то же время по построению

~

;

sn (!) ! t(!) для ! 2 2

~

 

где множество 2 имеет вероятность 1. Таким образом, t(!) = t(!) для всех ! из пересечения

1 \ 2 двух множеств с единичной вероятностью.

Теперь займемся процессом на S. Мы будем использовать лемму Бореля Кантелли, согласно которой сходимость ряда вероятностей PAn влечет принадлежность ! 2 с вероятностью 1 лишь конечному числу An.

Применим к (2) неравенство Чебышева, имеем:

Выберем q = 2

=2

 

P (k+1)=2n

k=2n

 

qn C 2 n n q n :

 

 

 

 

 

< 1, тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где r = 2

=2

< 1.

 

P (k+1)=2n k=2n

qn

C 2 nrn;

 

 

 

(3)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Из (3) следует, что при любом n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P

k

 

(k+1)=2

k=2

 

 

 

 

 

 

 

P (

(k+1)=2

k=2

 

 

 

)

 

 

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

 

 

 

 

 

max

n

 

n

 

 

 

qn

=

 

[

 

n n

 

 

qn

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2n 1

X

P (k+1)=2n k=2n qn 2n C 2 nrn = C rn:

k=0

Ряд из этих вероятностей сходится, по лемме Бореля Кантелли с вероятностью 1, начиная c некоторого n = n(!) имеем

(k+1)=2n (!) k=2n (!)

< qn:

(4)

 

 

 

 

Итак, будем считать, что ! удовлетворяет условию (4), и докажем равномерную непрерывность функции t ! t(!) на множестве двоично рациональных t. Так как q < 1, то qn ! 0, более того, ряд Pqn сходится. Пусть теперь нам дано число " > 0, мы должны выбрать для

n

него > 0 так, что js tj влечет j s(!) t(!)j < ". Выберем сначала такое натуральное n, что n > n(!) и

X

qi < "=4:

i n

Примем = 1=2n, и пусть js tj 1=2n. Если бы s и t были двоично рациональными точками вида k=2n, то мы имели бы либо s = t, либо s = m=2n, t = (m + 1)=2n (если t > s), согласно (4)

мы получили бы

j s(!) t(!)j < qn < "=4:

Но возможна ситуация, когда s и t имеют вид l=2m и r=2p, где m > n и p > n. Тогда мы приближаем точку s соседним числом s1 в разбиении на 2m отрезков, которое имеет уже вид

u=2m 1, где 2u = l 1 (при этом j s(!) s1 (!) < qmj), далее s1 приближаем числом s2 вида v=2m 2 и т. д., вплоть до числа s~ вида k=2n. Очевидно, что js s~j < 1=2n и (s = s0)

x

 

 

1

X

si (!) si 1

(!)

X

j s(!) s~(!)j i=1

i=n qi < "=4:

 

 

 

 

 

 

 

~

 

t

 

~

< 1=2

n

Аналогичное

приближение t мы находим для t:

j

 

t

j

 

~

n

. В итоге

 

 

 

 

построению js~ tj 2=2

 

 

 

 

 

 

 

 

и j t(!) ~(!)j "=4. Также по

t

j s(!) t(!)j j s(!) s~(!)j + j t(!) ~(!)j + j s~(!) ~(!)j

t t

186

187

"=4 + "=4 + "=2 = ";

что и требовалось. Дальнейшие рассуждения в доказательстве теоремы Колмогорова приведены выше.

Следствие. Винеровский процесс эквивалентен процессу (этот процесс мы и будем обозначать w) с почти наверное непрерывными траекториями.

Проверим выполнение неравенства (1) для процесса w. Любопытно, что нас не устраивает= 2, так как E jw(t) w(s)j2 = jt sj. Но = 4 нас устраивает: E jw(t) w(s)j4 = 2jt sj2,

(1)выполняется.

2.Сходимость почти наверное для оценки параметра m

Теперь мы можем доказать сходимость почти наверное t=t к параметру m броуновского движения почти наверное при t ! 1.

Для этого достаточно перейти к процессу w(t) и доказать п.н. сходимость w(t)=t к 0 (t ! 1). Оказывается, п.н. сходимость на 1 следует из непрерывности траекторий в 0! Дело в том, что мы проведем в процессе w(t) замену времени и рассмотрим вместо него процесс tw(1=t). Очевидно, этот процесс также является центрированным. Проверим, что ковариация этого

процесса совпадает с ковариацией винеровского процесса:

E(tw(1=t)sw(1=s)) = ts minf1=t; 1=sg = minft; sg:

Но мы знаем (см. многомерные характеристические функции), что совместное нормальное распределение однозначно определяется средними и вторыми моментами. Таким образом, совместные распределения нового процесса те же, что и у винеровского процесса w( ). Такое свойство винеровского процесса называется авторегрессионностью. Но тогда tw(1=t) винеровский процесс, и его траектории непрерывны, в частности, в нуле. Поэтому tw(1=t) почти наверное сходится к нулю при t ! 0 (т. е. при 1=t ! 1).

Замечание 1. Свойство авторегрессионности разумеется не имеет общий процесс броуновского движения t с ненулевым m. Действительно,

m

E(t 1=t) = t t = m =6 mt = E t:

Замечание 2. Заметим, что для п.н. сходимости случайного процесса нет эквивалентности двух определений предела – на языке " и на языке последовательностей. При доказательстве " определения мы имеем дело с несчетным набором множеств нулевой меры, мера объединения которых может быть не нуль.

Замечание 3. ’Улучшить’ теорему Колмогорова, убрав в формулировке строго положительное , нельзя. Центрированный пуассоновский процесс t, как и винеровский процесс, удовлетворяет соотношению E j (t) )j2 = jt sj, но его трактории не могут быть непрерывными, они терпят разрыв в момент каждой поломки.

3.Случай сходимости почти наверное к параметру 2.

4.Недифференцируемость траекторий винеровского процесса.

В доказательстве мы опять используем свойство авторегрессионности винеровского процесса: оказывается процесс tw 1t стохастически эквивалентен процессу w(t).

Далее мы выясним, что означает дифференцируемость функции хотя бы в одной точке. Если w(t)(!) дифференцируема в точке s, то

jw(t) w(s)j < C(s)jt sj

для всех t 2 (s; s+"(s)) в некоторой окрестности s. Разобьем отрезок, на котором задан процесс, на n частей, где 1=n меньше "=5. Тогда для некоторого l = l(s) > C(s), которое нам удобно считать натуральным (множество наших усилий должно быть счетным), для наименьшего ni s мы имеем:

 

i

w(s)

 

l

;

w

i + 1

 

w(s)

 

2l

;

w

i + 2

 

w(s)

 

3l

;

w n

n

n

n

n

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

+ 3

 

 

 

 

 

 

4l

 

 

 

w

i

 

 

w(s)

 

 

:

 

 

n

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Отсюда следует, что

 

j n

 

w

 

 

 

 

 

 

;

 

w

n n

 

 

+ 1

 

 

 

 

j

 

 

7l

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

для всех j = i; i+1; i+2. Отсюда мы выводим следующее описание множества всех траекторий, дифференцируемых хотя бы в одной точке отрезка [0; 1]:

M = 8! :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

w

j + 1

 

 

 

 

w

 

j

 

 

 

 

 

7l

 

9

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

n

 

 

 

 

 

 

 

 

<

 

l

N m

 

N n

 

m 0<i<n i

 

j

 

i+2

 

 

 

 

 

 

n

 

 

2

2

 

 

 

 

[

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

[ [ \

 

 

 

 

 

\

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Нам нужно доказать,:

что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

;

P(M) = 0. Нетрудно видеть, что для этого достаточно показать

 

 

 

 

 

 

 

 

 

где

 

 

 

 

 

 

P(Ml;m) = 0 для всех l; m 2 N;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

8! :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

9

 

 

Ml;m =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

w

 

 

 

j + 1

 

 

 

 

w

 

 

j

 

 

 

7l

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m 0<i<n i

j

 

 

i+2

 

 

 

n

 

 

 

 

n

n

 

 

 

<

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

[

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

 

 

 

 

\

 

 

\

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Для этого достаточно показать

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

;

 

 

8

 

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

9

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P

! :

0<i<n i j

 

i+2

w j n

 

 

w n

 

n

 

 

 

! 0 (n ! 1):

 

<

[

 

 

 

 

 

 

 

 

+ 1

 

 

 

 

 

 

 

 

j

 

 

 

 

7l

 

=

 

 

 

 

 

 

 

 

 

 

 

 

\

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Имеем:

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

;

 

 

 

 

 

 

 

 

 

 

 

P 8! :

 

 

 

 

 

 

 

 

w

 

j + 1

 

 

 

 

w

 

 

 

j

 

 

 

7l

 

9

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

n

n

 

 

 

 

 

 

 

 

<

0<i<n i

 

j

 

i+2

 

 

 

 

 

 

 

=

 

 

 

 

 

 

 

 

[

 

\

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

;

 

 

 

 

 

 

 

 

8

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

9

 

 

 

 

 

 

 

 

nP ! : i j i+2 w

 

 

n

 

 

 

w n

 

n

=

 

 

 

 

 

 

 

 

 

<

 

 

 

 

 

 

 

 

 

 

 

 

 

j + 1

 

 

 

 

 

 

 

 

 

 

j

 

 

 

 

7l

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

\

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

:

 

 

1

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

7;l

3

 

 

 

 

 

 

 

 

 

 

 

 

7l

 

 

 

 

 

= nP

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= nP ! : w n

n

 

! : jw(1)j pn

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n Const ! 0;

n3=2

что и требовалось.

5. Функциональные предельные теоремы для процесса w.

Итак, процесс w, где 0 t 1 можно рассматривать как случайный элемент ! ! w( )(!) со значениями в пространстве C[0; 1]. В таком случае распределение Pw это вероятностная мера на борелевской -алгебре в пространстве C[0; 1]. В пространстве всех вероятностных мер на этой -алгебре вводится понятие слабой сходимости точно так же, как и в пространствах вероятностных мер на борелевских -алгебрах конечномерных пространств. А именно, Pn слабо сходится к P тогда и только тогда, когда

ZZ

f(x)dPn(x) ! f(x)dP(x)

C[0;1]

C[0;1]

188

для всех непрерывных ограниченных функций f на C[0; 1]. В рамках этой теории мы кратко изложим результаты, которые в научной литературе называются принципом инвариантности Донскера Прохорова о слабой сходимости к распределению винеровского процесса распределений случайных ломаных. В более общей теореме Прохорова рассматриваются серии ni, i k(n), независимых случайных величин из теоремы Линдеберга.

2) E ni = 0 для всех n и k;

k(n)

3) P E ni2 = 1 для каждого n;

i=1

По каждой серии вводится процесс S(n) на [0; 1], который называется случайной ломаной. Обозначим

k

t(kn) = XE ni2 ; k k(n);

i=1

k

k(n) = X ni: i=1

Процесс S(n) задается следующими соотношениями:

S(n)(t) = ( k(n); если t = t(kn); k = 0; 1; :::;hk(n)

линеен на каждом отрезке t(kn); t(kn+1)

i

:

На всякий случай напомним, что функция f задается линейно на отрезке [a; b], если для всех2 (0; 1) имеет место равенство

f( a + (1 )b) = f(a) + (1 )f(b):

Как видите, мы построили действительно случайную ломаную, траектории которой безусловно непрерывны, то есть принадлежат пространству C[0; 1]. Ю.В. Прохоров доказал теорему:

распределения процесса S(n) на пространстве C[0; 1] слабо сходятся к распределению винеровского процесса. Заметим, что процесс случайного блуждания на f0; 1; :::; ng также можно интерпретировать как случайную ломаную на отрезке [0; 1], если процесс нормировать так, чтобы он в момент времени 0 имел дисперсию 1, траектории процесса нарисовать как ломаные, как мы это делали на лекции, точки k перевести в точки k=n,

Из теоремы Прохорова и следующей из нее сходимости интегралов от непрерывных функций можно вывести также результаты о сходимости вероятностей. Например, вероятность пересечения уровня для процесса случайного блуждания сходится к соответствующей вероятности для винеровского процесса. В частности, так можно доказать следующее любопытное равенство

Pf max w(t) xg = 2Pfw(1) xg:

(1)

0 t 1

6. Броуновский мост и его использование в математической статистике. Большой интерес для математической статистике представляет броуновский мост, который

называется также условным винеровским процессом. Этот процесс можно ввести не совсем строго как

w~(t) := Efw(t)jw(1) = 0g:

Таким образом броуновский мост начинается в 0 и кончается в 0. Совместные распределения броуновского моста нормальны и их можно определить следующим соотношением:

pw~(t);w~(s)(x; y) = pw(t);w(s);w(1)(x; y; 0): pw(1)(0)

189

0 t 1

Упражнение 3. Вычислите корреляционную функцию процесса w~. Докажите, что она совпадает с корреляционной функцией процесса w(t) tw(1).

j ~ j

Особый интерес представляет вопрос о распределении случайной величины max w(t) . Это

распределение является предельным для распределения статистики Колмогорова Смирнова (при числе наблюдений, сходящемся к 1).

7. Сильно марковское свойство винеровского процесса.

В этом пункте мы хотим доказать формулу (5.1) без использования функциональной предельной теоремы. Для этого мы хотим доказать аналог принципа отражения для случайного блуждания, однако в данной ситуации неприменимы рассуждения типа взамно однозначного соответствия между двумя множествами. Вместо функциональных предельных теорем мы применим теоремы о слабой сходимости многомерных распределений, которые были постулированы в 14.2 со ссылкой на одномерные аналоги, но не доказаны. Начнем со определений фильтрации случайного процесса и момента остановки случайного процесса, которые нам понадобится и в других параграфах. Эти определения мы вводим для процессов с непрерывным временем [0; 1). Аналогично эти понятия вводятся для процессов с дискретным временем f0g [ N и для процессов c прошлым, заданных на ( 1; 1).

Определение 1. Пусть для каждого t 0 задана -алгебра Ft A, причем Ft Fs при t s. Такой набор -алгебр называется фильтрацией.

Определение 2. Случайный процесс t называется согласованным с фильтрацией (Ft), если для любого t случайная величина t измерима относительно Ft.

Определение 3. Фильтрация (Ft) называется естественной фильтрацией случайного процесса t, если Ft для каждого t является наименьшей -алгеброй, относительно которой измеримы все случайные величины s (s t).

Определение 4. Отображение : ! [0; 1) называется моментом остановки относительно фильтрации (Ft), если f tg 2 Ft для любого t 0.

Пример. Рассмотрим случайное блуждание с бесконечным временем. В качестве возьмем пространство всех бесконечных последовательностей из знаков + и . На строится -алгебра множеств, порожденная всеми цилиндрами, состоящими из последовательностей (; ; :::; rm:::), в каждом цилиндре фиксированы первые n знаков, а остальные знаки произвольны. Мера каждого цилиндра с фиксированными первыми n-знаками принимается равной 1=2n. Мы можем заменить знаки числами 1, тогда RN, конечномерные меры согласованы и по теореме

 

: ( ; A; )

[0; )

S

Колмогорова существует вероятность на -алгебре, порожденной алгеброй

Fn.

Предложение 1. Пусть

P !

 

n

1 момент остановки относительно есте-

ственной фильтрации (Ft) винеровского процесса wt, 0 t < 1. Тогда функция w : ! ! w (!)(!) является случайной величиной, т.е. измерима относительно -алгебры событий A.

Доказательство. Представим как предел дискретных случайных величин (n) (см. обо-

значение в §7. п.1). Напомним, что

 

 

 

 

 

 

 

 

 

(n) =

 

k

I

( 2

 

 

 

)

:

 

 

 

 

 

k2Z n

k

k+1

 

 

n ;

n

 

 

X

 

 

 

h

 

 

 

и (n) равномерно сходится к . Проверим, что w (n) является случайной величиной:

fw (n) 2 Bg =

k

fwk=n 2 Bg

(n) = n

2 A;

 

X

 

 

k

 

так как все множества под знаком суммы являются событиями. Согласно теореме Винера из п. 1 мы можем считать, что функции ! : t ! wt(!) являются непрерывными. Поэтому

w (n) (!) ! w (!) для всех ! при n ! 1:

190

Тут вы можете оставить комментарий к выбранному абзацу или сообщить об ошибке.

Оставленные комментарии видны всем.