Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

дов

.pdf
Скачиваний:
5
Добавлен:
23.02.2016
Размер:
1.43 Mб
Скачать

Замечание. В доказательстве использовалось лишь, что неотрицательная случайная величина.

Предложение 2. Моментом остановки для винеровского процесса w на [0; 1) для любого

y > 0 является

 

 

 

 

 

 

 

 

y(!) =

inf

t : w

(!)

 

y

g

;

если такие t > 0 существуют;

1;f

t

 

 

 

если таких t > 0 не существует:

Доказательство. Очевидно, что ввиду непрерывности траекторий

f y tg = fsups tws yg = fsupfws : s 2 Q \ [0; t]g yg 2 Ft

для всех t 0. Теперь покажем, что Pf y = 1g = 0.

Предположим противное: Pf y = 1g = " > 0. Построим ряд из строго положительных

P

" 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

# 1

 

 

 

 

 

 

 

 

 

 

чисел

n n

< "=2. По этому ряду построим по индукции последовательность положительных

чисел tn

 

 

 

и последовательность отрицательных чисел xn

 

. Число xn выбираются по

tn 1 и tn так, что

 

 

 

 

 

Pfwtn wtn 1 xng < n;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Snf tn

 

 

 

 

 

xng, P(A) < "=2. Легко видеть,j

чтоj

 

j

 

j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

tn 1

 

 

+y < ptn+1

 

tn. Обозначим A =

 

 

а tn+1 выбирается из условия x1 +:::+

xn

 

 

w

 

 

w

 

 

f

 

t

 

t

 

g f

n

 

tn

 

g

 

 

[

\

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

sup w

 

y

 

 

sup w

 

y

 

 

A

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Поэтому

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P ptn+1

 

 

 

 

< 1

Pf y = 1g P(A) +

 

n

Pfwtn+1 wtn jx1j + ::: + jxnj + yg P(A) +

n

 

tn

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

wtn+1

wtn

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(A) +

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pfw1 < 1g < "=2;

 

 

 

 

 

 

 

 

 

 

n

что противоречит нашему предположению.

Далее мы докажем принцип отражения, позволяющий решать многие задачи в теории винеровского процесса. Мы опять будем использовать представление момента остановки как предела (n) со значениями вида k=n.

Теорема 1. Пусть момент остановки винеровского процесса wt, 0 t < 1, тогда

новый процесс

 

 

 

если t (!);

w( )

(!) =

wt(!);

t

 

2w (!) wt(!);

если t > (!):

также является винеровским.

Доказательство. Доказать, что wt( ) является винеровским означает доказать, что совместные распределения случайных величин w( )t1 ; :::; w( )tm те же, что и у винеровского процесса.

В силу непрерывности траекторий процесса w имеет место п.н. сходимость wt( (n)) ! wt( ) для любого t. Поэтому достаточно доказать теорему для любого дискретного момента остановки(n). Добавим к уже упорядоченному набору ft1; :::; tmg все дроби k=n tm, получим набор S = fs1; :::; spg, который мы также будем считать упорядоченным по возрастанию. Заметим, что нам достаточно доказать совпадение совместных распределений наборов

 

(n) ws1 ;(n)s2

 

w

s1(n)

 

sp

(n)sp 1

;

(n)

 

 

ws1

w

 

 

:::; w

w

 

 

 

 

); ws2

ws1

 

)

:::; wsp

)

wsp 1

:

(

( )

 

(

 

(

 

(

 

)

 

191

Обозначим Ak = f (n) = nk g. Так как произведения одномерных множеств в пространстве Rp порождают -алгебру (см. доказательство теоремы 6.4) нам достаточно проверить совпадение вероятностей событий.

Теорема 2.

Доказательство.

§33. Диффузионные процессы

1. Введение. Условные вероятности перехода.

Мы уже говорили о том, что марковские процессы (t) – это процессы, будущее которых при фиксированном настоящем не зависит от прошлого процесса. Таким образом, зная значение процесса (t), мы можем вычислить вероятности событий f (t + h) 2 Bg, которые являются условными вероятностями P f (t + h) 2 Bj (t) = xg. Марковскими процессами являются случайное блуждание, пуассоновский и винеровский процессы. Для пуассоновского процесса смысл условной вероятности прозрачен и мы имеем

P f (t + h) 2 Bj (t) = kg = P f (t + h) 2 B; (t) = kg = f(t; x; t + h; B):

P f (t) = kg

Для винеровского процесса такая формула не подходит, так как

P f (t) = xg = 0 для любого x:

Но у винеровского процесса можно ввести условную плотность. Сейчас мы введем это понятие. Пусть p;(x; y) совместная плотность случайных величин , . Тогда у случайной величины также имеется плотность, записываемая формулой:

Z

p (x) = p;(x; y)dy:

R

Условная плотность задается формулой, аналогичной формуле для условной вероятности:

p (yj = x) = p;(x; y): p (x)

Итак, мы рассматриваем марковский случайный процесс (t) с непрерывным временем, где 0 t 1. Процесс может иметь счетное число состояний (то есть случайные величины(t) принимают лишь счетное число значений с ненулевой вероятностью, значения мы будем обозначать натуральными числами i = 1; 2; 3; :::). В этом случае мы обозначим

P (s; i; t; j) = P f (t) = jj (s) = ig :

Эти условные вероятности называются вероятностями перехода из состояния i в состояние j за время от s до t. В случае, когда случайные величины (t) имеют совместные плотности (а следовательно, множество значений никак не может быть счетным) мы обозначим плотность вероятностей перехода из состояния x в состояние y за время от s до t:

p(s; x; t; y) = p (t)(yj (s) = x):

2. Уравнение Колмогорова Чепмена. Пусть s < u < t. Тогда

Z 1

p(s; x; t; y) = p(s; x; u; z)p(u; z; t; y)dz:

1

192

В непрерывном случае для доказательства уравнения Колмогорова Чепмена нужно приложить определенные усилия. В дискретном случае счетного числа состояний все очень просто и мы доказали дискретный аналог этого равенства (пункт 28.1):

X

( )

P (s; i; t; j) = P (s; i; u; k)P (u; k; t; j):

k

 

Отметим также тождество, которое будет позднее использовано несколько раз:

Z 1

p(s; x; u; z)dz = 1:

( )

1

3. Аксиомы диффузионных процессов.

В дальнейшем предполагается, что существуют такие функции a(t; x) и b(t; x), зависящие от времени и места, что для всех " > 0 имеют место соотношения:

Z

Zjz xj>" p(t; x; t + t; z)dz = o( t);

(1)

(z x)p(t; x; t + t; z)dz = a(t; x) t + o( t);

(2)

jz xj "

Z

(z x)2p(t; x; t + t; z)dz = b(t; x) t + o( t):

(3)

jz xj "

Легко проверяется, что процесс броуновского движения также удовлетворяет этим аксио-

мам с

a(t; x) = m; b(t; x) = 2:

Таким образом, диффузионный процесс можно рассматривать как броуновское движение в неоднородной среде, свойства которой со временем меняются.

4. Дифференциальные уравнения Колмогорова

Прямое уравнение Колмогорова

@p

=

@

[a(t; y)p(s; x; t; y)] +

1

@2

[b(t; y)p(s; x; t; y)]:

@t

 

@y

2

 

@y2

Приведем здесь, кое-где не очень строгое, доказательство (из книги Ю.А. Розанова). Рассмотрим пробную функцию ' (т. е. бесконечно дифференцируемую функцию с компактным носителем)

'(z) = '(y) + '0(y)(z y) +

1

'00(y)(z y)2 + o(z y)2:

(4)

2

Напомним, что равенство нулю интеграла от произведения всех пробных функций с данной функцией f влечет равенство почти всюду f = 0. Составим произведение (используя уравнение Чепмена – Колмогорова):

1

 

p(s; x; t + t; y) = Z 1 p(s; x; t; z)p(t; z; t + t; y)dz:

( )

Теперь рассмотрим интеграл от производной по времении переходной плотности, умноженной на пробную функцию:

lim

1

1

('(y))[p(s; x; t + t; y)

 

p(s; x; t; y)]dy =

t

Z 1

 

t!0

 

 

193

(учтем предыдущую формулу)

 

 

lim

1

1 1

1

 

=

t

Z 1 Z 1

'(y)p(s; x; t; z)p(t; z; t + t; y)dydz Z 1

'(y)p(s; x; t; y)]dydz =

t!0

(далее мы поменяем ролями в первом интеграле переменные y и z и учтем, что

t; z)dz = 1)

 

lim

1

1 1

['(z)

 

'(y)]p(s; x; t; y)p(t; y; t + t; z)dydz =

=

t

Z 1 Z 1

 

t!0

 

 

R 1

1 p(t; y; t +

(учитывая (1) и ограниченность ', мы по z можем интегрировать лишь по некоторому интервалу jz yj < ", а " выбираем сначала из условия малости o(z y)2 в (4))

= lim

1

 

1 y+"

 

'

(y)(z

 

y) +

1

'

(y)(z

 

y)2

+ o(z

 

y)2

p(s; x; t; y)p(t; y; t+ t; z)dzdy =

 

 

Z 1 Zy "

 

 

 

 

t!0

t

0

 

 

2

00

 

 

 

 

 

 

 

 

 

 

 

 

 

1

'0(y)a(t; y) +

1

 

'00(y)b(t; y) p(s; x; t; y)dy:

 

 

 

 

= Z 1

 

 

 

 

 

 

2

 

Далее каждое из слагаемых мы интегрируем по частям, первое слагаемое один раз и второе два раза. Мы используем равенство нулю функции ' и ее производных вне некоторого интервала, поэтому слагаемые без интегралов зануляются. Напомним, что каждое интегрирование по частям меняет знак перед интегралом. Итак,

1

 

@

 

 

1

 

 

@

 

 

 

 

 

1

@2

[b(t; y)p(s; x; t; y)] dy:

Z 1

'(y)

 

p(s; x; t; y)dy =

Z 1

'(y)

 

 

[a(t; y)p(s; x; t; y)] +

 

 

 

@t

@y

2

@y2

Ввиду произвольности пробной функции ', получаем уравнение.

 

 

 

 

Обратное уравнение Колмогорова

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

@p(s; x; t; y)

 

 

@p(s; x; t; y)

1

 

@2p(s; x; t; y)

 

 

 

 

 

 

= a(s; x)

 

 

 

 

+

 

b(s; x)

 

 

 

 

:

 

 

 

@s

 

 

 

@x

2

 

 

 

@x2

Строгое доказательство вы можете найти в книге Ю.А. Розанова. Там используется аппарат пробных функций (из теории обобщенных функций). Благодаря использованию пробных функций, как и выше, можно обосновать использование аксиом (1-3). Здесь я попробую объяснить причины этого уравнения.

1

 

p(s; x; t; y) = Z 1 p(s; x; s + s; z)p(s + s; z; t; y)dz:

(5)

Разложим p(s+ s; z; t; y) в ряд Тейлора в окрестности точки (s; z = x) по степеням s и z x. Получаем:

 

 

 

p(s + s; z; t; y) =

 

 

 

 

= p(s; x; t; y) +

@p

(s; x; t; y) s +

@p

(s; x; t; y)(z x) +

1 @2p

(s; x; t; y)(z x)2:

 

 

 

 

 

 

@s

 

@z

2 @z2

Подставляем в (5), имеем (но все это очень нестрого!):

Z 1

p(s; x; t; y) = p(s; x; s + s; z)p(s; x; t; y)dz+

1

Z 1

+

1

 

 

1

 

@p

 

 

 

 

 

 

+ Z 1 p(s; x; s + s; z)

 

 

(s; x; t; y) sdz+

 

 

 

 

 

@s

 

 

 

 

 

@p

 

 

1

 

 

1 @2p

 

p(s; x; s + s; z)

 

(s; x; t; y)(z x)dz +

Z 1 p(s; x; s + s; z)

 

 

 

(s; x; t; y)(z x)2dz:

@x

2 @x2

194

Используя аксиомы диффузионных процессов (это еще менее строго!), имеем (четырежды используем (***)):

 

 

 

 

 

 

p(s; x; t; y) = p(s; x; t; y)+

+

@p

(s; x; t; y) s +

@p

(s; x; t; y)a(s; x) s +

@2p

(s; x; t; y)b(s; x) s + o( s):

 

 

 

 

 

@s

 

@x

@x2

Дальше сокращаем p(s; x; t; y) в левой и правой части и все делим на s, получаем обратное уравнение Колмогорова.

Упражнение. Проверьте, что условная плотность винеровского процесса удовлетворяет аксиомам диффузионных процессов и обоим уравнениям Колмогорова.

§34. Стохастические дифференциальные уравнения

Винеровский процесс рассматривается также в радиотехнике и интерпретируется там как результат интегрирования помех белого шума. В теории управления движущими аппаратами интегральное влияние случайной среды (например, порывы ветра, изменения давления) также считается винеровским процессом. Но при этом возникают и другие эффекты – в результате влияния среды меняется положение управляющих аппаратом систем (двигателя), и случайно накопившаяся ошибка может давать при этом дополнительную ошибку. Для описания такого рода явлений используется аппарат стохастических дифференциальных уравнений. Они вводятся с помощью различных стохастических интегралов.

Еще раз напомним, что для упрощения выкладок введем стандартный винеровский процесс w(t) это винеровский процесс с нулевым сносом m = 0 и единичным коэффициентом диффузии = 1. Произвольный винеровский процесс получается из него линейным преобразованием. Мы также изменим несколько обозначения и будем писать все процессы как функции времени (t)

1. Стохастические интегралы.

Стохастические интегралы, в которые входят случайные процессы (t), бывают трех видов:

T

Z

fg(t) + f(t) (t)g dt;

0

T

Z

f(t)d (t);

0

где f(t) это обычная функция, и самые сложные и случайные –

T

Z

(t)d (t);

0

где и два случайных процесса.

Стохастические интегралы определяются так же, как и обычные, то есть как предел интегральных сумм. Но при определении самых сложных интегралов возникают любопытные проблемы. Пределы интегрирования могут быть другими, но при сделанной выше записи видно, что в результате интегрирования возникают новые случайные процессы, (T ).

T

R

Интегральные суммы для f(t)w(t)dt записываются очевидным образом:

0

X

f(ti)w(ti)(ti+1 ti);

195

где 0 = t0 < t1 < < tn 1 < tn = T .

Сходимость интегральных сумм легко доказывается для непрерывной функции f и даже в значительно более общих ситуациях. Проще всего доказывать сходимость в среднем квадратическом (то есть n ! , если jEj n j2 ! 0). Сами интегральные суммы являются интегралами от кусочно постоянных случайных процессов. Знак lim ниже означает предел интегральных сумм.

T

R

В данной ситуации случайная величина f(t)w(t)dt также имеет нормальное распреде-

0

ление. Попробуем определить параметры этого распределения, то есть подсчитать среднее и дисперсию. Естественно, что все это мы будем делать не для интеграла общего вида, а лишь для интегральных сумм.

Итак,

E

T

(g(t) + f(t))w(t)dt = lim E

(g(ti) + f(ti)w(ti))(ti+1 ti)! =

 

Z

 

 

 

i

 

 

0

 

 

 

X

 

 

 

 

 

 

T

 

 

 

= lim

i

g(ti)(ti+1 ti) = Z

g(t)dt:

 

 

 

X

 

0

 

Значительно хитрее считаются дисперсия или центральный смешанный момент. При ее подсчете мы вычитаем среднее, то есть убираем неслучайное слагаемое g(t) из под знака интеграла.

8

9

TT

ZZ

< =

E f(t)w(t)dt h(t)w(t)dt =

: ;

00

8

9

<

=

XX

= lim E

 

f(ti)w(ti)(ti+1 ti)

h(sj)w(sj)(sj+1 sj) =

= lim

: i

 

(f(t

)w(t

)(t

tj

)h(s

)w(s

)(s

j+1

s

));=

XXE

i

i

 

i+1 i

j

j

 

j

 

ij

XX

= lim f(ti)h(sj)K(ti; sj)(ti+1 ti)(sj+1 sj) =

ij

ZT Z T

=f(t)h(s)K(t; s)dtds:

00

Напомним, что в нашем случае K(t; s) = min(t; s). В частности,

D

0 T f(t)w(t)dt1

=

Z

T

Z

T f(t)f(s) min(t; s)dtds:

 

@

Z

 

 

 

 

A

 

 

0

 

0

 

 

0

 

 

 

 

 

Если в приближении интегральными суммами использовать в обоих интегралах одно и то же разбиение, то проще вычисляется

D

0 T f(t)dw(t)1

=

 

Z

A

 

0 T

@0

1

 

T

ZZ

= E @ f(t)dw(t) f(t)dw(t)A =

00

196

XX

= lim E (f(ti)(w((ti+1) w(ti)f(tj)(w(tj+1) w(tj))) =

ij

XX

= lim E (f(ti)(w((ti+1) w(ti)f(tj)(w(tj+1) w(tj))) =

ij

= lim

i

f(ti)2(ti+1 ti) = Z0T

f2(t)dt:

 

X

 

 

Проверьте выкладку. Мы использовали равенство нулю среднего процесса w и независимость приращений w.

T

R

Замечание. Кажется, что при определении интеграла f(t)dw(t) мы можем использовать

0

то обстоятельство, что процесс w(t) можно рассматривать на каждом элементарном исходе ! отдельно как функцию w(t)(!), а интеграл также записать для каждого ! отдельно как

T

R f(t)w0(t)(!)dt. Увы, это невозможно. Винер показал, что можно считать функции t ! w(t)(!)

0

непрерывными для всех !, в то же время все эти функции являются недифференцируемыми ни при одном t (с вероятностью 1). Однако, используя такое разложение процесса по элемен-

 

T

тарным исходам, мы вполне можем вводить интегралы вида

f(t)w(t)dt.

 

0

2. Интеграл Ито.

R

 

T

 

R

Наконец, самый сложный и нетривиальный случай стохастического интеграла (t)dw(t),

0

где (t) случайный процесс. Возможны разные варианты введения этого стохастического интеграла. Вообще говоря, неясно, какой из этих способов наилучшим образом соответствует практическим задачам. Наиболее употребительным является интеграл Ито.

В определении интеграла Ито

T

Z

(t)dw(t)

(3)

0

процесс (t) должен иметь важное свойство предсказуемости. А именно, значения процесса(t) должны определяться значениями процесса w(s) во все промежутки времени до t включительно, но не должны зависеть от приращений процесса w(s) в будущем, при s > t. Таким образом, процесс (t) появляется в результате действия помех w(t) в прошлом, а не в будущем.

t

R

Пример предсказуемого процесса (t) = w(s)ds.

0

Ито предложил определить интеграл

T

Z

(t)dw(t)

0

как предел интегральных сумм вида

n

X

(ti)(w(ti+1) w(ti));

i=0

где, как обычно, 0 = t0 < t1 < < tn 1 < tn = T разбиение отрезка [0; T ]. Но что произойдет, если мы рассмотрим другие интегральные суммы, например,

n

X

(ti+1)(w(ti+1) w(ti)):

i=0

197

Изменение незначительно, и в теории интеграла Римана показывается, что изменение аргумента подинтегральной функции в интервале разбиения не меняет предел. Оказывается, что в нашем случае случайной подинтегральной функции и случайного дифференциала предел изменится. Рассмотрим, например, интеграл

T

Z

w(t)dw(t):

0

Вычтем из интегральной суммы второго вида

n

X

w(ti+1)(w(ti+1 w(ti))

i=0

интегральную сумму Ито

n

X

w(ti)(w(ti+1 w(ti)):

i=0

Разность равна

n

 

 

Xi

w(ti))2

( )

(w(ti+1

=0

 

 

исходится, как мы уже доказали в пункте 29.4 (оценка параметров) не к 0, а к T .

3.Задача. Вычислить интеграл Ито

T

Z

w(t)dw(t):

0

Задача решается искусственным приемом. По видимому, соображением, позволяющим догадаться до этого приема, служит то обстоятельство, что в неслучайной ситуации интеграл дол-

жен был бы равняться

w2(T ) w2(0) =2:

Рассмотрим удвоенное значение этой величины и попробуем связать его с разбиением :

w2(T ) w2(0) = w2(tn) w2(t0) =

= w2(tn) w2(tn 1) + w2(tn 1) w2(tn 2) + w2(t2) w2(t1) + w2(t1) w2(t0) :

Каждое слагаемое w2(ti+1) w2(ti) в этой сумме можно представить в виде

2w(ti)[w(ti+1) w(ti)] + (w(ti+1 w(ti))2 :

Первое слагаемое в этом представлении входит в интегральную сумму Ито. Второе слагаемое входит в сумму (**), предел которой известен. Таким образом, мы получаем представление

n 1

n 1

 

X

Xi

w(ti))2 :

w2(T ) =

2w(ti)[w(ti+1) w(ti)] + (w(ti+1

i=0

=0

 

Устремляя диаметр разбиения к 0 и переходя к пределу, получаем

T

Z

w2(T ) = 2 w(t)dw(t) + T:

0

198

T

Z

w(t)dw(t) = w2(T ) T =2:

0

4. Существование интеграла Ито.

Теперь попытаемся объяснить – что такое интеграл Ито

T

Z

(t)dw(t)

0

и почему он существует для хороших подынтегральных процессов (t). Напомним, что процесс(t) предполагается зависящим от прошлого и настоящего процесса w. Кроме того, входящие в него случайные величины должны иметь дисперсию. Мы будем также считать процесс (t) непрерывным в среднем квадратическом. Интеграл Ито (как и любой другой интеграл) мы определяем как предел интегральных сумм

n

X

(ti)(w(ti+1) w(ti));

i=0

где 0 = t0 < t1 < < tn 1 < tn = T разбиение отрезка [0; T ]. Эта интегральная сумма на деле является интегралом кусочно-постоянного процесса

n 1

X

(t) = I[ti;ti+1)(t) (ti):

i=0

Сходимость интегралов мы будем понимать в среднем квадратическом. Поэтому имеет смысл считать среднее и дисперсию интегральных сумм. Так как приращения процесса w не зависят от прошлого процесса w, они не зависят и от прошлого процесса (t). Поэтому

E

( n

(ti)(w(ti+1) w(ti))) =

n

E (ti)E(w(ti+1) w(ti)) =

n

E (ti) 0 = 0:

 

Xi

 

X

 

 

 

X

 

 

=0

 

i=0

 

 

 

i=0

 

Дисперсия считается сложнее.

 

 

 

 

 

 

 

 

D ( n (ti)(w(ti+1) w(ti))) = E

( n

(ti)(w(ti+1) w(ti)))2 =

 

 

X

 

 

Xi

 

 

 

 

 

i=0

 

 

=0

 

 

 

nn

XX

=E [ (ti)(w(ti+1) w(ti)) (tj)(w(tj+1) w(tj))] :

i=0 j=0

А двойная сумма разбивается на слагаемые двух видов: i = j и i 6= j. Если i = j, то ввиду независимости приращений от прошлого

E 2(ti)(w(ti+1) w(ti))2 = E 2(ti) E (w(ti+1) w(ti))2 = = E 2(ti) (ti+1 ti):

Пусть i 6= j, для определенности мы будем считать, что i < j. Ввиду независимости приращений от прошлого имеем

Ef( (ti)(w(ti+1) w(ti))( (tj)(w(tj+1) w(tj))g =

=E f[( (ti)(w(ti+1) w(ti)) (tj)] (w(tj+1) w(tj))g =

199

= E [( (ti)(w(ti+1) w(ti)) (tj)] E [w(tj+1) w(tj)] = = E [( (ti)(w(ti+1) w(ti)) (tj)] 0 = 0:

Окончательно мы получаем, что

D

( n

(ti)(w(ti+1) w(ti))) =

n

E 2

(ti) (ti+1 ti):

 

Xi

 

X

 

 

 

=0

 

i=0

 

 

Эта сумма очень похожа на интегральную сумму, но от какого интеграла? Этот интеграл легко записывается, и мы получаем более приятную формулу:

89

TT

ZZ

<=

D (t)dw(t) = E[ (t)]2dt:

:;

00

Из этой формулы, которая верна и для интегральных сумм, то есть для интегралов от кусочнопостоянных процессов (t), выводится и сходимость интегральных сумм к интегралу в случае, например, непрерывного процесса (t), причем непрерывность мы понимаем в среднем квад-

ратическом, то есть

tn ! t ) E [ (tn) (t)]2 ! 0:

Действительно, тогда по знаменитой теореме Кантора (функция, непрерывная на компакте, равномерно непрерывна) случайный процесс (t) равномерно непрерывен в среднем квадратическом, то есть по любому " > 0 существует > 0 такое, что

jt sj < ) E [ (t) (s)]2 < ":

Используя это и выбирая разбиение

: 0 = t0 < t1 < < tn 1 < tn = T

диаметра меньше , мы построим интегральную сумму

n

X

(ti)(w(ti+1) w(ti)):

i=0

Запишем эту сумму как интеграл от кусочно постоянной функции

n 1

X

(t) = I[ti;ti+1)(t) (ti):

i=0

~

Рассмотрим также другое разбиение с такой же оценкой для диаметра. Тогда мы имеем

E [ (t) (t)]2 < ";

E [ ~ (t) (t)]2 < ":

Отсюда по тривиальному неравенству

(x y)2 2(x z)2 + 2(y z)2

мы имеем

E [ (t) ~ (t)]2 < 4";

2 T

T

32

ZZ

E 4 (t)dw(t) ~ (t)dw(t)5 =

00

200