Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Стохастический_мир.pdf
Скачиваний:
112
Добавлен:
16.03.2016
Размер:
2.96 Mб
Скачать

26

Глава 1.

1.5Характеристическая функция

Характеристическая функция (q) является фурье-образом (стр. 314) плотности вероятности случайной величины x:

1

e{qx P (x) dx;

1

e {qx (q) dq:

(q) = Z

P (x) = 2 Z

 

 

1

 

 

1

 

 

 

1

 

С е¼ помощью легко получать средние значения произвольных степеней x. Проведя один раз Фурье-интегрирование и найдя характеристиче-

скую функцию, можно затем простым дифференцированием определяются значения hxni:

1 dn (q)

q=0

1

{n dqn

= xn P (x) dx = hxni :

 

 

 

 

 

Z

 

 

 

 

 

1

 

 

 

 

 

 

Характеристическую функцию можно записать как среднее от экспоненты: (q) = he{qxi. Очевидно, что (0) = 1. Коэффициенты разложения

(q) в ряд по q являются средними степеней величины x:

(q) = e{qx =

1

{n hxni qn = 1 + { x

q

1

x2

q2

+ ::: (1.28)

h i

X

 

h

i

 

 

 

 

 

 

n=0

n!

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Иногда мы будем рассматривать действительный вариант характеристической функции с: q ! q={ и называть е¼ производящей функцией:

(q={) = (q) = heqxi.

Допустим, случайная величина y связана с x линейной зависимостью y = a + b x. Тогда е¼ характеристическая функция равна:

DE

y q = he{qyi = e{q(a+bx) = e{qa e{qbx :

Следовательно, при линейном преобразовании появляется дополнительная фаза, и происходит масштабирование переменной q в :

y = a + b x

=>

y(q) = e{qa x

b q :

(1.29)

Åñëè b = 0, òî y(q) = e{qa, что, учитывая

 

 

 

 

 

 

интегральное представление

для дельта-функции Дирака (стр. 315), приводит к плотности вероятности P (y) = (y a). Это уже не случайная величина, а детерминирован-

ная константа y = a.

Случайные события

27

Привед¼м примеры характеристических функций для некоторых важных распределений вероятностей:

 

 

e (x x0)2=2 2

 

 

2

2

 

 

Gauss :

P (x) =

p

 

 

 

 

;

 

(q) = e{x0q

q

=2:

 

2

 

 

 

Cauchy :

P (x) =

a=

 

 

 

 

;

(q) = e{x0q ajqj:

 

 

 

 

(x x0)2 + a2

 

 

1

 

 

 

x

1

1

 

 

 

Gamma :

P (x) =

 

 

 

 

 

e x= ;

(q) =

 

:

( )

 

 

(1 { q)

Для нахождения (q) распределения Гаусса необходимо выделить полный квадрат в экспоненте. Функция (q) Коши проще проверяется в обратном направлении при вычислении по ней P (x). В третьем случае

по формуле (16), ñòð. 313, для гамма-функции проводится прямое интегрирование. Заметим, что характеристическая функция Коши (q) не аналитична по q и распределение не имеет конечных моментов hxmi ïðè

m > 1.

Рассмотрим два независимых случайных числа x, y с произвольными распределениями P1(x), P2(y) и их сумму z = x+y. Найдем плотность вероятности P (z) для случайной величины z. Для этого вычислим среднее от произвольной функции (пределы от 1 до 1):

hF (z)i = Z

F (x + y) P1(x)P2(y) dx dy = Z

F (z) P1(x)P2(z x) dx dz;

 

 

|

 

 

 

}

 

 

P{z(z)

где сделана замена y = z x. Поэтому

Z

P (z) = P1(x)P2(z x) dx:

Характеристическая функция суммы двух независимых величин равна произведению их характеристических функций:

DE

z(q) = e{q(x+y) = he{qxi he{qyi = x(q) y(q);

где мы воспользовались фактом независимости x и y. Понятно, что и

в общем случае n независимых случайных величин xi характеристиче- ская функция их суммы будет равна произведению характеристических функций каждого слагаемого:

z = x1 + ::: + xn => z(q) = 1(q) :: n(q):

Если распределения каждого xi одинаковые, то z(q) = n(q). Теперь можно показать что Гаусс, Коши и гамма бесконечно делимы ( l H6).

28

Глава 1.

При изучении случайных процессов мы будем активно использовать

факт бесконечной делимости нормального распределения. В частности, åñëè "1, ..., "n независимые гауссовы величины с нулевым средним и

единичной дисперсией "i N(0; 1), то их сумма также гауссова: p

"1 + ::: + "n = " n: (1.30) Множитель pn выделен для того, чтобы " N(0; 1) [ (1.21), ñòð. 23 ]. Â

результате "i и " имеют одинаковое распределение с одинаковыми пара-

метрами (среднее, моменты, и т.д.). Характеристичåñкая функция для p

величины " удовлетворяет уравнению (q)n = ( n q) и равна (q) =

e q2=2.

В общем случае распределение P (x) называют устойчивым, если для любого n существуют такие константы an è bn, ÷òî

x1 + ::: + xn = an + bn x;

(1.31)

ãäå x1; :::; xn и x имеют одинаковое распределение P (x). Если an = 0, òî

такое распределение называется строго усòойчивым. Таковым является p

распределение Гаусса с константой bn = n.

Заметим, что условие (1:31) сильнее огранивает класс допустимых рас-

пределений, чем просто требование бесконечной делимости. Дело в том, что в определении (1.31) слева и справа стоят случайные величины, имеющие распределения с одинаковыми параметрами, тогда как для делимости это необязательно.

Аналогично линейному масштабированию (1.29), для характеристиче- ской функции устойчивого распределения справедливо следующее функциональное уравнение:

n(q) = eiqan (bnq):

(1.32)

Несложно проверить, что распределения Гаусса и Коши удовлетворяют этому уравнению. В то же время гамма-распределение, являющееся бесконечно делимым, не является устойчивым. Общие функции, удовлетворяющие (1.32), называются распределениями Леви-Хинчина:

(q) = e{q [1+{ sign(q) tg( =2)] jqj ; (q) = e{q jqj { q ln jqj;

где sign(q) = q=jqj знак q, параметр 0 < 6 2. Кроме этого, j j 6 1,> 0. Первое распределение является четырехпараметрическим, а второе тр¼хпараметрическим, и оказывается пределом первого при ! 1.

Эти распределения при соответствующем задании значений параметров могут описывать случайные числа с толстыми хвостами (большие эксцессы), что активно используется при моделировании доходностей финансовых инструментов.

Случайные события

29

Рассмотрим n независимых случайных величин x1; :::; xn имеющих произвольные, но одинаковые распределения, и изучим свойства суммы:

x1

+ ::: + xn

u =

 

p

 

 

 

n

при n ! 1. Без потери общности можно считать, что hxii = 0, так как сдвигом x ! x hxi всегда можно перейти к таким случайным

величинам. В этом случае среднее значение u также равно нулю. Среднее его квадрата в силу независимости xi равно среднему квадрата x:

u2 =

x1

+ n

+

xn

= x2 = 2:

 

2

:::

 

2

 

Для одинаковых произвольных распределений xi с (q) при больших n характеристическая функция для u имеет вид:

 

q

n

2 q2

n

 

 

 

 

 

u(q) =

p

 

 

= 1

 

 

 

+ :: ;

2

n

n

 

 

 

(q=p

 

) â ðÿä

где мы воспользовались уравнением (1.29) и разложили

n

до второго порядка малости. Член, пропорциональный

q, равен нулю,

так как hxi = 0. По определению, число Эйлера является пределом ex = (1 + x=n)n, при n ! 1. Поэтому характеристическая функция и распределение для u стремятся к гауссовому виду:

u(q) ! e 2q2=2: (1.33)

В качестве упражнения (l H7) стоит найти асимметрию и эксцесс при больших n для характеристической функции z(q) = n(q).

Результат (1.33) является исключительно важным и формулируется следующим образом:

распределение суммы большого числа независимых случайных величин стремится к нормальному распределению .

Например, если некоторая физическая величина подвержена внешним независимым случайным воздействиям, то чаще всего разброс е¼ значе- ний подчиняется распределению Гаусса. На финансовых рынках цена акции также подвержена случайным воздействиям со стороны колебаний спроса и предложения. Однако е¼ распределение не является гауссовым. Связано это в основном с двумя причинами: 1) скоррелированностью действий участников рынка (за сч¼т синхронизирующего информационного фона) и 2) медленной переоценкой ими риска (волатильности) этой бумаги. Мы верн¼мся к обсуждению этих вопросов в главе 8.

"i"j

30

Глава 1.

1.6Многомерное распределение Гаусса

При изучении систем стохастических уравнений мы будем активно

использовать матричные и тензорные обозначения. Для сокращения операции умножения матриц используется два типа соглашений:

n

 

 

Xi

= S i "i = (S ") :

 

= S i "i

(1.34)

=1

 

 

По повторяющемуся индексу всегда подразумевается суммирование, и знак суммы опускается. Выше таковым является индекс i во втором

равенстве. Повторяющиеся индексы, по которым проводится суммирование, называют немыми . В процессе вычислений их можно переобозна- чить в любую букву, которая ещ¼ не используется в выражении. Третье равенство в уравнении (1.34) это матричная форма той же суммы, в которой матрица S = S и вектор " = f"1; :::; "ng перемножаются вообще без упоминания индексов и знака суммирования.

Рассмотрим n независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произве-

дения равно единице для совпадающих индексов и нулю для различных. Подобная матрица будет обозначаться символом Кронекера:

1 i = j

h"i"ji = ij = 6

0 i = j:

Вычислим, например, ковариационную матрицу случайных величин :

= S iS j "i"j = S iS j ij = S iS i = S iSiT = (SST ) : (1.35)

При суммировании с символом Кронекера ij в сумме остаются только слагаемые с i = j. Поэтому одна из сумм (по j) и символ Кронекера ис- чезают, и оста¼тся только суммационный индекс i. Затем вводится новая

матрица SiT = S i с переставленными индексами. Подобная операция называется транспонированием. В табличном представлении она соот-

ветствует перестановке местами строк и столбцов матрицы.

Матрица S может имеет обратную S 1, если выполняется уравнение:

S S 1 = S 1 S = 1;

ãäå 1 = ij единичная матрица (символ Кронекера). Так, для определ¼нного выше вектора = ( 1; :::; n) можно записать:

= S "

=>

" = S 1 ;

где мы умножили левую и правую части на S 1.

Случайные события

31

Пусть " = ("1; :::; "n) стандартные независимые гауссовые случайные величины "i N(0; 1), а величины = ( 1; :::; n) получены из них (1.34) при помощи перемешивающих коэффициентов S . Среднее значе- ние произведения определяется матрицей дисперсий (1.35):

 

D = ;

D = S ST ;

которая является

 

D = D .

 

симметричной:

 

Найд¼м производящую функцию для случайных величин . Для этого

введ¼м вектор b = (b1; :::; bn) и вычислим среднее экспоненты от скалярного произведения b = b1 1 + ::: + bn n (по n нет суммы!):

eb = eb S " = ebiSi1"1 ::: ebiSin"n = e12 f(biSi1)2+:::+(biSin)2g:

Мы воспользовались независимостью величин "i, разбив среднее произве- дения на произведение средних, и формулой (1.11), ñòð. 16. В показателе экспоненты стоит матричное выражение вида:

(biSi1)2 + ::: + (biSin)2 = biSik bjSjk = bi Sik SkjT bj = b S ST b:

Поэтому окончательно производящая функция равна:

(b) = eb = e12 b D b:

Взяв частные производные по b , несложно найти среднее от любого про-

изведения . Проверим, что среднее равно D . Возьм¼м производную производящей функции по b . Учитывая, что b D b равно biDijbj, имеем:

@ (b)

=

1

(D jbj + biDi ) (b) = D ibi (b);

 

 

 

 

@b

2

где во втором равенстве мы воспользовались тем, что D = D . Àíà- логично бер¼тся вторая производная:

@2 (b)

@b @b

= D (b) + D ibi D jbj (b):

Полагая b = 0 и учитывая, что

 

@@b e@b b=0 = ;

2

b

 

 

 

 

 

 

 

 

 

 

. В качестве упражнения предла-

приходим к соотношению D =

гается проверить следующее

тензорное выражение:

 

 

k = D D k + D D k + D kD :

Таким образом, среднее любых степеней полностью определяется матрицей дисперсии D.

в интеграле необходимо изменить

32

Глава 1.

Найд¼м теперь явный вид совместной плотности вероятности для величин 1; :::; n. Запишем сначала плотность вероятности для "1; :::; "n:

P ("1; :::; "n) = P ("1) ::: P ("n) =

e 21 ("12+:::+"n2 )

 

:

(2 )n=2

При замене переменных = S "

элемент объ¼ма интегрирования dn" = d"1:::d"n, умножив его на якобиан:

 

 

 

 

 

dn = det

 

@

 

dn" = (det S) dn":

@"

 

 

 

 

 

 

 

 

 

 

Так как при транспонировании матрицы е¼ определитель не изменяется,

а определитель произведения матриц равен произведению их определителей, то det D = (det S)2 и, следовательно:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e 21 D 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P ( 1; :::; n) =

(2 )n=2p

 

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

det D

 

 

 

 

 

 

 

 

 

где в показателе экспоненты подставлены " = S 1 :

 

 

 

 

 

 

 

2

=

S 1

 

S 1

 

=

 

 

S 1T

S 1

 

=

 

S

1T

S

1

 

 

=

 

(S S

T

)

1

 

 

 

i

i

 

 

i

i

 

 

 

 

 

 

 

 

 

и использовано свойство обратных матриц

(A B) 1 = B 1 A 1

(ñì.

ñòð. 304). Как и любая плотность вероятности, P ( 1; :::; n) нормирована

на единицу, поэтому, учитывая выражение для производящей функцииeb , можно записать значение следующего n-мерного гауссового инте-

грала:

1

 

 

 

 

Z

eb 21 D 1 dn = (2 )n=2 p

 

e21 b D b:

 

det D

(1.36)

1

 

 

 

 

До сих пор мы работали с перемешанными величинами, имеющими

 

 

 

 

нулевое среднее:

= S

"

= 0. Можно к ним прибавить некоторый

постоянный вектор , который будет иметь смысл средних значений :

= + S " :

Тогда общее n-мерное гауссово распределение принимает вид:

 

e 21 ( ) D 1 ( )

P ( 1; :::; n) =

(2 )n=2p

 

;

det D

где в плотность вероятности P ("1; :::; "n) подставлено " = S 1 ( ).

Случайные события

33

Рассмотрим в качестве примера случай n = 2. Запишем элементы симметричной матрицы D при помощи тр¼х независимых констант 1,

2 è :

D =

2

 

 

:

1 2

22

 

1

1

2

 

Несложно проверить, что определитель D равен

det D = 12 22(1 2);

а обратная к D матрица имеет вид:

D 1 =

1

22

1 2

:

 

 

det D

1 2

12

 

В результате совместная плотность вероятности для 1; 2 может быть записана следующим образом:

P (

; ) =

expf(x12 2 x1x2 + x22)=2(1 2)g

;

 

 

 

1

2

2 1 2p1 2

ãäå xi = ( i i)=i относительные отклонения i от своих средних i. Параметры i являются волатильностями: ( 1 1)2 = D11 = 12, à коэффициент корреляции: = hx1x2i.

Матрица D = SST является симметричной, тогда как S в общем слу- чае нет. Поэтому D зависит от тр¼х параметров, а S от четыр¼х,

и одной и той же матрице дисперсии может соответствовать несколько различных матриц S. Так, можно записать:

S =

2 sin

2 cos

;

 

1 cos

1 sin

 

где = sin( + ). Понятно, что возможны различные комбинации углови , дающие один и тот же корреляционный коэффициент .

Если = , то = 0, и D является диагональной, а при 1 =2 = 1 единичной. Матрицу S, удовлетворяющую уравнению SST = 1, называют ортогональной.

Åñëè = 0, = sin , 1 = 2 = 1, òî

1 :

 

 

S =

1 2

;

D =

(1.37)

 

1

 

0

 

1

 

 

Такая смесь переводит p

 

 

 

 

 

 

независимые стандартные случайные величины

"1; "2 N(0; 1), h"1 "2i = 0 в скоррелированные 1; 2 N(0; 1) :

 

2

= "1 + p1 2 "2

=>

1 2 = ;

12 = 22 = 1:

1

= "1

 

 

 

 

 

 

 

Это позволяет, например, при компьютерном моделировании генерить скоррелированные величины при помощи нескоррелированных.