- •Случайные события
- •Стохастический мир
- •Случайные величины
- •Совместная и условная вероятности
- •Зависимость и независимость
- •Характеристическая функция
- •Модель аддитивного блуждания
- •Случайные процессы
- •Стохастические уравнения
- •Уравнение Ито
- •Остановка перед восхождением
- •Лемма Ито
- •Точные решения
- •Простые стохастические модели
- •Представление решений
- •Автокорреляция и спектр
- •Порождающий процесс Винера
- •Средние значения
- •Динамическое уравнение для средних
- •Процесс Феллера
- •Логистическое уравнение
- •Вероятности
- •Марковские плотности вероятности
- •Граничные условия
- •Стохастические интегралы
- •Площадь под траекторией Винера
- •Интегралы Ито
- •Интегрирование стохастических уравнений
- •Единственность решений
- •Метод последовательных приближений
- •Системы уравнений
- •Скоррелированные блуждания
- •Системы стохастических уравнений
- •Стохастический осциллятор
- •Линейные многомерные модели
- •Многомерие помогает одномерию
- •Как решать стохастические задачи?
- •Стохастическая природа
- •Теория броуновского движения
- •Стохастический осциллятор
- •Дрожание земной оси
- •Электронный шум
- •Хищники и их жертвы
- •Стохастическое общество
- •Финансовые рынки
- •Эмпирические закономерности
- •Диверсификация
- •Портфель на всю жизнь
- •Опционы
- •Кривая доходности
- •Компьютерное моделирование
- •Статистики
- •Случайные числа
- •Моделирование стохастических процессов
- •Ошибки вычислений и ускорение сходимости
- •Вычисление средних
- •R: Стохастический справочник
- •Основные соотношения теории
- •Системы уравнений с одинаковым шумом
- •M: Математические приложения
- •H: Помощь
- •C: Примечания
- •Рекомендуемая литература
26 |
Глава 1. |
1.5Характеристическая функция
Характеристическая функция (q) является фурье-образом (стр. 314) плотности вероятности случайной величины x:
1 |
e{qx P (x) dx; |
1 |
e {qx (q) dq: |
||
(q) = Z |
P (x) = 2 Z |
||||
|
|
1 |
|
|
|
1 |
|
|
|
1 |
|
С е¼ помощью легко получать средние значения произвольных степеней x. Проведя один раз Фурье-интегрирование и найдя характеристиче-
скую функцию, можно затем простым дифференцированием определяются значения hxni:
1 dn (q) |
q=0 |
1 |
|||
{n dqn |
= xn P (x) dx = hxni : |
||||
|
|
|
|
|
Z |
|
|
|
|
|
1 |
|
|
|
|
|
|
Характеристическую функцию можно записать как среднее от экспоненты: (q) = he{qxi. Очевидно, что (0) = 1. Коэффициенты разложения
(q) в ряд по q являются средними степеней величины x:
(q) = e{qx = |
1 |
{n hxni qn = 1 + { x |
q |
1 |
x2 |
q2 |
+ ::: (1.28) |
|||
h i |
X |
|
h |
i |
|
|
|
|
|
|
n=0 |
n! |
2 |
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
Иногда мы будем рассматривать действительный вариант характеристической функции с: q ! q={ и называть е¼ производящей функцией:
(q={) = (q) = heqxi.
Допустим, случайная величина y связана с x линейной зависимостью y = a + b x. Тогда е¼ характеристическая функция равна:
DE
y q = he{qyi = e{q(a+bx) = e{qa e{qbx :
Следовательно, при линейном преобразовании появляется дополнительная фаза, и происходит масштабирование переменной q в :
y = a + b x |
=> |
y(q) = e{qa x |
b q : |
(1.29) |
|
Åñëè b = 0, òî y(q) = e{qa, что, учитывая |
|
|
|
||
|
|
|
интегральное представление |
для дельта-функции Дирака (стр. 315), приводит к плотности вероятности P (y) = (y a). Это уже не случайная величина, а детерминирован-
ная константа y = a.
Случайные события |
27 |
Привед¼м примеры характеристических функций для некоторых важных распределений вероятностей:
|
|
e (x x0)2=2 2 |
|
|
2 |
2 |
|
|
|||||||
Gauss : |
P (x) = |
p |
|
|
|
|
; |
|
(q) = e{x0q |
q |
=2: |
|
|||
2 |
|
|
|
||||||||||||
Cauchy : |
P (x) = |
a= |
|
|
|
|
; |
(q) = e{x0q ajqj: |
|||||||
|
|
|
|
||||||||||||
(x x0)2 + a2 |
|||||||||||||||
|
|
1 |
|
|
|
x |
1 |
1 |
|
|
|
||||
Gamma : |
P (x) = |
|
|
|
|
|
e x= ; |
(q) = |
|
: |
|||||
( ) |
|
|
(1 { q) |
Для нахождения (q) распределения Гаусса необходимо выделить полный квадрат в экспоненте. Функция (q) Коши проще проверяется в обратном направлении при вычислении по ней P (x). В третьем случае
по формуле (16), ñòð. 313, для гамма-функции проводится прямое интегрирование. Заметим, что характеристическая функция Коши (q) не аналитична по q и распределение не имеет конечных моментов hxmi ïðè
m > 1.
Рассмотрим два независимых случайных числа x, y с произвольными распределениями P1(x), P2(y) и их сумму z = x+y. Найдем плотность вероятности P (z) для случайной величины z. Для этого вычислим среднее от произвольной функции (пределы от 1 до 1):
hF (z)i = Z |
F (x + y) P1(x)P2(y) dx dy = Z |
F (z) P1(x)P2(z x) dx dz; |
||||
|
|
| |
|
|
|
} |
|
|
P{z(z) |
где сделана замена y = z x. Поэтому
Z
P (z) = P1(x)P2(z x) dx:
Характеристическая функция суммы двух независимых величин равна произведению их характеристических функций:
DE
z(q) = e{q(x+y) = he{qxi he{qyi = x(q) y(q);
где мы воспользовались фактом независимости x и y. Понятно, что и
в общем случае n независимых случайных величин xi характеристиче- ская функция их суммы будет равна произведению характеристических функций каждого слагаемого:
z = x1 + ::: + xn => z(q) = 1(q) :: n(q):
Если распределения каждого xi одинаковые, то z(q) = n(q). Теперь можно показать что Гаусс, Коши и гамма бесконечно делимы ( l H6).
28 |
Глава 1. |
При изучении случайных процессов мы будем активно использовать
факт бесконечной делимости нормального распределения. В частности, åñëè "1, ..., "n независимые гауссовы величины с нулевым средним и
единичной дисперсией "i N(0; 1), то их сумма также гауссова: p
"1 + ::: + "n = " n: (1.30) Множитель pn выделен для того, чтобы " N(0; 1) [ (1.21), ñòð. 23 ]. Â
результате "i и " имеют одинаковое распределение с одинаковыми пара-
метрами (среднее, моменты, и т.д.). Характеристичåñкая функция для p
величины " удовлетворяет уравнению (q)n = ( n q) и равна (q) =
e q2=2.
В общем случае распределение P (x) называют устойчивым, если для любого n существуют такие константы an è bn, ÷òî
x1 + ::: + xn = an + bn x; |
(1.31) |
ãäå x1; :::; xn и x имеют одинаковое распределение P (x). Если an = 0, òî
такое распределение называется строго усòойчивым. Таковым является p
распределение Гаусса с константой bn = n.
Заметим, что условие (1:31) сильнее огранивает класс допустимых рас-
пределений, чем просто требование бесконечной делимости. Дело в том, что в определении (1.31) слева и справа стоят случайные величины, имеющие распределения с одинаковыми параметрами, тогда как для делимости это необязательно.
Аналогично линейному масштабированию (1.29), для характеристиче- ской функции устойчивого распределения справедливо следующее функциональное уравнение:
n(q) = eiqan (bnq): |
(1.32) |
Несложно проверить, что распределения Гаусса и Коши удовлетворяют этому уравнению. В то же время гамма-распределение, являющееся бесконечно делимым, не является устойчивым. Общие функции, удовлетворяющие (1.32), называются распределениями Леви-Хинчина:
(q) = e{q [1+{ sign(q) tg( =2)] jqj ; (q) = e{q jqj { q ln jqj;
где sign(q) = q=jqj знак q, параметр 0 < 6 2. Кроме этого, j j 6 1,> 0. Первое распределение является четырехпараметрическим, а второе тр¼хпараметрическим, и оказывается пределом первого при ! 1.
Эти распределения при соответствующем задании значений параметров могут описывать случайные числа с толстыми хвостами (большие эксцессы), что активно используется при моделировании доходностей финансовых инструментов.
Случайные события |
29 |
Рассмотрим n независимых случайных величин x1; :::; xn имеющих произвольные, но одинаковые распределения, и изучим свойства суммы:
x1 |
+ ::: + xn |
|||
u = |
|
p |
|
|
|
n |
при n ! 1. Без потери общности можно считать, что hxii = 0, так как сдвигом x ! x hxi всегда можно перейти к таким случайным
величинам. В этом случае среднее значение u также равно нулю. Среднее его квадрата в силу независимости xi равно среднему квадрата x:
u2 = |
x1 |
+ n |
+ |
xn |
= x2 = 2: |
|
2 |
::: |
|
2 |
|
Для одинаковых произвольных распределений xi с (q) при больших n характеристическая функция для u имеет вид:
|
q |
n |
2 q2 |
n |
||||||||
|
|
|
|
|
||||||||
u(q) = |
p |
|
|
= 1 |
|
|
|
+ :: ; |
||||
2 |
n |
|||||||||||
n |
||||||||||||
|
|
|
(q=p |
|
) â ðÿä |
|||||||
где мы воспользовались уравнением (1.29) и разложили |
n |
|||||||||||
до второго порядка малости. Член, пропорциональный |
q, равен нулю, |
так как hxi = 0. По определению, число Эйлера является пределом ex = (1 + x=n)n, при n ! 1. Поэтому характеристическая функция и распределение для u стремятся к гауссовому виду:
u(q) ! e 2q2=2: (1.33)
В качестве упражнения (l H7) стоит найти асимметрию и эксцесс при больших n для характеристической функции z(q) = n(q).
Результат (1.33) является исключительно важным и формулируется следующим образом:
распределение суммы большого числа независимых случайных величин стремится к нормальному распределению .
Например, если некоторая физическая величина подвержена внешним независимым случайным воздействиям, то чаще всего разброс е¼ значе- ний подчиняется распределению Гаусса. На финансовых рынках цена акции также подвержена случайным воздействиям со стороны колебаний спроса и предложения. Однако е¼ распределение не является гауссовым. Связано это в основном с двумя причинами: 1) скоррелированностью действий участников рынка (за сч¼т синхронизирующего информационного фона) и 2) медленной переоценкой ими риска (волатильности) этой бумаги. Мы верн¼мся к обсуждению этих вопросов в главе 8.
30 |
Глава 1. |
1.6Многомерное распределение Гаусса
При изучении систем стохастических уравнений мы будем активно
использовать матричные и тензорные обозначения. Для сокращения операции умножения матриц используется два типа соглашений:
n |
|
|
Xi |
= S i "i = (S ") : |
|
= S i "i |
(1.34) |
|
=1 |
|
|
По повторяющемуся индексу всегда подразумевается суммирование, и знак суммы опускается. Выше таковым является индекс i во втором
равенстве. Повторяющиеся индексы, по которым проводится суммирование, называют немыми . В процессе вычислений их можно переобозна- чить в любую букву, которая ещ¼ не используется в выражении. Третье равенство в уравнении (1.34) это матричная форма той же суммы, в которой матрица S = S и вектор " = f"1; :::; "ng перемножаются вообще без упоминания индексов и знака суммирования.
Рассмотрим n независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произве-
дения равно единице для совпадающих индексов и нулю для различных. Подобная матрица будет обозначаться символом Кронекера:
1 i = j
h"i"ji = ij = 6
0 i = j:
Вычислим, например, ковариационную матрицу случайных величин :
= S iS j "i"j = S iS j ij = S iS i = S iSiT = (SST ) : (1.35)
При суммировании с символом Кронекера ij в сумме остаются только слагаемые с i = j. Поэтому одна из сумм (по j) и символ Кронекера ис- чезают, и оста¼тся только суммационный индекс i. Затем вводится новая
матрица SiT = S i с переставленными индексами. Подобная операция называется транспонированием. В табличном представлении она соот-
ветствует перестановке местами строк и столбцов матрицы.
Матрица S может имеет обратную S 1, если выполняется уравнение:
S S 1 = S 1 S = 1;
ãäå 1 = ij единичная матрица (символ Кронекера). Так, для определ¼нного выше вектора = ( 1; :::; n) можно записать:
= S " |
=> |
" = S 1 ; |
где мы умножили левую и правую части на S 1.
Случайные события |
31 |
Пусть " = ("1; :::; "n) стандартные независимые гауссовые случайные величины "i N(0; 1), а величины = ( 1; :::; n) получены из них (1.34) при помощи перемешивающих коэффициентов S . Среднее значе- ние произведения определяется матрицей дисперсий (1.35):
|
D = ; |
D = S ST ; |
которая является |
|
D = D . |
|
симметричной: |
|
Найд¼м производящую функцию для случайных величин . Для этого
введ¼м вектор b = (b1; :::; bn) и вычислим среднее экспоненты от скалярного произведения b = b1 1 + ::: + bn n (по n нет суммы!):
eb = eb S " = ebiSi1"1 ::: ebiSin"n = e12 f(biSi1)2+:::+(biSin)2g:
Мы воспользовались независимостью величин "i, разбив среднее произве- дения на произведение средних, и формулой (1.11), ñòð. 16. В показателе экспоненты стоит матричное выражение вида:
(biSi1)2 + ::: + (biSin)2 = biSik bjSjk = bi Sik SkjT bj = b S ST b:
Поэтому окончательно производящая функция равна:
(b) = eb = e12 b D b:
Взяв частные производные по b , несложно найти среднее от любого про-
изведения . Проверим, что среднее равно D . Возьм¼м производную производящей функции по b . Учитывая, что b D b равно biDijbj, имеем:
@ (b) |
= |
1 |
(D jbj + biDi ) (b) = D ibi (b); |
||
|
|
|
|
||
@b |
2 |
где во втором равенстве мы воспользовались тем, что D = D . Àíà- логично бер¼тся вторая производная:
@2 (b)
@b @b
= D (b) + D ibi D jbj (b):
Полагая b = 0 и учитывая, что
|
@@b e@b b=0 = ; |
|||
2 |
b |
|
||
|
|
|
|
|
|
|
|
|
. В качестве упражнения предла- |
приходим к соотношению D = |
||||
гается проверить следующее |
тензорное выражение: |
|||
|
|
k = D D k + D D k + D kD :
Таким образом, среднее любых степеней полностью определяется матрицей дисперсии D.
32 |
Глава 1. |
Найд¼м теперь явный вид совместной плотности вероятности для величин 1; :::; n. Запишем сначала плотность вероятности для "1; :::; "n:
P ("1; :::; "n) = P ("1) ::: P ("n) = |
e 21 ("12+:::+"n2 ) |
|
|
: |
|
(2 )n=2 |
При замене переменных = S "
элемент объ¼ма интегрирования dn" = d"1:::d"n, умножив его на якобиан:
|
|
|
|
|
dn = det |
|
@ |
|
dn" = (det S) dn": |
@" |
||||
|
|
|
|
|
|
|
|
|
|
Так как при транспонировании матрицы е¼ определитель не изменяется,
а определитель произведения матриц равен произведению их определителей, то det D = (det S)2 и, следовательно:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
e 21 D 1 |
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
P ( 1; :::; n) = |
(2 )n=2p |
|
; |
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
det D |
|
|
|
|
|
|
|
|
|
||||||||||||
где в показателе экспоненты подставлены " = S 1 : |
|
|
|
|
|
|
|
|||||||||||||||||||||
2 |
= |
S 1 |
|
S 1 |
|
= |
|
|
S 1T |
S 1 |
|
= |
|
S |
1T |
S |
1 |
|
|
= |
|
(S S |
T |
) |
1 |
|
|
|
|
i |
i |
|
|
i |
i |
|
|
|
|
|
|
|
|
|
|||||||||||||
и использовано свойство обратных матриц |
(A B) 1 = B 1 A 1 |
(ñì. |
ñòð. 304). Как и любая плотность вероятности, P ( 1; :::; n) нормирована
на единицу, поэтому, учитывая выражение для производящей функцииeb , можно записать значение следующего n-мерного гауссового инте-
грала:
1 |
|
|
|
|
Z |
eb 21 D 1 dn = (2 )n=2 p |
|
e21 b D b: |
|
det D |
(1.36) |
|||
1 |
|
|
|
|
До сих пор мы работали с перемешанными величинами, имеющими
|
|
|
|
нулевое среднее: |
= S |
" |
= 0. Можно к ним прибавить некоторый |
постоянный вектор , который будет иметь смысл средних значений :
= + S " :
Тогда общее n-мерное гауссово распределение принимает вид:
|
e 21 ( ) D 1 ( ) |
||
P ( 1; :::; n) = |
(2 )n=2p |
|
; |
det D |
где в плотность вероятности P ("1; :::; "n) подставлено " = S 1 ( ).
Случайные события |
33 |
Рассмотрим в качестве примера случай n = 2. Запишем элементы симметричной матрицы D при помощи тр¼х независимых констант 1,
2 è :
D = |
2 |
|
|
: |
1 2 |
22 |
|||
|
1 |
1 |
2 |
|
Несложно проверить, что определитель D равен
det D = 12 22(1 2);
а обратная к D матрица имеет вид:
D 1 = |
1 |
22 |
1 2 |
: |
|
||||
|
det D |
1 2 |
12 |
|
В результате совместная плотность вероятности для 1; 2 может быть записана следующим образом:
P ( |
; ) = |
expf(x12 2 x1x2 + x22)=2(1 2)g |
; |
||
|
|
|
|||
1 |
2 |
2 1 2p1 2 |
ãäå xi = ( i i)=i относительные отклонения i от своих средних i. Параметры i являются волатильностями: ( 1 1)2 = D11 = 12, à коэффициент корреляции: = hx1x2i.
Матрица D = SST является симметричной, тогда как S в общем слу- чае нет. Поэтому D зависит от тр¼х параметров, а S от четыр¼х,
и одной и той же матрице дисперсии может соответствовать несколько различных матриц S. Так, можно записать:
S = |
2 sin |
2 cos |
; |
|
1 cos |
1 sin |
|
где = sin( + ). Понятно, что возможны различные комбинации углови , дающие один и тот же корреляционный коэффициент .
Если = , то = 0, и D является диагональной, а при 1 =2 = 1 единичной. Матрицу S, удовлетворяющую уравнению SST = 1, называют ортогональной.
Åñëè = 0, = sin , 1 = 2 = 1, òî |
1 : |
|
||||||
|
S = |
1 2 |
; |
D = |
(1.37) |
|||
|
1 |
|
0 |
|
1 |
|
|
|
Такая смесь переводит p |
|
|
|
|
|
|||
|
независимые стандартные случайные величины |
|||||||
"1; "2 N(0; 1), h"1 "2i = 0 в скоррелированные 1; 2 N(0; 1) : |
|
|||||||
2 |
= "1 + p1 2 "2 |
=> |
1 2 = ; |
12 = 22 = 1: |
||||
1 |
= "1 |
|
|
|
|
|
|
|
Это позволяет, например, при компьютерном моделировании генерить скоррелированные величины при помощи нескоррелированных.