Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

дов

.pdf
Скачиваний:
5
Добавлен:
23.02.2016
Размер:
1.43 Mб
Скачать

H1, если C1 p(0n)=p(1n) C0, то наблюдения продолжаются. Задача состоит в подборе чисел 0 и C1 при фиксированных вероятностях ошибок первого и второго рода и . Оказывается, числа 0 и C1 вычисляются только по и и не зависят от распределений P0 и P1 (если пренебречь ошибками при подсчете вероятностей, которые получаются из за перескока за указанные выше границы).

В этом подходе области 0 и 1 являются суммами соответствующих областей для раз-

личных n:

0 = X (0n); 1 = X (1n);

nn

где (0n) событие, состоящее в принятии гипотезы H0 на n-ом шаге, (1n) событие, состоящее в принятии гипотезы H1 на n-ом шаге. Тогда

= XP0( (1n)); = XP1( (0n)):

nn

По построению имеем для каждого n:

ZZ

P0( (0n)) = p(0n) C0p(1n) = C0P1( (0n))

(0n) (0n)

P1( 1

) =

Z

p1

 

Z

C1 p0

= C1 P0( 1

):

 

 

(n)

 

 

(n)

 

 

1 (n)

1

 

(n)

 

 

 

 

 

1(n)

 

 

1(n)

 

 

 

 

 

 

 

 

 

 

Суммируя эти неравенства, получаем

 

 

 

 

 

 

 

 

 

 

 

 

 

1 = P0( 0) C0P1( 0) = C0 ; 1 = P1( 1)

1

P0( 1) =

1

:

 

 

C1

C1

Итак,

1

C0 ; C1 1 :

§26. Равномерно наиболее мощные критерии

1. Определение. Пусть проверяется гипотеза H0 (отвечающая распределению P0) со сложной альтернативой P1 = fP1; g 2 , критерий таков, что

i)уровень значимости критерия равен ,

ii)для любого другого критерия 0 с тем же уровнем значимости

= P0 = P0 0;

справедливо неравенство

( ) = P1; P1; 0 для всех :

Тогда критерий называется равномерно наиболее мощным.

Мы приведем простой пример, когда действительно существует равномерно наиболее мощный критерий, лучший других при всех альтернативах P1; и много примеров, когда такого критерия не существует. Заметим, что лемма Неймана Пирсона однозначно определяет такой критерий (если он существует).

Пример 1. H0 выборка принадлежит нормальной генеральной совокупности N(m0; 0). Альтернативой является набор распределений N(m; 0), где m > m0. В этом случае критерий вида = fx > Cg является равномерно наиболее общим. Это утверждение следует из леммы

151

Неймана Пирсона. Действительно, для любого m > m0 критерий, минимизирующий (m) при заданном имеет вид

 

 

 

 

( pm;(n) 0 (x1; :::xn)

 

 

 

 

 

 

 

)

 

 

 

 

 

 

(n)

 

 

(x1; :::xn)

 

 

 

 

 

 

 

 

 

 

=

 

pm0; 0

 

< C(m) =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

8

 

0p2

n

 

 

1

n

 

xi

 

m0

 

2

9

 

 

e 2 iP

 

 

 

 

 

 

 

 

= >

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2 < C(m)> =

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

>

 

 

 

 

 

 

 

 

 

 

 

 

=1

 

 

 

0

 

 

 

 

 

>

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

1

 

 

 

x

 

 

m

 

 

 

 

>

 

1

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

>

>

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

>

<

 

 

 

 

 

 

 

 

 

 

2 i=1

 

 

0

 

 

 

=

0p2

 

 

 

 

 

 

>

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

>

>

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

>

n>

 

 

 

 

 

 

 

 

2

 

 

n

 

 

 

 

 

 

 

 

 

2

>

>

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

>

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

;

(

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

)

0

 

 

 

 

 

i=1

 

0

 

 

 

 

i=1

 

 

 

 

 

+

xi

m

 

 

< 2 ln C(m) =

X

 

xi m0

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( n

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

)

XX

2

xim0 2 xim < 2 02 ln C(m) + nm02 nm2 :

i=1

i=1

Разделив это неравенство на 2(m0 m)n и обозначив правую часть через C, мы получим множество требуемого вида. Заметим, что C зависит только от (и от m0 и 0), но не зависит от m. Действительно, находится из равенства

P(n) fx > Cg = :

m0; 0

Пример 2. H0 выборка принадлежит нормальной генеральной совокупности N(m0; 0). Альтернативой является набор распределений N(m; 0), где m 6= m0. Действуя так же, мы получим множество вида = fx > Cg для альтернатив m > m0, но множество вида = fx < Cg для альтернатив m < m0. К сожалению, одно множество, которое минимизировало бы (m) и для m > m0 и для m < m0, мы получить не можем.

Замечание. В обеих задачах ничего хорошего не получается при неизвестной дисперсии, так как константа C, определяющая множество по уровню значимости зависит от параметра

.

2. Дополнение. Слова.

Если мы попали в критическое множество, то некорректно говорить, что наша гипотеза неверна. Может так оказаться, что на самом деле гипотеза верна, но нам не повезло. Поэтому правильнее сказать, что гипотеза не подтвердилась, а если мы не попали в критическое множество, то гипотеза подтвердилась. В ситуации, когда одновременно с основной гипотезой мы рассматриваем альтернативную гипотезу, не совсем корректно утверждать при попадании в критическое множества, что подтвердилась альтернативная гипотеза. Дело в том, что (малую !) вероятность критического множества мы вычислили лишь в предположении справедливости основной гипотезы. Такое высказывание оказывается еще менее разумным, если альтернативная гипотеза является сложной, тогда верояность критического множества зависит от выбора параметра в рамках альтернативной гипотезы. В то же время в условиях леммы Неймана Пирсона такого рода утверждение может оказаться разумным, но тогда вероятность также должна быть мала, и критические множества для обеих гипотез, основной и альтернативной, должны являться дополнениями друг друга.

3. Дополнение.

Напомним определение условной плотности

p ; (x; y)

p (xj = y) = R11 p ; (x; y)dx:

152

Понятие условной плотности само является условным, так как изменение значения совместной плотности на множестве нулевой меры (например, на прямой fx = x0g) не меняет совместного распределения, но полностью меняет условную плотность. Однако рассмотрим случайную величину f( ; ) и вычислим ее плотность следующим образом:

1

 

pf( ; )(x) = Z 1 pf( ;y)(x)p (y)dy:

(3)

Нетрудно видеть, что определенная так плотность действительно дает нам распределение случайной величины f( ; ). Действительно, по определению плотности мы должны иметь

Z

Pff( ; ) 2 Bg = pf( ; )(x)dx:

B

Подставим в это равенства вместо pf( ; ) выражение из (3) и получим тождество по теореме Фубини:

1

1

ZB dx Z 1 pf( ;y)(x))dy =

Z 1 p (y)dy ZB pf( ;y)(x)dx =

Z 1

Z

=p (y)dy pf( ;y)(x)dx

1 B

Критерий Колмогорова-Смирнова. Критерий Спирмена. Является ли оценка максимального правдоподобия для параметра m логнормального распределения эффективной? Область безразличия.

§27. Многомерный анализ (обзор)

Здесь мы не будем приводить какик-либо алгоритмы и формулы, а напишем лишь об известных в литературе постановках задач и подходах к их решениям. Более подробно с этим материалом можно познакомиться, например, в книгах [11], [32] .

Наблюдается n раз r-мерный случайный вектор. Результаты наблюдения составляют выборку (x(1)1 ; :::x(1)r ),..., (x(1n); :::x(rn)). По этим данным мы хотим получить некую информацию о связи координат наблюдаемого вектора. Очевидно, что n должно быть не меньше r, иначе координаты xi, которые являются векторами в n-мерном пространстве, связаны между собой линейными соотношениями бесконечным числом способов. Для разумного статистического вывода нужно, чтобы n было существенно больше r. Люди с гуманитарным образованием часто пренебрегают этим требованием.

1. Регрессия.

Представляет большой практический интерес задача о наилучшем приближении значения одной координаты, x1, функцией f(x2; :::; xr) других координат. Мы используем метод наименьших квадратов, а именно, минимизируем число P(x1 f(x2; :::; xr))2, где суммирование производится по всем полученным в результате эксперимента выборкам. Заметим, что возможна ситуация, когда ошибка эксперимента зависит от значения x1, тогда слагаемые в сумме надо умножать на некоторые веса (если ошибка больше, вес наблюдения должен быть меньше). В курсе теории вероятностей мы решали аналогичную задачу наилучшего приближения случайной величины функцией f( 1; :::; r) других случайных величин. Под словом ’наилучшее’ имелся в виду выбор такой функции f, для которой минимально число E( f( 1; :::; r))2. Решением этой задачи является условное математическое ожидание E( j 1; :::; r). Обычно такое решение неприменимо в задачах математической статистики. Дело в том, что если наблюдения проводить достаточно точно, то набор (x2; :::; xr) встречается лишь в одной выборке (x1; x2; :::; xr) и наилучшей функцией оказывается f(x2; :::; xr) = x1. Разумеется, такая ’функция’ задана лишь на множестве результатов проведенных наблюдений и ничего не говорит о наблюдениях, которые еще не проведены. Поэтому в математической статистике нужно искусственно ограничивать класс функций f и решать задачу регрессии лишь в этом классе.

153

Возникает произвол в выборе класса, функции оказываются зависимыми от некоторого конечного числа параметров, и наша задача сводится к задаче нахождения минимума функции нескольких переменных. Например, если мы ищем функцию f в классе всех линейных функций

l(x2; :::; xr) = a2x2 + ::: + arxr + b;

мы должны решить систему уравнений

 

 

 

 

n

 

 

 

 

 

 

@

 

iP

(i)

(i)

(i)

 

2

 

 

 

 

 

 

[a2x2

+ ::: + arxr

+ b])

 

= 0;

 

 

 

 

 

@a2

 

=1(x1

 

 

 

n

 

 

 

 

 

 

 

@

 

nP

(i)

(i)

(i)

 

2

= 0;

@

 

 

(i)

(i)

(i)

2

 

@ar

 

i=1(x1

[a2x2

+ ::: + arxr

+ b])

 

 

 

iP

 

 

 

 

 

 

@b

 

=1(x1 [a2x2 + ::: + arxr + b])

= 0:

Не всегда разумно искать f в классе линейных функций. Например, в случае, когда наблюдения y(i) мы стремимся приблизить функцией f наблюдений x(i), может оказаться правиль-

ным выбрать функцию f(x) = eax+b и минимизировать

P

2

. Однако удобнее

n y(i) eax(i)+b

i=1

использовать линейную зависимость для логарифма y, но тогда мы придем к другому решению. Наконец, если возможна периодическая зависимость, целесообразно искать f в виде a sin(x + b) + c.

Замечание для практического применения. Гаусс, который предложил метод наименьших квадратов, по-видимому, использовал его для уточнений траекторий (значительную часть жизни он был директором астрономической обсерватории). Наблюдения одним человеком проводились в разные моменты времени, по-существу, наблюдался случайный процесс реальная кривая, зависящая от нескольких параметров, портилась случайным процессом помех. Для оценки параметров использовался изложенный выше метод, но только выше x(ti), y(ti), z(ti) приближаются результатами наблюдений xi, yi, zi и нужно найти параметры, для которых сумма квадратов ошибок минимальна. По-видимому, Гаусс заменял координаты в пространстве на расстояния на небесной сфере, и через эти числа выражал сумму квадратов. Метод наименьших квадратов можно применять для анализа случайных процессов, например, при анализе изменения курса валют, но очень осторожно ввиду зависимости этого процесса от правительственных решений.

2. Корреляция.

Кроме выборочного коэффициента корреляции (для которого в модели двух независимых нормальных случайных величин нам удалось получить распределение) для векторных выборок размерности больше 2 рассматриваются две другие выборочные характеристики, которые могут дать дополнительное представление об изучаемом объекте. Здесь мы дадим лишь гео-

метрическое объяснение для этих характеристик, вывод формул требует выкладок с матрицами. Итак, мы имеем выборку (x(1)1 ; :::x(1)r ),..., (x(1n); :::x(rn)) длины n (наблюдений) из r-мерных

векторов (параметров) и матрицу [rij]i;j r выборочных коэффициентов корреляции (диагональ которой состоит из единиц). Таким образом, в пространстве параметров Rr определено скалярное произведение

 

n

A ([xi]i r; [yi]i r) =

X

rijxiyj:

 

i;j=1

Сопоставляя i-му параметру вектор ei = [0; :::; 0; 1; 0:::] (1 на i-м месте, остальные координаты равны 0), мы имеем: rij = A(ei; ej). Напомним, что ортогональное проектирование P на линейное подпространство L переводит элемент x линейного пространства в такой элемент P x 2 L, что A(x P x; y) = 0 для всех y 2 L. Разумеется, для проверки этого свойства достаточно проверить его для всех y из некоторого базиса в L. Теперь введем частный (выборочный)

154

коэффициент корреляции элементов e1 и e2 (для любых других ei, ej он определяется аналогично). Рассмотрим проекции e~1 и e~2 элементов e1 и e2 на линейное подпространство, порожденное всеми векторами e3; :::; er. Тогда частный коээффициент корреляции 1 и 2 координат обозначается r12 34:::r. Имеем:

A(e1 e~1; e2 e~2)

r12 34:::r := A(e1 e~1; e1 e~1)1=2A(e2 e~2; e2 e~2)1=2 :

Частный коэффициент корреляции 1 и 2 координат можно интерпретировать как характеристику зависимости этих координат после того, как убрали из них зависимости от других координат, которые также связывают эти две координаты. Действительно, если x и y зависят от одного и того же z, то очевидно они зависят друг от друга. При вычислении частного коэффициента корреляции мы эти зависимости убираем.

Замечание.Из приведенной выше интерпретации не следует, что r12 34:::r меньше по абсолютной величине чем r12. Пример для случайных величин, тогда коэфициент корреляции обозначается буквой . Пусть , независимы и нормальны с параметрами N(0; 1). Рассмотрим x1 = + , x2 = , x3 = . Тогда

12 = 0; 12 3 = 1:

Сводный коэффициент корреляции. Рассмотрим проекцию P e1 элемента e1 на линейное пространство L, порожденное элементами e2; :::; er. Сводный коэффициент корреляции элемента e1 и всех элементов e2; :::; er определяется равенством

A(e1; P e1)

r1(2:::r) := A(e1; e1)1=2A(P e1; P e1)1=2 :

Замечание. Как обычно, будем считать координаты x(k ) (i n) векторов выборки случайными величинами, заданными на вероятностном пространстве из n элементарных исходов с вероятностью 1=n, каждый элементарный исход элемент выборки. В этой ситуации будем решать задачу регрессии, аппроксимируя случайную величину x(1 ) линейной комбинацией

l(x(2 ); :::; x(r )) случайных величин x(2 ),...,x(r ) или аппроксимируя случайные величины x(1 ) и x(2 ) линейными комбинациями l1(x(3 ); :::; x(r )) и l2(x(3 ); :::; x(r )) случайных величин x(3 ),...,x(r ). Тогда

частный коэффициент корреляции r12 34:::r равен коэффициенту корреляции случайных величин x(1 ) l1(x(3 ); :::; x(r )) и x(2 ) l2(x(3 ); :::; x(r )), а сводный коэффициент корреляции r1(2:::r)

равен коэффициенту корреляции случайных величин x(1 ) и l(x(2 ); :::; x(r )).

3. Факторный анализ

С помощью метода факторного анализа пытаются уменьшить число координат наблюдаемого вектора. А именно, делается попытка выявить скрытые факторы, влияющие не результаты экспериментов. В используемой вероятностной модели предполагается, что случайный вектор (xi)i r наблюдаемых представим в следующем виде:

d

X

xi = lijzj + ei;

j=1

где d < r (d не должно быть большим), случайные величины zj независимы, нормальны, центрированы и имеют дисперсию 1, величины ei представляют собой шумы при наблюдениях, поэтому они независимы между собой и с zj, нормальны. Задача состоит в наилучшей оценке коэффициентов lij. Зная эти коэффициенты, мы можем выразить zj через xi, эти новые величины называются факторами. Как видите, в этом подходе число факторов задается заранее, от выбора этого числа зависит результат.

Решение осуществляется методом максимального правдоподобия,то есть записывается совместная плотность n наблюдений вектора (xi), которая зависит от параметров lij и дисперсий

155

исредних величин ei, и вычисляется максимум (по неизвестным параметрам) этой плотности для данных результатов наблюдений. В результате мы находим lij и дисперсии ei. Легко видеть, что факторы восстанавливаются по матрице [lij] неоднозначно, с точностью до вращения. Практики (психологи и социологи) стараются с помощью такого вращения придать факторам разумный смысл, например, линейная комбинация координат, отвечающих за трудолюбие, математические способности, гуманитарные способности, память, выносливость, финансирование

ит. д. (см. [32]). Далее результатам придается гуманитарное звучание.

Для корректности нужно провести проверку самой модели с помощью какого-нибудь критерия. Если в процессе проверки мы попали в критическое множество, то нужно увеличить число факторов в модели.

4. Метод главных компонент.

Метод главных компонент также служит снижению размерности и выявлению факторов. Использование этого метода имеет особенность в случае, когда все координаты можно сравнить друг с другом (например, время, затраченное на одно, другое и т.д. ). Тогда мы рассматриваем матрицу вторых центральных моментов и приводим ее к главным осям. Векторы, соответствующие самым большим собственным векторам, называются главными компонентами, остальные считаются помехами. Чтобы вспомнить процедуру вычисления собственных чисел, надо посмотреть курс линейной алгебры.

Немного отличная ситуация возникает тогда, когда координаты несравнимы между собой (например, килограммы и метры). Тогда обычно наблюдаемые величины нормируются и матрица смешанных центральных моментов заменяется на матрицу коэффициентов корреляции.

Заметим, что и в этой ситуации следует проверить незначимость проигнорированных нами маленьких собственных значений. Для такой проверки разрабатываются критерии.

156

Часть 5. СЛУЧАЙНЫЕ ПРОЦЕССЫ

Введение

Под случайным процессом понимается коллекция случайных величин, заданных на одном вероятностном пространстве ( ; A; P) ( t), где либо t 0, либо t 2 R, либо t 2 T R

(процесс с непрерывным временем), ( n), n 2 f0g [ N или n 2 Z (процесс с дискретным временем). Случайные процессы бывают одномерными или многомерными (например, реальный процесс броуновского движения). Более общее понятие случайной функции , индексированной точками произвольной природы, включает в себя также важнейшие для анализа изображений случайные поля.

Изучение случайного процесса начинается с рассмотрения трех определяемых в терминах процесса объектов:

i)среднее процесса m (t) = E t, t 2 T ;

ii)ковариация процесса r (t; s) = E ( t E t) ( s E s), t; s 2 T .

iii)совместные распределения процесса P t1 tn , где ft1; :::; tng произвольное конечное подмножество области определения процесса T ;

Разумеется, среднее и ковариация процесса существуют не всегда, примером является класс процессов Леви, которые в последнее время все чаще используются при моделировании процессов в экономике. Впрочем, наболее часто используются гауссовские процессы, у которых все совместные распределения нормальны. Как мы уже видели, совместные распределения такого процесса однозначно определяются средним и ковариацией процесса.

Во многих ситуациях, и мы с этим неоднократно столкнемся, процесс задается не как зависящая от времени функция на вероятностном пространстве, а набором своих совместных распределений. Знаменитая теорема Колмогорова доказывает, что в этом случае можно придумать вероятностное пространство и процесс на нем, который будет иметь заданный набор совместных распределений.

Теория случайных процессов находит многочисленные применения: задачи прогнозирования, задача о разладке (определение момента внезапной смены одного наблюдаемого случайного процесса другим), процессы массового обслуживания, финансовая математика. Теория случайных процессов предоставляет модели для физики, механики, химии, биологии, метеорологии, практической статистики, гуманитарных наук.

Этот раздел теории вероятности использует многие глубокие факты теории меры, и, в свою очередь, стимулирует развитие этой теории. Он теснейшим образом связан с функциональным анализом. Важнейшие для приложений процессы второго порядка. в частности, стационарные случайные процессы, интерпретируются как кривые в гильбертовом пространстве. Другие важные процессы не имеют второго момента, развитие их теории связано с изучением других классов банаховых пространств. Случайные функции рассматриваются не только на евклидовых пространствах, но и на различных геометрических многообразиях. На основе теорий случайных процессов развивается важная для изучения процессов управления теория стохастических дифференциальных уравнений.

После этого введения придется ограничить задачи нашего курса лишь изучением начальных разделов этой теории и знакомством с рядом более продвинутых разделов.

Упражнение 1. Найти парные совместные распределения P t s , а также функции среднего и ковариации для процесса t, который задан соотношением

t(!) = I[0;t](!); t 2 [0; 1]; ! 2 [0; 1];

на вероятностном пространстве [0; 1] с борелевской -алгеброй событий и вероятностной мерой P, которая является обычной мерой Лебега, T = [0; 1].

§28. Случайное блуждание.

157

Предварительные замечания

Один из способов вычисления вероятностей в классической модели интересующего нас события A это представления его в виде суммы или разности событий, вероятности которых вычислить легче.

A = A1 + A2 + : : : An

или

A = A1 A2

так, что вероятности событий Ai легко вычисляются.

Иногда имеет смысл представить = 1 2, каждый случайный исход при этом представляется ! = (!1; !2), где !1 траектория ! до некоторого фиксированного момента k включительно, а !2 траектория ! от момента k + 1 до n. Иногда наше событие, которое нас интересует, можно представить в виде произведения A = A1 A2, где событие A1 формулируется в терминах условий на траектории до момента k включительно, а A2 в терминах условий на траектории от момента k + 1 до n. Очевидно, что тогда jAj = jA1j jA2j.

1. Модель симметричного случайного блуждания.

Элементарный исход траектория, состоящая из отрезков, направленных вверх % и направленных вниз &. Эта модель по существу совпадает с моделью Бернулли, но некоторым событиям можно сопоставить новый геометрический смысл. Начинается траектория с момента времени 0 с точки 0 на числовой оси, то есть с точки (0; 0) на координатной плоскости. Итак, если время движения равно n, то j j = 2n. Ввиду симметричности движения вероятности всех элементов равны 2 n. Однако при изменении числа шагов случайного блуждания меняется. Имеются задачи и для бесконечного числа шагов, тогда множество элементарных исходов оказывается бесконечным и даже несчетным, точнее, оно совпадает с множеством всех двоичных разложений чисел отрезка [0; 1]. Саму траекторию мы будем обозначать !, а значение случайного блуждания в момент времени n через n.

Физики любят такие простые модели, на простых примерах они стараются уловить эффекты, которые могут произойти в более сложной ситуации.

Введем события An;k, состоящие из всех траекторий, кончающихся в точке (n; k). An;k = f n = kg. Вычислим вероятность P(An;k), которая равна jAn;kj=2n. Очевидно, что для попа-

 

 

 

2

участков

%

2

дания в точку (n; k) наша траектория должна содержать n + k

 

и n k участков

&. Число таких траекторий мы можем

отождествить с числом вариантов подбрасывания мо-

n+k

n k

 

 

неты, где n + k

гербов и n k решек. Оно равно Cn 2

= Cn 2

. Обратим внимание на одну

2

2

 

 

 

 

 

особенность модели в точке (n; k) числа n и k имеют одинаковую четность.

2. Задача о пьяном гуляке.

Случайное блуждание мы будем считать как движение одномерного пьяного гуляки. Его домом мы считаем точку 0, город кончается в точке r.

Задача. Найти вероятность того, что за n шагов пьяный гуляка хотя бы раз достигнет границы города. Другая, менее приятная версия этой задачи такая. Пьяный гуляка лежит в канаве на расстоянии r шагов от оврага. Каждую минуту он делает шаг к оврагу или от него с вероятностью 12. Если он достигнет оврага, то обязательно в него упадет. Через n минут за ним приедет машина. Какова вероятность, что пьяный гуляка упадет в овраг?

Замечу, что наше решение будет иметь вид не очень красивой формулы для подсчета вероятности.

Введем обозначения для событий:

A = fсобытие, состоящее в том, что траектория коснулась уровня rg

Тогда

XX

A =

An;k + AAn;k:

k r

k<r

158

Введем обозначение для k < r:

Bn;k = ABn;k = fсобытие, состоящее в том, что траектория

кончается в точке (n; k), но по дороге касается уровня rg:

2. Лемма об отражении. jBn;kj = jAn;2r kj.

Доказывается путем построения взаимно-однозначного соответствия между множествами Bn;k и An;2r k. Оно осуществляется следующим образом: до момента первого касания уровня r траекторию ! 2 Bn;k мы оставляем неизменной, а после этого касания симметрично отображаем относительно прямой y = r.

Из этой леммы следует следующая формула для вычисления P(A):

)

 

P(A) =

P(An;k) +

P(Bn;k) =

(2 Cn 2

+ Cn 2

2 n:

X

X

 

X

n+k

n+r

 

 

 

 

 

 

 

k r

k<r

 

k>r

 

 

 

 

3. Независимость будущего от прошлого при фиксированном настоящем. Марковское свойство.

Марковское свойство процесса означает независимость будущего от прошлого при известном настоящем. Напомним, что события A и B называются условно независимыми при условии C, если

P(ABjC) = P(AjC)P(BjC):

Для случайного процесса t это свойство должно выглядеть так: при s < t < u

P(f u = x; s = ygj t = z) = P( u = xj t = z)P( s = yj t = z):

Однако если случайные величины u, t, s имеют непрерывный тип распределения, то все выписанные вероятности будут равны нулю, также вероятность условия будет равна нулю, а на нуль делить нельзя. Положение не спасает введение в рассмотрение событий вида f u 2 Ag, f s 2 Cg, f t 2 Bg. Действительно, если мы возьмем B = R, то событие f t 2 Rg будет достоверным и из условной независимости будет вытекать обычная незавсимость.

Таким образом, введение понятия марковости требует использования тонких понятий условного среднего в самой общей ситуации. В нашем случае симметричного случайного блуждания проблем с корректным определением не возникает, так как

 

n+k

P(f n = kg =

Cn 2

 

6= 0

2n

при одинаковой четности n и k.

Упражнение. Независимость приращений случайного блуждания. Проверьте, что события f n m = ig и f k l = jg независимы при l < k m < n. Для этого найдите число траекторий в каждом из этих событий и в их пересечении.

Из этого упражнения следует, что вероятность Pf u = xg зависит от положения случайного блуждания в момент времени t, но не зависит от других свойств предшествющего пути.

Комментарий. Марковость случайного блуждания можно обосновать и по другому, более строго. Будем использовать сохранение независимости при операции сложения несовместных событий (см. пункт 4.7). Это полезно, так как удобно проверять независимость самых маленьких событий, являющихся элементарными исходами в соответствующих моделях.

Событие C = f набор шагов & и % за время от s до t g. Событие D = f набор шагов & и % за время от m до n g.

P(C) = 2 (t s); P(D) = 2 (n m); P(CD) = 2 [(t s)+(n m)]:

159

В то же время случайные величины n и m при m < n, вообще говоря зависимы. Возьмем, например, события f 10 = 6g и f 11 = 9g. Это события с ненулевой вероятностью, но они несовместны. Следовательно, они зависимы.

Докажем независимость будущего случайного блуждания от прошлого при фиксированном настоящем p (т. е. независимость его значений при n t > p от его значений при s p при условии Ap;r = f p = rg). Это свойство случайного блуждания называется марковским. Мы

должны доказать равенство

 

P(CDjAp;r) = P(CjAp;r)P(DjAp;r)

(1)

для любого события C, означающего некое условие на значения процесса в моменты времени s p и для любого события D, означающего некое условие на значения процесса в моменты времени t : n t > p. Простым сложением показывается, что условная независимость (1) для элементарных событий C = Ci и D = Dj при всех i и j, где события Ci попарно несовместны между собой при разных i, события Dj попарно несовместны между собой при разных j, влечет условную независимость (1) для пары сумм событий C = C1+C2+:::+Ck и D = D1+D2+:::+Dl. Таким образом, условная независимость C и D следует из условной независимости всех пар Ci и Dj. А в качестве этих событий мы можем взять самые маленькие события нужного нам вида.

Минимальное событие Ci, зависящее от всех s : s p состоит из всех траекторий !, значения которых в промежутке s p составляют фиксированную траекторию !1 (т. е. все значения !1(s) зафиксированы при s p).

Минимальное событие Dj, зависящее от всех t : n t > p состоит из всех траекторий, значения которых в промежутке n t > p составляют фиксированную траекторию !2 (т. е. все значения !2(t) зафиксированы при n t > p).

Возможны две ситуации. В первой ситуации либо траектория !1 не кончается в точке (p; r), либо траектория !2 не продолжается на момент времени p со значением r. В этих случаях события Ci или Dj несовместны с Ap;r и тогда либо P(CijAp;r) = 0, либо P(DjjAp;r) = 0 и равенство (1) очевидно, так как обе его части равны. 0.

Во второй ситуации обе траектории продолжаются на момент времени p со значением r. Поэтому Ci Ap;r, DjAp;r 6= ;. Мы можем вычислить число траекторий в событиях CiAp;r и

D

A

 

и сосчитать условные вероятности.

Начнем с числа

j

A

p;rj

. Число траекторий из точки

j

 

p;r

p+r

 

 

 

(0; 0) в (p; r) мы уже сосчитали, оно равно Cp 2

. Но число способов продолжения каждой

такой траектории на моменты времени от p + 1 до n равно 2n p. Таким образом,

 

 

 

 

p+r

 

 

 

 

 

 

 

jAp;rj = Cp 2

2n p;

 

 

 

 

 

 

 

p+r

p+r

 

 

 

 

 

 

P(Ap;r) = Cp 2

2n p=2n = Cp 2

 

2 p:

 

Далее, jCiAp;rj равно числу способов продолжения траектории !1 на 1; p на все моменты времени n t > p. Число таких продолжений равно 2n p. И, наконец, jDjAp;rj равно чис-

лу таких продолжений траектории !2 на s < p, соединяющих (0; 0) и (p; r). Таким образом,

p+r

jDjAp;rj = Cp 2 . Резюмируем,

 

 

 

 

 

p+r

 

P(CijAp;r) =

2n p2 n

; P(DjjAp;r) =

Cp 2 2 n

 

 

 

;

 

p+r

p+r

Cp 2 2 p

 

 

Cp 2 2 p

P(CiDjjAp;r) =

2 n

 

= P(CijAp;r)P(DjjAp;r):

p+r

 

Cp 2 2 p

Итак, (1) выполняется.

160