Лекции по ЧМ и ТВ
.pdf15. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ |
; ãäå Bn = p n (n=2) |
131 |
|||||
pT;n |
= Bn |
1 + n |
|
(n+1)=2 |
; |
||
|
|
t2 |
|
|
|
((n + 1)=2) |
|
которое называется распределением Стьюдента (У. С. Госсет, 1908, Student псевдоним) с n степенями свободы.
Задача, понятно, состоит в том, чтобы перейти в дифференциальной форме меры совместного распределения d PXY (x; y) к перемен-
|
|
|
|
XY (x; y)p |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
||||||
íûì t; y, полагая x = t |
|
|
y=n, и результат проинтегрировать по y. |
|||||||||||||||||||
Выполняем: d P |
|
|
|
|
= |
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
1 |
|
|
|
x |
|
1 |
|
|
n=2 |
|
1 e |
y=2 |
|
|||||
= d PX (x) dPY (y) = |
p |
|
e 2 |
|
|
|
y |
|
|
|
|
dx dy = |
||||||||||
|
2n=2 (n=2) |
|
|
|||||||||||||||||||
2 |
|
|
|
|||||||||||||||||||
1 |
|
y(n+1)=2 1 |
e (t2=n+1)y |
|
|
|
|
|
|
|
||||||||||||
= |
p |
|
2n=2 (n=2) |
|
|
|
2 |
dt dy. Чтобы вычислить инте- |
||||||||||||||
2 n |
|
|
|
грал от этого выражения по y, заменим в нем y íà s = |
(t2=n+1)y |
|
|||||||||||
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
2 |
, |
|||
тогда переменные t è s разделятся и в числителе получится еще од- |
|||||||||||||
на гамма-функция: |
|
|
|
|
|
|
|
|
|
|
|||
Z |
dPXY (x; y) = Z |
d PT S(t; s) = |
|
|
|
|
|
|
|
|
|
|
|
y |
|
s |
|
dt Z |
s(n+1)=2 1 |
|
s ds = |
|
|
||||
|
= p n (n=2)(t2=n + 1)(n+1)=2 |
|
|
|
|||||||||
|
|
|
1 |
|
|
|
|
e |
|
|
|
|
|
|
|
|
|
|
|
|
((n + 1)=2) |
|
|||||
|
|
|
|
= |
p |
|
(n=2)(t2=n + 1)(n+1)=2 |
dt |
|||||
|
|
|
|
n |
|||||||||
|
Замечание. Число степеней свободы величины T равно n, а не n + 1, как |
||||||||||||
можно было бы ожидать из подсчета независимых переменных от которых |
T |
||||||||||||
зависит, потому что одна степень теряется из-за однородности. |
|
|
15.1Теорема Муавра Лапласа
Кратко говоря, теорема гласит, что при фиксированном p распределение центрированной и нормированной величины K сходится к
(0; 1)-нормальному. Подробности обычно имеют следующий вид.
Теорема 49 (Муавр, 1730, Лаплас, 1812) Пусть K; n; p; q слу-
чайная величина и параметры, связанные с испытанием Бернулли (с. 114), n ! 1. Тогда:
1.Симметричная интегральная теорема Муавра-Лапласа.
|
|
K n p |
|
|
|
|
2. Интегральная теорема |
Муавра-Лапласа. |
|||||
P |
|
pn p q |
|
x |
! 2 (x) |
P(k1 K k2) ! (x2) (x1),
132 Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ
p
Числа xi связаны с ki соотношением:p ki = n p+ xi n p q, аналогич- но, ниже: k = n p + x n p q.
|
3. Локальная теорема Муавра-Лапласа. |
x2 |
||||||||
|
|
|
|
P( K = k) p |
1 |
|
|
1 |
e |
|
|
|
|
|
|
p |
2 |
||||
|
|
|
|
|
|
|||||
|
|
|
|
|
|
2 |
||||
|
|
|
|
n p q |
||||||
|
Погрешность |
асимптотик в 1. и 2. оценивается величиной |
||||||||
p2 |
+ q2 |
const |
|
|||||||
|
|
|
, à â 3. |
n . |
|
|||||
p |
|
|
|
|||||||
n p q |
|
Первое утверждение следует из второго при |
x2 =1 |
x1 = x. |
Третье |
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|||||
следует из второго, если там положить k1 = k |
|
|
; k2 = k + |
|
: È |
|||||||||||||
2 |
2 |
|||||||||||||||||
второе следует из третьего по теореме сложения вероятностей: |
|
|
||||||||||||||||
P(k1 |
2 |
K |
k2) = P( |
K |
= k1) + |
|
+ P( |
K |
= k2) |
! |
|
|
|
|||||
x |
|
|
|
|
|
|
|
|
|
|
||||||||
! Z |
0(x) dx, поскольку dx = pn p q = pn1p q |
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
dk |
|
|
|
|
|
|
|
|
|
|
|
x1
Утверждения 2 и 3 одновременно доказываются методом характеристических функций. Из теорем непрерывности и восстановления и из формул (V.4) и (V.5) следует, что достаточно установить сходи-
мость ' n (t) ! 'X0;1 |
(t). Разложив в ряды экспоненты в формуле |
|||||||||||||||||||
K |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
(V.4), получим: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
'Kn= p e |
it |
|
q |
it |
|
|
p |
|
n |
2 |
|
|
|
|
|
n |
t2 |
|
||
|
|
|
|
|
|
|
|
|
|
|||||||||||
pn p q + q e |
pn p q |
= 1 |
+o |
n1 |
!e |
|
||||||||||||||
|
|
2tn |
2 |
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
15.2Центральная предельная теорема
Теорема 50 (Ляпунов (1900), Линдеберг (1922), Феллер (1935)) Пусть (Xi) взаимно независимые случайные величины, ( Fi) èõ
функции распределения. Допустим, что величины центрированы: |
||||||||||
M(X ) = 0, имеют конечные дисперсии ( 2), и положим |
||||||||||
i |
|
|
|
|
|
1 |
|
i |
||
|
|
|
|
|
|
n |
|
|
||
|
|
sn2 |
= |
|
1 |
i2; Yn = |
|
(X1 |
+ + Xn) |
|
|
|
|
sn |
|||||||
Если выполнено |
|
|
P |
|
|
|
|
|||
|
|
|
условие Линдеберга: |
|
|
|||||
1 |
n |
Z |
x2 |
d F |
|
|||||
Ln = |
|
|
|
j(x) ! 0 при n ! 1 и любом " > 0; |
||||||
sn2 |
1 |
|
||||||||
|
|
Pjxj " sn |
|
|
|
|
|
|
||
|
|
òî FYn (x) ! (x) + 21 |
ïðè n ! 1 |
15. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ |
133 |
Требуется доказать сходимость характеристических функций. Из их |
|||||
элементарных свойств следует, что |
'Xj |
|
|
||
|
|
n |
t |
||
|
|
'Yn (t) = 1 |
|||
Для вычисления |
' |
sn |
|||
|
воспользуемся непосредственно проверяемой |
||||
|
|
Q |
|
|
|
Xj
формулой (формула Тейлора с остаточным членом в виде интеграла):
1
ei x = 1 + i x 2x2 2x2 Z (1 s)(ei s x 1) ds
2
0
Помня, что в ней = |
t |
, получаем: 'Xj ( ) = Z |
ei x d Fj(x) = |
||||
sn |
|||||||
|
|
|
|
|
|
1 |
|
2 |
2 |
|
Z Z (1 s)(ei s x 1) ds x2 d Fj(x) |
||||
= 1 |
j |
|
2 |
||||
2 |
|
||||||
|
|
|
|
|
|
0 |
|
Введем обозначения для последовательных вычитаемых в этой формуле и для их суммы (от n здесь зависит лишь ):
' ( ) = 1 + ajn + bjn = 1 + cjn |
|
n |
Xj |
и положим an = Q1 |
(1 + cjn). |
Лемма 51. Пусть |
n |
|
|
|
n |
|
|
|
||
|
!1 |
a |
|
!1 |
|
|
|
|
||
|
P |
|
|
P |
|
j |
|
|||
cjn |
! |
0 равномерно по j, |
cjn |
! |
a è |
j |
cjn |
C. |
||
|
n |
|
j=1 |
n |
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
Тогда an ! e
В логарифме an выделяется главная часть, которая стремится куда |
||||||||||
следует, и остаток, который требуется оценить. |
|
|||||||||
Оценка остатка |
|
n |
|
|
|
n |
|
|
|
|
|
P |
|
|
|
P |
(ln(1 + cjn) cjn) |
|
|||
|
ln an = |
cjn + R; |
R = |
|
|
|||||
|
|
|
j=1 |
|
|
|
j=1 |
|
|
|
|
|
следует из неравенства |
j ln(1 + ) j |
2 ïðè |
||||||
|
|
|
||||||||
|
1=2: R |
n |
c2 |
max c |
C |
|
0 |
|
||
j j |
j j |
P |
|
j jnj ! |
|
|
|
|||
|
jn |
j |
|
|
||||||
|
|
j=1 |
|
|
|
|
|
|
|
134 Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Теперь остается проверить выполнение условий леммы и доказать, |
||||||||||||||||||||
÷òî a = |
t2 |
|
|
|
|
t |
|
|
|
|
|
|
|
|
|
|
||||
|
|
. Подставляя = |
|
â ajn, получаем: |
|
|
|
|
|
|||||||||||
2 |
sn |
|
|
|
|
|
||||||||||||||
|
|
j2 t2 |
t2 |
|
d F |
|
t2 |
|
t2"2 |
|
t2 |
|
|
|||||||
ajn = |
|
|
|
|
Z |
x2 |
|
|
|
|
|
|
|
|
|
|
|
! |
0 |
|
|
2 sn2 |
2 sn2 |
|
|
|
2 |
|
2 |
2 |
|
||||||||||
|
|
|
|
|
|
|
|
|
j(x) + Ln |
|
|
+ Ln |
|
jxj " sn
 bjn интеграл по d Fj(x) равен сумме интегралов по двум мно-
жествам: jxj " sn è jxj < " sn. Сумма по j интегралов по первому множеству стремится к нулю по условию Линдеберга. На втором множестве j xj ", поэтому сумма по j интегралов по нему оцени-
вается как O("), поскольку внутренний интеграл по d s имеет такую
n |
n |
n |
2 |
|
|
оценку. Поэтому nlim |
cjn = = nlim |
ajn = |
ajn = t2 = a. |
||
!1 P |
!1 P |
P |
|
|
|
j=1 |
j=1 |
j=1 |
|
|
|
Замечания. Центральная предельная теорема обобщает и теорему Муавра Лапласа, и слабые законы больших чисел. О значительности этой теоремы говорит ее название. Метод характеристических функций применил для доказательства Ляпунов, тем самым он одновременно и создал этот метод. В результате проблема доказательства превратилась в техническую задачу. Теорема имеет бесчисленное множество вариантов, один из которых здесь представлен. Феллер доказал необходимость условия Линдеберга.
16 Случайные функции
Конечный набор случайных величин, например, связанный с испытаниями Бернулли, последовательность случайных величин, случайный процесс все это частные случаи общего понятия случайной функции. Эти величины употребляются для моделирования случайных явлений распределенных на дискретном или непрерывном многообразии. Например температура воздуха на поверхности земли зависит не только от случая, но и от момента времени на годовом периоде и от места на Земле.
Случайная функция X(!; t) это, во-первых, функция двух переменных, одна из которых, !, принимает значения в вероятност-
ном пространстве, а другая, t в произвольном множестве T . Âî-
вторых, должны быть заданы конечные совместные распределения случайных величин X(!; t1), . . . , X(!; tn) при всевозможных на-
борах (t1; : : : ; tn) значений переменной t. При этом требуется, в- третьих, чтобы это множество конечномерных распределений было проективной системой вероятностных мер.
Случайная функция будет последовательностью, если T дискретно, и будет случайным процессом, если T время. Для краткости
случайные функции называют случайными процессами и просто
процессами.
16. СЛУЧАЙНЫЕ ФУНКЦИИ |
135 |
Случайную функцию можно трактовать как случайную величину X(t), зависящую от параметра, и вычислять все ее вероятностные
характеристики. С другой стороны, ее можно исследовать как обыч- ную функцию от t, зависящую от случайного параметра !, диффе-
ренцировать по t, интегрировать и так далее. При фиксированном
! функцию X(t) называют реализацией случайной функции â èñ-
пытании !. Так как случайные величины часто значительно про-
ще описываются своими распределениями, можно случайную функ-
цию рассматривать как функцию распределения FX (x; t), завися- щую от параметра. Если нужно рассматривать несколько значений параметра, то необходимо пользоваться совместным распределени-
åì: F(x1; : : : ; xn; t1; : : : ; tn).
Математическим ожиданием случайной функции называют математическое ожидание случайной величины при фиксированном
значении параметра: MX (t) = M(X(t)). |
|
Аналогично определяются: |
|
дисперсия случайной функции DX (t) = D(X(t)), |
|
среднее квадратическое отклонение |
X (t) = (X(t)), |
характеристическая функция ' |
(s) = M( eiX(t)s). |
X(t) |
|
Корреляционная функция (комплексной) случайной функции характеризует степень статистической зависимости случайных вели- чин, порожденных функцией при различных значениях параметра:
KX (t; u) = M((X(t) M(X(t)))(X(u) M(X(u))))
Правильнее ее называть ковариационной; называют ее также: ковариацией, автоковариацией, автокорреляционной и автоковариационной функциями, функциями корреляции и ковариации.
Нормированная корреляционная функция это просто коэффициент корреляции величин X(t) è X(u):
k (t; u) = KX (t; u)
X X (t) X (u)
Статистическую связь между двумя различными случайными функциями характеризует взаимная корреляционная функция:
KXY (t; u) = M((X(t) M(X(t)))(Y (u) M(Y (u)))), которую также можно еще и нормировать.
Случайная функция называется стационарной в широком смысле, если ее математическое ожидание и ковариация не изменяются при сдвиге времени. Это означает, что математическое ожидание не зависит от t, а функция ковариации зависит лишь от разности t u.
Случайная функция называется стационарной в узком смысле, если ее конечномерные распределения не зависят от точки отсчета
136 |
Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ |
времени. Конечномерное распределение это совместное распределение величин X(t1); : : : ; X(tn).
Пример 37. Сердцу Е. С. Вентцель милы такие приложения этой теории: "абсцисса точки попадания при выстреле; ошибка радиодальномера при одном измерении дальности; горизонтальная ошибка наводки при одном выстреле; . . . ".
Эргодичность
Таинственное; сложно-составное слово эргодичность происходит от " o работа плюс o путь. Говорят, что стационарному про-
цессу присуще свойство эргодичности, если какие-то его числовые характеристики могут быть вычислены на одной реализации как средние по времени, например, может случиться, что:
T
1 |
Z |
!1! |
|
|
|
T |
X(!; t) d t |
T |
M(X) |
|
|
|
||
T t |
0 |
|
|
|
|
|
|
138 |
Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ |
Эти факты оправдывают слово мера в названиях величин F ( d ) è Z( d ).
Замечания.
Спектральная и стохастическая меры процесса связаны соотношением
M(jZ( d )j2) = F ( d )
Среди свойств случайных процессов встречаются совершенно удивительные. Одно из них относится к модели броуновского движения движения взвешенной в жидкости частицы под действием толчков окружающих ее молекул. Приходится мириться с тем, что с вероятностью 1 траектория этой частицы дает пример
непрерывной, но не имеющей производной ни в одной точке, функции. Тот факт, что и для такой пакости нашелся "физический смысл", может быть поучителен для студентов, которые любят спрашивать: зачем нужна та или другая математическая конструкция?
16.2Марковский процесс
Цепью Маркова (Aj(n))n=1;2;::: называется последовательность испытаний вероятностного пространства с конечным или счетным множеством исходов fAjg, если исход любого испытания Aj(n) зависит
только от исхода предшествующего испытания Ak(n 1). Предположим, что цепь Маркова однородна, иначе говоря, что
эти зависимости не зависят от n. Тогда стохастическое описание цепи полностью определено заданием начальных (в момент
n |
= |
1) вероятностей исходов pj è переходных вероятностей |
pij |
= |
P(Aj(n)=Ai(n 1)) вероятностей перехода öåïè èç ñî- |
стояния Ai в состояние Aj в любой момент времени n.
Рассматриваются также цепи Маркова с дискретным или непрерывным временем, когда испытание производится в заранее определенные или в заранее неизвестные моменты времени, а также цепи с более сложным вероятностным пространством. Тогда марковское свойство будет состоять в том, что следующее состояние цепи (исход очередного испытания) статистически зависит лишь от настоящего состояния, то есть, не зависит от предшествующих состояний. Такие величины называют марковскими процессами.
Ясно, что последовательность независимых испытаний это цепь Маркова с матрицей pij = pj. На первый взгляд может показаться,
что понятие цепи Маркова лишь немного расширяет понятие испытаний Бернулли. Однако простым приемом можно к цепи Маркова свести любую последовательность испытаний, в которой каждый исход зависит только от фиксированного конечного числа k ïðåä-
шествующих исходов. Прием состоит в том, что цепь заменяется на эквивалентную ей цепь, состоящую из k-цепочек испытаний исход-
íîé öåïè.
Согласно определению условной вероятности совместные распределения исходов начальных последовательных испытаний опреде-
16. СЛУЧАЙНЫЕ ФУНКЦИИ |
139 |
|
P(Ai(2); Aj(4)) = |
pl pli pik pkj и так далее.i |
Pi |
лятся формулами: |
P(Ai(1); Aj(2)) = p pij, P(Aj(2)) = |
pi pij, |
P
lk
Вероятности перехода образуют матрицу перехода P=( pij). Сумма элементов каждой строки этой матрицы равна 1, поскольку цепь
изиспытаниилюбого .состоянияЯсно, чтонавернякаи P перейдет в какое-нибудь при новом pj = 1.
Простейшая задача для цепей Маркова состоит в определении ве- роятностей pij(n) перехода из состояния i в состояние j после n
испытаний. Равенство Маркова, вытекающее из формулы полной ве- |
|
роятности, устанавливает рекуррентные соотношения между этими |
|
величинами: |
|
pij(n) = Pk |
pik(m) pkj(n m) èëè: P(n) = P(m) P(n m) |
ßñíî, ÷òî pij(1) = pij. Из этих соотношений следует, что
P(n) = Pn
Затем ставятся вопросы о предельных распределениях. Когда существует предел матрицы перехода P(n), по нему можно судить,
куда эволюционирует марковский процесс. Предельные распределения, которые фигурируют в обобщениях на цепи Маркова закона больших чисел и центральной предельной теоремы, можно успешно использовать вместо распределений самой цепи, когда они неизвестны.
Пример 38. Исправим испытание подбрасывания монеты в соответствии с принципом: снаряд два раза в в одно место не падает. Положим, что при первом подбрасывании орел и решка выпадают равновероятно, а при следующих орел
следует за орлом или решка за решкой с вероятностью p < 1=2. Тогда получается
p q
цепь Маркова с атрибутами: p1 = p2 |
|
= 1=2, P = |
q |
p Чтобы вычислить |
||||||||||||||||||
P(n) = Pn, приведем ее к жордановой нормальной форме. |
|
|
P |
|||||||||||||||||||
ные векторы (1; 1)T è (1; 1)T , следовательно, |
|
|
|
q = |
|
|||||||||||||||||
Собственные числа матрицы P равны p+ q = 1 è p |
|
|
|
|
r < 0, собствен- |
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
нормальная форма матрицы |
|
|||||||
равна Q |
|
A |
1 PA |
|
1 |
0 |
|
, ãäå A = |
|
1 |
1 , A 1 = |
1 |
|
A. |
|
|
|
|||||
|
=1 |
0 r |
|
1n |
|
|
|
|
|
|
||||||||||||
|
= |
|
|
|
n |
1 |
|
1 1 |
|
0 |
2 |
|
|
|
|
|
||||||
Èòàê, P |
= AQA |
n(n) = AQ nA |
|
, |
Q = 0 |
( r)n , |
|
|
|
|||||||||||||
|
|
|
, P |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
P(n) = (1=2) 1 ( r)n |
1 |
+ ( r)n . Что же мы видим? С увеличением n ве- |
||||||||||||||||||||
|
|
|
|
1 + ( |
r) |
1 |
|
( r) |
|
|
|
|
|
|
|
|
|
|
|
|
|
роятности исходов сближаются. Наблюдается чередование: после четного числа испытаний вероятность повторения исхода становится больше вероятности его изменения. Это естественно, ведь в предыдущем, нечетном, испытании начальный исход скорее изменился, чем сохранился. Наконец, если p = q, то цепь
оказывается последовательностью независимых испытаний. Предельная матрица перехода P(1) определяет цепь независимых испытаний; этого следует ожи-