Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Лекции по ЧМ и ТВ

.pdf
Скачиваний:
12
Добавлен:
05.06.2015
Размер:
1.34 Mб
Скачать

15. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ

; ãäå Bn = p n (n=2)

131

pT;n

= Bn

1 + n

 

(n+1)=2

;

 

 

t2

 

 

 

((n + 1)=2)

 

которое называется распределением Стьюдента (У. С. Госсет, 1908, Student псевдоним) с n степенями свободы.

Задача, понятно, состоит в том, чтобы перейти в дифференциальной форме меры совместного распределения d PXY (x; y) к перемен-

 

 

 

 

XY (x; y)p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

íûì t; y, полагая x = t

 

 

y=n, и результат проинтегрировать по y.

Выполняем: d P

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

x

 

1

 

 

n=2

 

1 e

y=2

 

= d PX (x) dPY (y) =

p

 

e 2

 

 

 

y

 

 

 

 

dx dy =

 

2n=2 (n=2)

 

 

2

 

 

 

1

 

y(n+1)=2 1

e (t2=n+1)y

 

 

 

 

 

 

 

=

p

 

2n=2 (n=2)

 

 

 

2

dt dy. Чтобы вычислить инте-

2 n

 

 

 

грал от этого выражения по y, заменим в нем y íà s =

(t2=n+1)y

 

 

 

 

 

 

 

 

 

 

 

 

2

,

тогда переменные t è s разделятся и в числителе получится еще од-

на гамма-функция:

 

 

 

 

 

 

 

 

 

 

Z

dPXY (x; y) = Z

d PT S(t; s) =

 

 

 

 

 

 

 

 

 

 

y

 

s

 

dt Z

s(n+1)=2 1

 

s ds =

 

 

 

= p n (n=2)(t2=n + 1)(n+1)=2

 

 

 

 

 

 

1

 

 

 

 

e

 

 

 

 

 

 

 

 

 

 

 

 

((n + 1)=2)

 

 

 

 

 

=

p

 

(n=2)(t2=n + 1)(n+1)=2

dt

 

 

 

 

n

 

Замечание. Число степеней свободы величины T равно n, а не n + 1, как

можно было бы ожидать из подсчета независимых переменных от которых

T

зависит, потому что одна степень теряется из-за однородности.

 

 

15.1Теорема Муавра Лапласа

Кратко говоря, теорема гласит, что при фиксированном p распределение центрированной и нормированной величины K сходится к

(0; 1)-нормальному. Подробности обычно имеют следующий вид.

Теорема 49 (Муавр, 1730, Лаплас, 1812) Пусть K; n; p; q слу-

чайная величина и параметры, связанные с испытанием Бернулли (с. 114), n ! 1. Тогда:

1.Симметричная интегральная теорема Муавра-Лапласа.

 

 

K n p

 

 

 

2. Интегральная теорема

Муавра-Лапласа.

P

 

pn p q

 

x

! 2 (x)

P(k1 K k2) ! (x2) (x1),

132 Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ

p

Числа xi связаны с ki соотношением:p ki = n p+ xi n p q, аналогич- но, ниже: k = n p + x n p q.

 

3. Локальная теорема Муавра-Лапласа.

x2

 

 

 

 

P( K = k) p

1

 

 

1

e

 

 

 

 

 

p

2

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

n p q

 

Погрешность

асимптотик в 1. и 2. оценивается величиной

p2

+ q2

const

 

 

 

 

, à â 3.

n .

 

p

 

 

 

n p q

 

Первое утверждение следует из второго при

x2 =1

x1 = x.

Третье

 

 

 

 

 

 

 

 

 

 

 

 

1

 

следует из второго, если там положить k1 = k

 

 

; k2 = k +

 

: È

2

2

второе следует из третьего по теореме сложения вероятностей:

 

 

P(k1

2

K

k2) = P(

K

= k1) +

 

+ P(

K

= k2)

!

 

 

 

x

 

 

 

 

 

 

 

 

 

 

! Z

0(x) dx, поскольку dx = pn p q = pn1p q

 

 

 

 

 

 

 

 

 

 

 

 

 

dk

 

 

 

 

 

 

 

 

 

 

 

x1

Утверждения 2 и 3 одновременно доказываются методом характеристических функций. Из теорем непрерывности и восстановления и из формул (V.4) и (V.5) следует, что достаточно установить сходи-

мость ' n (t) ! 'X0;1

(t). Разложив в ряды экспоненты в формуле

K

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(V.4), получим:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

'Kn= p e

it

 

q

it

 

 

p

 

n

2

 

 

 

 

 

n

t2

 

 

 

 

 

 

 

 

 

 

 

pn p q + q e

pn p q

= 1

+o

n1

!e

 

 

 

2tn

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

15.2Центральная предельная теорема

Теорема 50 (Ляпунов (1900), Линдеберг (1922), Феллер (1935)) Пусть (Xi) взаимно независимые случайные величины, ( Fi) èõ

функции распределения. Допустим, что величины центрированы:

M(X ) = 0, имеют конечные дисперсии ( 2), и положим

i

 

 

 

 

 

1

 

i

 

 

 

 

 

 

n

 

 

 

 

sn2

=

 

1

i2; Yn =

 

(X1

+ + Xn)

 

 

 

sn

Если выполнено

 

 

P

 

 

 

 

 

 

 

условие Линдеберга:

 

 

1

n

Z

x2

d F

 

Ln =

 

 

 

j(x) ! 0 при n ! 1 и любом " > 0;

sn2

1

 

 

 

Pjxj " sn

 

 

 

 

 

 

 

 

òî FYn (x) ! (x) + 21

ïðè n ! 1

15. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ

133

Требуется доказать сходимость характеристических функций. Из их

элементарных свойств следует, что

'Xj

 

 

 

 

n

t

 

 

'Yn (t) = 1

Для вычисления

'

sn

 

воспользуемся непосредственно проверяемой

 

 

Q

 

 

 

Xj

формулой (формула Тейлора с остаточным членом в виде интеграла):

1

ei x = 1 + i x 2x2 2x2 Z (1 s)(ei s x 1) ds

2

0

Помня, что в ней =

t

, получаем: 'Xj ( ) = Z

ei x d Fj(x) =

sn

 

 

 

 

 

 

1

 

2

2

 

Z Z (1 s)(ei s x 1) ds x2 d Fj(x)

= 1

j

 

2

2

 

 

 

 

 

 

 

0

 

Введем обозначения для последовательных вычитаемых в этой формуле и для их суммы (от n здесь зависит лишь ):

' ( ) = 1 + ajn + bjn = 1 + cjn

n

Xj

и положим an = Q1

(1 + cjn).

Лемма 51. Пусть

n

 

 

 

n

 

 

 

 

!1

a

 

!1

 

 

 

 

 

P

 

 

P

 

j

 

cjn

!

0 равномерно по j,

cjn

!

a è

j

cjn

C.

 

n

 

j=1

n

 

 

j=1

 

 

 

 

 

 

 

 

 

 

 

 

Тогда an ! e

В логарифме an выделяется главная часть, которая стремится куда

следует, и остаток, который требуется оценить.

 

Оценка остатка

 

n

 

 

 

n

 

 

 

 

P

 

 

 

P

(ln(1 + cjn) cjn)

 

 

ln an =

cjn + R;

R =

 

 

 

 

 

j=1

 

 

 

j=1

 

 

 

 

 

следует из неравенства

j ln(1 + ) j

2 ïðè

 

 

 

 

1=2: R

n

c2

max c

C

 

0

 

j j

j j

P

 

j jnj !

 

 

 

 

jn

j

 

 

 

 

j=1

 

 

 

 

 

 

 

134 Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ

Теперь остается проверить выполнение условий леммы и доказать,

÷òî a =

t2

 

 

 

 

t

 

 

 

 

 

 

 

 

 

 

 

 

. Подставляя =

 

â ajn, получаем:

 

 

 

 

 

2

sn

 

 

 

 

 

 

 

j2 t2

t2

 

d F

 

t2

 

t2"2

 

t2

 

 

ajn =

 

 

 

 

Z

x2

 

 

 

 

 

 

 

 

 

 

 

!

0

 

2 sn2

2 sn2

 

 

 

2

 

2

2

 

 

 

 

 

 

 

 

 

 

j(x) + Ln

 

 

+ Ln

 

jxj " sn

 bjn интеграл по d Fj(x) равен сумме интегралов по двум мно-

жествам: jxj " sn è jxj < " sn. Сумма по j интегралов по первому множеству стремится к нулю по условию Линдеберга. На втором множестве j xj ", поэтому сумма по j интегралов по нему оцени-

вается как O("), поскольку внутренний интеграл по d s имеет такую

n

n

n

2

 

оценку. Поэтому nlim

cjn = = nlim

ajn =

ajn = t2 = a.

!1 P

!1 P

P

 

 

 

j=1

j=1

j=1

 

 

 

Замечания. Центральная предельная теорема обобщает и теорему Муавра Лапласа, и слабые законы больших чисел. О значительности этой теоремы говорит ее название. Метод характеристических функций применил для доказательства Ляпунов, тем самым он одновременно и создал этот метод. В результате проблема доказательства превратилась в техническую задачу. Теорема имеет бесчисленное множество вариантов, один из которых здесь представлен. Феллер доказал необходимость условия Линдеберга.

16 Случайные функции

Конечный набор случайных величин, например, связанный с испытаниями Бернулли, последовательность случайных величин, случайный процесс все это частные случаи общего понятия случайной функции. Эти величины употребляются для моделирования случайных явлений распределенных на дискретном или непрерывном многообразии. Например температура воздуха на поверхности земли зависит не только от случая, но и от момента времени на годовом периоде и от места на Земле.

Случайная функция X(!; t) это, во-первых, функция двух переменных, одна из которых, !, принимает значения в вероятност-

ном пространстве, а другая, t в произвольном множестве T . Âî-

вторых, должны быть заданы конечные совместные распределения случайных величин X(!; t1), . . . , X(!; tn) при всевозможных на-

борах (t1; : : : ; tn) значений переменной t. При этом требуется, в- третьих, чтобы это множество конечномерных распределений было проективной системой вероятностных мер.

Случайная функция будет последовательностью, если T дискретно, и будет случайным процессом, если T время. Для краткости

случайные функции называют случайными процессами и просто

процессами.

16. СЛУЧАЙНЫЕ ФУНКЦИИ

135

Случайную функцию можно трактовать как случайную величину X(t), зависящую от параметра, и вычислять все ее вероятностные

характеристики. С другой стороны, ее можно исследовать как обыч- ную функцию от t, зависящую от случайного параметра !, диффе-

ренцировать по t, интегрировать и так далее. При фиксированном

! функцию X(t) называют реализацией случайной функции â èñ-

пытании !. Так как случайные величины часто значительно про-

ще описываются своими распределениями, можно случайную функ-

цию рассматривать как функцию распределения FX (x; t), завися- щую от параметра. Если нужно рассматривать несколько значений параметра, то необходимо пользоваться совместным распределени-

åì: F(x1; : : : ; xn; t1; : : : ; tn).

Математическим ожиданием случайной функции называют математическое ожидание случайной величины при фиксированном

значении параметра: MX (t) = M(X(t)).

Аналогично определяются:

 

дисперсия случайной функции DX (t) = D(X(t)),

среднее квадратическое отклонение

X (t) = (X(t)),

характеристическая функция '

(s) = M( eiX(t)s).

X(t)

 

Корреляционная функция (комплексной) случайной функции характеризует степень статистической зависимости случайных вели- чин, порожденных функцией при различных значениях параметра:

KX (t; u) = M((X(t) M(X(t)))(X(u) M(X(u))))

Правильнее ее называть ковариационной; называют ее также: ковариацией, автоковариацией, автокорреляционной и автоковариационной функциями, функциями корреляции и ковариации.

Нормированная корреляционная функция это просто коэффициент корреляции величин X(t) è X(u):

k (t; u) = KX (t; u)

X X (t) X (u)

Статистическую связь между двумя различными случайными функциями характеризует взаимная корреляционная функция:

KXY (t; u) = M((X(t) M(X(t)))(Y (u) M(Y (u)))), которую также можно еще и нормировать.

Случайная функция называется стационарной в широком смысле, если ее математическое ожидание и ковариация не изменяются при сдвиге времени. Это означает, что математическое ожидание не зависит от t, а функция ковариации зависит лишь от разности t u.

Случайная функция называется стационарной в узком смысле, если ее конечномерные распределения не зависят от точки отсчета

136

Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ

времени. Конечномерное распределение это совместное распределение величин X(t1); : : : ; X(tn).

Пример 37. Сердцу Е. С. Вентцель милы такие приложения этой теории: "абсцисса точки попадания при выстреле; ошибка радиодальномера при одном измерении дальности; горизонтальная ошибка наводки при одном выстреле; . . . ".

Эргодичность

Таинственное; сложно-составное слово эргодичность происходит от " o работа плюс o путь. Говорят, что стационарному про-

цессу присуще свойство эргодичности, если какие-то его числовые характеристики могут быть вычислены на одной реализации как средние по времени, например, может случиться, что:

T

1

Z

!1!

 

 

T

X(!; t) d t

T

M(X)

 

 

 

T t

0

 

 

 

 

 

Z

1

T t

0

(X(u)

 

M(X))(X(u + t)

 

M(X)) d u

!

KX

(t)

 

 

 

 

 

T

!1

 

 

 

 

 

 

 

 

 

 

Сходимость здесь может быть разной. Если это сходимость по вероятности или почти всюду, то эргодичность принимает вид закона больших чисел. В эргодических теоремах свойство эргодичности выводится из подходящих условий, подобно тому как законы больших чисел были выведены из ограниченности дисперсии.

16.1Спектральный метод

Этот способ исследования занимает значительное место в теории случайных процессов. Он состоит просто в том, что случайная функция и ее ковариация подвергаются преобразованию Фурье по неслу- чайной переменной t.

Ограничим наше рассмотрение стационарным случаем. Тогда ковариация будет функцией одной переменной. Можно считать ее быстро убывающей, поскольку физически это означает, что явления, разделенные большим промежутком времени или пространства, слабо зависят друг от друга. В этом случае применение преобразования Фурье препятствий не встретит.

Сама же функция, даже если она колеблется вокруг нуля, не приспособлена к этому преобразованию. Это затруднение преодолевают с помощью преобразования Лапласа. Но этот путь не очень хорош, так как стационарность процесса при этом искажается предварительным умножением на убывающую экспоненту, тогда как хочется иметь амплитуды, фазы и частоты тех гармоник, которые составляют сам неискаженный процесс. Прямой путь к решению этой задачи

16. СЛУЧАЙНЫЕ ФУНКЦИИ

137

ведет к обобщенному преобразованию Фурье и, следовательно, к теории обобщенных функций. Понятие слабой сходимости основная идея этой теории уже эксплуатировалось в методе характеристи- ческих функций.

Итак, чуть грубо говоря, характеристическая функция ' (s; t)

X

процесса X(!; t) это преобразование Фурье его плотности распре-

деления pX (x; t) от переменной x к переменной s при всех фиксированных значениях параметра t. А преобразование Фурье реализации

X(!; t) процесса от переменной t к переменной никак не называется, но после умножения на d , оказывается случайной (или стохастической) мерой Z( d ) на пространстве значений переменной .

Преобразование Фурье по t корреляционной функции процесса на-

зывается спектральной плотностью процесса, а мера с этой плотностью F ( d ) называется спектральной мерой процесса. Выразим

это формулами обращения, которые уточняют сказанное и называются, соответственно, спектральным разложением корреляционной функции è спектральным разложением стационарного случайного процесса:

X(t) =

Z

ei tZ( d )

(V.8)

KX (t) =

Z

ei tF ( d )

(V.9)

Обе меры определяются в обобщенном смысле, то есть, своими интегралами на пробных функциях. Это значит, что для произволь-

ной интегрируемой функции ( ) с интегрируемым преобразова-

нием Фурье (t) интеграл I = Z

( ) Z( d ) определяется форму-

b

 

Z

ëîé I = 21

b(t)X(t) dt. Так определенное обобщенное распределе-

íèå Z( d ) обладает некоторыми свойствами меры, а распределение

F ( d ) оказывается конечной и неотрицательной мерой на прямой.

То есть, эта мера отличается от вероятностной положительным множителем. Это можно установить с помощью теоремы Бохнера Хинчина, согласно которой достаточно проверить, что корреляционная функция процесса X положительно определена. Проверим:

k;jn=1 cjckKX (tj tk) = M

n

j=1

P

P

 

n

P

cjX(tj) ckX(tk) =

k=1

n

 

2

= M

 

j=1 cjX(tj)

0.

 

P

 

 

 

 

 

 

 

 

 

138

Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ

Эти факты оправдывают слово мера в названиях величин F ( d ) è Z( d ).

Замечания.

Спектральная и стохастическая меры процесса связаны соотношением

M(jZ( d )j2) = F ( d )

Среди свойств случайных процессов встречаются совершенно удивительные. Одно из них относится к модели броуновского движения движения взвешенной в жидкости частицы под действием толчков окружающих ее молекул. Приходится мириться с тем, что с вероятностью 1 траектория этой частицы дает пример

непрерывной, но не имеющей производной ни в одной точке, функции. Тот факт, что и для такой пакости нашелся "физический смысл", может быть поучителен для студентов, которые любят спрашивать: зачем нужна та или другая математическая конструкция?

16.2Марковский процесс

Цепью Маркова (Aj(n))n=1;2;::: называется последовательность испытаний вероятностного пространства с конечным или счетным множеством исходов fAjg, если исход любого испытания Aj(n) зависит

только от исхода предшествующего испытания Ak(n 1). Предположим, что цепь Маркова однородна, иначе говоря, что

эти зависимости не зависят от n. Тогда стохастическое описание цепи полностью определено заданием начальных (в момент

n

=

1) вероятностей исходов pj è переходных вероятностей

pij

=

P(Aj(n)=Ai(n 1)) вероятностей перехода öåïè èç ñî-

стояния Ai в состояние Aj в любой момент времени n.

Рассматриваются также цепи Маркова с дискретным или непрерывным временем, когда испытание производится в заранее определенные или в заранее неизвестные моменты времени, а также цепи с более сложным вероятностным пространством. Тогда марковское свойство будет состоять в том, что следующее состояние цепи (исход очередного испытания) статистически зависит лишь от настоящего состояния, то есть, не зависит от предшествующих состояний. Такие величины называют марковскими процессами.

Ясно, что последовательность независимых испытаний это цепь Маркова с матрицей pij = pj. На первый взгляд может показаться,

что понятие цепи Маркова лишь немного расширяет понятие испытаний Бернулли. Однако простым приемом можно к цепи Маркова свести любую последовательность испытаний, в которой каждый исход зависит только от фиксированного конечного числа k ïðåä-

шествующих исходов. Прием состоит в том, что цепь заменяется на эквивалентную ей цепь, состоящую из k-цепочек испытаний исход-

íîé öåïè.

Согласно определению условной вероятности совместные распределения исходов начальных последовательных испытаний опреде-

16. СЛУЧАЙНЫЕ ФУНКЦИИ

139

P(Ai(2); Aj(4)) =

pl pli pik pkj и так далее.i

Pi

лятся формулами:

P(Ai(1); Aj(2)) = p pij, P(Aj(2)) =

pi pij,

P

lk

Вероятности перехода образуют матрицу перехода P=( pij). Сумма элементов каждой строки этой матрицы равна 1, поскольку цепь

изиспытаниилюбого .состоянияЯсно, чтонавернякаи P перейдет в какое-нибудь при новом pj = 1.

Простейшая задача для цепей Маркова состоит в определении ве- роятностей pij(n) перехода из состояния i в состояние j после n

испытаний. Равенство Маркова, вытекающее из формулы полной ве-

роятности, устанавливает рекуррентные соотношения между этими

величинами:

 

pij(n) = Pk

pik(m) pkj(n m) èëè: P(n) = P(m) P(n m)

ßñíî, ÷òî pij(1) = pij. Из этих соотношений следует, что

P(n) = Pn

Затем ставятся вопросы о предельных распределениях. Когда существует предел матрицы перехода P(n), по нему можно судить,

куда эволюционирует марковский процесс. Предельные распределения, которые фигурируют в обобщениях на цепи Маркова закона больших чисел и центральной предельной теоремы, можно успешно использовать вместо распределений самой цепи, когда они неизвестны.

Пример 38. Исправим испытание подбрасывания монеты в соответствии с принципом: снаряд два раза в в одно место не падает. Положим, что при первом подбрасывании орел и решка выпадают равновероятно, а при следующих орел

следует за орлом или решка за решкой с вероятностью p < 1=2. Тогда получается

p q

цепь Маркова с атрибутами: p1 = p2

 

= 1=2, P =

q

p Чтобы вычислить

P(n) = Pn, приведем ее к жордановой нормальной форме.

 

 

P

ные векторы (1; 1)T è (1; 1)T , следовательно,

 

 

 

q =

 

Собственные числа матрицы P равны p+ q = 1 è p

 

 

 

 

r < 0, собствен-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

нормальная форма матрицы

 

равна Q

 

A

1 PA

 

1

0

 

, ãäå A =

 

1

1 , A 1 =

1

 

A.

 

 

 

 

=1

0 r

 

1n

 

 

 

 

 

 

 

=

 

 

 

n

1

 

1 1

 

0

2

 

 

 

 

 

Èòàê, P

= AQA

n(n) = AQ nA

 

,

Q = 0

( r)n ,

 

 

 

 

 

 

, P

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(n) = (1=2) 1 ( r)n

1

+ ( r)n . Что же мы видим? С увеличением n ве-

 

 

 

 

1 + (

r)

1

 

( r)

 

 

 

 

 

 

 

 

 

 

 

 

 

роятности исходов сближаются. Наблюдается чередование: после четного числа испытаний вероятность повторения исхода становится больше вероятности его изменения. Это естественно, ведь в предыдущем, нечетном, испытании начальный исход скорее изменился, чем сохранился. Наконец, если p = q, то цепь

оказывается последовательностью независимых испытаний. Предельная матрица перехода P(1) определяет цепь независимых испытаний; этого следует ожи-

140

Глава V. ТЕОРИЯ ВЕРОЯТНОСТЕЙ

дать и в более общих случаях, в то время как сближение вероятностей исходов скорее всего здесь случайно.

Из областей приложений марковских процессов упомянем теорию массового обслуживания. Типичная модель в этой теории называется системой обслуживания, которая включает в себя статисти- ческое описание потока требований, заявок и т. п., статистическое описание каналов обслуживания, каждый из которых может одновременно обслуживать только одну заявку, и дисциплину обслуживания. Входящий поток может быть задан распределением моментов времени поступления очередной заявки, канал распределением длительности обслуживания, дисциплина порядком выбора заявок из очереди и порядком назначения канала.

Состояние системы задается длительностями работы занятых каналов и либо количеством свободных каналов, либо списком скопившейся очереди. Ясно, что следующее состояние такой системы зависит только от настоящего, но не от прошлых состояний, поэтому ее можно изучать как цепь или процесс Маркова.

17 Вопросы и задачи с решениями

1.Вероятностное пространство, мера. Типы вероятностных пространств. (с. 199-207, 98-106)

2.Операции над вероятностными пространствами: произведение, образ, условная вероятность. Независимость событий. Формулы Бейеса. (с. 199-207, 98-108)

3.Случайные величины. Преобразование распределений случайных величин. Независимые случайные величины. (с. 199-207, 108-114, 122-127)

4.Числовые характеристики случайных величин: математическое ожидание, дисперсия, среднеквадратичное отклонение, ковариация. и корреляция, моменты, асимметрия, эксцесс. (с. 199-207, 114-119, 122-127)

5.Неравенство Чебышева. Слабый закон больших чисел. Теоремы Пуассона, Чебышева и Маркова о суммах случайных величин. (с. 199-207, 119-122)

6.Биномиальное распределение. Формула Бернулли. Аппроксимация распределением Пуассона. (с. 199-207, 113-114, 127-128, 122-127)

7.Пуассоновский поток событий. Вывод формулы Пуассона. (с. 199-207, 127-128, 122-127)

8.Нормальное распределение. Его характеристики. (с. 199-207, 129-130, 122-127)

9.Теорема Муавра Лапласа, локальная и интегральная. (с. 199-207, 131-132, 122-127)

10.Центральная предельная теорема. (с. 199-207, 132-134, 122-127)

11.Цепи Маркова, эргодическое свойство. (с. 199-207, 134-140, 122-127)

12.Случайные процессы и их спектральные разложения. (с. 199-207, 134-138, 122-127)

1. Равномерно распределенное случайное целое число n из интервала 1 n 50 делится на 8 с частным m и остатком k: n = 8m+k. Найти дисперсию случайной величины m + k.