Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

лекции бгуир

.pdf
Скачиваний:
40
Добавлен:
24.02.2016
Размер:
817.04 Кб
Скачать

 

 

 

 

 

 

 

 

K11

K12

K1n

 

 

 

Kij

 

 

 

=

K21

K22

K2n

 

 

 

 

 

 

 

 

 

 

 

 

Kn1

Kn2

Knn

где

 

 

Kij = ...

(xi mi )( x j m j ) f (x1 ,..., xn )dx1...dxn . (10.13)

−∞

−∞

Данная матрица является симметричной ( Kij = K ji ) и включает в себя вектор дисперсий, так как Кii = Di

4. Матрица коэффициентов корреляции:

 

 

 

 

 

 

 

 

1

 

R12

R1n

 

 

 

 

Rij

 

 

 

=

R21

 

1 R2 n

,

 

 

 

 

 

 

 

 

 

 

 

 

 

Rn1

 

Rn 2

1

 

где

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Rij

=

Kij

 

 

 

 

 

 

 

 

 

 

 

 

 

D D

.

 

(10.14)

 

 

 

 

 

 

 

 

 

 

i

 

j

 

 

Матрица квадратная и симметричная.

51

ЛЕКЦИЯ 11 Числовые характеристики функции многих переменных

Пусть Y = ϕ(x1 , x2

,…,xn), где Х1 , Х2 ,…Хn

- случайные величины с

известной совместной n-мерной плотностью вероятностей f ( x1 ,x2 ....xn ).

Начальные моменты величины Y определяются по формуле

 

 

α k ( y )

= M [Y k ] =

... ϕ k ( x1 , ..., x n ) f ( x1 , ..., x n ) d x1 ...d x n

,

(11.1)

 

 

−∞

−∞

 

 

 

а центральные моменты по формуле

 

 

 

µk ( y) = M [(Y mY )k ] = ... (ϕ( x1 ,..., xn ) mY )k f (x1 ,..., xn )dx1...dxn ,

(11.2)

причем

 

 

−∞

−∞

 

 

 

mY

= M[Y] = M[ϕ(x1,..., xn )] =α1(y) ,

 

 

 

 

(11.3)

 

 

 

DY = µ2 ( y) = α2 ( y) mY2 .

 

(11.4)

В

случае, когда

совместная плотность

вероятности

аргументов

f ( x1 ,x2

....xn )неизвестна, а известны числовые характеристики аргументов, то

задача определения числовых характеристик Y разрешима только для определения классов функций ϕ.

Числовые характеристики суммы случайных величин

n

Пусть Y = Xi , где Х1 , Х2 ,…Хn - случайные величины с известными

i=1

числовыми характеристиками:

-вектор математических ожиданий M=(m1,m2,…mn);

-вектор дисперсий D=(D1,D2,…Dn);

-корреляционная матрица Kij .

Теорема о математическом ожидании суммы случайных величин.

Математическое ожидание суммы случайных величин равно сумме математических ожиданий слагаемых:

M [Y ] = M

n

 

n

 

X i

= mi .

(11.5)

i=1

 

i=1

 

Доказательство. Пусть n = 2,

т.е.

Y = Х1 + Х2

и предположим, что

слагаемые непрерывные случайные величины с некоторой совместной плотностью распределения f (x1, x2 ) . Тогда

m Y

= M [ X 1 + X 2 ] =

( x1 + x 2 ) f ( x1 , x 2 ) d x1 d x2 =

 

 

−∞ −∞

=

x1 f ( x1 , x 2 ) d x1 d x 2 + x 2 f ( x1 , x2 ) d x1 d x2 = m1 + m 2 .

−∞ −∞

−∞ −∞

52

Аналогично и для дискретных слагаемых. Используя метод математической индукции, легко доказать, что теорема справедлива для любого n.

Теорема о дисперсии суммы случайных величин. Дисперсия суммы случайных величин равна сумме всех элементов корреляционной матрицы слагаемых:

 

 

 

 

n

 

 

n

n

 

n

 

 

n

n

 

 

 

D[Y ] = D Xi

= ∑∑Kij =

Di + 2∑ ∑ Kij

.

(11.6)

Доказательство:

i=1

 

 

i=1 j=1

 

i=1

 

i=1 j=i+1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D[Y ] = M [(Y mY )2 ] =

 

 

n

 

n

 

2

 

 

n

2

=

M

 

X i mi

 

= M

 

X i

 

 

 

 

 

 

 

i =1

 

i =1

 

 

 

 

i =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n n

 

n

n

 

 

 

X j

n

n

 

 

n

 

 

n n

= M

∑ ∑ X i X j

 

= ∑ ∑ M X i

= ∑ ∑ K ij = Di + 2∑ ∑ K ij .

 

i =1 j =1

 

i =1 j =1

 

 

 

 

i =1 j =1

 

i =1

 

 

i =1 j =i +1

Следствие. Дисперсия суммы некоррелированных случайных величин равна сумме дисперсий этих величин, так как Kij = 0, i, j :

n

Если Y = a0 +ai Xi ,

i=1

D

n

 

n

 

X i

= Di .

(11.7)

i=1

 

i=1

 

a i - не случайные коэффициенты, то математическое

ожидание и дисперсия Y равны:

 

 

n

 

n

 

mY

= M a0 + ai X i

= a0 + ai mi ;

(11.8)

 

 

i =1

 

i=1

 

 

n

 

n

n n

 

DY = D a0 +ai Xi

= ai2 Di + 2∑ ∑ ai aj Kij .

(11.9)

 

i=1

 

i=1

i=1 j=i+1

 

Это легко доказать, используя (11.6), (11.7) и свойства математического ожидания (M[c] = c, M[X+c] = mX + c , M[c X] = c mX ) и дисперсии (D[c] = 0,

D[X+c] = DX, D[c X] = c2 DX).

Пример. Докажем, что абсолютная величина корреляционного момента двух случайных величин не превышает среднего геометрического их дисперсий:

Kxy Dx Dy

или

 

Kxy

 

σx σy .

 

 

Введем в рассмотрение

случайные величины Z1 =σY X σXY,

Z2 =σY X +σYY, и вычислим их дисперсии по формуле (11.9):

 

D[ Z1 ] = 2σ X2 σ Y2 2σ X σ Y K X Y ; D[Z 2 ] = 2σ X2 σY2 + 2σ X σY K XY .

 

Так

как

дисперсия

всегда

неотрицательна,

то

2σX2σY2 2σXσY KXY 0 σX σY KXY и 2σX2 σY2 + 2σX σY KXY 0 σ X σ Y K X Y .

Таким образом, σX σY K XY σX σY

 

 

K X Y

 

 

σ X σ Y .

 

 

 

 

53

Числовые характеристики произведения случайных величин

n

Пусть Y = X i , где Х1 , Х2 ,…Хn - случайные величины с известными

i =1

числовыми характеристиками:

-вектор математических ожиданий M=(m1,m2,…mn);

-вектор дисперсий D=(D1,D2,…Dn);

-корреляционная матрица Kij .

Теорема о математическом ожидании произведения случайных величин. Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс ковариация:

mY = M [ X1 X 2 ]= m1m2 + K12 .

(11.10)

Доказательство. По определению ковариация равна:

K12 = M [ X1 X 2 ] = M [( X1 m1 )( X 2 m2 )] = M [ X1 X 2 m1 X 2 m2 X1 + m1m2 ] =

M [ X1 X 2 ] m1M [ X 2 ] m2 M [ X1 ] + m1m2 = M [ X1 X 2 ] m1m2 .

Откуда следует формула (11.10).

Следствие. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий:

 

n

 

n

(11.11)

mY = M

X i

= mi

 

i =1

 

i =1

 

Доказательство: Пусть n = 2. Для независимых случайных величин Kij = 0, i, j , тогда формула (11.10) примет вид mY = M [ X1 X 2 ]= m1m2 . Используя метод математической индукции, легко доказать, что (11.11) справедлива для любого n.

Теорема о

дисперсии

произведения

случайных величин.

Дисперсия

произведения независимых случайных величин равна

 

DY

 

n

 

n

n

(11.12)

= D

X i

= ( Di

+ m i2 ) m i2

 

 

i =1

 

i =1

i =1

 

Доказательство: По определению дисперсия равна

n

 

 

n

2

 

n

 

2

n

 

n

n

D Xi

= M

Xi

 

M Xi

 

= M Xi2

 

mi2 =

i=1

 

 

 

 

 

 

i=1

 

 

 

i=1

i=1

 

 

i=1

 

 

 

 

i=1

 

 

 

 

 

n

(Di +mi2 ) mi2 .

i=1

Следствие. Дисперсия произведения независимых центрированных случайных величин равна произведению дисперсий этих величин:

DY

 

n

 

 

n

 

(11.12)

= D

X i

= Di .

 

 

i =

1

 

i =

1

 

54

ЛЕКЦИЯ 12

Закон больших чисел

Пусть проводится некоторый опыт, в котором нас интересует значение случайной величины Х. При однократном проведении опыта нельзя заранее сказать, какое значение примет величина Х. Но при n-кратном (n > 100...1000) повторении «среднее» (среднее арифметическое) значение величины Х теряет случайный характер и становится близким к некоторой константе.

Закон больших чисел – совокупность теорем, определяющих условия стремления средних арифметических значений случайных величин к некоторой константе при проведении большого числа опытов.

 

 

 

 

 

 

 

 

Неравенство Чебышева. Для любой случайной величины X с

математическим ожиданием

 

 

mX

 

и

 

дисперсией DX

выполняют

следующее

неравенство:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p (

 

 

X

 

m X

 

 

 

ε )

 

,

 

 

 

 

 

 

(12.1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где ε > 0.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ε 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Доказательство. Рассмотрим вероятность p(

 

X

 

ε):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

2

 

 

ε

 

2

 

 

 

 

 

 

 

 

 

 

 

 

x

2

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

p(

 

 

 

X

 

ε) = f (x)dx =

 

 

 

 

2 f (x)dx

 

f (x)dx

=

 

 

x2 f (x)dx

 

 

 

 

 

 

 

 

 

2

 

x

 

2

2

 

 

 

 

 

 

+∞

 

 

 

 

x

 

ε

 

 

x

 

ε

 

ε

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

ε

ε

 

 

 

 

 

 

 

 

 

 

 

ε

 

x

 

ε

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

2

 

 

 

 

 

 

M [X 2 ]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

f (x)dx =

ε2

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ε2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким

 

 

образом, p (

 

X

 

ε )

 

M [ X 2 ]

.

 

Заменив

 

 

 

нецентрированную

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ε 2

 

 

 

 

 

 

 

величину

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X = X m X ,

 

 

 

 

 

 

на

 

 

 

 

 

 

центрированную

 

 

 

 

получим

p(

 

X mX

 

ε )

M [( X m

X

)

2 ]

=

 

D

X

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ε

2

 

 

 

 

 

 

 

 

ε

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример. Определим вероятность, что случайная величина примет значение

за пределами интервала X. Полагаем в неравенстве Чебышева ε = 3σ X , имеем:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p(

 

X mX

 

3σ X )

 

DX

=

1 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

9σ X

9

 

 

 

 

 

 

Неравенство Чебышева дает только верхнюю границу вероятности данного отклонения. Значение вероятности быть выше этой границы (1/9) не может ни при каком законе распределения. Таким образом, правило X выполняется с вероятностью не меньшей чем 8/9.

Сходимость по вероятности. Последовательность случайных величин Xn

p

сходится по вероятности к величине a, X n n→ ∞ a , если при увеличении n

55

вероятность того, что Xn и a будут сколь угодно близки, неограниченно приближается к единице:

p ( X n a < ε ) > 1 δ ,

где ε,δ - произвольно сколь угодно малые положительные числа.

Одна из наиболее важных форм закона больших чисел – теорема Чебышева, она устанавливает связь между средним арифметическим наблюдаемых значений случайной величины и ее математическим ожиданием.

Теорема Чебышева. Пусть произведены n одинаковых независимых опытов, в каждом из которых случайная величина X приняла значения X1, X2,…,Xn. При достаточно большом числе независимых опытов среднее арифметическое значений случайной величины X сходится по вероятности к ее математическому ожиданию:

 

 

 

 

 

 

 

 

1

 

n

 

 

 

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X i

m X .

 

 

 

 

 

 

 

 

(12.2)

 

 

 

 

 

 

 

 

n

i =1

n → ∞

 

 

 

 

 

 

 

 

 

 

 

 

 

Доказательство.

 

 

Рассмотрим

 

 

величину Y

=

1

 

n

X i . Определим

 

n

 

числовые характеристики Y (см. (11.5), (11.7)):

 

 

 

 

i = 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m Y

= M

[ 1

 

 

n

X i ] =

1

 

n

M [ X i ] =

1

n m X = m X ;

 

n

 

n

 

 

 

 

n

 

 

i =1

 

 

 

 

i =1

 

 

 

 

 

 

 

 

 

 

 

 

 

D Y

= D

[ 1

n

X i ] =

1

 

n

D [ X i ] =

 

1

n D X

=

D X

.

2

 

 

2

 

 

 

 

 

 

n

 

 

i =1

 

n

 

 

i =1

 

 

 

n

 

 

 

 

 

 

 

 

n

Запишем неравенство Чебышева для величины Y:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

n

 

 

 

 

 

 

 

DY

 

 

DY

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p (

 

Y mY

 

ε ) = p (

X i m X

ε )

=

 

.

 

 

 

 

 

 

 

2

2

 

 

 

 

 

 

 

 

 

n

 

i =1

 

 

 

 

 

 

 

ε

 

ε n

Как бы ни было мало число ε, можно взять n таким большим, чтобы

выполнялось неравенство

DX

< δ , где δ

- сколь угодно малое число. Тогда

ε 2 n

 

1

n

 

 

 

 

 

 

 

 

 

p (

X i m X

ε ) < δ . Переходя

к противоположному событию

 

n

i =1

 

 

 

 

 

1

n

 

 

 

 

 

 

 

 

 

p (

X i m X

< ε ) > 1 δ ,т.е. Y сходится по вероятности к mX.

 

n

i =1

 

 

 

 

Теорема Бернулли. Пусть произведены n одинаковых независимых опытов, в каждом из которых возможно событие А с вероятностью р. Тогда частота появления события А в n опытах сходится по вероятности к вероятности появления А в одном опыте

p

 

p * ( A ) p ( A ) ,

(12.3)

n → ∞

 

56

где p* ( A ) = mn - частота события А в n опытах;

m - число опытов в которых произошло событие А; n - число проведенных опытов.

Пусть случайная величина X – индикатор события А:

1 , A X = 0 , A ,

тогда Xi – индикатор события А в i-м опыте.

Числовые характеристики индикатора X случайного события (см. (6.1)): m X = p , D X = q p ,

где q = 1 - p - вероятность осуществления А. Применим теорему Чебышева:

 

n

 

p

= p = p( A) .

1

X i = m

= p* ( A) m X

n i =1

n

n →∞

 

Центральная предельная теорема

Данная теорема определяет условия, при которых возникает случайная величина с нормальным законом распределения. Различные формы центральной предельной теоремы различаются между собой условиями, накладываемыми на распределения образующих сумму случайных слагаемых X1…Xn . Чем жестче эти условия, тем легче доказывается теорема; чем они шире, тем труднее доказательство. Здесь мы докажем одну из самых простых форм этой теоремы, а именно, центральную предельную теорему для одинаково распределенных слагаемых.

Теорема. Если X1…Xn- независимые случайные величины, имеющие имеющие одно и то же распределение с математическим ожиданием m и дисперсией σ 2 , то при неограниченном увеличении n (n →∞) закон

 

 

n

 

распределения их

суммы

Y = X i неограниченно

приближается к

 

 

i=1

 

нормальному закону с параметрами:

 

Доказательство.

mY

= n m, σY = σ n .

(12.4)

Проведем доказательство для случая непрерывные

случайных величин (для дискретных оно будет аналогичным). Применим для этого аппарат характеристических функций. Случайные величины X1…Xn имеют одну и ту же плотность f(х), а значит и ту же характеристическую

функцию υX (t) . Не нарушая общности, можно перенести начало отсчета всех случайных величин X1…Xn в их общее математическое ожидание m; это равносильно их центрированию и, значит, тому, что m=0. Согласно свойству

(7.16)

характеристическая

функция

суммы

равна

произведению

характеристических функций слагаемых:

 

 

 

 

 

υY (t) = [υX (t)]n

 

(12.5)

57

Разложим функцию υX (t) в окрестности точки t= 0 в ряд Маклорена с тремя

членами:

′′

 

 

2

 

υX (t) =υX (0) +υX (0)t +[υX (0)/ 2+α(t)]t

(12.6)

 

где производные берутся по t; α(t) 0 при t 0.

Используя свойство (7.15) характеристических функций определим значения

υ

X

(0)

=υ(0)

(0) =α (x)i0 =1,

 

 

 

X

0

 

υX

(0)

=υX(1) (0) =α1(x)i1 =m i =0,

 

υ′′X

(0)

=υX(2) (0) =α2 (x)i2 =σ2 i2 =−σ2 .

 

Подставив их в (12.5) получим

 

 

 

 

 

υX (t) =1[σ2 / 2α(t)]t2 .

(12.7)

Перейдем от Y к линейно связанной с ней «нормированной» случайной величине Z = σ Y n . Эта величина удобна тем, что ее дисперсия не зависит от

n и равна единице при любом. Если мы докажем, что случайная величина Z имеет нормальное распределение, это будет означать, что и случайная величина Y, линейно связанная с Z, распределена нормально.

Вместо того, чтобы доказывать, что закон распределения случайной величины Z при увеличении n приближается к нормальному, докажем, что ее характеристическая функция, однозначно определяющая плотность,

t 2

приближается к характеристической функции нормального закона e 2 с теми же, что у Z, параметрами mZ = 0; σZ = 1 (См. (7.17)).

Найдем характеристическую функцию случайной величины Z. Из свойства (7.14) характеристической функции имеем:

υZ (t) =υY (

t

 

) .

(12.8)

σ

 

 

n

 

Подставив (12.5) и (12.7) в (12.8) получим

 

υ

 

(t)

=

 

 

 

2

α(t /σ

 

n

 

 

 

Z

1σ

 

n) t2 /(nσ2 )

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

.

(12.9)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Прологарифмируем это выражение:

 

 

 

 

 

lnυ

(t) = nln

 

 

σ

2

α(t /σ

n) t2

 

 

 

 

1

 

/(nσ2 )

 

 

Z

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Введем обозначение

σ

2

α(t / σ

 

 

 

 

ε , тогда

lnυZ (t) = nln(1ε) .

 

2

 

n ) t 2 /(nσ 2 ) =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Будем неограниченно увеличивать n; при этом величина ε будет стремиться к

нулю. Разложим ln (1 ε )

в ряд по степеням ε

и ограничимся одним членом

разложения (остальные

при n → ∞ станут

пренебрежимо малыми):

58

ln (1 ε ) ≈ −ε .

Тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

lim ln υZ (t ) = lim

n

 

 

 

 

 

t

2

+ α (t / σ

n )t

2

/ σ

2

 

=

(ε ) = lim

2

 

 

 

n

→ ∞

 

 

n → ∞

 

 

 

 

n → ∞

 

 

 

 

 

 

 

 

= −

t 2

+ lim

α (t / σ

n )t

2

/ σ

2

= −

t 2

 

.

 

 

 

 

 

 

2

 

 

2

 

 

 

 

 

 

 

 

 

n → ∞

 

 

t 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

l i m

υ Z ( t )

= e

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Откуда

2 ,

а это есть не что иное, как характеристическая

 

 

n → ∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

функция случайной величины, распределенной по нормальному закону с параметрами m = 0, σ = 1.

Более общую форму центральной предельной теоремы мы приведем без доказательства.

Теорема. Если X1…Xn- независимые случайные величины, имеющие примерно одинаковые дисперсии Di D для i , то при неограниченном

n

увеличении n (n→∞) закон распределения их суммы Y = Xi неограниченно

i=1

приближается к нормальному закону с параметрами:

n

n

 

mY = mi , σY =

Di .

(12.10)

i=1

i=1

 

Требование Di D, i означает, что ни

одно из слагаемых

не носит

доминирующего характера (влияние всех Хi на сумму Y приблизительно одинаково).

Таким образом, нормальное распределение возникает тогда, когда суммируется много независимых (или слабо зависимых) случайных величин, сравнимых по порядку своего влияния на рассеивание суммы. На практике такая обстановка встречается нередко. Пусть рассматривается отклонение Y какого-то параметра, например, радиоэлектронного устройства от номинала. Это отклонение (при известных допущениях) может быть представлено как сумма n элементарных отклонений, связанных с отдельными причинами:

n

Y = Xi

i=1

где, например:

X1 — отклонение, вызванное влиянием температуры; Х2— отклонение, вызванное влиянием влажности воздуха;

Х3 — отклонение, вызнанное недостаточной чистотой материала изделия;

…………………………………………………..

Хn — отклонение, вызнанное недостаточной чистотой материала изделия; Число n этих элементарных отклонении весьма велико, как и число n причин, вызывающих суммарное отклонение Y. Обычно слагаемые X1, X2,…,Xn сравнимы по порядку своего влияния на рассеивание суммы. Действительно, если бы какая-то из случайных величин X1, X2,…,Xn оказывала существенно

59

большее влияние на рассеивание суммы, чем все остальные, было бы естественно принять специальные меры для того, чтобы устранить главную причину рассеивания; поскольку такие меры не предпринимаются, можно предположить, что оставшиеся случайные слагаемые сравнимы по порядку своего (равномерно малого) влияния на рассеивание суммы.

Нормальный закон широко распространен в технике; в большинстве случаев ошибки измерения параметров, ошибки выполнения команд, ошибки ввода различных величин в техническое устройство распределены по нормальному (или близкому к нормальному) закону; такая ошибка обычно может быть представлена в виде суммы многих «элементарных ошибок» Xi, каждая из которых связана с отдельной, практически независимой от других причиной. Именно в применении к теории ошибок был впервые обоснован Лапласом и Гауссом нормальный закон.

На практике при суммировании величин с одинаковым законом распределения закон распределения суммы можно считать нормальным, если n>10...20.

Пример 1. Пусть Х – случайная величина, равномерно распределенная на интервале [0, 1], и формируется, например, генератором псевдослучайных величин. На основании центральной предельной теоремы величина

12

 

Y = σ ( x i 6 ) + m

(12.11)

i = 1

будет иметь практически нормальный закон распределения с параметрами m, σ. Пример 2. Докажем, теоремы Муавра – Лапласа (см. (3.11), (3.12)), т.е. что число появлений событий А в n независимых одинаковых опытах распределено по нормальному закону, если количество опытов n велико, а вероятности p и q не малы, так что выполняются следующие условия:

0 < np 3 npq , np + 3 npq < n .

(12.12)

Пусть Xi – индикатор события А в i-м опыте, тогда число появлений

n

событий А в n опытах равно Y = Xi , причем 0 Y n . На основании

i=1

центральной предельной теоремы величина Y будет иметь практически

нормальный

закон

распределения

с

параметрами

n

n

 

 

 

mY = mi = np, σY

= Di =

npq. Условие (12.12)

получено на основании

i=1

i=1

 

 

 

правила 3σ Y для величины Y, так чтобы практически все значения нормальной величины Y находились в интервале [0; n].

60