Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Обработка эксперим данных Роганов

.pdf
Скачиваний:
23
Добавлен:
22.05.2015
Размер:
1.37 Mб
Скачать
pm =1.

P{Xi = m}= pm , m = 0, ±1, ... для всех i. Это распределение можно изобразить следующим образом (рис. 1): основание каждого прямоугольника

равно 1, высота — pm , так что площадь равна pm и

m=−∞

В общем случае получим практически произвольный набор прямоугольников.

Рассмотрим теперь вместо Yn нормированные случайные величины

Y* = Yn MYn = Yn μn , n DYn σ n

где μ = MXi и σ2 = DXi , i = 1, 2, ... Значениями случайной величины Yn*

являются числа xn (m)= (m nμ)/σ n , причем P(Yn* = xn (m))= P(Yn = m).

Рис. 1

Построим теперь аналогичный “график” распределения Yn* . По оси абсцисс отложим значения xn (m), m = 0, ±1,..., и, как и раньше, построим прямоугольники, площадь которых равна P(Yn* = xn (m)). Поскольку длина основания теперь равна 1/σ n , то высоты этих прямоугольников должны быть равны P(Yn* = xn (m))σ n = P(Yn = xn (m))σ n . При достаточно большом n оказывается, что верхние основания прямоугольников почти точно лягут на

91

фиксированную

кривую

y =

1

ex2 /2

(рис.1),

т.е.

 

 

 

2π

 

 

 

σ nP(Yn* = xn (m))

1

exn2 (m)/ 2

при n → ∞.

 

 

 

 

 

2π

 

 

 

 

 

 

 

При этом очевидно, что

 

 

 

 

 

 

P(a Yn* b)= P(Yn* = xn (m))

1

exn2 (m)/ 2

1

 

axn (m)b

 

axn (m)b

2π

 

σ n

 

 

 

1

b ex2 / 2dx

 

 

 

 

 

 

 

2π

a

 

 

 

 

где при замене суммы на интеграл мы считали

x =1/ σ n .

Этот факт и

составляет, по существу,

содержание

центральных

предельных

теорем

(которые отличаются друг от друга формулировками различных математических условий, обеспечивающих указанное выше утверждение). Рассмотрим вначале центральную предельную теорему в ее простейшей форме: для случая одинаково распределенных случайных величин, а затем приведем достаточно общую центральную предельную теорему Ляпунова.

Определение 3. Говорят, что последовательность случайных величин

{X k }, k =1, 2, ... , сходится к случайной величине Х0 по распределению или слабо сходится, если

lim Fk (x)= F0 (x)

k→∞

в каждой точке непрерывности F0 (x), где Fk (x) — функция распределения случайной величины Xk , k = 0, 1, 2,....

Теорема 4 ( центральная предельная теорема). [9] Пусть {X n }

последовательность независимых и одинаково распределенных случайных величин, для которых MXn = μ, DXn =σ2 , σ > 0 , n=1,2, … Тогда последовательность

92

n

(X k μ)

Y

= k=1

 

n

σ n

(5)

 

сходится по распределению к N (0, 1), т.е.

lim P(Y < x)=

1

x

 

 

ez2 / 2dz

 

 

n→∞

n

2π −∞

,

(6)

 

причем стремление к пределу в (6) равномерно по х.

Следствие ( интегральная предельная теорема Муавра—Лапласа)

[9]. Пусть Х – число успехов в серии из n независимых испытаний, р – вероятность успеха при каждом испытании. Тогда при n → ∞

 

X np

 

 

 

=

1

x

e

z2 / 2

dz

 

 

 

 

 

 

lim P

 

< x

 

 

 

 

n→∞

 

npq

 

 

 

 

2π

 

 

,

(7)

 

 

 

 

 

 

−∞

 

причем стремление к пределу равномерно по х.

 

 

 

 

 

Доказательство. Имеем X = X +...+X

, где X k — число успехов при

 

 

 

 

 

1

 

 

n

 

 

 

 

 

k-м испытании, так что

X k

независимы

и

 

одинаково

распределены

P(X k =1)= p , P(X k = 0)= q ,

MXk = p

,

DXk = pq

. Подставляя эти значения в

 

 

 

 

 

 

 

(5), получим на основании теоремы 4 равенство (7).

Естественно ожидать, что если в условиях теоремы 4 функция

распределения F(x) случайных величин

X k

имеет плотность

р(х), то

плотность

pn (x)

случайной величины Yn

должна сходиться при

n → ∞ к

плотности

p0 (x)

нормального распределения.

Вообще говоря, это неверно,

но во всех практически интересных случаях высказанное утверждение имеет место, точнее, справедлива

Теорема 5. [9] Пусть выполнены условия теоремы 4, и кроме того,

характеристическая функция ϕ(t) случайных величин X k абсолютно интегрируема. Тогда плотность pn (x) случайной величины

93

n

при n → ∞ сходится к плотности p0 (x)=

1

 

Yn = (X k μ)/σ n

ex2 / 2

k =1

 

2π

 

равномерно.

Избавимся теперь от нежалательного в ряде вопросов предположения об одинаковом распределении случайных величин Xk и рассмотрим центральную предельную теорему в форме Ляпунова.

Теорема 6 (центральная предельная теорема Ляпунова) [9]. Пусть

{X n }

— последовательность независимых случайных величин с MXn = μn ,

 

DXn = σ2n

и

M

 

Xn μn

 

3 < ∞, n = 1, 2, .... Тогда, если выполнено условие

 

 

Ляпунова

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

n

 

 

 

 

 

 

 

M

 

Xk μk

 

3 0 при n → ∞,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Bn k=1

где Bn =

n

 

 

n

 

 

 

 

 

 

 

DXk σ2k , то последовательность

 

 

k=1

 

 

k=1

 

 

 

 

 

 

 

n

(X k μk )

Yn = k =1 Bn

сходится к N (0, 1) равномерно.

§ 3. Применения центральных предельных теорем

Отметим прежде всего случай, когда нельзя применять центральные предельные теоремы. Пусть мы хотим оценить вероятность P{Yn < x}, причем речь идет о тех х, при которых эта вероятность близка к нулю или единице.

Если мы заменим P{Yn < x} на Φ0 (x), то ошибка может быть очень большой

(порядка сотен процентов) ввиду того, что хотя разность P{Yn < x}− Φ0(x ) и

будет равномерно малой при всех х, но неверно, что отношение

P{Yn < x}/ Φ0(x) 1 равномерно по х, т.е. “хвосты” распределения требуют очень осторожной оценки.

94

Вероятность и частота. Пользуясь теоремой 6, оценим, насколько сильно может отличаться частота от вероятности в серии из n испытаний Бернулли. Оценка основана на соотношении

 

Y

 

 

Y

np

>ε

n

 

P

n p >ε

= P

n

 

 

 

 

n

 

 

 

npq

 

 

 

 

 

 

 

 

 

pq

 

 

ε

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

pq

 

x2

 

 

 

x2

 

1

 

1

 

e

 

dx +

 

e

 

dx

2

 

2

 

2π

−∞

 

 

 

2π

ε

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

pq

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Yn — число успехов при n испытаниях.

Поскольку при p + q = 1, очевидно,

превосходит 2Φ0 (2ε n ). Поэтому

= 2Φ

 

 

ε

n

 

0

 

 

 

 

 

 

 

 

 

 

 

 

pq

pq 1/ 4 , эта вероятность не

Y

 

Y

 

 

 

 

 

 

 

 

 

n

 

1 2Φ0 (2ε n )

P

n

ε < p <

n

+ ε 1

2Φ

 

ε

 

 

n

n

0

 

 

 

 

 

 

 

 

 

 

 

 

 

pq

 

.

Таким образом, зная число успехов Y

 

 

в n

испытаниях Бернулли, мы

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

Y

 

Y

 

 

 

 

 

 

 

 

можем построить

интервал

 

n

ε,

 

n

 

+

ε

 

, который будет

накрывать

 

n

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

истинное ( неизвестное) значение вероятности р с любой заданной

вероятностью 1α . Для этого

следует

лишь

выбрать

ε = ε(α) из

соотношения

2Φ0 (2ε

 

 

n )=α ,

пользуясь таблицами

нормального

распределения. Тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

Y

 

 

 

 

 

 

 

P

n

 

ε(α)

< p <

n

+ε(α)

=1α

 

 

 

 

 

n

n

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

Y

 

 

 

 

 

 

Интервал

 

n

ε(α),

 

 

n

+ε(α)

называется доверительным интервалом

 

 

 

 

 

 

n

 

 

 

n

 

 

 

 

 

 

для р с уровнем доверия 1α .

 

 

 

 

 

 

Среднее

 

арифметическое. Пусть

Х1, Х2 , ... — независимые

случайные величины,

MXk = μ, DXk = σ2

для всех k. Закон больших чисел

утверждает, что при n → ∞

 

 

 

 

 

 

 

 

 

95

 

 

 

 

 

 

 

 

 

X

1

+...+

X

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P

 

 

 

 

 

 

 

μ

 

> ε

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Х1, Х2 , ...

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Если

не только попарно независимы,

но и независимы в

совокупности, то можно применить теорему 4. Это дает

 

 

 

 

 

 

 

X

 

+... + X

n μ

>

 

=

 

 

X

 

+... +

X

 

nμ

>

ε

n

=

 

 

P

1

 

 

 

ε

P

 

1

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

n

 

 

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

< −

ε

n

=

 

 

 

>

ε

 

n

= 2Φ

 

 

ε

n

 

 

 

 

 

= P Y

 

σ

 

P Y

σ

 

 

 

σ

 

 

 

 

 

 

 

 

n

 

 

 

 

 

n

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Из таблиц нормального распределения следует, что при

ε

n

= 3, т.е.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

при ε = 3σn

вероятность

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P Yn < εσn =12Φ0 εσn

равна 0,997. Это так называемое правило трех сигм. Сущность правила трех сигм состоит в следующем: если случайная величина распределена нормально, то абсолютная величина ее отклонения от математического ожидания не превосходит утроенного среднего квадратического отклонения.

На практике правило трех сигм применяют так: если распределение изучаемой случайной величины неизвестно, но условие, указанное в приведенном правиле, выполняется, то есть основание предполагать, что изучаемая величина распределена нормально; в противном случае она не распределена нормально.

4.Доверительные интервалы для математического ожидания

идисперсии

Выше были рассмотрены различные оценки неизвестного параметра α . За исключением редких случаев оценка α* не совпадает с истинным значением α , т.е. всегда имеет место некоторая ненулевая погрешность α* α . Весьма часто точное значение погрешности не существенно;

96

требуется лишь знать, что она находится в определенных пределах. Так, механическая система может характеризоваться собственной частотой колебаний ω ; зная, что ω лежит в пределах отω1 до ω2 , можно поставить ограничения на рабочую частоту данной системы, при выполнении которых

заведомо не возникнет резонанс. Итак, на основании выборки

X1, ..., Xn

указывают два значения

α

=

α

(X1 , ..., X n ) и

 

=

 

(X1 , ..., X n ), с

помощью

α

α

 

 

 

которых можно сделать статистический вывод о том, что истинное значение лежит в интервале [α, α]. Статистический вывод может быть: верным, если действительно случайный интервал [α, α] покрывает истинное значение параметра α ; неверным – в противном случае. Однако, используя теорию вероятностей, можно при определенных условиях строить такие интервалы

[α, α], что возможностью неверных выводов можно практически пренебречь.

Существуют два метода решения поставленной задачи: байесовский метод и метод доверительных интервалов, предложенный Нейманом.

1. Байесовский метод применим в случаях, когда неизвестный параметр α – случайная величина, имеющая некоторое распределение

вероятностей, называемое априорным распределением. Предположим, что априорное распределение параметра α имеет известную плотность ϕ(x).

Допустим,

далее, что имеется

некоторая оценка

α* =α* (X1, X 2 ,..., X n )

параметра

α и что существует

условная плотность вероятности g(x /α)

оценки α*

при заданном значении α . Условная

плотность вероятности

величины α при заданном значении α* по формуле Байеса равна

h(x /α* )= ϕ(x) g(x /α* ) ϕ(y) g(y /α* )dy

−∞

Поэтому при заданных α, α условная вероятность события (α <α <α)

при заданном значении α*

97

 

 

 

 

 

 

 

 

 

 

P(

α

<α <

 

/α* )=

α

h(x /α* )dx

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Эта

 

вероятность называется апостериорной вероятностью события

(α <α <

 

 

)в отличие от априорной вероятности, равной

 

α

 

 

 

 

 

 

 

 

 

 

 

 

P(

 

 

 

 

)=

 

ϕ(x)dx .

 

 

 

 

 

 

 

 

 

 

 

 

α

<α <

 

α

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пусть задано число , 0 < <1. По заданному α*

определим

числаα и

 

так, чтобы

 

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

h(x /α* )dx = ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

получаем

 

P(α <α <

 

/α* )= . Таким образом, при условии,

что данная

 

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

оценка приняла значение α* , истинное значение параметра α лежит между

α и α с вероятностью . Выбирая достаточно близким к единице,

можно считать событие (α <α <α) практически достоверным при условии,

что оценка приняла значение α* , а так как P(α <α <α) не зависит от α* ,

то вероятность верного статистического вывода всегда составляет . Если плотность g(α* / x) не существует, то уравнение P(α <α <α /α* )= может

не иметь решения относительно α , α . В таком случае, однако, можно выбрать α , α , при которых выполняется неравенство P(α <α <α /α* ).

Тогда вероятность верного статистического вывода всегда не меньше .

2. Метод доверительных интервалов более общий метод,

поскольку он применим и в случае, если α – неизвестное фиксированное число и если α – случайная величина.

98

Зададим число O < <1 ,которое на практике выбирают достаточно близким к единице так, чтобы событие с вероятностью можно было считать практически достоверным. При каждом фиксированном значении параметра α плотность распределения g(x /α) задает распределение оценки

α* , которое будем рассматривать как распределение единичной массы на вертикальной прямой, проходящей через точку (α, 0) в плоскости (α, α* )

(рис.2).

Рис. 2

Определим для каждого значения α числа γ1 (α, ) и γ2 (α, ) так,

чтобы количество массы, попавшей на отрезок γ 1, γ 2 рассматриваемой вертикальной прямой, было равно , т.е. чтобы

P(γ1 (α, )<α* <γ 2 (α, ))= γ2 g(x /α)dx =

γ1

Такие числа можно выбрать бесчисленным множеством способов.

Числа γ 1 и γ 2 зависят от α ; с изменением α точки (α, γ1 ) и (α, γ2 )

описывают в плоскости (α, α* ) две кривые (см. рис.). Предположим, что

всякая прямая, параллельная оси Оα ,

пересекает каждую из этих кривых

лишь в одной точке. Обозначим через с1 (α* , )

и с2 (α* , )

точки

пересечения этих кривых с прямой,

проходящей

через точку

(0, α* )

99

D( )

параллельно оси Оα . Пусть D( ) – область, заключенная между двумя кривыми. Очевидно, что утверждение

 

γ1 (α, )< α < γ2 (α, )

 

 

(8)

эквивалентно утверждению (α, α* ) D( ). Аналогично, утверждение

 

с1(α*, )< α < с2 (α* , )

 

 

(9)

также эквивалентно утверждению (α, α* ) D( ). Таким образом, если

для какой-нибудь выборки

X1, X2 , ..., Xn

справедливо неравенство (8),

то

справедливо и неравенство (9), и наоборот. Поэтому при любом α

 

P(с (α* , )<α < с

2

(α* , ))=P(γ

1

(α, )<α* < γ

2

(α, ))=

 

1

 

 

 

 

 

 

Соотношение (8) означает, что случайная

величина α* заключена

между пределами γ 1 и γ 2

,

 

а неравенство (9)

означает,

что величина

α

(которая может быть как неслучайной, так и случайной) заключена между

случайными

пределами

с1 и

с2 . Таким

образом, случайный интервал

[ с1 (α* , ),

с21 (α* , ) ]

с

вероятностью

содержит внутри себя

неизвестное значение α .

 

 

 

Случайный интервал (c1,c2 ) называется доверительным интервалом

для параметра α , соответствующим коэффициенту доверия (или

доверительному уровню ), а числа с1 и с2 доверительными пределами.

Заметим, что доверительные интервалы, отвечающие коэффициенту доверия, можно строить различными способами, подобно тому, как можно разными способами оценивать неизвестные параметры распределения по выборке. Способ построения доверительных интервалов следует выбирать так, чтобы при данном коэффициенте доверия они оказывались возможно

более короткими, т.е. полоса между нашими кривыми была бы по

возможности уже.

Построим доверительные интервалы для математического ожидания и дисперсии в случае нормально распределенной генеральной совокупности.

100