Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Учебное пособие по ТВ и МС

.pdf
Скачиваний:
59
Добавлен:
08.03.2016
Размер:
3.21 Mб
Скачать

моменты первого порядка. Момент ν~1(М ) = x , следовательно, оценка метода моментов параметра λ есть выборочное среднее x .

Пример 8.2. Случайная величина ξ имеет нормальный закон распределения N (a,σ ) , при этом числовые значения параметров a и σ2 неизвестны. Найдем оценки метода моментов для этих параметров.

Используя формулу (3.5), выразим моменты ν1 и ν2 через a и σ2:

 

 

 

 

 

 

1

 

 

1

xa 2

 

 

 

 

 

 

 

 

 

 

 

νk =

−∞

xk

 

 

e

 

 

 

 

 

 

dx,

k

=1,2 .

 

 

 

 

 

σ

 

2π

 

2

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Система (8.1) в данном случае примет вид:

 

 

 

ν1 = a,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

+σ

2

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ν2 = a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Отсюда получаем М-оценки:

 

 

 

 

 

 

 

 

~(М )

 

 

~

 

=

1

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a

=ν1

 

xi = x ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

~2(M )

 

 

 

~ ~ 2

 

1

 

n

2

 

2

 

1

n

 

 

2

~2

 

 

 

 

 

 

 

 

 

 

σ

 

=ν2

ν1

=

 

 

 

 

xi (x)

=

 

(xi x)

 

= σ

.

 

n

n

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

i=1

 

 

 

Замечание 8.2. Оценки метода моментов обычно состоятельны, однако по эффективности они не являются «наилучшими», т.к. их эффективность e(θ~n(М) )

часто значительно меньше единицы. Тем не менее, метод моментов часто используется на практике, благодаря сравнительно простым вычислениям. Это объясняется тем, что для большинства статистических моделей, соответствующих основным вероятностным распределениям, система (8.1) без труда решается в каждом конкретном случае.

Упражнение 8.1. Показать, что для логистического распределения с

плотностью pξ (x,θ) = ex+θ (1+ ex+θ )2 , − ∞ < x < ∞, θ (−∞,) несмещенной и состоятельной оценкой параметра θ является выборочное среднее x .

Упражнение 8.2. Найти методом моментов оценки параметров «двойного» распределения Пуассона, задаваемого вероятностями

P(ξ = x,θ

,θ

 

) =

1

 

θ

θ x

θ

 

θ x

<θ

 

<θ

 

2

 

e

1

1 e

 

2

2 , x = 0,1,2,K, 0

1

2 .

1

 

 

2

 

 

x!

 

 

 

 

 

 

 

 

 

 

 

 

 

x!

 

 

 

 

101

8.1.2. Метод максимального правдоподобия

Основным методом получения оценок параметров генеральной совокупности по выборочным данным является метод максимального правдоподобия.

Пусть в результате статистического наблюдения получена выборка

x1 ,K, xn , которая описывается некоторой моделью

pξ (x, Θ) , где Θ = (θ1 ,K,θK ) .

Определение 8.1. Функция (вообще говоря, случайная величина)

n

 

L(x1,K, xn , Θ) = pξ (xi , Θ) .

(8.2)

i=1

называется функцией правдоподобия. Функцию (тоже случайную)

ln L(x1,K, xn ,Θ)

называют логарифмической функцией правдоподобия.

Определение 8.2. Согласно методу максимального правдоподобия искомые

~

оценки Θ(МП) определяются из условия

~

L(x1 ,K, xn ,Θ(МП) ) = max L(x1 ,K, xn ,Θ) .

Θ

При условии независимости вариантов xi плотность совместного появления результатов выборки x1 ,K, xn

(8.3)

(8.2) вероятности является мерой

~

правдоподобности получения наблюдений x1 ,K, xn . И оценки Θ(МП) таковы, что имеющиеся наблюдения x1 ,K, xn наиболее правдоподобные.

Замечание 8.3. Если функция правдоподобия L(x1,K, xn ,Θ) является дифференцируемой по переменным x1 ,K, xn , то оценка наибольшего правдоподобия удовлетворяет следующей системе уравнений:

L(x1 ,K, xn ;θ1 ,K,θK ) = 0, i = 1, K .

θi

Эта система представляет собой известное из курса математического анализа необходимое условие экстремума функции многих переменных.

102

~

Нахождение Θ(МП) упрощается, если максимизировать не саму функцию L, а ln L , поскольку максимум обеих функций достигается при одних и тех же

значениях Θ.

~

(МП)

надо

Поэтому для отыскания вектора оценок параметров Θ

 

вместо (8.3)

решить систему (при K ≥ 2 ) уравнений правдоподобия,

получаемую приравниваем частных производных по параметрам θi к нулю:

 

ln L

= 0,

 

 

 

~

 

 

 

θ1

 

 

 

 

 

M

 

 

 

(8.4)

 

ln L

= 0,

 

 

 

θ~

 

 

 

K

 

 

 

 

а затем отобрать то решение, которое обращает функцию ln L в максимум.

Для дискретной случайной величины ξ вместо плотности вероятности pξ (x, Θ) используем функцию вероятности pξ (xi , Θ) = P(ξ = xi , Θ) = pi .

Пример 8.3. Найти МП-оценку для вероятности p наступления некоторого события A по данному числу m появления этого события в n независимых испытаниях.

Решение. Составим функцию правдоподобия:

L(x ,K, x

, p) = ppKp(1p)K(1p) = pm (1p)nm

.

 

 

1

 

n

 

 

1231442443

 

 

 

 

 

 

 

 

 

 

 

m

nm

 

 

 

 

 

 

Тогда ln L = m ln p + (n m) ln(1 p)

и согласно (8.4)

 

d ln L

 

m

 

n m

 

~(МП)

 

m

 

 

 

 

dp

=

p

 

1 p

= 0

, откуда p

=

 

.

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом, МП-оценкой вероятности p является частость w =

m

этого

n

 

 

 

 

 

 

 

 

 

 

 

 

 

события.

Пример 8.4. Найдем методом максимального правдоподобия оценки параметров a и σ2 нормального закона распределения по выборке x1 ,K, xn .

Плотность вероятности нормально распределенной случайной величины ξ

 

 

1

e

( xa)2

pξ (x) =

σ

2σ 2

.

 

2π

 

 

 

103

Тогда функция правдоподобия примет вид:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

L(x1,K, xn ,a,σ 2 ) = 1

 

e

( x a)2

=

1

n e

( xi a)2

 

 

2σ 2

2σ 2 .

 

 

 

n

 

 

 

 

i

 

 

 

 

 

 

i=1

 

 

 

i=1 σ 2π

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ n (2π)

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

Логарифмируя, получим:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

(lnσ 2

+ ln(2π))

 

1

 

 

n

 

 

 

 

 

 

 

 

ln L = −

 

 

 

(xi

a)2 .

 

 

 

 

 

 

2σ

2

 

 

 

 

 

 

2

 

 

 

 

i=1

 

 

 

 

 

 

 

 

Для нахождения параметров a и σ2 надо согласно (8.4) решить систему уравнений правдоподобия:

ln L

 

1

 

n

 

a

=

 

 

 

(xi a) =

σ

2

 

 

 

i=1

 

ln 2L

 

 

 

1

 

n

 

=

 

 

 

(xi a)2

 

2σ

4

 

σ

 

 

=

 

 

 

 

 

 

 

i 1

откуда МП-оценки равны:

0,

2σn 2 = 0,

 

 

n

 

 

 

 

n

 

 

 

 

 

xi

 

 

 

 

(xi

 

)2

 

 

 

~(МП)

 

 

 

~2( МП)

 

x

 

 

 

 

i=1

 

 

 

i=1

 

2

 

a

=

 

= x , σ

=

 

 

 

= s

 

.

n

n

 

 

 

 

 

 

 

 

 

 

Таким образом, МП-оценками математического ожидания a и дисперсии σ2 нормально распределенной случайной величины являются соответственно

выборочная средняя арифметическая x и выборочная дисперсия s2.

Пример 8.5. Найдем методом максимального правдоподобия оценки параметров a и b равномерного на отрезке [a,b] распределения по выборке

x1 ,K, xn .

Функция правдоподобия равна

 

 

1

 

 

 

 

 

 

 

если i =1, n

xi [a, b],

L(x1

 

 

,

(b a)n

,K, xn , a, b) =

 

 

 

 

 

 

 

0,

 

в противном

случае.

 

 

 

104

При первом условии система (8.4) не разрешима, при втором – не

определена. МП-оценки

~ (МП)

и

~(МП)

следует искать на

границе области

a

 

 

b

допустимых значений, т.е. для a и b:

 

 

 

 

 

 

 

{Θ} = (a x(1) )I(b x(n) ),

 

 

 

 

 

 

 

 

 

где x(1) = min(x1 ,K, xn ),

x(n) = max(x1 ,K, xn ). Тогда условие (8.3) примет вид:

 

 

 

1

 

= max

 

 

1

 

 

 

 

 

 

 

 

 

(b

a

)

 

(b a)

n .

 

 

 

 

 

 

ax(1) ,bx( n )

 

 

 

 

 

 

~(МП)

~

(МП) n

 

 

 

 

 

 

 

 

Т.к. функция L(a,b) =1/(b a)n убывает при возрастании b и убывании a,

 

 

 

 

 

 

 

 

 

 

 

 

 

~(МП)

 

~(МП)

= x(n) ) .

то ее максимум на области {Θ} достигается в точке (a

= x(1) ,b

Это и будут МП-оценки параметров a и b равномерного на отрезке

[a,b]

распределения.

 

 

 

 

 

 

 

 

 

 

 

 

 

Заметим, что полученные оценки отличаются от оценок метода моментов

~(М)

 

 

D

~(М )

 

D

 

 

 

 

 

 

 

 

 

 

a

 

= x

3

, b

= x +

3

, которые получаются при использовании первого

и второго начальных моментов.

 

 

 

 

 

 

 

 

 

Важность метода максимального правдоподобия связана с его

оптимальными свойствами.

 

Так,

 

если

для параметра

θ

существует

эффективная оценка θ~nэ , то оценка максимального правдоподобия

единственная и равна этой эффективной оценке θ~nэ . Кроме того, при

достаточно общих условиях оценки максимального правдоподобия являются состоятельными, асимптотически эффективными и имеют асимптотически нормальное распределение.

Замечание 8.3. Основной недостаток метода максимального правдоподобия

– трудоемкость вычисления оценок, связанных с решением уравнений правдоподобия, чаще всего нелинейных. Существенно также и то, что для построения МП-оценок и обеспечения их «хороших» свойств необходимо

точное знание типа анализируемого закона распределения pξ (x, Θ) , что во многих случаях оказывается практически нереальным.

Упражнение 8.3. Пусть x1 ,K, xn выборка из распределения Пуассона. Найти методом максимального правдоподобия оценки параметра λ.

105

8.1.3. Метод наименьших квадратов

Метод наименьших квадратов (МНК) – один из наиболее простых приемов построения оценок. Суть его заключается в том, что оценка определяется из условия минимизации суммы квадратов отклонений выборочных данных от определяемой оценки.

Дадим постановку задачи для линейной модели в общем случае. Запишем линейную модель в виде

Y = XΘ+ Ε ,

где Y вектор-столбец наблюдений y1 ,K, yn размерности n,

X матрица известных коэффициентов xij , i =1, n, j =1, K (n > K ) , Θ вектор-столбец неизвестных параметров θ1 ,K,θK размерности K,

E вектор-столбец наблюдений ε1,K,εn размерности n, которые некоррелированы, имеют нулевое математическое ожидание и дисперсию σ2.

Определение 8.3. Метод наименьших квадратов состоит в минимизации скалярной суммы квадратов

S = (Y XΘ)T (Y XΘ)

(8.5)

по компонентам θ1 ,K,θK вектора Θ. Необходимым условием обращения (8.5) в минимум является условие

S(θ1 ,K,θK ) = 0, i =

 

.

 

 

 

 

1, K

 

 

 

 

θi

 

 

 

 

 

 

 

Выполняя

дифференцирование,

получаем

2XT (Y XΘ) = 0 ,

откуда

находим вектор МНК-оценок:

 

 

 

 

Θ~ ( МНК) = (XT X)1 XT Y .

 

 

 

 

Предполагается,

что матрица (XT X)

невырождена и,

следовательно,

может

быть обращена.

 

 

 

 

 

 

 

Пример 8.6. Найдем оценку метода наименьших

квадратов θ~(МНК) для

математического ожидания случайной величины ξ по выборке x1 ,K, xn .

 

106

(МНК)

Согласно методу наименьших квадратов оценка θ~ находится из условия минимизации суммы квадратов отклонений выборочных значений xi от значения искомой МНК-оценки:

f(θ~(МНК) ) = n (xi θ~(МНК) )2 min .

i=1

Используем необходимое условие экстремума

 

 

 

 

 

 

n

 

 

 

df

n

~(МНК)

 

~(МНК)

 

xi

 

 

 

 

 

 

 

 

 

 

~(МНК)

= −2(xi θ

) = 0

, откуда θ

=

i=1

= x ,

n

dθ

i=1

 

 

 

 

 

 

 

т.е. МНК-оценка математического ожидания есть выборочная средняя арифметическая.

Замечание 8.4. Метод наименьших квадратов, отличаясь по подходу от метода максимального правдоподобия, и, обладая своими собственными оптимальными свойствами, совпадает с методом МП в важном случае нормально распределенных наблюдений.

Метод наименьших квадратов получил самое широкое распространение в практике статистических исследований, т.к.:

-не требует знания закона распределения выборочных данных;

-имеет простую вычислительную реализацию.

Вотличие от метода максимального правдоподобия, МНК в общем случае не обладает даже асимптотическими оптимальными свойствами. Однако в одном очень важном классе ситуаций он, даже при малых выборках, обладает

свойством оптимальности. А именно, если все наблюдения (варианты) xi

имеют одинаковые дисперсии, взаимно некоррелированы и являются линейными функциями неизвестных параметров, то МНК дает несмещенные оценки, которые имеют минимальную дисперсию (т.е. обладают свойством эффективности).

В последние годы развиваются робастные (или устойчивые) методы оценивания. Они позволяют находить оценки, хотя и не являющиеся наилучшими в рамках предполагаемого закона распределения, но обладающие достаточно устойчивыми свойствами при отклонении реального закона от предполагаемого. Например, устойчивой оценкой математического ожидания

по конечной выборке является медиана xmed этой выборки.

107

8.2. Определение эффективных оценок с помощью неравенства Рао-Крамера-Фреше

Рассмотрим более подробно вопрос об эффективности оценок. В определении 8.4 было дано понятие эффективности оценки, но как ее определять не показано.

Пусть pξ (x,θ) − плотность вероятности случайной величины ξ, если ξ − непрерывна, и pξ (xi ,θ) = P(ξ = xi ,θ) , если ξ − дискретна, θ − неизвестный параметр.

Предложение 8.2. При выполнении функцией pξ (x,θ) достаточно общих

условий регулярности: дифференцируемости по θ, независимости области определения от θ и т.д., являющихся достаточно общими, справедливо

неравенство Рао-Крамера –Фреше (неравенство информации):

D[θ~] ≥

1

= min D[θ'] ,

(8.6)

nI (θ)

 

θ ' S

 

где D[θ~] − дисперсия оценки θ~ параметра θ; n − объем выборки;

I(θ) − количество информации Фишера о параметре, содержащееся в единичном наблюдении и определяемое формулами:

в дискретном случае

d lnϕ

X

(x,θ)

2 n

ϕ

 

(x

,θ)′

I (θ) = M

 

 

 

=

 

X

i

θ ϕX

dθ

 

 

 

 

 

i=1

 

ϕX (xi ,θ)

в непрерывном случае

 

 

d lnϕ

X

(x,θ)

2 ϕ

 

(x,θ)′

2

I (θ) =

M

 

 

 

 

 

 

=

 

X

 

θ

ϕX (

 

 

dθ

 

 

 

 

 

 

−∞

ϕX (x,θ)

 

Поэтому

 

 

 

 

 

 

 

 

 

 

 

 

 

e(θ~) =

 

1~

 

min D[θ] =

1

 

~

 

≤ 1.

 

 

 

 

 

]

 

 

D[θ

] θ ' S

 

 

 

nI (θ)D[θ

 

 

(xi ,θ) ,

x,θ)dθ . #

(8.7)

Если e(θ~) = 1, то θ~ − эффективная оценка параметра θ в классе S всех его несмещенных оценок. Т.е. неравенство информации (8.6) позволяет найти тот

108

 

2

минимум min D[θ' ], который должна иметь дисперсия оценки σ ~ , чтобы быть

θ ' S

θ

эффективной оценкой.

 

Пример 8.7. Убедиться в том, что найденная методом моментов по

случайной выборке из генеральной

совокупности с распределением

N (a,σ ) оценка X параметра a является эффективной в классе несмещенных

оценок, а оценка s2 параметра σ2 является, после исключения смещения, асимптотически эффективной.

Решение. Оценка X несмещенная, и D[X ] =σ 2 n . Предположив, что σ2 известна, и, используя формулу (8.7), в которой, с учетом нормальности распределения

d lnϕX (x, a)

2

1

 

I (a) = M

 

 

=

 

 

 

,

da

σ

2

 

 

 

 

 

получим, что e(X ) =1. Следовательно, X эффективная оценка.

Оценка дисперсии σ~n2 смещенная; исключив смещение (см. (7.9)), получим оценку

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( X i

 

)2

 

 

 

 

 

 

 

 

s2 =

n

 

 

σ~n2 =

X

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

,

 

 

 

 

 

 

n 1

 

n 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

дисперсия которой (см. упражнение 7.2) равна D[s2 ] =

2σ 4

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n 1

Предположив, что a известно, и, используя (8.7), в которой, с учетом

нормальности распределения,

 

 

 

 

 

 

 

 

 

 

 

 

d lnϕ

(x,a)

2

 

1

 

 

 

 

 

 

I (σ 2 ) =

M

 

 

X

 

 

=

 

 

 

,

 

 

 

 

 

 

2

 

2σ

4

 

 

 

 

 

 

 

dσ

 

 

 

 

 

 

 

 

 

 

получим,

 

что

эффективность

e(s2 ) =

n 1

< 1,

а асимптотическая

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

эффективность e0 (s2 ) = lim e(s2 ) = 1.

n→∞

Следовательно, s2асимптотически эффективная оценка.

Замечание 8.5. В заключение обсуждения методом нахождения оценок, отметим, что, даже имея большие объемы экспериментальных данных, мы не имеем возможности указать точные значения оцениваемых параметров, а определяем лишь их оценки, близкие «в среднем», или «в большинстве

109

случаев». Поэтому важной задачей является, рассматриваемое далее, определение точности и достоверности найденных оценок.

8.3. Интервальные оценки числовых характеристик случайных величин

Точечные оценки параметров генеральной совокупности могут быть приняты в качестве ориентировочных, первоначальных результатов обработки выборочных данных. Их недостаток заключается в том, что неизвестно, с какой точностью оценивается параметр. Если для выборок большого объема точность обычно бывает достаточной (при условии несмещенности, эффективности и состоятельности оценок), то для выборок небольшого объема вопрос точности оценок становится очень важным.

Определение 8.4. Интервальной оценкой параметра θ называется числовой интервал (θ~n(1) ,θ~n(2) ), который с заданной вероятностью γ накрывает неизвестное

значение параметра θ (рис.8.1):

 

 

 

 

 

 

 

P(θ~n(1) <θ <θ~n(2) ) = P{θ (θ~n(1) ,θ~n(2) } = γ .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

θ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

θ~n(1)

 

 

θ~n(2)

 

 

 

 

 

 

Рис. 8.1.

Границы интервала (θ~n(1) ,θ~n(2) )

и его величина находятся по выборочным

данным, т.е. являются случайными величинами в отличие от параметра θ

величины

 

неслучайной. Поэтому правильнее говорить о том, что

интервал

(θ~(1)

,θ~(2)

)

 

 

θ

 

 

 

 

n

n

 

«накрывает», а не «содержит» значение .

 

 

 

 

(θ~(1)

Числа

 

θ~n(1) и θ~n(2) называются доверительными

границами,

интервал

,θ~(2)

)

 

доверительным интервалом для параметра

θ

γ

называется

n

n

 

 

 

. Число

 

доверительной вероятностью (или надежностью сделанной оценки).

 

 

Сначала задается надежность. Обычно ее выбирают равной 0,95 ,

0,99 или

0,999 . Тогда вероятность того, что интересующий нас параметр попал в интервал (θ~n(1) ,θ~n(2) ) достаточно высока. Число (θ~n(1) +θ~n(2) )2 – середина доверительного интервала – будет давать значение параметра θ с точностью (θ~n(2) θ~n(1) )2 , которая представляет собой половину длины доверительного интервала.

110