Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Учебное пособие по ТВ и МС

.pdf
Скачиваний:
59
Добавлен:
08.03.2016
Размер:
3.21 Mб
Скачать

Всегда существует множество функций от результатов наблюдений X1,K, X n , которые будут оценками параметра θ. Например, в главе 6 были

рассмотрены несколько оценок математического ожидания – средняя арифметическая, средняя геометрическая, медиана, мода и т.д.

Возникает проблема – как измерить «близость» оценки θ~n к истинному

значению θ, или как определить качество оценки?

Качество оценки определяется не по одной конкретной выборке, а по всему мыслимому набору конкретных выборок, т.е. по случайной выборке. Поэтому для установления качества полученных оценок следует в соответствующих

формулах заменить конкретные выборочные значения xi на случайные

выборочные значения Xi.

Качество оценки устанавливают, проверяя, выполняются ли следующие три свойства: состоятельность, несмещенность и эффективность.

Определение 7.2. Оценка θ~n называется состоятельной, если она сходится по вероятности к истинному значению θ :

ε > 0 lim P(θ~n θ < ε)=1 , или θ~n

θ .

(7.1)

n→∞

 

 

 

 

P

 

 

 

 

 

n→∞

 

 

 

 

Свойство состоятельности является обязательным для оценки.

 

Определение 7.3. Оценка θ~n

называется несмещенной, если ее

математическое ожидание равно истинному значению θ:

 

M[θ~n ] =θ .

 

(7.2)

Данное свойство желательно, но не обязательно. Часто полученная оценка бывает смещенной, но ее можно скорректировать так, чтобы она стала несмещенной. Иногда оценка бывает смещенной, но асимптотически несмещенной, что означает:

lim M[θ~n ] =θ .

n→∞

Определение 7.4. Оценка θ~n

называется эффективной в определенном

классе оценок S, если она самая точная среди всех оценок этого класса, т.е.

имеет минимальную дисперсию:

 

D[θ~ ] = min D[θ~ ]

.

(7.3)

n

θ~n S

n

91

Эффективность является решающим свойством, определяющим качество оценки. Эффективность оценки θ~n определяется отношением:

~

D[θ~ ]

 

 

 

e(θn ) =

~n

.

 

(7.4)

 

D[θn ]

 

 

 

Чем ближе e

к 1, тем эффективнее оценка. Если

e 1 при

n , то

такая оценка называется асимптотически эффективной.

 

 

На практике

в целях упрощения расчетов часто

делается

компромисс

между несмещенностью и эффективностью – используют незначительно смещеннные оценки или оценки, обладающие большей дисперсией D[θ~n ] по

сравнению с эффективными оценками.

Ниже рассмотрим, какими из свойств обладают некоторые полученные выше оценки числовых характеристик.

7.2.1. Среднее арифметическое выборочных значений как оценка математического ожидания

Пусть случайная величина ξ имеет математическое ожидание и дисперсию,

равные соответственно a и σ 2 . Для случайной выборки оценка математического ожидания примет вид:

~

1

n

 

 

 

an =

 

X i = X .

 

n i=1

Согласно следствию 5.1 закона больших чисел

P

X a ,

n→∞

что означает состоятельность оценки ~n = . a

X

Несмещенность оценки a~n устанавливается прямой проверкой:

~

1

M[an ] = M n

n

 

 

1

n

1

n

X i

=

 

M[X i ] =

 

a = a .

 

 

i1

 

 

n i=1

n i=1

Теперь докажем, что a~n эффективна в классе линейных несмещенных

оценок.

Линейная оценка имеет вид:

92

a)n = n ci X i . i=1

Линейная несмещенная оценка должна удовлетворять условию поэтому

)

n

 

n

n

M[an ] = M ci X i

= ci M[X i ] = aci ,

 

i=1

 

i=1

i=1

n

т.е. для ее несмещенности необходимо ci =1.

Найдем дисперсию

 

 

i=1

 

 

 

 

 

 

 

 

)

n

 

n

2

D[X i ] = σ

2

n

2

D[an ] = D ci X i

= ci

 

ci .

 

i=1

 

i=1

 

 

 

i=1

 

(7.5)

M[a)n ] = a ,

Поэтому для определения наиболее эффективной в классе линейных

несмещенных оценок надо минимизировать дисперсию D[a)n ]

при выполнении

условия несмещенности:

 

 

(c ,K,c

 

) = arg min

n

c2

 

n

(7.6)

1

n

i .

 

 

ci =1

i=1

 

 

i=1

Задача (7.6) – задача на условный экстремум, которая сводится к задаче на безусловный экстремум. Строим для (7.6) функцию Лагранжа:

n

2

 

n

 

L(c1 ,K,cn ,λ) = ci

λ

ci 1 .

i=1

 

i=1

 

Для определения точки экстремума находим частные производные и приравниваем их к нулю:

L

ci L

λ

= 2ci λ = 0, i =1, n ,

n

= ci 1 = 0 .

i=1

93

Подставляя значения ci = λ / 2,

i =

1,n

, полученные из первых n уравнений,

в последнее уравнение, получаем λ

=

1

ci

= λ , i =

 

.

1, n

 

2

 

n

2

 

 

Итак, при ci =1/ n, i =

 

, оценка (7.5)

имеет минимальную дисперсию,

1, n

~n = является эффективной в классе линейных несмещенных оценок. a X

т.е.

 

 

 

7.2.2. Свойства оценки дисперсии

 

Для случайной выборки оценка дисперсии примет вид:

 

~2

=

1 n

 

 

2

.

(7.7)

 

σn

(X i X )

 

 

 

n i=1

 

 

 

Изучение свойств этой оценки начнем с проверки на несмещенность. Раскрыв квадрат под знаком суммы в уравнении (7.7), имеем:

~2

 

1

n

2

 

 

 

 

2

]).

 

] =

] 2M[X i X ] + M[X

(7.8)

M[σn

 

(M[X i

 

 

 

n i=1

 

 

 

 

 

 

 

 

Далее найдем каждое из слагаемых в скобках под знаком суммы:

M[X i2 ] = D[X i ] + (M[X i ])2 =σ 2 + a2 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

n

 

1

 

 

 

 

 

 

n

 

σ

2

M[X i

X

] = M X i

X j =

 

M[X i2 ] + M[X i ]M[X j ] =

 

 

n

n

 

 

 

 

 

 

 

 

n j=1

 

 

 

 

 

 

j=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ji

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

n

 

 

 

1

n

 

1

 

n

2

n

 

 

 

 

 

 

 

 

 

 

 

 

M[X

 

] = M

 

 

X i

 

X j

=

 

 

M[X i

] + M[X i ]N[X

 

 

n

n

2

 

 

 

 

 

n i=1

 

 

 

j=1

 

 

 

i

=1

 

i, j=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ij

 

 

 

 

 

= σ 2

+

(n 1)

a2 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

Подставим найденные выражения в (7.8), имеем:

+ nn1a2 .

j ] =

~2

=σ

2

σ 2

+

a2

=

n

1

σ

2

+

a2

,

 

 

σn

 

n

n

 

n

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

~ 2

имеет систематическое смещение (σ

2

/ n) . Без

откуда видно, что оценка σ n

 

ограничения общности будем считать, что M[X i ] = 0 , т.к. мы всегда можем

94

отнять X от всех X i . Отметим, что это смещение стремится к нулю при

n→ ∞.

Сцелью устранения смещения скорректируем оценку следующим образом:

 

2

 

n

~2

 

 

1

 

n

 

 

 

 

 

2

 

 

 

 

 

s

 

 

 

 

(X i X )

 

 

 

 

 

 

=

 

σn

=

 

 

 

 

.

 

 

 

(7.9)

 

n 1

n

 

 

 

 

 

 

 

 

 

 

 

1 i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

n

 

~ 2

 

2

 

Действительно,

 

M[σ

 

] =

 

 

 

 

 

M [σn

] = σ

 

, т.е. скорректированная по

 

 

 

n

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

формуле (7.9) оценка не смещена.

Предложение 7.1. При увеличении объема случайной выборки:

 

1

n

 

P

 

s2 =

(X i

X

)2 σ 2

,

 

 

n 1 i=1

 

n→∞

 

т.е. оценка (7.9) является состоятельной.

Доказательство. Без ограничения общности считаем, что M[X i ] = 0 . При этом предположении M [X i2 ] = D[X i ] = σ 2 . Из (7.9) вытекает, что

 

2

 

n

1

n

2

 

 

2

 

 

 

 

σ

 

=

 

 

 

 

X i

X

.

 

n 1

 

 

 

 

n i=1

 

 

 

 

Применяя закон больших чисел в форме Хинчина (предложение 5.2) к последовательности X12 ,K, X n2 , имеем

1

n

P

 

 

 

 

 

 

X i2

σ 2 .

 

 

 

 

 

 

n

 

 

 

 

 

 

i=1

n→∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P

В

силу

предположения

M[X i ] = 0 по закону больших чисел

X

0 .

 

 

 

 

 

 

 

 

 

 

 

n→∞

 

 

 

 

 

2

P

 

P

 

 

 

Следовательно,

X

0

. Отсюда вытекает, что s2 σ 2

.

 

 

 

 

 

 

 

 

n→∞

 

n→∞

 

 

 

Упражнение 7.1. Докажите, что в случае нормального распределения случайной величины ξ, дисперсии оценок дисперсии D[ξ] таковы:

~2

 

2σ 4

(n 1)

 

2

 

2σ 4

 

D[σn

] =

 

 

, D[s

 

] =

 

 

.

 

n2

 

n 1

 

 

 

 

 

 

 

95

7.2.3. Сравнение оценок

Предположим, что у нас имеются две несмещенные оценки θ~'(X1 ,K, X n ) и

θ~''(X1,K, X n ) для скалярного параметра θ R . Возникает дилемма – какую из

оценок предпочесть? Простой и разумный совет состоит в том, чтобы выбрать оценку с меньшей дисперсией.

Пример 7.1. Предположим, что X1,K, X n – независимая случайная выборка из равномерного распределения в отрезке [θ 1,θ +1] , где θ – неизвестный параметр. Рассмотрим две следующие оценки для θ:

~

 

 

 

~

 

min X i + max X i

 

 

 

 

 

 

θ '(X1

,K, X n ) = X ,

θ ''(X1

,K, X n ) =

 

.

2

 

 

 

 

 

 

 

Нетрудно установить, что обе эти оценки являются несмещенными и

D[θ~'] = 21n .

Немного более сложное вычисление показывает, что

~

 

1

 

D[θ

''] = Ο

 

 

(n → ∞) .

 

2

 

n

 

 

Следовательно, при больших n дисперсия второй оценки стремится к нулю быстрее, чем дисперсия выборочного среднего. Другими словами, при

достаточно большом объеме выборки оценка θ~'' становится эффективней оценки θ~' .

Упражнение 7.2. Для оценки θ~''(X1,K, X n ) из примера 7.1 проверить, что M [θ~''] = 0 и вычислить D[θ~'']. Указание: при нахождении дисперсии предварительно потребуется совместная плотность случайных величин min X i

и max X i .

7.3. Оценка функций распределения и плотности

Оценку функции распределения вероятностей Fn (x) получаем по тому же принципу, который был применен при оценивании числовых характеристик: оценкой функции распределения генеральной случайной величины ξ служит

96

функция распределения выборки x1 ,K, xn , определенная по формуле (6.2). На рис. 7.1 приведен пример эмпирической функции распределения.

nL

nL1 n

n

n2

n

n1

n

x1 x2

xL-1

xL

x

Рис. 7.1.

Предложение 7.2.

Выборочная функция распределения Fn (x)

в каждой

точке x, − ∞ < x < ,

рассматриваемая как функция случайной

выборки,

сходится по вероятности к теоретической функции распределения в этой точке:

P

 

Fn (x) Fξ (x) .

(7.10)

n→∞

 

Доказательство: Обозначим

 

p = Fξ (x) = P{ξ < x} ,

 

тогда случайная выборка X1,K, X n порождает схему Бернулли, на каждом шаге

которой может

произойти

событие {X i < x}, i =

1, n

,

или

случиться

противоположное

{Xi x}, причем прямое

событие

на каждом шаге

происходит с

одинаковыми

вероятностями

p = P{Xi < x},

поскольку

выборочные случайные величины Xi распределены как генеральная случайная величина ξ.

Тогда значение эмпирической функции распределения в любой точке x для конкретной выборки x1 ,K, xn является отношением числа положительных исходов (т.е. исходов, для которых {Xi < x}) к общему числу исходов n, а при переходе к случайной выборке X1,K, X n становится случайной величиной(x) / n , где (x) – биномиальная случайная величина.

97

Согласно теореме Бернулли (см. следствие 2.2), частость (x) / n сходится по вероятности к вероятности p , поэтому

Fn (x) =

µ(x)

P

n

p = P{ξ < x} = Fξ (x) ,

 

n→∞

что и требовалось доказать.

Функция плотности pξ (x) оценивается с помощью гистрограммы следующим образом. Вся числовая прямая разбивается на L непересекающихся

полуинтервалов hi =[bi1,bi ), i =

1,L

, b0 = −∞, bL = ∞, по

конкретной выборке

x1 ,K, xn подсчитывается число наблюдений ni , i =

 

,

попавших в каждый

1, L

интервал. Затем над каждым полуинтервалом i-м строится прямоугольник, площадь которого пропорциональна ni.

Точно так же, как и выше, можно доказать, что частости попадания на полуинтервалы сходятся по вероятности к соответствующим вероятностям

ni

P

bi

n→∞

pξ (x)dx = P{bi1 x < bi }.

n

 

 

bi 1

При подходящем подборе полуинтервалов гистограмма pn (x) будет напоминать график функции плотности pξ (x) .

Если известно, что плотность отлична от нуля только на некотором отрезке, то полуинтервалы можно, и желательно, выбирать одинаковой длины

h, а площади прямоугольников – равными частостям ni / n , поэтому вся

площадь под гистограммой будет равна единице. На рис. 7.2 показан пример такой гистограммы.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

h

 

 

h

 

 

h

 

 

h

 

 

h

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b0

b1

b2

b3

b4

 

b5

x

Рис. 7.2.

98

Упражнение 7.3. Изобразить эмпирическую функцию распределения, соответствующую выборке объема n из распределения Бернулли.

Глава 8. Точечные и интервальные оценки параметров распределений

Имеется два подхода к оцениванию неизвестных параметров распределений по наблюдениям: точечный и интервальный. Точечный указывает лишь точку, около которой находится оцениваемый параметр; при интервальном находят интервал, который с некоторой, как правило, большой, вероятностью, задаваемой исследователем, накрывает неизвестное числовое значение параметра.

8.1. Методы построения точечных оценок

Точечное оценивание параметров распределений можно осуществлять следующими методами:

-моментов (М-оценивание);

-максимального правдоподобия (МП-оценивание);

-наименьших квадратов (МНК-оценивание);

-робастными (устойчивыми к отклонению модели от заданного вида);

-минимума χ2 (МХК-оценивание) и др.

Ниже рассмотрим оценивание параметров методами моментов, максимального правдоподобия и наименьших квадратов.

8.1.1. Метод моментов

Пусть некоторая непрерывная случайная величина ξ описывается моделью pξ (x, Θ) , где Θ = (θ1 ,K,θK ) . Необходимо оценить неизвестные параметры Θ

модели по выборке конечного объема x1 ,K, xn , полученной из генеральной

совокупности.

Суть М-оценивания состоит в приравнивании оценок моментов (начальных, центральных) эмпирического распределения соответствующим теоретическим моментам выбранной модели, являющимся функциями неизвестных параметров модели, и затем решении полученной системы уравнений.

Количество уравнений в системе определяется количеством искомых параметров.

Начальные и центральные теоретические моменты k-го порядка могут быть получены из выражений

99

 

 

 

νk = xk pξ (x, Θ)dx =νk (Θ) , µk = (x νk )k pξ (x, Θ)dx = µk (Θ) ,

 

−∞

 

−∞

 

 

~

~

~

~

являются

а их оценки νk

и µk

по выборке x1 ,K, xn . Полагая, что νk

и µk

состоятельными оценками моментов νk и µk , приравниваем их друг другу. В результате получим систему уравнений

νk (Θ) =ν~k ,

(8.1)

 

~

 

 

µk (Θ) = µk ,

 

число уравнений в которой должно быть равным числу K

неизвестных

параметров

θi , i =

 

. Решив систему (8.1) относительно

неизвестных

1, K

параметров Θ, получим М-оценки θ~i(М) , i =1, K .

Если случайная величина ξ является дискретной, то вместо плотности вероятности pξ (x, Θ) используем функцию вероятности

pξ (xi , Θ) = P(ξ = xi , Θ) = pi , а начальные и центральные теоретические моменты рассчитываем по формулам

n

n

νk = xik pi =νk (Θ) , µk = (xi

 

) pi = µk (Θ) .

x

i=1

i=1

Замечание 8.1. Вопрос о том, какие начальные и центральные моменты включать в систему (8.1) следует решать, руководствуясь конкретными целями исследования и сравнительной простотой форм зависимостей моментов от параметров. В статистической практике, как правило, ограничиваются четвертыми моментами.

Предложение 8.1. Пусть решение системы (8.1) существует, причем функции

~( М)

~( M )

~

~ ~

~

 

 

 

), i =1, K, K = K1 + K2

θi

=θi

(v1

, K, vK

, µ1

, K, µK

 

 

 

1

 

2

 

 

 

непрерывны в точке m = (v1 , K, vK1 , µ1 , K, µK2 ) . Тогда оценки, полученные по методу моментов, состоятельны. #

Пример 8.1. Найдем оценку параметра λ закона распределения Пуассона. Известно, что для случайной величины ξ, распределенной по закону

Пуассона,

M [ξ] = λ . Поэтому для нахождения единственного параметра λ

достаточно

приравнять теоретический ν1 и эмпирический ν~1 начальные

100