Учебное пособие по ТВ и МС
.pdfВсегда существует множество функций от результатов наблюдений X1,K, X n , которые будут оценками параметра θ. Например, в главе 6 были
рассмотрены несколько оценок математического ожидания – средняя арифметическая, средняя геометрическая, медиана, мода и т.д.
Возникает проблема – как измерить «близость» оценки θ~n к истинному
значению θ, или как определить качество оценки?
Качество оценки определяется не по одной конкретной выборке, а по всему мыслимому набору конкретных выборок, т.е. по случайной выборке. Поэтому для установления качества полученных оценок следует в соответствующих
формулах заменить конкретные выборочные значения xi на случайные
выборочные значения Xi.
Качество оценки устанавливают, проверяя, выполняются ли следующие три свойства: состоятельность, несмещенность и эффективность.
Определение 7.2. Оценка θ~n называется состоятельной, если она сходится по вероятности к истинному значению θ :
ε > 0 lim P(θ~n −θ < ε)=1 , или θ~n |
→ θ . |
(7.1) |
||||
n→∞ |
|
|
|
|
P |
|
|
|
|
|
n→∞ |
|
|
|
|
|
||||
Свойство состоятельности является обязательным для оценки. |
|
|||||
Определение 7.3. Оценка θ~n |
называется несмещенной, если ее |
|||||
математическое ожидание равно истинному значению θ: |
|
|||||
M[θ~n ] =θ . |
|
(7.2) |
Данное свойство желательно, но не обязательно. Часто полученная оценка бывает смещенной, но ее можно скорректировать так, чтобы она стала несмещенной. Иногда оценка бывает смещенной, но асимптотически несмещенной, что означает:
lim M[θ~n ] =θ .
n→∞
Определение 7.4. Оценка θ~n |
называется эффективной в определенном |
|||
классе оценок S, если она самая точная среди всех оценок этого класса, т.е. |
||||
имеет минимальную дисперсию: |
|
|||
D[θ~ ] = min D[θ~ ] |
. |
(7.3) |
||
n |
θ~n S |
n |
91
Эффективность является решающим свойством, определяющим качество оценки. Эффективность оценки θ~n определяется отношением:
~ |
D[θ~ ] |
|
|
|
e(θn ) = |
~n |
. |
|
(7.4) |
|
D[θn ] |
|
|
|
Чем ближе e |
к 1, тем эффективнее оценка. Если |
e →1 при |
n → ∞ , то |
|
такая оценка называется асимптотически эффективной. |
|
|
||
На практике |
в целях упрощения расчетов часто |
делается |
компромисс |
между несмещенностью и эффективностью – используют незначительно смещеннные оценки или оценки, обладающие большей дисперсией D[θ~n ] по
сравнению с эффективными оценками.
Ниже рассмотрим, какими из свойств обладают некоторые полученные выше оценки числовых характеристик.
7.2.1. Среднее арифметическое выборочных значений как оценка математического ожидания
Пусть случайная величина ξ имеет математическое ожидание и дисперсию,
равные соответственно a и σ 2 . Для случайной выборки оценка математического ожидания примет вид:
~ |
1 |
n |
|
|
|
||||
an = |
|
∑ X i = X . |
||
|
n i=1 |
Согласно следствию 5.1 закона больших чисел
P
X → a ,
n→∞
что означает состоятельность оценки ~n = . a
X
Несмещенность оценки a~n устанавливается прямой проверкой:
~ |
1 |
M[an ] = M n
n |
|
|
1 |
n |
1 |
n |
∑ X i |
= |
|
∑M[X i ] = |
|
∑a = a . |
|
|
|
|||||
i−1 |
|
|
n i=1 |
n i=1 |
Теперь докажем, что a~n эффективна в классе линейных несмещенных
оценок.
Линейная оценка имеет вид:
92
a)n = ∑n ci X i . i=1
Линейная несмещенная оценка должна удовлетворять условию поэтому
) |
n |
|
n |
n |
M[an ] = M ∑ci X i |
= ∑ci M[X i ] = a∑ci , |
|||
|
i=1 |
|
i=1 |
i=1 |
n
т.е. для ее несмещенности необходимо ∑ci =1.
Найдем дисперсию |
|
|
i=1 |
|
|
|||
|
|
|
|
|
|
|||
) |
n |
|
n |
2 |
D[X i ] = σ |
2 |
n |
2 |
D[an ] = D ∑ci X i |
= ∑ci |
|
∑ci . |
|||||
|
i=1 |
|
i=1 |
|
|
|
i=1 |
|
(7.5)
M[a)n ] = a ,
Поэтому для определения наиболее эффективной в классе линейных
несмещенных оценок надо минимизировать дисперсию D[a)n ] |
при выполнении |
|||||
условия несмещенности: |
|
|
||||
(c ,K,c |
|
) = arg min |
n |
c2 |
|
|
n |
∑ |
(7.6) |
||||
1 |
n |
i . |
||||
|
|
∑ci =1 |
i=1 |
|
|
i=1
Задача (7.6) – задача на условный экстремум, которая сводится к задаче на безусловный экстремум. Строим для (7.6) функцию Лагранжа:
n |
2 |
|
n |
|
L(c1 ,K,cn ,λ) = ∑ci |
− λ |
∑ci −1 . |
||
i=1 |
|
i=1 |
|
Для определения точки экстремума находим частные производные и приравниваем их к нулю:
∂L
∂ci ∂L
∂λ
= 2ci − λ = 0, i =1, n ,
n
= ∑ci −1 = 0 .
i=1
93
Подставляя значения ci = λ / 2, |
i = |
1,n |
, полученные из первых n уравнений, |
||||||||
в последнее уравнение, получаем λ |
= |
1 |
ci |
= λ , i = |
|
. |
|||||
1, n |
|||||||||||
|
|||||||||||
2 |
|
n |
2 |
|
|
||||||
Итак, при ci =1/ n, i = |
|
, оценка (7.5) |
имеет минимальную дисперсию, |
||||||||
1, n |
~n = является эффективной в классе линейных несмещенных оценок. a X
т.е.
|
|
|
7.2.2. Свойства оценки дисперсии |
|
|||
Для случайной выборки оценка дисперсии примет вид: |
|
||||||
~2 |
= |
1 n |
|
|
2 |
. |
(7.7) |
|
|||||||
σn |
∑(X i − X ) |
|
|||||
|
|
n i=1 |
|
|
|
Изучение свойств этой оценки начнем с проверки на несмещенность. Раскрыв квадрат под знаком суммы в уравнении (7.7), имеем:
~2 |
|
1 |
n |
2 |
|
|
|
|
2 |
]). |
|
|
] = |
] −2M[X i X ] + M[X |
(7.8) |
||||||||||
M[σn |
|
∑(M[X i |
|
|||||||||
|
|
n i=1 |
|
|
|
|
|
|
|
|
Далее найдем каждое из слагаемых в скобках под знаком суммы:
M[X i2 ] = D[X i ] + (M[X i ])2 =σ 2 + a2 , |
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
n |
|
1 |
|
|
|
|
|
|
n |
|
σ |
2 |
|||
M[X i |
X |
] = M X i |
∑ X j = |
|
M[X i2 ] + ∑M[X i ]M[X j ] = |
|
|||||||||||||||||
|
n |
n |
|||||||||||||||||||||
|
|
|
|
|
|
|
|
n j=1 |
|
|
|
|
|
|
j=1 |
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j≠i |
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
2 |
|
|
n |
|
|
|
1 |
n |
|
1 |
|
n |
2 |
n |
|
|
|||||
|
|
|
|
|
|
|
|
|
|
||||||||||||||
M[X |
|
] = M |
|
|
∑ X i |
|
∑ X j |
= |
|
|
∑M[X i |
] + ∑M[X i ]N[X |
|||||||||||
|
|
n |
n |
2 |
|||||||||||||||||||
|
|
|
|
|
n i=1 |
|
|
|
j=1 |
|
|
|
i |
=1 |
|
i, j=1 |
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i≠ j |
|
|
|
|
|
= σ 2 |
+ |
(n −1) |
a2 . |
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
n |
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
Подставим найденные выражения в (7.8), имеем:
+ nn−1a2 .
j ] =
~2 |
=σ |
2 |
− |
σ 2 |
+ |
a2 |
= |
n |
−1 |
σ |
2 |
+ |
a2 |
, |
|
|
|
σn |
|
n |
n |
|
n |
|
|
n |
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
~ 2 |
имеет систематическое смещение (−σ |
2 |
/ n) . Без |
||||
откуда видно, что оценка σ n |
|
ограничения общности будем считать, что M[X i ] = 0 , т.к. мы всегда можем
94
отнять X от всех X i . Отметим, что это смещение стремится к нулю при
n→ ∞.
Сцелью устранения смещения скорректируем оценку следующим образом:
|
2 |
|
n |
~2 |
|
|
1 |
|
n |
|
|
|
|
|
2 |
|
|
|
|
|
s |
|
|
|
|
∑(X i − X ) |
|
|
|
|
|
||||||||||
|
= |
|
σn |
= |
|
|
|
|
. |
|
|
|
(7.9) |
|||||||
|
n −1 |
n |
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
−1 i=1 |
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
n |
|
~ 2 |
|
2 |
|
|
Действительно, |
|
M[σ |
|
] = |
|
|
|
|
|
M [σn |
] = σ |
|
, т.е. скорректированная по |
|||||||
|
|
|
n − |
1 |
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
формуле (7.9) оценка не смещена.
Предложение 7.1. При увеличении объема случайной выборки:
|
1 |
n |
|
P |
|
|
s2 = |
∑(X i − |
X |
)2 → σ 2 |
, |
||
|
||||||
|
n −1 i=1 |
|
n→∞ |
|
т.е. оценка (7.9) является состоятельной.
Доказательство. Без ограничения общности считаем, что M[X i ] = 0 . При этом предположении M [X i2 ] = D[X i ] = σ 2 . Из (7.9) вытекает, что
|
2 |
|
n |
1 |
n |
2 |
|
|
2 |
||
|
|
|
|
||||||||
σ |
|
= |
|
|
|
|
∑ X i |
− X |
. |
||
|
n −1 |
|
|||||||||
|
|
|
n i=1 |
|
|
|
|
Применяя закон больших чисел в форме Хинчина (предложение 5.2) к последовательности X12 ,K, X n2 , имеем
1 |
n |
P |
|
|
|
|
|
|
|||
∑ X i2 |
→ σ 2 . |
|
|
|
|
|
|||||
|
n |
|
|
|
|
|
|||||
|
i=1 |
n→∞ |
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
P |
В |
силу |
предположения |
M[X i ] = 0 по закону больших чисел |
X |
→ 0 . |
||||||
|
|
|
|
|
|
|
|
|
|
|
n→∞ |
|
|
|
|
|
2 |
P |
|
P |
|
|
|
Следовательно, |
X |
→ 0 |
. Отсюда вытекает, что s2 → σ 2 |
. |
|
|
|||||
|
|
|
|
|
|
n→∞ |
|
n→∞ |
|
|
|
Упражнение 7.1. Докажите, что в случае нормального распределения случайной величины ξ, дисперсии оценок дисперсии D[ξ] таковы:
~2 |
|
2σ 4 |
(n −1) |
|
2 |
|
2σ 4 |
|
|
D[σn |
] = |
|
|
, D[s |
|
] = |
|
|
. |
|
n2 |
|
n −1 |
||||||
|
|
|
|
|
|
|
95
7.2.3. Сравнение оценок
Предположим, что у нас имеются две несмещенные оценки θ~'(X1 ,K, X n ) и
θ~''(X1,K, X n ) для скалярного параметра θ R . Возникает дилемма – какую из
оценок предпочесть? Простой и разумный совет состоит в том, чтобы выбрать оценку с меньшей дисперсией.
Пример 7.1. Предположим, что X1,K, X n – независимая случайная выборка из равномерного распределения в отрезке [θ −1,θ +1] , где θ – неизвестный параметр. Рассмотрим две следующие оценки для θ:
~ |
|
|
|
~ |
|
min X i + max X i |
|
|
|
|
|
|
|
||||
θ '(X1 |
,K, X n ) = X , |
θ ''(X1 |
,K, X n ) = |
|
. |
|||
2 |
||||||||
|
|
|
|
|
|
|
Нетрудно установить, что обе эти оценки являются несмещенными и
D[θ~'] = 21n .
Немного более сложное вычисление показывает, что
~ |
|
1 |
|
|
D[θ |
''] = Ο |
|
|
(n → ∞) . |
|
2 |
|||
|
n |
|
|
Следовательно, при больших n дисперсия второй оценки стремится к нулю быстрее, чем дисперсия выборочного среднего. Другими словами, при
достаточно большом объеме выборки оценка θ~'' становится эффективней оценки θ~' .
Упражнение 7.2. Для оценки θ~''(X1,K, X n ) из примера 7.1 проверить, что M [θ~''] = 0 и вычислить D[θ~'']. Указание: при нахождении дисперсии предварительно потребуется совместная плотность случайных величин min X i
и max X i .
7.3. Оценка функций распределения и плотности
Оценку функции распределения вероятностей Fn (x) получаем по тому же принципу, который был применен при оценивании числовых характеристик: оценкой функции распределения генеральной случайной величины ξ служит
96
функция распределения выборки x1 ,K, xn , определенная по формуле (6.2). На рис. 7.1 приведен пример эмпирической функции распределения.
nL
nL−1 n
n
n2
n
n1
n
x1 x2 |
xL-1 |
xL |
x |
Рис. 7.1.
Предложение 7.2. |
Выборочная функция распределения Fn (x) |
в каждой |
точке x, − ∞ < x < ∞ , |
рассматриваемая как функция случайной |
выборки, |
сходится по вероятности к теоретической функции распределения в этой точке:
P |
|
Fn (x) → Fξ (x) . |
(7.10) |
n→∞ |
|
Доказательство: Обозначим |
|
p = Fξ (x) = P{ξ < x} , |
|
тогда случайная выборка X1,K, X n порождает схему Бернулли, на каждом шаге
которой может |
произойти |
событие {X i < x}, i = |
1, n |
, |
или |
случиться |
|
противоположное |
{Xi ≥ x}, причем прямое |
событие |
на каждом шаге |
||||
происходит с |
одинаковыми |
вероятностями |
p = P{Xi < x}, |
поскольку |
выборочные случайные величины Xi распределены как генеральная случайная величина ξ.
Тогда значение эмпирической функции распределения в любой точке x для конкретной выборки x1 ,K, xn является отношением числа положительных исходов (т.е. исходов, для которых {Xi < x}) к общему числу исходов n, а при переходе к случайной выборке X1,K, X n становится случайной величиной(x) / n , где (x) – биномиальная случайная величина.
97
Согласно теореме Бернулли (см. следствие 2.2), частость (x) / n сходится по вероятности к вероятности p , поэтому
Fn (x) = |
µ(x) |
P |
n |
→ p = P{ξ < x} = Fξ (x) , |
|
|
n→∞ |
что и требовалось доказать.
Функция плотности pξ (x) оценивается с помощью гистрограммы следующим образом. Вся числовая прямая разбивается на L непересекающихся
полуинтервалов hi =[bi−1,bi ), i = |
1,L |
, b0 = −∞, bL = ∞, по |
конкретной выборке |
||
x1 ,K, xn подсчитывается число наблюдений ni , i = |
|
, |
попавших в каждый |
||
1, L |
интервал. Затем над каждым полуинтервалом i-м строится прямоугольник, площадь которого пропорциональна ni.
Точно так же, как и выше, можно доказать, что частости попадания на полуинтервалы сходятся по вероятности к соответствующим вероятностям
ni |
P |
bi |
|
n→→∞ |
∫pξ (x)dx = P{bi−1 ≤ x < bi }. |
||
n |
|||
|
|
bi −1 |
При подходящем подборе полуинтервалов гистограмма pn (x) будет напоминать график функции плотности pξ (x) .
Если известно, что плотность отлична от нуля только на некотором отрезке, то полуинтервалы можно, и желательно, выбирать одинаковой длины
h, а площади прямоугольников – равными частостям ni / n , поэтому вся
площадь под гистограммой будет равна единице. На рис. 7.2 показан пример такой гистограммы.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
h |
|
|
h |
|
|
h |
|
|
h |
|
|
h |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
b0 |
b1 |
b2 |
b3 |
b4 |
|
b5 |
x |
Рис. 7.2.
98
Упражнение 7.3. Изобразить эмпирическую функцию распределения, соответствующую выборке объема n из распределения Бернулли.
Глава 8. Точечные и интервальные оценки параметров распределений
Имеется два подхода к оцениванию неизвестных параметров распределений по наблюдениям: точечный и интервальный. Точечный указывает лишь точку, около которой находится оцениваемый параметр; при интервальном находят интервал, который с некоторой, как правило, большой, вероятностью, задаваемой исследователем, накрывает неизвестное числовое значение параметра.
8.1. Методы построения точечных оценок
Точечное оценивание параметров распределений можно осуществлять следующими методами:
-моментов (М-оценивание);
-максимального правдоподобия (МП-оценивание);
-наименьших квадратов (МНК-оценивание);
-робастными (устойчивыми к отклонению модели от заданного вида);
-минимума χ2 (МХК-оценивание) и др.
Ниже рассмотрим оценивание параметров методами моментов, максимального правдоподобия и наименьших квадратов.
8.1.1. Метод моментов
Пусть некоторая непрерывная случайная величина ξ описывается моделью pξ (x, Θ) , где Θ = (θ1 ,K,θK ) . Необходимо оценить неизвестные параметры Θ
модели по выборке конечного объема x1 ,K, xn , полученной из генеральной
совокупности.
Суть М-оценивания состоит в приравнивании оценок моментов (начальных, центральных) эмпирического распределения соответствующим теоретическим моментам выбранной модели, являющимся функциями неизвестных параметров модели, и затем решении полученной системы уравнений.
Количество уравнений в системе определяется количеством искомых параметров.
Начальные и центральные теоретические моменты k-го порядка могут быть получены из выражений
99
∞ |
|
∞ |
|
|
νk = ∫ xk pξ (x, Θ)dx =νk (Θ) , µk = ∫(x −νk )k pξ (x, Θ)dx = µk (Θ) , |
|
|||
−∞ |
|
−∞ |
|
|
~ |
~ |
~ |
~ |
являются |
а их оценки νk |
и µk |
− по выборке x1 ,K, xn . Полагая, что νk |
и µk |
состоятельными оценками моментов νk и µk , приравниваем их друг другу. В результате получим систему уравнений
νk (Θ) =ν~k , |
(8.1) |
|||
|
~ |
|
|
|
µk (Θ) = µk , |
|
|||
число уравнений в которой должно быть равным числу K |
неизвестных |
|||
параметров |
θi , i = |
|
. Решив систему (8.1) относительно |
неизвестных |
1, K |
параметров Θ, получим М-оценки θ~i(М) , i =1, K .
Если случайная величина ξ является дискретной, то вместо плотности вероятности pξ (x, Θ) используем функцию вероятности
pξ (xi , Θ) = P(ξ = xi , Θ) = pi , а начальные и центральные теоретические моменты рассчитываем по формулам
n |
n |
||
νk = ∑xik pi =νk (Θ) , µk = ∑(xi − |
|
) pi = µk (Θ) . |
|
x |
|||
i=1 |
i=1 |
Замечание 8.1. Вопрос о том, какие начальные и центральные моменты включать в систему (8.1) следует решать, руководствуясь конкретными целями исследования и сравнительной простотой форм зависимостей моментов от параметров. В статистической практике, как правило, ограничиваются четвертыми моментами.
Предложение 8.1. Пусть решение системы (8.1) существует, причем функции
~( М) |
~( M ) |
~ |
~ ~ |
~ |
|
|
|
||
), i =1, K, K = K1 + K2 |
|||||||||
θi |
=θi |
(v1 |
, K, vK |
, µ1 |
, K, µK |
||||
|
|
|
1 |
|
2 |
|
|
|
непрерывны в точке m = (v1 , K, vK1 , µ1 , K, µK2 ) . Тогда оценки, полученные по методу моментов, состоятельны. #
Пример 8.1. Найдем оценку параметра λ закона распределения Пуассона. Известно, что для случайной величины ξ, распределенной по закону
Пуассона, |
M [ξ] = λ . Поэтому для нахождения единственного параметра λ |
достаточно |
приравнять теоретический ν1 и эмпирический ν~1 начальные |
100