дов
.pdfпокажем, что случайная величина
nS2 T (x1; x2; : : : ; xn) = m0
2
имеет распределение 2n. Напомним, что распределение 2n это распределение случайной величины 12+ 22+: : :+ n2, где 1; 2; : : : ; n независимые одинаково распределенные нормальные N(0; 1) случайные величины. Имеем:
nSm2 |
0 |
n |
2 |
2 |
|
|
|
|
|
Xi |
(xi m0) = |
|
|
|
2 |
|
= |
|
|
|
|
|
|
=1 |
|
|
|
представляется в виде суммы 2, где i = (xi m0)= . |
2 |
, строится доверительный ин- |
||||
Используя таблицы распределения случайной величины n |
тервал 2. Чаще всего доверительный интервал строится в виде ( ; ) (если нас интересует наиболее точное задание дисперсии), (0; ) (если нас интересует вопрос может ли дисперсия оказаться больше какого-то числа, быть слишком большой), и ( ; 1) (если нас интересует может ли дисперсия оказаться слишком маленькой). Доверительный интервал всех трех видов строится одинаковым способом. Построим, например, доверительный интервал третьего вида:
выберем такое > 0, что |
|
|
|
nSm2 |
||
|
|
|
|
|||
|
|
P |
0 |
< = : |
||
|
2 |
|||||
|
nS2 |
|
|
|
|
|
Мы получаем, что интервал |
m0 |
; 1 имеет доверительный уровень |
||||
|
||||||
|
|
|
nS2 |
|||
|
|
P |
|
m0 |
< 2 = : |
|
|
|
|
|
Замечание 3. Как видно из задачи 1, знание дисперсии позволяет оценить точность оценки x. Тогда доверительный интервал для дисперсии это оценка точности точности. Интуитивно ясно, что для такой оценки нужно существенно больше наблюдений чем в задаче 1. Однако
для больших n таблиц распределения 2 |
не существует. Нужно пользоваться нормальным |
|||
|
|
n |
|
|
приближением случайная величина |
n2 n |
имеет при больших n почти стандартное нормаль- |
||
p |
2n |
|
ное распределение. В таких ситуациях нужно (умеючи!) пользоваться таблицами нормального распределения N(0; 1).
Задача 3. Оценка дисперсии 2 при неизвестном среднем.
В этом случае мы не можем использовать центрирование случайных величин xi средним m0, поэтому вместо статистики Sm2 0 здесь используется несмещенная оценка дисперсии
n
S2 = 1 X(xi x)2: n 1
i=1
Теорема. Случайная величина
S2 |
n |
||
Xi |
|||
|
|
||
(n 1) 2 |
= (xi x)2= 2 |
||
|
|
=1 |
имеет распределение 2n 1.
Доказательство. Мы используем тождество (1) в §2, а также следующую лемму о вращении нормального случайного вектора:
Лемма 1. Пусть ( 1; 2; : : : ; n) стандартный нормальный случайный вектор (т.е. распределения 1; 2; : : : ; n нормальны N(0; 1), сами эти величины независимы). Пусть также U
131
ортогональное вращением, U = [uij], i; j n, матрица вращения, случайный вектор ( i) задан равенствами
X
i = uij j; i n:
i=1
Тогда случайный вектор ( 1; 2; : : : ; n) также имеет стандартное n-мерное нормальное распределение.
Вернемся к доказательству теоремы. Обозначим i = xi m, = |
|
|
+ |
+ : : : + |
n . Тогда |
|
1 |
2 |
n |
nn
X |
X |
T (x1; x2; : : : ; xn) = |
(xi x)2= 2 = [(xi m) (x m)]2= 2 = |
i=1 |
i=1 |
nn
Xi |
|
X |
2 |
|
2 |
= |
2 |
: |
|
= ( i ) |
i |
n |
||
=1 |
|
i=1 |
|
|
Далее мы построим такое вращение U, матрица U которого имеет вид
|
2 1=p |
|
|
1=p |
|
3 |
|
|
U = |
n |
n |
: |
|||||
|
4 |
|
|
|
5 |
|
Задана 1-я строка, в последующих строках стоят какие-то числа достаточно произвольно, но так, чтобы матрица U была ортогональной (Напомним, строки и столбцы ортогональной матрицы составляют ортонормированный базис. Любую ортонормированную систему, в частности, даже один нормированный вектор, можно дополнить до ортонормированного базиса).
В этом случае 1 = n 1=2( 1 + + n). Так как при ортогональном вращении сумма квадра-
|
|
|
2 |
n |
|
|
n |
|
n2 1. |
P |
2 |
P |
2 |
2 |
iP |
2 |
|
|
n |
|
1 = |
|
||||
тов переходит в сумму квадратов, то i=1 i |
= i=1 i |
=2 i , т.е. имеет распределение |
Задача 4. Оценка среднего при неизвестной дисперсии.
При решении задачи 1 мы использовали известность дисперсии и то, что распределение случайной величины n1=2(x m)= есть N(0; 1). Теперь мы будем считать, что дисперсия неизвестна, поэтому эту статистику при всем желании вычислить мы не можем. Естественно попытаться заменить ее на
Tm(x1; x2; : : : ; xn) = n1=2(x m)=S;
где S2 несмещенная оценка дисперсии. И действительно, можно определить распределение статистики Tm, которое не зависит от неизвестной нам дисперсии и от m, и использовать Tm для построения доверительного интервала для среднего m. Имеем:
|
x m |
|
|
|
|
(x1 m) + (x2 m) + : : : + (xn m) |
|
||||||||||||||||||||
Tm = n1=2 |
|
= |
|
|
|
|
|
|
|
|
n1=2 |
|
|
|
|
|
|
|
|
|
= |
||||||
|
|
|
|
|
|
|
n |
n |
|
|
|
|
|
|
1=2 |
|
|
|
|||||||||
|
|
|
S |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
(xi x) |
|
! |
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
1 |
Xi |
|
|
|
2 |
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
=1 |
|
|
|
|
|
|
|
|
: |
|
||||
|
|
|
1 |
x |
|
m x |
|
m |
|
|
|
x |
|
|
|
m |
|
||||||||||
= n |
1=2 |
|
|
|
|
|
|
|
|
|
|
1=2 |
|
|
|||||||||||||
|
|
|
|
|
|
1 |
|
+ 2 |
|
+ : : : + n |
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
n |
n |
|
|
|
|
|
|
|
! |
|
|
|
|
|
|
|
||||||
|
|
|
1 |
xi m) |
|
x |
m |
2 |
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
X |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Обозначим i = xi m, тогда i независимы и имеют распределение N(0; 1),
Tm = |
n1=2 ( 1 + + n) |
: |
|||
|
|
n |
|
1=2 |
|
|
1 |
|
|
||
|
|
|
|
||
|
n i=1( i )2 |
|
|
||
|
|
P |
|
|
|
132
Как и при решении задачи 3 проведем вращение нормального случайного вектора (x1; x2; : : : ; xn), мы уже видели, что
|
|
|
1 |
n |
|
|
|
|
|
1=2 |
|
|
|
Xi |
2 |
2 |
|
|
|
|
|
2 |
|
|||
n |
|
( 1 |
+ ::: + n) = 1; |
n |
( i ) |
= 2 |
+ : : : + n |
: |
=1
Таким образом,
1
Tm = n !1=2
1 X 2 n i
i=2
имеет распределение Стьюдента с параметром n 1, доверительный интервал определяется из неравенства jTmj < ", где PfjTmj < "g = а " определяется по и таблице распределения Стьюдента.
Замечание 4. При больших n распределение Стьюдента хорошо аппроксимируется стандартным нормальным распределением.
Замечание 5. Мы видим, что в этой задаче, так же, как и в задачах 2 и 3, длина доверительного интервала случайна и зависит от результатов наблюдений. Это не очень соответствует высказанной выше идее введения состоятельной оценки. В то же время оценка x является состоятельной согласно закону больших чисел. Для эмпирической дисперсии выше была сформулирована задача о состоятельности, которую сейчас есть смысл решить.
n
s2 = n1 X(xi m)2 (x m)2:
i=1
Первое слагаемое сходится к 2 по вероятности в силу закона больших чисел, среднее второго слагаемого сходится к нулю, а в силу неотрицательности слагаемого оно сходится к нулю по вероятности.
Замечание 6. Из анализа примеров создается впечатление, что доверительный интервал с одним и тем же доверительным уровнем для всех значений параметра существует редко и лишь в особых ситуациях, в которых возникают инвариантные распределения, не зависящие от неизвестного нам значения параметра. Оказывается, это не так, и аналог доверительного интервала можно связать почти с любой статистикой T . Действительно, зафиксируем для любого два числа t1( ) и t2( ) такие, что
P(n)ft1( ) < T < t2( )g = : |
( ) |
(Гарантировать существование таких t1( ) и t2( ) можно лишь в том случае, когда функция распределения статистики T непрерывна при любом значении параметра .) Тогда при любом значении T в качестве аналога доверительного интервала мы можем взять множество всех таких, что выполняется (*). Действительно, при любом это значение параметра с вероятностью удовлетворяет условию (*) и попадает в выбранное множество. Разумеется, такое множество в конкретной модели может быть не интервалом (и даже не одномерным), поэтому множество таких корректнее называть доверительным множеством, но такого термина я не встречал.
В случае многомерного параметра приведенная конструкция имеет смысл лишь если мы оцениваем все координаты одновременно. Например, в нормальной модели при фиксированном m множество (*) будет разным при разных значениях .
3. Вывод функции плотности распределения Стьюдента. В теории вероятности мы отложили вывод распределения Стьюдента. Сейчас самое время этим заняться, хотя для пользователей математической статистики этот вывод не нужен, достаточно иметь таблицу функции распределения, а для составления таблиц нужно уметь хорошо приближать интегралы, которые заведомо не берутся в явном виде.
133
Итак, мы рассматриваем случайную величину
|
|
|
|
|
|
|
|
tn = |
|
|
= |
|
|
|
; |
|
|
|
|
||||
|
p 12 + ::: + n2 |
|
qn1 n2 |
где и i n+1 независимых нормальных N(0; 1) случайных величин. В частности, числитель и знаменатель случайной величины tn независимы. При n = 1 величину tn можно представить в виде j j, где и независимы и нормальны N(0; 1). Заметим, что если произвольную случайную величину умножить на независимую двузначную случайную величину ", которая задается соотношением Pf" = 1g = Pf" = 1g = 1=2, то получим новую случайную величину " , распределение которой связано с распределением соотношением
Pf" 2 [ x; x]g = 2Pf" 2 [0; x]g = Pf 2 [ x; x]g:
Распределение со свойством Pf[ x; x]g = 2Pf[0; x]g называется симметричным. Для симметричных распределений (например, для нормального N(0; 1)) таблицу значений функции распределения F (x) достаточно задать лишь для x > 0. Если же случайная величина сама имеет симметричное распределение, то легко видеть, что умножение на случайный знак " не меняет распределение. Поэтому (объяснить!)
|
L " |
L |
|
L |
|
||||
|
= |
|
|
= |
|
|
= |
|
; |
j j |
j j |
"j j |
|
то есть имеет распределение Коши. Итак, при выводе распределения Стьюдента целесообразно использовать преобразование координат, которое использовалось при выводе распределения Коши. Но предварительно мы выпишем плотности распределения:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
x |
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
p n2 (x) = |
|
|
|
|
|
|
|
|
|
e 2 x |
2 |
1I(0;1)(x); |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2n=2 |
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
n=2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
e nx2 xn2 1I(0; |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
p 1 |
2 (x) = |
|
2 |
|
|
|
|
|
|
|
|
)(x); |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n2 |
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
n=2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
p |
|
|
|
|
|
(x) = 2 |
|
2 |
|
|
|
|
e |
nx |
xn 1I |
|
|
|
|
|
|
(x); |
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
pn1 |
n2 |
|
n2 |
|
|
(0;1) |
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||
Далее запишем функцию распределения tn: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
e 21 u2 |
|
|
|
n |
|
n=2 |
|
|
nv |
2 |
|
|
||||||||
F |
|
(x) = |
|
|
|
|
|
p |
(u)p |
|
|
|
|
|
(v)dudv = |
|
|
|
|
|
|
|
|
|
|
2 |
|
2 |
|
|
|
|
e |
vn 1dudv = |
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
||||||||||||||||||||||||||||||||||
|
Z |
pn1 n2 |
Z |
|
|
|
Z |
|
|
|
|
|
|
|
|
n2 |
|
||||||||||||||||||||||||||||||||||||||||||||
|
tn |
|
Z |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
p2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
|
|
|
u=v x;v 0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
u=v x;v 0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
Перейдем к новым координатам y = u=v, z = v, тогда |
@(u;v) |
|
= z: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||||||
@(x;y) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
n |
n=2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
= |
|
|
|
|
|
|
|
|
|
2 |
|
2 |
|
|
|
zne 21 z2(n+y2)dydz = |
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
Z |
|
|
|
|
Z |
|
|
|
|
|
|
|
n2 |
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
p2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
(w = 1 z2 |
(n + y2)) |
|
|
|
|
|
y x;z 0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 nn=2 |
|
|
|
|
|
n 1 |
|
|
|
|
n+1 |
|
|
|
|
|
|
|
|
|
|
1 |
|
n+1 |
|
|
|
|
y2 n+12 |
|||||||||||||||||||||||||||
|
= |
|
|
|
|
|
|
|
|
|
|
e ww 2 |
(n + y2) |
2 dydw = |
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
1 + |
|
|
|
|
dy: |
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||
|
|
Z |
Z |
p |
|
n2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Z |
pn |
|
n2 |
|
|
|
|
|
n |
|
|
||||||||||||||||||||
|
|
y x;w 0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
y x |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
§20. Достаточные статистики.
134
При построении новых оценок обычно стараются использовать статистики, которые называются достаточными.
Определение. Статистика T = T (x1; :::; xn) называется достаточной для статистической модели P(n), 2 , если (в непрерывной модели) условная плотность p(n)(x1; :::; xnjT = t) или (в дискретной модели) условная вероятность P(n)fx1; :::; xnjT = tg не зависит от . Объяснить это определение можно следующим образом: если статистика достаточна, то в ней содержится вся информация выборки относительно параметра .
Замечание 1. Разумеется, статистика T может принимать и векторные значения.
Теорема. Если (в непрерывной модели) совместная плотность pn допускает факториза-
цию
p(n)(x1; :::; xn) = g (T (x1; :::; xn))h(x1; :::; xn);
или (в дискретной модели) совместная вероятность P(n)fx1; :::; xng допускает факториза-
цию
P(n)fx1; :::; xng = g (T (x1; :::; xn))h(x1; :::; xn);
где функция g (t) зависит от , а функция h(x1; :::; xn) не зависит от , то статистика T является достаточной.
Доказательство мы проведем лишь для дискретного случая, где оно наиболее просто. По определению условной вероятности имеем:
(n) |
|
x |
|
; :::; x |
T = t |
|
= |
P(n)ffx1; :::; xng \ fT = tgg |
: |
||
P |
f |
|
g |
||||||||
|
1 |
nj |
|
|
|
P(n)fT = tg |
|||||
В этой дроби числитель равен нулю, если T (x1; :::; xn) 6= t, и равен |
|||||||||||
|
|
|
|
P(n)ffx1; :::; xng = g (t)h(x1; :::; xn); |
|||||||
если T (x1; :::; xn) = t. Знаменатель считается суммированием: |
|||||||||||
P(n)fT = tg = |
|
P(n)fx1; :::; xng = |
g (t)h(x1; :::; xn): |
||||||||
|
|
|
|
T (Xi |
|
|
|
|
|
Xi |
|
|
|
|
|
x )=t |
|
|
|
|
T (x )=t |
В результате дробь имеет вид
h(x1; :::; xn)
X ; h(x1; :::; xn)
T (xi)=t
то есть не зависит от .
Замечание 2. В вероятностной модели с плотности (такое распределение мы называем непрерывным) возникает некоторая трудность при вычислении условной плотности, так как совместная плотность вектора (x1; :::; xn) и статистики T (x1; :::; xn) не существует. Действительно, она должна была бы быть определена на n + d-мерном пространстве, где d размерность T , но вся вероятность на этом пространстве сосредоточена на множестве лебеговой меры нуль f(x1; :::; xn; t) : t = T (x1; :::; xn)g.
Пример 1. В нормальной модели
m; |
1 2 |
|
n |
|
p2 |
|
|
|
2 |
n |
|
|
|
! |
|
|||||
p(n) |
(x ; x ; : : : ; x |
) = |
1 |
|
|
|
n exp |
|
1 |
|
(xi m) |
|
2 |
= |
||||||
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
||
|
|
|
|
|
|
0 |
|
|
|
|
|
|
|
X |
1 |
|
|
|
||
|
|
|
|
|
|
|
|
n |
|
|
|
|
n |
|
|
|
||||
|
|
|
|
|
|
|
|
|
X |
|
|
X |
|
|
|
|
|
|
||
|
= p2 |
n |
|
2 i=1 |
xi2 2m xi + nm2 |
|
|
|
||||||||||||
|
exp B |
|
i2 |
|
|
C: |
|
|
||||||||||||
|
1 |
|
|
B |
1 |
|
|
|
|
|
|
=1 |
|
|
C |
|
|
|
||
|
|
|
|
|
|
B |
|
|
|
|
|
|
|
|
|
|
C |
|
|
|
|
|
|
|
|
|
B |
|
|
|
|
|
|
|
|
|
|
C |
|
|
|
|
|
|
|
|
|
@ |
|
|
|
|
|
|
|
|
|
|
A |
|
|
|
135
Легко видеть, что условиям теоремы удовлетворяет статистика
T (x1 |
; :::; xn) = |
xi; xi2 |
! |
; |
|
n |
n |
|
|
|
Xi |
X |
|
|
|
=1 |
i=1 |
|
|
и что эмпирические среднее и дисперсию являются функциями этой статистики, в свою очередь, двумерная статистика T является функцией двумерной статистики (x; s2).
Пример 2. Поучительный пример приведен в в книге И.Н. Володина. Рассмотрим равномерное распределение на отрезке [0; ], где > 0 неизвестный параметр. Совместная функция плотности задается формулой
(n) |
(x1; x2; : : : ; xn) = |
1 |
|
n |
p |
|
I[0; ](x1) I[0; ](xn): |
||
|
В этой модели достаточной статистикой является статистика
T (x1; :::; xn) = max xi:
i n
Действительно, если T , то
(n) |
(x1; x2; : : : ; xn) = |
1 |
|
n |
p |
|
; |
||
|
если T > , то
p(n)(x1; x2; : : : ; xn) = 0:
Все же оба этих примера являются примерами ’второго сорта’, в них функцию h можно считать равной константе, например, 1. Иная ситуация в модели Пуассона:
Пример 3.
P (n)(k1; k2; : : : ; kn) == k1!k2! kn!e n :
В этом примере T (k1; k2; : : : ; kn) = k1 + k2 + : : : + kn,
1
h(k1; k2; : : : ; kn) = k1!k2! kn!:
§21. Сравнение двух гипотез
Рассматриваются две гипотезы: гипотеза H0 ’истинное распределение P0 с функцией плотности p0’, и гипотеза H1 ’истинное распределение P1 с функцией плотности p1’. На основании выборки (x1; : : : ; xn)(xi имеют распределение P0 или P1) нам следует выбрать одну из гипотез H0 или H1.
Естественно, что критерий различения двух гипотез имеет вид Rn = 0 + 1 (Rn в данном случае – пространство всех выборок), гипотеза H0 принимается, если выборка окажется в 0, H1 принимается, если выборка окажется в 1. Нас интересует такое разбиение 0 + 1, при котором минимальны вероятности ошибок. Отметим, что
Pfпринять гипотезу H1 при условии, что верна гипотеза H0g = называется вероятностью ошибки первого рода, = P(0n) 1,
Pfпринять гипотезу H0 при условии, что верна гипотеза H1g = называется вероятностью ошибки второго рода, = P(1n) 0.
Эта терминология придает разный смысл гипотезам H0 и H1, гипотеза H0 считается основной, а H1 альтернативной, поэтому вероятность отвергнуть правильную гипотезу (т.е.