- •Полные статистики.
- •Свойства условных математических ожиданий.
- •Теорема о построении эффективных оценок
- •Алгоритм нахождения эффективных оценок
- •Неравенство Рао-Крамера. Теорема Рао-Крамера
- •Пример 1.
- •Пример 2.
- •Пример 3.
- •Лемма Неймана-Пирсона ( нерэндомизированный вариант).
- •Лемма Неймана-Пирсона ( рэндомизированный вариант).
- •Статистика
- •Критерий
- •Критерий согласия Пирсона
- •Статистика критерия
- •Правило критерия
- •28) Критерий согласия Пирсона (Хи-квадрат)
- •Поведение, когда гипотезаверна.
- •Поведение, когда гипотезаневерна.
- •Критерий проверки.
- •Границы применимости критерия на практике.
- •Доверительный интервал и примеры. Доверительный интервал.
- •Примеры
- •Общая задача дисперсионного анализа.
- •Однофакторный, двуфакторный дисперсионный анализ. Однофакторный дисперсионный анализ
- •Двуфакторный дисперсионный анализ
- •Байесовская классификация.
- •Дискриминантный анализ
Билет №1.
Теоретическая и выборочная функция распределения.
Определение выборочной (эмпирической) функции распределения: Пусть
- выборка из распределения, задаваемого функцией распределения F(x). Будем считать, что - независимые случайные величины, определённые на
некотором пространстве элементарных исходов Ω. Пусть . Определим случайную величинуследующим образом:
,
где - индикатор события A. Таким образом выборочная функция распределения в точке x равна относительной частоте элементов выборки, не превосходящих значение x. Случайная величинаназывается выборочной функцией распределения выборки.
Функцию распределения F(x) наблюдаемой случайной величины ξ в этом случае называют теоретической функцией распределения.
Основные св-ва:
Пусть зафиксирован элементарный исход . Тогдаявляется функцией распределения дискретного распределения, задаваемого следующей функцией вероятности:
,
где xi = Xi(ω), а - количество элементов выборки, равных x. В частности, если все элементы выборки различны, то.
Математическое ожидание этого распределения имеет вид:
.
Таким образом выборочное среднее - это теоретическое среднее выборочного распределения.
Аналогично, выборочная дисперсия - это теоретическая дисперсия выборочного распределения.
Случайная величина имеет биномиальное распределение:
.
Выборочная функция распределения является несмещённой оценкой функции распределения F(x):
.
Дисперсия выборочной функции распределения имеет вид:
.
Согласно усиленному закону больших чисел, выборочная функция распределения сходится почти наверное к теоретической функции распределения:
почти наверное при .
Выборочная функция распределения является асимптотически нормальной оценкой теоретической функции распределения. Если , то
по распределению при .
Билет №2.
Теоремы Гливенко и Калмогорова о сходимости выборочной функции.
Теорема(1.):ПустьFn(x) – эмпирическая функция распределения , построенная по выборкеХ=(Х1,Х2…..Хn) из распределенияZ(ξ) – соответствующая теоретическая функция распределения. Тогда для любого х (-<x<+) и любого
.
Теорема Гливенко: В условиях теоремы(1.)
Другими словами, это соотношение означает, что отклонение
эмпирической функции распределения от теоретической на всей оси с вероятностью 1 будет сколь угодно мало при достаточно большом объёме выборки.
Теорема Колмогорова:Если функцияF(x) непрерывна, то при любом фиксированномt> 0
При этом предельную функцию распределения K(t) можно с хорошим приближением использовать для практических расчетов уже приn≥20.
__________________________________________________________________________
Билет №3.
Сходимость выборочных характеристик к теоретическим. Примеры
Теорема1:Пусть— выборка объемаиз неизвестного распределенияс функцией распределения. Пусть— эмпирическая функция распределения, построенная по этой выборке. Тогда для любого
Теорема Гливенко — Кантелли.Пусть— выборка объемаиз неизвестного распределенияс функцией распределения. Пусть— эмпирическая функция распределения, построенная по этой выборке. Тогда
Более того, в условиях теорем 1 и Гливенко — Кантелли имеет место сходимость не только по вероятности, но и почти наверное.
Билет №4.
Гистограмма как выборочный аналог теоретической плотности.
Гистограммой частот называют ступенчатую фигуру, состоящую из прямоугольников, основаниями которых служат частичные интервалы длиною h, а высоты равны отношению(плотность частоты).
Площадь i-го частичного прямоугольника равна- сумме частот вариантi-го интервала; следовательно, площадь гистограммы частот равна сумме всех частот, т.е. объему выборки.
Гистограммой относительных частот называют ступенчатую фигуру, состоящую из прямоугольников, основаниями которых служат частичные интервалы длиною h, а высоты равны отношению(плотность относительных частот)
Билет №5.
Состоятельность, асимптотическая нормальность, асимптотическая несмещенность, асимптотическая несмещенность оценок.
Оценки смещение которых убывает при увеличении объема выборки и в пределе, пристановятся несмещенными.
Пусть Xвыборка из распределения, где параметрическое множествов общем случае некоторый невырожденный открытый интервалr-мерного евклидова пространства. По определению, оценкадля заданной параметрической функцииназывается состоятельной, если при, т.е., каково бы ни было истинное значение параметра, оценкасходится по вероятности к истинному значению оцениваемой функции.
Билет №6.
Примеры несмещённых и смещённых оценок.
Определение: Пусть — выборка из распределения, зависящего от параметра. Тогда оценканазывается несмещённой, если
.
В противном случае оценка называется смещённой, и случайная величина называется её смещением.
Примеры:
Выборочное среднее является несмещённой оценкой математического ожидания Xi, так как если, то.
Пусть случайные величины Xiимеют конечную дисперсию DXi= σ2. Построим оценки
— выборочная дисперсия,
и
— исправленная выборочная дисперсия.
Тогда является смещённой, а S2несмещённой оценками параметра σ2.
Билет №7.
асимптотическая нормальность выборочной медианы, сравнение асимптотической эффективности среднего и выборочной медианы.
Теорема - если в некоторой окрестности точкиплотностьf(x) непрерывна вместе с производной и, то при:Эта теорема описывает асимптотическое поведение для больших выборок, как говорят, средних членов вариационного ряда, т.е. порядковых статистик, номера которых удовлетворяют условиюпри, где 0<p<1. Таким образом для больших выборок из достаточно гладких распределений средние члены вариационного ряда асимптотически нормальны.
Для любой оценки , удовлетворяющей условию:, ее асимптотическая эффективностьeff(определяется как отношение нижней границы Рао – Крамера к асимптотической дисперсии оценки:eff
Билет №8
Метод максимального правдоподобия: описание и примеры оценок.
Определение: Пусть есть выборка из распределения, где- неизвестный параметр. Пусть- функция правдоподобия, где. Точечная оценка
называется оценкой максимального правдоподобия параметра θ. Таким образом оценка максимального правдоподобия - это такая оценка, которая максимизирует функцию правдоподобия при фиксированной реализации выборки.
Примеры: Пусть - независимая выборка из непрерывного равномерного распределения на отрезке [0,θ], где θ > 0 - неизвестный параметр. Тогда функция правдоподобия имеет вид
Последнее равенство может быть переписано в виде:
где , откуда видно, что своего максимума функция правдоподобия достигает в точке. Таким образом
.
Пусть - независимая выборка из нормального распределения с неизвестными средним и дисперсией. Построим оценку максимального правдоподобиядля неизвестного вектора параметров. Логарифмическая функция правдоподобия принимает вид
Чтобы найти её максимум, приравняем к нулю частные производные:
откуда
- выборочное среднее, а
- выборочная дисперсия.
*26-30
Билет №11.
Достаточные статистики, критерий факторизации.
Статистика T=T(X)(вообще говоря, векторная) называется достаточной для моделиF={F(x,),} (или достаточной для параметракогда ясно, о какой модели идёт речь), если условная плотность (или вероятность в дискретном случае)случайного вектораX=(X1,……,Xn) при условииT(X)=tне зависти от параметра.
Это свойство статистики Tозначает, что она содержит всю информацию о параметре, имеющуюся в выборке, и поэтому все заключения об этом параметре, которые можно сделать при наблюденииx, зависят только отt=T(x).
Критерий факторизации: Для того чтобы статистикаT(X) была достаточной для, необходимо и достаточно, чтобы функция правдоподобияL(x;) имела вид:
, где множительgможет зависеть от, а отxзависит лишь черезT(x), множительhже от параметране зависит.
Билет №13,14.
Полные статистики.
X,p(x,) – плотность, T – статистика
если из Ef(T(x))=0=>f(x)=0
Будем рассматривать полные достаточные статистики (ПДС), получим ограничение сверху и снизу.
Пример построения полной статистики
Если существует экспоненциальное распределение, то при определенных условиях T=(T1,…,Tn) является полной статистикой.
Надо, чтобы в Tii(),iбылоk-мерным, (1()),…,k()) отображалось вRk.
1) Схема Бернулли
Предположим, что m– число успехов, является достаточной статистикой.
возьмем m=0nf(m)Cnmpmqn-m=0q(0,1), нужно доказать, чтоf(m)=0
m=0nf(m)CnmZm=0,Z=p/q,Z(0,)
получается полином с коэффициентами = 0, т.к. Cnm0, тоf(m)=0
2) Распределение Пуассона
Существует объем выборки n=1, тогда
=0уберемeполучим=0, для>01/k!0 =>f(k)=0
3) Равномерное распределение R(0,)
объем выборки n=1
получается=>f(x)=0 с вероятностью 1
Билет №15.
Свойства условных математических ожиданий.
1. Пусть X,Y– случайные величины.
p(x,y) – плотность распределения.
Определение: условная плотность распределения, при условии, что yфиксированое
p(x/y)=p(x,y)/p(y)
p(y+y<X<x+x/y<Y<y+y)=P(x<X<x+x,y<Y<y+y)/P(y<Y<y+y)=
==это можно брать в качестве условной плотности распределения
тогда мат.ожидание(условное) y-фиксированое
E(x/y)=
Рассмотрим мат.ожидание при условии, что какое-то событие A– фиксированое
E(x/A)==
E(x/y) пустьA– не событие, а дискретно распределенная случайная величина, тогда
E(x/y)=E(x/A), где Y()=Y, А
Определение: Разбиением А множества называется набор подмножеств А из.
AiАj=, ij
E(x/A)=E(x/Ai), если Аi
E(x/A)=E(x/A) ||Ai() - формальное определениеEпри условии разбиения
Условное мат.ожидание обладает всеми свойствами мат.ожидания + другие свойства.
Пусть существуют 2 разбиения А и В. Пусть А>B
Мы говорим, что А является более мелким разбиением, чем Bесли любой элемент разбиенияBявляется объединением элементовA.
Пусть Bi=jAij
E(E(x/A)/B)=E(x/B)
E(E(x/B)/A)=E(x/B)
Т.е. всегда получается распределение вокруг более грубого распределения.
Доказательство:
2) Если Bi, тоE– одно и тожеyлюбогоAij, т.е.EBiне зависит от выбораAij. Получается мат.ожидание постоянной и оно равно самой постоянной.
1) E(x/Ai)=
E(x/A)=
Предположим, что Bi=jAij, построим внешнее
=====E(x/B)
E(E(x/A))=Ex
Y- измеримо относительно разбиения {Y=y}А
E(XY/A)=YE(X/A)
Если E(X/A)=0, то E(X/Y)=0
Пусть существует конечное разбиение А, рассмотрим алгебру А (или -алгебру)
E(x/A)=E(x/F) мы можем по разбиению определить-алгебру и наоборот.
Можно определить мат.ожидание при условии алгебры, чтобы сохранились все свойства
Теорема: E(x/F) называется случайной величиной со следующими свойствами
АЕ(x/F)dp=Аxdpдля всехAF
E(x/F) – измеримо относительно А
Тогда определение мат.ожидания однозначно
Если взять x, то (2) свойство никогда не выполнится, х неизмеримо относительноF, т.к. измеримость однозначна.
E(x/F)<a)F
Билет №16.
Теорема о построении эффективных оценок
X, p(x,), S=S(x) – несмещенная для g(), T – ПДС, тогда S*=E(S/T) – эффективная, несмещенная, c минимальной дисперсией, оценка.
Алгоритм нахождения эффективных оценок
Ищем T – ПДС
Ищем несмещенную оценку, являющуюся функцией от Т. Она и будет несмещенной оценкой.
Доказательство: Пусть существует несмещенная оценка SпостроимS*=E(S/T), тогдаS*- оценка, т.к.T– достаточная, она несмещенная, т.к.ES*=ES(по свойствам условного мат.ожидания)
минимальная дисперсия
Пусть существует еще одна несмещенная оценка S1, построимS*=E(S1/T), но тогда по по теореме
Рао-Блекуэлла DS1>DS1*=DS*=> дисперсия любой другой оценки будет большеDS*
Осталось доказать DS1*=DS*
т.к. S*иS1*совпадают с вероятностью 1, в силу полноты.
(S*-S1*) они измеримы относительноT(т.к. мат.ожидание), т.е. являются функциями от Т. Они обе не смещены, поэтомуE(S*-S1*)=0, значит в силу полнотыS*-S1*=0 с вероятностью 1
Пример:
Экспоненциальное семейство:
(x, S2) – ПДС
=(m,2) – если хотим оценить
f(m,2) – достаточно построить несмещенную оценкуT.
Пусть x– выборка из распределения Бернулли.
xi={1,p; 0,q}i<n,=p
m– число успехов – ПДС
оценка для p– несмещенная
x=m/n– частота – функция отmиp. =>x– это эффективная оценка.
Возьмем в качестве параметра функции g(p)=p2
S2=- несмещенная оценка2
но в схеме Бернулли =pq=p(1-p)=p-p2, т.е., чтобы оценитьs2надо иметь несмещенную оценкуp2,p2=m/n.
E(S2)=pp2
p-E(S2)=p2если взятьT=m/n-S2, тоET=p-p+p2=p2, т.е. это не смещенная оценка.
S2====
T=m/n-===
получается несмещенная оценка, для p2
можно было не пользоваться S2, а взятьx2, т.к. (p=x) оценивают, тогдаp2=x2
Если мы оцениваем pk, то несмещенной оценкой будет
Билет №17.