Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ТВиМС ответы на экзамен

.docx
Скачиваний:
22
Добавлен:
07.08.2024
Размер:
784.08 Кб
Скачать

13. Основные свойства математического ожидания.

Во всех свойствах предполагается, что рассматриваемые математические ожидания существуют.

Свойство1 Для произвольной борелевской функции g: →

Доказательство. Мы докажем это свойство (как и почти все дальнейшие) только для дискретного распределения. Пусть g(ξ) принимает значения c1,c2,… с вероятностями

Тогда

Следствие Математическое ожидание существует ξ тогда и только тогда, когда M| ξ |<

Свойство 2: Математическое ожидание постоянной равно ей самой: Mc=c.

Свойство 3: Постоянную можно вынести за знак математического ожидания: M(c ξ)=cMξ

Доказательство.Следует из свойства (1) при g(x)=cxЧ.Т.Д

Свойство 4: Математическое ожидание суммы любых случайных величин равно сумме их математических ожиданий, если только эти матем-ие ожидания существуют:M(ξ+η)=Mξ+Mη

Доказательство. Пусть случайные величины ξ и η имеют дискретные распределения со значениями Xk и Yn соответственно. Для борелевской функции g: 2→ можно доказать свойство, аналогичное (св1) . Воспользуемся этим свойством для g(x,y)=x+y:

Свойство 5: Если ξ≥0 п.н.,т.е. если P(ξ≥0)=1,то Mξ≥0

Замечание. Сокращение «п.н.» читается как «почти наверное» и означает «с вероятностью 1».

Свойство 6: Если ξ≥0 п.н.,и при этом Mξ=0,то ξ=0 п.н.,т.е.P(ξ=0)=1 Доказательство. Это свойство мы докажем, заранее предполагая, что ξ имеет дискретное распределение с неотрицательными значениями ai≥0. Равенство означает Mξ=∑aipi=0, что все слагаемые в этой сумме равны нулю, т.е. все вероятности нулевые, кроме вероятности pi, соответствующей значению ai=0.Из св 5 и св6:

Следствие 1 Если ξ≤η п.н., то Mξ≤Mη

Следствие 2 Если ξ≤η п.н., то Mξ=Mη,то ξ= η п.н

Следствие 3 Если a≤ξ≤b п.н., то a≤Mξ≤b

Свойство 7: Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий: если ξ и η независимы и их математические ожидания существуют, то M(ξη)=MξMη

Доказательство.В дискретном случае:

Замечание. Обратное утверждение к свойству (7) неверно: из равенства M(ξη)=MξMη не следует независимость величин ξ и η.

14. Основные свойства дисперсии.

Свойства дисперсии следуют из соответствующих свойств математического ожидания. Заметим, что из существования второго момента следует существование математического ожидания случайной величины и конечность дисперсии.

Во всех свойствах ниже предполагается существование вторых моментов случайных величин.

Свойство 1. Дисперсия может быть вычислена по формуле:Dξ=Mξ2- (Mξ)2

Доказательство. Положим для удобства a=Mξ.Тогда

Свойство 2. При умножении случайной величины на постоянную С дисперсия увеличивается в С2 раз:

D(cξ)=c2Dξ.

Свойство 3.— Дисперсия всегда неотрицательна:Dξ>0

— Дисперсия обращается в нуль лишь для вырожденного распределения: если Dξ=0, то ξ=const п. н., и наоборот.

Доказательство. Дисперсия есть математическое ожидание почти наверное неотрицательной случайной величины (ξ-Mξ)2, и неотрицательность дисперсии следует из 5 свойства мат ожидания.

(Свойство 5 мат ожид: Если ξ≥0 п.н.,т.е. если P(ξ≥0)=1,то Mξ≥0

Замечание. Сокращение «п.н.» читается как «почти наверное» и означает «с вероятностью 1». )

По свойству 6 свойству мат ожид,если Dξ=0,то (ξ-Mξ)2=0 п.н., т.е. ξ=Mξ п.н.И наоборот : если ξ=с п.н., то Dξ=M(c-Mξ)2=0 ч.т.д

(Свойство 6 мат ожид: Если ξ≥0 п.н.,и при этом Mξ=0,то ξ=0 п.н.,т.е.P(ξ=0)=1)

Свойство 4. Дисперсия не зависит от сдвига случайной величины на постоянную:D(ξ+c)=Dξ

Свойство 5. Если ξ и η независимы, то дисперсия их суммы равна сумме их дисперсий:D(ξ+ η)=Dξ+Dη.

Доказательство.Действительно,

так как математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий. Ч.т.д.

Замечание. Обратное утверждение к свойству 5 неверно: из суммы D(ξ+ η)=Dξ+Dη не следует независимость величин ξ и η.

Следствие1. Если ξ и η независимы, то дисперсия их разности равна сумме их дисперсий: D(ξ-η)= D(ξ+η)= =Dξ+Dη.Доказательство.Из свойств 5 и 2 получим:

Следствие2. Для произвольных случайных величин ξ и η с конечными вторыми моментами имеет место равенство: D(ξ+ η)= Dξ+Dη+2(M(ξη)-MξMη)

Свойство 6. Минимум среднеквадратического отклонения случайной величины ξ от точек вещественной прямой есть среднеквадратическое отклонение ξ от своего математического ожидания:

Dξ=M(ξ-Mξ)2=minM(ξ-a)2.

Доказательство. Сравним величину M(ξ-a)2 с дисперсией:

и последнее неравенство превращается в равенство лишь при a=Mξ. Ч.т.д.

15. 1) Биномиальное распределение.

2) Распределение Пуассона.

1)Производится n независимых испытаний, а исходы кодируются двоичной последовательностью ω длины n (0 отвечает неудаче, 1 - успеху). За случ. величину берется X(ω)=m - число успехов. Знаем, что P(X=m) = Cmn pm qn-m , m=0,…,n.

Таблица распределения имеет вид (∑ pi = 1):

X

0

1

n

p

P0

P1

pn

Функция распределения:

0, при х⩽0

F(x) = ∑ Cmn * pm * qn-m, при 0<х⩽n

1, при n < x

Производящая функция моментов биномиального распределения имеет вид:

MY(t)=(pet + q)n, откуда E[Y]=np, E[Y2]=np(q+np), а дисперсия случ. величины D[Y]=npq. Если n=1, то получим распределение Бернулли.

2)Случайная величина принимает значения 0,1,2,...,n, причем P(Х=n)=λne- λ/n!, λ>0, пр≈ λ

λ

0

1

n

p

P0

P1

pn

Распределение Пуассона - это дискретное распре-деление, явл-ся одним из важных предельных слу-чаев биномиального распределения. При росте n и зафиксированном значении произведения np=λ>0 биномиальное распределение B(n,p) сходится к распределению Пуассона. Т.о, случ. величина, имеющая распределение Пуассона с параметром λ, принимает неотриц. целые значения с вероятностью P(f=k|λ)=λke-λ/k!, k=0,1,2,…

Интегральная функция вероятности распределения:

Fλ(x)=Г(k+1,λ)/k!

Параметр λ является одновременно и математическим ожиданием, и дисперсией случайной величины, имеющей распределение Пуассона: MX=DX=a.∞

16. 1)Нормальное распределение.

2)Равномерное распределение.

1)Это распределение (гауссовское), явл-ся наиболее используемым в твимс . Стандарт. норм. распределением называется абсолютно непрерывное распределение с плотностью:

Оно имеет нулевое математическое ожидание и дисперсию, равную 1.

Если случайная величина ξ0 имеет стандарт. норм. распределение, то ξ=σξ0+m, где σ>0, имеет матем. ожидание m, дисперсию σ2 и плотность распределения:

Распределение с такой плотностью называется нормальным. Тот факт, что случ. величина ξ имеет такое распре-деление, кратко пишут след образом: ξ∈N(m, σ2). Значит стандарт. норм. распределение обозначается как N(0,1).

Класс норм. распределений обладает тем свойством, что любая линейная комбинация случ. величин с норм. распределением также имеет норм. распределение. Кроме того, для норм. распределенных случ. величин понятия независимости и некоррелированности становятся равносильными.

2)Равномерное распределение на интервале [a,b]:

Из интервала выбирается точка ω; X(ω) = ω.

Плотность распределения вероятности равна:

1/(b-a), x∈[a,b]

p(x) =

0, x∉[a,b]

Функция распределения:

0, x<a

= , a⩽x<b

1, x⩾b

Теорема (преобразование Смирнова). Пусть Х - случайная величина с непрерывной функцией рас-пределения F, тогда F(x)=Y — новая случ. величина, имеющая равномерное распределение на [0,1], т.е.

0, y<0

P(Y<y) = y,a⩽x<b

1, x⩾b

Доказательство: Если F монотонно возрастает, существует обратная функция F-1 и тогда:

P(F(x)<y)=P(X<F-1(y))=F(F-1(y))=y

MX=(a+b)/2 ; DX=(b-a)2/12

17. Распределения 1)"Хи-квадрат" и 2)Стьюдента.

1)Пусть случ. величины ξ1, ξ2, …, ξn ∈ N(0,1) и независимы в совокупности. Случ. величина

Хn2 = ξ12 + ξ22+… + ξn2

называется распределенной по закону «Хи-квадрат» с n степенями свободы.

Это распределение обладает след. свойствами:

1.Случ. величина Хn2⩾0, она имеет плотность распределения

0, х⩽0

Kn(x) = ,

где функция . (Г(k)=(k-1)! для натуральных k)

При n⩽2 Kn(x) монотонно убывает, а при n>2 имеет единственный максимум при x=n-2.

2.M(Хn2)=n; D(Хn2)=2n.

3.При больших n (практически при n>30) в силу центральной предельной теоремы Хn2 имеет распределение , близкое к нормальному N(n;2n)

4.Если Хn12 и Хn22 независимы, то их сумма Хn12 + Хn22 распределена по закону Х2n1+n2

2)Распределение названо в честь англ. математика Госсета, публиковавшего свои работы под псевдонимом Student.

Пусть случ. величины ξ1, ξ2, …, ξn ∈ N(0,1) и независимы в совокупности. Тогда случ. величина

распределена по з-ну Стьюд. с n степенями свободы.

Плотность распределения Стьюдента имеет вид

Плотность – четная функция, график которой симметричен относительно оси ординат. Следовательно, если существует мат. ожидание, то оно равно нулю. При n=1 распределение Стьюдента совпадает с распределением Коши (у которого мат. ожидание не существует). При n>1 M( )=0.

Теорема: Пусть Х1, Х2, …, Хn ∈ N(m, ) и независимы в совокупности. Тогда случ. величина распределена по закону Стьюдента с (n-1) степенями свободы .

Распределение Стьюдента табулировано. По аналогии с симметричным норм. квантилем tв для распределения Стьюдента вводят понятие симметричного квантиля Стьюдента (n,в).

Симметричным квантилем Стьюдента по уровню в называют число (n,в), такое, что Р(| |< (n,в))=в

При n>30 для распределения Стьюдента пользуются норм. приближением. Соответственно, вместо симметричного квантиля Стьюдента (n,в) используют симметричный норм. квантиль .

18. Многомерное нормальное распределение.

Многоме́рное норма́льное распределе́ние (или многоме́р-ное га́уссовское распределе́ние) в теории вероятностей - это обобщение одномерного нормального распределения.

Случайный вектор

имеет многомерное нормальное распределение, если выполняется одно из следующих эквивалентных условий:

Произвольная линейная комбинация компонентов вектора ∑аi*Хi имеет нормальное распределение или является константой.

Существует вектор независимых стандарт. норм. случ. ве-личин Z=(Z1,…,Zm)T, вещественный вектор μ=(μ 1,.., μm)T и матрица A размерности n x m, такие что: X=AZ+ μ.

Существует вектор и неотрицательно определённая симметричная матрица ∑ размерности n x n, такие что плотность вероятности вектора X имеет вид: где | ∑ | - определитель матрицы, а∑-1-матрица обратная к ∑

Существует вектор и неотрицательно опреде-лённая симметричная матрица ∑ размерности n x n, такие что характеристическая функция вектора X имеет вид:

Замечания:

1.Если одно из приведённых выше определений принято в качестве основного, то другие выводятся в качестве теорем. 2.Вектор μ является вектором средних значений Х, а ∑ - его ковариационная матрица.

3.В случае n=1, многомерное нормальное распределение сводится к обычному нормальному распределению.

4.Если случайный вектор X имеет многомерное нормальное распределение, то пишут X~N( μ, ∑).

19. Интегральная теорема Муавра-Лапласа.

Пусть 0< p <1, тогда для схемы Бернулли при для любых a и b справедлива формула:

.

Отсюда следует, что для вычисления вероятности того, что число успехов в n испытаниях Бернулли заключено между k1 и k2, можно использовать формулу:

где , , - ф-я Лапласа.

Точность этой приближенной формулы растет с ростом n.

Если npq сравнительно невелико, то лучшее прибли-жение дает формула:

и для вычисления вероятности того, что число успехов в n испытаниях Бернулли заключено между k1 и k2, можно использовать формулу

,

где .

20. Закон больших чисел.

Законом больших чисел принято называть утверждение о сходимости последовательности соответствующим образом нормированных сумм независимых случайных величин к не-которому числу. В дальнейшем будет использоваться следующий простейших вариант этого закона, который формулируется следующим образом:

Пусть ξ1, ξ2, …, ξn,… - последовательность независимых случайных величин с одинаковыми распределениями, у которых существует математическое ожидание М(ξ). Тогда последовательность их средних арифметических (1/n)*∑ξi сходится по вероятности к М(ξ). В случае существования у случ. величин дисперсии это утверждение легко получается из неравенства Чебышева и свойств дисперсии.

На самом деле приведенное выше утверждение остается справедливым, если заменить сходимость по вероятности на сходимость с вероятностью 1. В этом случае его обычно называют усиленным законом больших чисел.

21. Неравенство Чебышева.

Неравенство Чебышева представляет собой оценку вероятности большого отклонения случайной величины от ее математического ожидания через дисперсию, а именно для любого :

Доказательство:

=>

Следствие (правило трех сигм):

. Вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю.

22. Центральная предельная теорема.

Теорема: Последовательность Z_n нормированных сумм независимых одинаково распределенных случайных величин с конечными дисперсиями сходится по распределению к случайной величине, имеющей стандартное распределение.

Доказательство: Пусть φ(t)- характеристическая функция случайных величин Yi=Xi-m и пусть ψn (t)- характеристические функции случайных величин Zn. Поскольку Xn= , используя свойства характеристических функций, находим: ψn (t)=φ^n (t/(σ√n)).

Запишем для функции φ(t) формулу Тейлора второго порядка с центром в 0: φ(t)=φ(0)+φ'(0)+((φ''(t))/2 )t^2+o(t^2). Используя связь производных характеристической функции и моментов и равенства M{Yi}=0 и M{Yi2 }=σ2, получаем: φ(t)=1-(σ2/2) t2+0(t^2), следовательно ψn(t)=(1-t^2/2n+o(t^2/(nσ^2 )))n. Прологарифмировав получим: ln(ψn (t))=n ln(1-t^2/2n+o(t^2/(nσ^2 )))〗. Устремляя к бесконечности число n и заменяя ln(1+x) на x при x->0, находим, что при любом t: lim(n→∞)ln(ψn (t)) =-t^2/2, следовательно lim(n→∞)ln(ψn(t))=exp(-t^2/2). Таким образом, последовательность функций нормированных сумм сходится к функции, которая является характеристической функцией случайной величины, имеющей стандартное нормальное распределение. Отсюда, благодаря эквивалентности сходимости характеристических функций и распределений (утверждение приводится без доказательства), следует утверждение теоремы.

23.Основные понятия мат статистики.

1)Расматривается случ.величина,относительно которой будем предполагать возможность наблюдения ее значений (наблюдаемая случ величина)НСВ:есть вероятностное пространство и т.д

2)Выборка-числовой вектор значений наблюдаемых случайных величин полученных в n независимых эксперементах .x= n-объем выборки.

3)Случайная выборка-случайный вектор X компоненты которого являются независимые случ величины имеющее тоже самое распределение как и НСВ .

4)Эмперическая функция распределения Fζ(t)=P(ζ<t) t>mt (mt-какая-то величина ).Fn(t)=mt/n-эмп функ распр

Теор гливенко кантелли sup|FL(t)-Fn(t)|->0 при n->∞

5)Вариационный ряд –выборка упорядоченных по величине Xn1≤Xn2≤…≤ Xn Выборочной медианной (med) называется число

Med= ;размах выборки:

R= +

6)Гистограмма .Наглядное представление выборки можно получить с помощью простых геом построений.Разобьем обл знач НСВ на k равных интервалов.Пусть длинна интервала = Zi-Zi-1=

.Используя каждый интервал как осн ,построим на нем прямоугольники с высотой hi= ;mi-кол-во элем выборки.Полученная фигура есть гистограмма.Если НСВ имеет абсолютно непрерывное распределение ,то гистограмма дает представление о плотности распределения НСВ.

24. Характеристика точечных оценок Точечные оценки параметров распределения - функции от наблюдений, предназначенные для приближенного оценивания этих параметров. 1)Свойство несмещенности оценки: При многократном использовании вместо параметра 𝛳 его оценки θ среднее значение ошибки приближения 𝛳~ ︿ θ равно 0. Оценка наз несмещенной, если ее мат ︿ θ ︿ ожид равно истинному значению оцениваемого параметра М θ =𝛳 ︿ Выборочное среднее арифметическое x = n 1 ∑ n i=1 x i является несмещенной оценкой мат ожидания, а выборочная дисперсия D - ︿ = n 1 ∑ (x x) n i=1 i − 2 смещенная оценка генеральной дисперсии D Несмещенной оценкой генеральной дисперсии является оценка S 2= 1 n−1 ∑ (x x) n i=1 i − 2 Генеральная Дисперсия - D = n 1 ∑ (x x) n i=1 i − 2 Свойство состоятельности оценки - улучшение оценки с увеличением объема выборки Оценка Ô(x1 ...xn ) называется состоятельной, если она сходится по вероятности к оцениваемому параметру 𝛳 при n-> ∞ θ 𝛳 Сходимость по вероятности ︿ P n−>∞ означает, что при большом объеме выборки вероятности больших отклонений оценки от истинного значения шага. Свойство эффективной оценки позволяет выбрать лучшую оценку из нескольких оценок одного и того же параметра Несмещенная оценка является эффективной, если она имеет наименьшую среди всех несмещенных оценок дисперсии. Это означает, что эффективная оценка обладает минимальным рассеиванием относительно истинного значения параметра. Эффективная оценка сущ не всегда, но из двух оценок обычно можно выбрать более эффективную, т е с меньшей дисперсией

27. Метод наименьших квадратов.

Метод нахождения оценки неизвестного параметра , основанный на минимизации суммы квадратов отклонений выборочных данных от определяемой (искомой) оценки , называется методом наименьших квадратов

Другими словами, в МНК требуется найти такое значение , кото­рое минимизировало бы сумму

Отметим, что МНК

является наиболее простым методом нахождения оценок параметра .

В случае, если система уравнений имеет решение, то наименьшее значение суммы квадратов будет равно нулю и могут быть найдены точные решения системы уравнений аналитически или, например, различными численными методами оптимизации. Если система переопределена, то есть, говоря нестрого, количество независимых уравнений больше количества искомых переменных, то система не имеет точного решения и метод наименьших квадратов позволяет найти некоторый «оптимальный» вектор {\displaystyle x}X d смысле максимальной близости векторов Y{\displaystyle y} и f(x){\displaystyle f(x)} или максимальной близости вектора отклонений  {\displaystyle e}e к нулю (близость понимается в смысле евклидова расстояния).

28. Неравенство Рао-Крамера.

Неравенством Краме́ра —называется неравенство, которое при некоторых условиях на статистическую модель даёт нижнюю границу для дисперсии оценки неизвестного параметра, выражая её через информацию Фишера.

,где

-количество информации по Фишеру в одном наблюдении,а  {\displaystyle L(\theta ,t)} - плотность распределения генеральной совокупности Х {\displaystyle X} в случае непрерывной статистической модели и вероятность события (Х=t) {\displaystyle (X=t)} в случае дискретной статистической модели.

Равенство достигается тогда и только тогда, когда

Оценка параметра называется эффективной, если для неё неравенство Крамера — Рао обращается в равенство. Таким образом, неравенство может быть использовано для доказательства того, что дисперсия данной оценки наименьшая из возможных, то есть что данная оценка в некотором смысле лучше всех остальных.

29. Построение доверительных интервалов для оценок параметров распределений.

Оценка неизвестного параметра называется интервальной, если она определяется двумя числами- концами интервала.

Интервал ,накрывающий с вероятностью истинное зна­чение параметра в, называется доверительным интервалом, а вероят­ность — надежностью оценки или доверительной вероятностью. Очень часто (но не всегда) доверительный интервал выбирается симметричным относительно несмещенной точечной оценки . Величина выбирается заранее, ее выбор зависит от конкретно решаемой задачи.

Очень часто (но не всегда) доверительный интервал выбирается симметричным относительно несмещенной точечной оценки т. е, вы­бирается интервал вида такой, что Число характеризует точность оценки: чем меньше разность , тем точнее оценка

30. Построение доверительных интервалов для оценок мат. ожидания и дисперсии нормальной с.в

Случай известной дисперсии:

Пусть  независимая выборка из нормального распределения, где  известная дисперсия. Определим произвольное доверительный интервал для неизвестного среднего

Случайная величина имеет стандартное нормальное распределение {\displaystyle \mathrm {N} (0,1)}N(0,1). Пусть {\displaystyle z_{\alpha }} квантиль стандартного нормального распределения. Тогда в силу симметрии последнего имеем:

После подстановки выражения для {\displaystyle Z}Z и несложных алгебраических преобразований получаем:

Случай неизвестной дисперсии:

Пусть -независимая выборка из нормального распределения, где {\displaystyle \mu ,\sigma ^{2}}  -неизвестные константы. Построим доверительный интервал для неизвестного среднего  {\displaystyle \mu }Случайная величина имеет распределение Стьюдента с n-1{\displaystyle n-1} степенями свободы {\displaystyle \mathrm {t} (n-1)}, где {\displaystyle S} S— несмещённое выборочное стандартное отклонение. Пусть  {\displaystyle t_{\alpha ,n-1}} {\displaystyle \alpha }-квантили распределения Стьюдента. Тогда в силу симметрии последнего имеем:

После подстановки выражения для {\displaystyle T}T и несложных алгебраических преобразований получаем:

31. Задача проверки статистических гипотез.

Под статистической гипотезой понима­ют всякое высказывание (предположение) о генеральной совокупности, проверяемое по выборке.Статистические гипотезы делятся на гипотезы о параметрах рас­пределения известного вида (это так называемые параметрические ги­потезы) и гипотезы о виде неизвестного распределения (непараметри­ческие гипотезы). Одну из гипотез выделяют в качестве основной (или нулевой) и обозначают H0, а другую, являющуюся логическим отрицанием Но, т. е. противоположную Но — в качестве конкурирующей (или альтер­нативной) гипотезы и обозначают Н1 Гипотезу, однозначно фиксирующую распределение наблюдений, называют простой (в ней идет речь об одном значении параметра), в противном случае — сложной.

Правило, по которому принимается решение принять или откло­нить гипотезу Но, назы­вается статистическим критерием проверки гипотезы Н1.

Основной принцип проверки гипотез состоит в следующем. Мно­жество возможных значений статистики критерия Тп разбивается на два непересекающихся подмножества: критическую область S, т. е. область отклонения гипотезы Н0 и область принятия этой гипоте­зы.

При проверке гипотезы может быть принято неправильное реше­ние, т. е. могут быть допущены ошибки двух родов:

Ошибка первого рода состоит в том, что отвергается нулевая гипо­теза Hq, когда на самом деле она верна.

Ошибка второго рода состоит в том, что отвергается альтернатив­ная гипотеза Hi, когда она на самом деле верна.

Вероятность ошибки 1-го рода (обозначается через ) называется уровнем значимости критерия.

Очевидно, Чем меньше , тем меньше вероятность отклонить верную гипотезу. Допустимую ошибку 1-го рода обычно за­дают заранее.

Вероятность ошибки 2-го рода обозначается через , т. е. =

=

Величину 1- , т. е. вероятность недопущения ошибки 2-го рода (отвергнуть неверную гипотезу Н0, принять верную H1), называется мощностью критерия

Чем больше мощность критерия, тем вероятность ошибки 2-го рода меньше, что, конечно, желательно (как и уменьшение ).

Отметим, что одновременное уменьшение ошибок 1-го и 2-го рода возможно лишь при увеличении объема выборок. Поэтому обычно при заданном уровне значимости отыскивается критерий с наибольшей мощностью.

32. Проверка гипотезы о полиномиальном распределении.

Критерием согласия называют статистический критерий проверки гипотезы о предполагаемом законе неизвестного распределения. (Он используется для проверки согласия предполагаемого вида распреде­ления с опытными данными на основании выборки.)

Полиномиальное распределение в теории- это обобщение биномиального распределения на случай независимых испытаний случайного эксперимента с несколькими возможными исходами.

Полиномиальное распределение - совместное распределение вероятностей случайных величин  , каждая из которых есть число появлений одного из нескольких взаимно исключающих событий Ai, i=1,…,k  при повторных независимых испытаниях.

Пусть при каждом испытании вероятность появления события Ai, i=1,…,k равна pi, i=1,…,kпричем  , тогда совместное распределение величин   , где   — число появлений события Ai при n испытаниях, задается определенными для любого набора целых неотрицательных чисел n1,..., nk, удовлетворяющих единственному условию n1 +... + nk = n, вероятностями

Представленная выше вероятность является вероятностью того, что при n независимых испытаниях событие A1 появляется n1раз, событие A2 появляется n2 раз и т.д.

Полиномиальное распределение служит естественным обобщением биномиального распределения и сводится к последнему при k = 2.

33. Критерий согласия “Хи-квадрат” Пирсона.

К ритерий согласия χ2 может использоваться для НСВ (наблюдаемая случаемая величина) с произвольной функцией распределения. Пусть H – простая гипотеза о виде функции распределения и ее параметрах. Сведем задачу проверки гипотезы. H0 к задаче проверки гипотезы о полиномиальном распределении. Для этого разобьем вещественную ось на k промежутков: (y0,y1),….,(yk-1,yk), где y0= −∞, yk = +∞. Рассмотрим событие Aj={ξ ∈ (yj−1, yj)}. Будем считать, что в i-м испытании событие Aj наступило, если Xi ∈ (yj−1, yj ). Если гипотеза H0 верна, то распределение ξ, полностью определенно и можно вычислить P(Aj ) = Fξ(yj) − Fξ(yj−1) = . Тогда выборка X может быть преобразована к виду таблицы:

Здесь nj-количество жлементов, попавших в промежуток (yj−1, yj). В соответствии с критерием проверки гипотезы о полиномиальном распределении будет справделиво следующее утверждение. При n→ +∞ (см. рис. 3.6)

Задавшись теперь уровнем значимости в качестве порогового значения возьмем квантиль -распределения по уровню 1- (рис ниже):

K(X,H0)= ->

где r – количество утверждений гипотезы H0 о значениях параметров функции распределения НСВ ξ, оцениваемых по той же выборке Х.

Критическую область Q по заданному уровню значимости можно построить четырьмя основными способами:

I тип-область больших положительных t;

II тип – область больших отрицательных t; III тип – область больших по модули t; IV тип – область малых по модулю t; Критическая область – область I больших положительных значений (см.рис.3.2), определяется по заданному уровню значимости α через квантиль χ2

– распределения: = (k-r-1,1- α).

Решающее правило χ2 –критерия согласия выглядит следующим образом: если K(X,H0) ≥ cα, то гипотеза H0 отклоняется. Приближение к предельному распределению становится достаточно хорошим уже при n ≥ 50 и k ≥5

Выбор разбиения вещественной оси на интервалы – задача, слабо подающая теоретическому обоснованию. Обычно считают, что распределение случайно величины приближенно нормально, поэтому при любом j должно выполнятся условие ≥10, т.е. в соответствии с гипотезой Н0 в среднем на каждый интервал должно попасть не менее 10 элементов выборки. Если на некоторых интервалах это условие не выполняется, то такие интервалы следует укрупнить, объединяя их с соседними. При этом число оставшихся интервалов не должно быть меньше пяти. Некоторую стандартизацию может дать следующая процедура. При объеме выборки n ≥ 100 берут 10 равновероятных по гипотезе H0 интервалов (yj−1, yj). Соответственно, все = 0.1

34. Критерий "Хи-квадрат" проверки независи-мости двух групп признаков. случаемая величина) с произвольной функцией рас Если обозначить через nij количество объектов,обладающих i-м признаком первого типа (i= ) и j-м признаком второго типа (j= ),то всю полученную выборку можно представить в виде табл. В таблице признаки второго типа откладываются горизонтально ,а признаки первого типа –вертикально.Очевидное условие Дополнительно в табл обозначены vi= , i= , = , j= .Пусть pij – вероятность события,что наудачу выбранный объект обладает i-м признаком первого типа и j-м признаком второго типа. Соответственно, –вероятность события ,что наудачу выбранный объект обладает i-м признаком первого типа,а j-м признаком второго типа.Тогда гипотеза H0 независимости признаков первого и второго типов может может быть записана так: H0:pij=pipj .В сформулированном виде задача проверки гипотезы Н0 может быть сведена к задаче проверки гипотезы о полиномиальном распределении. Действительно, процедура обследования n объектов позволяет сразу выделить m × k попарно несовместимых событий Aij – обладание наудачу выбранным объектом i-м первого типа и j-м признаком второго типа с вероятности P(Aij ) = pij, назначенным в гипотезе H0. Тогда можно воспользоваться критерием χ2, критериальная функция которого:

K(X,H0)= -> χ2 Таким образом, гипотеза о независимости эквивалентна гипотезе о том, что сущ. m+k вероятностей pi+pj, таких, что –pij=pipj, = =1

Так как вероятности pi и pj неизвестны, то естественно взять вместо этих вероятностей их точечные оценки: = , = .Тогда :

K(X,H0)= =n( ) Для подсчета числа степеней свободы предельного χ2 рапределения критериальной функции учтем наличие mk событий, т.е. mk — 1 назначае­мых вероятностей и m + k-2 параметров, оцениваемых по той же выборке. Значит, число степеней свободы предельного χ2 – распределения есть mk-(m+k-2)-1=(m-1)(k-1) Критическая область задается пороговым значением

= равным квантилю χ2 -распределения с(m-1)(k-1) числом степеней свободы по уровню 1- , где -заданный уровень значимости критерия.

35. Проверка гипотезы о равенстве мат. ожиданий двух нормальных с.в.

П усть в эксперименте наблюдается две нормальные случайные величины Параметры распределения m1, m2 и σ2 неизвестны. Предполагается, что ξ1 и ξ2 независимы. По гипотезе H0 : m1=m2=m Для проверки гипотезы H0 имеем две выборки Х = [X1,X2,…Xn1]T и Y=[Y1,Y2,…,Yn2]T из распределений ξ1 и ξ2 соответственно. Построим критериальную функцию для проверки гипотезы Н0. Возьмем выборочные средние: Если гипотеза Н0 верна, то Если взять функцию K1(X,Y,H0) с известным распределением в качестве критериальной, то незнание параметра σ не позволит вычислять ее значение на числовых выборках x и y. Поэтому поступим след образом. Из теоремы Стьюдента известно, что При этом обе указанные случайные величины независимы, что следует из независимости ξ1 и ξ2. Тогда из сумма Можно показать, что эта случайная величина независима со статистикой K1(X,Y,H0). Тогда случайная величина распределена по закону Стьюдента с n1+n2 – 2 степенями свободы, что следует из определения распределения Стьюдента. Так как жта случайная величина не содержит параметр σ, то возьмем в качестве критериальной функции Задав уровень значимости критерия α, найдем симметричный квантиль Стьюдента τ0(n1+n2−2, 1−α). Критическая область критерия – это область третьего типа – больших по модулю значений функции K. Таким образом, решающее правило имеет вид

36. Проверка гипотезы о равенстве дисперсий двух нормальных с.в. Пусть набл. Две независимые случайные величины ξ и η, имеющие нормальные распределения: Из распределений ξ и η получены выборки Х объемом n1 и Y объемом n2 соответственно. Выдвигается гипотеза H02ξ = σ2η =σ. Для проверки гипотезы H0 рассмотрим критерий, называемый критерием Фишера. Из теоремы Стьюдента известно, что случайные величины

-распределение и независимы. Взяв в качестве критериальной функции получим случайную величину, имеющую распределение Фишера с числом степеней свободы (k1,k2), где k1=n1-1, k2=n2-1. Если гипотеза H0 верна, то K(X,Y,H0) должна принимать значения, близкие к единице. Поэтому в качестве критической области возьмем область малых и больших значений K(X,Y,H0):0 ≤ K(X,Y,H0) ≤ F1 и K(X,Y,H0) ≥ F2, причем выберем значения F1 и F2 так, чтобы при заданном уровне значимости критерия α Плотность распределения Фишера ниже на рисунке, где 1 – α – площадь незаштрихованной части

Для упрощения критерия будем рассматривать другую критериальную функцию

У такого критерия критическая область будет уже односторонней, если F(X,Y,H0) ≥ Cα, то гипотеза H0 отклоняется. Cα есть квантиль распределения Фишера с числом степеней свободы k1 и k2 по уровню где k1 – число степеней свободы для выборки с большими значением 2, т.е. из двух несмещенных выборочных дисперсий и в числитель критериальной функции F(X,Y,H0) ставится та, которая больше.