Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
БИОМЕТРИЯ ОТВЕТЫ К ЭКЗАМЕНУ.docx
Скачиваний:
4
Добавлен:
01.03.2025
Размер:
79.85 Кб
Скачать

11. Точность оценки, доверительная вероятность. Доверительные интервалы для оценки математического ожидания нормального распределения.

При выборке малого объема точечная оценка может значительно отличаться от оцениваемого параметра, что приводит к грубым ошибкам. Поэтому в таком случае лучше пользоваться интервальными оценками, то есть указывать интервал, в который с заданной вероятностью попадает истинное значение оцениваемого параметра. Разумеется, чем меньше длина этого интервала, тем точнее оценка параметра. Поэтому, если для оценки Θ* некоторого параметра Θ справедливо неравенство | Θ* - Θ | < δ, число δ > 0 характеризует точность оценки ( чем меньше δ, тем точнее оценка). Но статистические методы позволяют говорить только о том, что это неравенство выполняется с некоторой вероятностью.

Определение 18.1. Надежностью (доверительной вероятностью) оценки Θ* параметра Θ называется вероятность γ того, что выполняется неравенство | Θ* - Θ | < δ. Если заменить это неравенство двойным неравенством — δ < Θ* - Θ < δ, то получим:

p ( Θ* - δ < Θ < Θ* + δ ) = γ.

Таким образом, γ есть вероятность того, что Θ попадает в интервал ( Θ* - δ, Θ* + δ).

Доверительным называется интервал, в который попадает неизвестный параметр с заданной надежностью γ.

12. Точность оценки, доверительная вероятность. Доверительные интервалы для оценки среднего квадратического отклонения нормального распределения.

13. Метод наибольшего правдоподобия.

Ме́тод максима́льного правдоподо́бия или метод наибольшего правдоподобия (ММП, ML, MLE — Maximum Likelihood Estimation) в математической статистике — это метод оценивания неизвестного параметра путём максимизации функции правдоподобия[1]. Основан на предположении о том, что вся информация о статистической выборке содержится в функции правдоподобия. Метод максимального правдоподобия был проанализирован, рекомендован и значительно популяризирован Р. Фишером между 1912 и 1922 годами (хотя ранее он был использован Гауссом, Лапласом и другими).

Оценка максимального правдоподобия является популярным статистическим методом, который используется для создания статистической модели на основе данных, и обеспечения оценки параметров модели.

Метод максимального правдоподобия соответствует многим известным методам оценки в области статистики. Например, предположим, что вы заинтересованы ростом жителей Украины. Предположим, у вас данные роста некоторого количества людей, а не всего населения. Кроме того предполагается, что рост является нормально распределенной величиной с неизвестной дисперсией и средним значением. Среднее значение и дисперсия роста выборки является максимально правдоподобным к среднему значению и дисперсии всего населения.

Таким образом оценка максимального правдоподобия — это такая оценка, которая максимизирует функцию правдоподобия при фиксированной реализации выборки.

14. Статистическая гипотеза. Нулевая и конкурирующая, простая и сложная гипотезы. Ошибки первого и второго рода.

Статистическая гипотеза (statistical hypothesys) — это определённое предположение о распределении вероятностей, лежащем в основе наблюдаемой выборки данных.

Проверка статистической гипотезы (testing statistical hypotheses) — это процесс принятия решения о том, противоречит ли рассматриваемая статистическая гипотеза наблюдаемой выборке данных.

Статистической называют гипотезу о виде неизвестного распределения или о параметрах известных распределений. Выдвигается основная (нулевая) гипотеза и проверяется, не противоречит ли она имеющимся эмпирическим данным. Конкурирующей (альтернативной) называют гипотезу , которая противоречит нулевой.

В результате статистической проверки гипотезы могут быть допущены ошибки двух родов. Ошибка первого рода состоит в том, что будет отвергнута правильная гипотеза; вероятность совершить такую ошибку обозначают и называют ее уровнем значимости. Ошибка второго рода состоит в том, что будет принята неправильная гипотеза, вероятность которой обозначают , а мощностью критерия является вероятность .

Процедура обоснованного сопоставления высказанной гипотезы с имеющейся выборкой осуществляется с помощью того или иного статистического критерия и называется статистической проверкой гипотез. Под критической областью понимают совокупность значений критерия, при которых нулевую гипотезу отвергают. Критическую область при заданном уровне значимости следует строить так, чтобы мощность критерия была максимальной.

15

Статистический критерий проверки нулевой гипотезы

Для проверки нулевой гипотезы используют специально подобранную случайную величину, точное или приближенное распределение которой известно. Эту величину обозначают через U или Z, если она распределена нормально, F или v2 – по закону Фишера-Снедекора, T – по закону Стьюдента, c² – по закону «хи квадрат» и т. д. Все эти случайные величины обозначим через К.

Статистическим критерием (или просто критерием) называют случайную величину К, которая служит для проверки нулевой гипотезы.

Для проверки гипотезы по данным выборок вычисляют частные значения входящих в критерий величин, и таким образом получают частное (наблюдаемое) значение критерия.

Наблюдаемым значением Кнабл назначают значение критерия, вычисленное по выборкам.

Критическая область

После выбора определенного критерия множество всех его возможных значений разбивают на два непересекающихся подмножества: одно из них содержит значения критерия, при которых нулевая гипотеза отвергается, а другое – при которых она принимается.

Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают.

Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых гипотезу принимают.

Основной принцип проверки статистических гипотез можно сформулировать так: если наблюдаемое значение критерия принадлежит критической области – гипотезу отвергают, если наблюдаемое значение критерия принадлежит области принятия гипотезы – гипотезу принимают.

Поскольку критерий К – одномерная случайная величина, все ее возможные значения принадлежат некоторому интервалу. Поэтому критическая область и область принятия гипотезы также являются интервалами и, следовательно, существуют точки, которые их разделяют.

Критическими точками (границами) Ккр называют точки, отделяющие критическую область от области принятия гипотезы.

Различают одностороннюю (правостороннюю или левостороннюю) или двустороннюю критические области.

Правосторонней называют критическую область, определяемую неравенством К > Ккр, где Ккр – положительное число.

Левосторонней называют критическую область, определяемую неравенством К < Ккр, где Ккр – отрицательное число.

Односторонней называют правостороннюю или левостороннюю критическую область.

Двусторонней называют критическую область, определяемую неравенствами К< К1, К > К2, где К2 > К1.

В частности, если критические точки симметричны относительно нуля, двусторонняя критическая область определяется неравенствами (в предположении, что Ккр > 0): К < -Ккр, К > Ккрили равносильным неравенством   > Ккр.

16

Сравнение двух дисперсий нормальных генеральных совокупностей

Таким образом, требуется проверить, что математические ожидания исправленных выборочных дисперсий равны между собой. Такая задача ставится потому, что обычно исправленные дисперсии оказываются различными. Возникает вопрос: значимо (существенно) или незначимо различаются исправленные дисперсии?

Если окажется, что нулевая гипотеза справедлива, т. е. генеральные дисперсии одинаковы, то различие исправленных дисперсий незначимо и объясняется случайными причинами, в частности, случайным отбором объектов выборки. Например, если различие исправленных выборочных дисперсий результатов измерений, выполненных двумя приборами, оказалось незначимым, то приборы имеют одинаковую точность.

Если нулевая гипотеза будет отвергнута, т.е. генеральные дисперсии неодинаковы, то различие исправленных дисперсий значимо и не может быть объяснено случайными причинами, а является следствием того, что сами генеральные дисперсии различны. Например, если различие исправленных выборочных дисперсий результатов измерений, произведенных двумя приборами, оказалось значимым, то точность приборов различна.

В качестве критерия проверки нулевой гипотезы о равенстве генеральных дисперсий, причем отношение большей исправленной дисперсии к меньшей, т. е. случайную величину

17

Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых известны

Таким образом, требуется проверить, что математические ожидания выборочных средних равны между собой. Такая задача ставится, потому что, как правило, выборочные средние являются различными. Возникает вопрос: значимо или незначимо различаются выборочные средние?

Если окажется, что нулевая гипотеза справедлива, т. е. генеральные средние одинаковы, то различие выборочных средних незначимо и объясняется случайными причинами и, в частности, случайным отбором объектов выборки.

Если нулевая гипотеза будет отвергнута, т. е. генеральные средние неодинаковы, то различие выборочных средних значимо и не может быть объяснено случайными причинами. А объясняется тем, что сами генеральные средние (математические ожидания) различны.

В качестве проверки нулевой гипотезы примем случайную  величину.

18. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых неизвестны.

Пусть генеральные совокупности X иУ распределены нормально, причем их дисперсии неизвестны.  Итак, в предположении, что генеральные дисперсии одинаковы, требуется проверить нулевую гипотезуН0:М (X) = М (У). Другими словами, требуется установить, значимо или незначимо различаются выборочные средние х и у, найденные по независимым малым выборкам объе¬мов пит. В качестве критерия проверки нулевой гипотезы при¬мем случайную величину Доказано, что величина Т при справедливости нулевой гипотезы имеет /-распределение Стьюдента с k=n + m – 2 степенями свободы. Критическая область строится в зависимости от вида конкурирующей гипотезы. Первый случай. Нулевая гипотеза Н0: М (X) = М(У). Конкурирующая гипотеза Нх: М(Х)≠М(У). В этом случае строят двустороннюю критическую область, исходя из требования, чтобы вероятность попа¬дания критерияТ в эту область в предположении спра¬ведливости нулевой гипотезы была равна принятому уровню значимости α Наибольшая мощность критерия (вероятность попа¬дания критерия в критическую область при справедли¬вости конкурирующей гипотезы) достигается тогда, когда «левая» и «правая» критические точки выбраны так, что вероятность попадания критерия в каждый из двух интер¬валов двусторонней критической области равна α/2   

19. Проверка гипотезы о нормальном распределении генеральной совокупности. Критерий согласия Пирсона.

Критерий согласия для проверки гипотезы о законе распределения исследуемой случайной величины. Во многих практических задачах точный закон распределения неизвестен. Поэтому выдвигается гипотеза о соответствии имеющегося эмпирического закона, построенного по наблюдениям, некоторому теоретическому. Данная гипотеза требует статистической проверки, по результатам которой будет либо подтверждена, либо опровергнута.

Пусть X – исследуемая случайная величина. Требуется проверить гипотезу H0 о том, что данная случайная величина подчиняется закону распределения F(x). Для этого необходимо произвести выборку из n независимых наблюдений и по ней построить эмпирический закон распределения F'(x). Для сравнения эмпирического и гипотетического законов используется правило, называемое критерием согласия. Одним из популярных является критерий согласия хи-квадрат К. Пирсона.

Проверка гипотезы о предполагаемом законе неизвестного распределения производится так же, как и проверка гипотезы о параметрах распределения, т. е. при помощи специально подобранной случайной величины – критерия согласия.

Критерием согласия называют критерий проверки гипотезы о предполагаемом законе неизвестного распределения.

Имеется несколько критериев согласия: Пирсона К., Колмагорова, Смирнова и др.

Ограничимся описанием применения критерия Пирсона и проверки гипотезы о нормальном распределении генеральной совокупности. С этой же целью будем сравнивать эмпирические (наблюдаемые) и теоретические частоты (вычисленные в предположении нормального распределения).

Обычно эмпирические и теоретические частоты различаются. Случайно ли расхождение частот? Возможно, что расхождение случайно и объясняется малым числом наблюдений либо способом их группировки, либо другими причинами. Возможно, что расхождение частот неслучайно (значимо) и объясняется тем, что теоретические частоты вычислены исходя из неверной гипотезы о нормальном распределении генеральной совокупности.

Критерий Пирсона отвечает на поставленный выше вопрос. Правда, как и любой критерий, он не доказывает справедливость гипотезы, а лишь устанавливает на принятом уровне значимости ее согласие или несогласие с данным наблюдением.

Пусть по выборке объема n получено эмпирическое распределение: варианты xi – x1 x2 xs,

эмпирические частоты ni – n1 n2 ns.