
- •45.Основные задачи мат стат.
- •46.Генеральная совокупность и выборка.
- •48.Эпмирическая функция.
- •47.Вариационный ряд.
- •49. Выборочное среднее.
- •55.Понятие несмещённости оценок.
- •56.Понятие состоятельности оценок
- •57.Понятие эффективности оценок.
- •59.Метод максим.Правдоподобия.
- •58.Метод иоиентов.
- •62.Проверка статистических гипотез.
- •60.Доверительный интервал.
- •61.Доверительный интервал для мат ожидания.
- •63.Типыошибок
- •69.Корреляция и регрессия.
- •37.Коэф.Корреляции.
- •38.Многомерной случ. Вел.
- •39.Ф.Мног.Слювел.
59.Метод максим.Правдоподобия.
В основе его лежит понятие функции правдоподобия. Идея состоит в том, чтобы вероятность получения данной выборки x1, x2, ..., xn была бы наибольшей для найденного параметра.
Определение. Пусть ξ – некоторая случайная величина, а x1, x2, ..., xn – выборка значений случайной величины ξ.
Если ξ – непрерывная случайная величина с плотностью вероятности pξ(x, θ), зависящей от неизвестного параметра θ, то функцией правдоподобия её называется функция
Если
же ξ – дискретная случайная величина,
и P(ξ=xi)
= Pξ(xi,
θ) зависит от неизвестного параметра
θ, то её функцией
правдоподобия
называется функция
Метод наибольшего правдоподобия состоит в том, что в качестве оценки неизвестного параметра θ принимается такое значение аргумента θ, при котором функция L принимает своё максимальное значение для данной выборки x1, x2, ..., xn.
Такое значение аргумента θ является функцией от x1, x2, ..., xn и называется оценкой наибольшего правдоподобия.
Итак, есть оценка наибольшего правдоподобия, если
Т.е. задача нахождения оценки неизвестного параметра сводится к нахождению максимума функции правдоподобия. Согласно правилам дифференциального исчисления, для этого нужно решить уравнение
(1)
называется
уравнением
правдоподобия,
и отобрать то значение
,
которое образует L
в максимум.
Вместо уравнения (1) иногда бывает удобнее решать уравнение
(2)
В силу монотонности логарифмической функции ln L достигнет своего максимума при том же значении θ, что и L.
58.Метод иоиентов.
Метод моментов предложен К. Пирсоном. Он состоит в следующем:
Пусть
ξ – некоторая случайная величина, закон
распределения которой содержит S
неизвестных параметров:
.
1 шаг. Вычисляем S первых теоретических моментов распределения по известным формулам: 1-го порядка, 2-го порядка, и т.д., S-го порядка. Все полученные моменты являются функциями неизвестных параметров:
αk(θ1, θ2, ..., θs) = M(ξk), где k=1, 2, ..., S
Подчеркнём, что вычисляется столько моментов, сколько неизвестных параметров.
2 шаг. По результатам наблюдений x1, x2, ..., xn случайной величины ξ вычисляется столько же выборочных моментов, т.е.
,
где к=1,2,…,S
Т.к.
все значения x1,
x2,
..., xn
нам даны, то величины
находятся точно.
3
шаг.
Приравнивая теоретические моменты
соответствующие выборочным моментам,
получаем систему S
уравнений с S
неизвестными
:
Решая систему относительно , находят искомые оценки . На практике этот метод часто приводит к сравнительно нетрудным вычислениям. Однако, следует отметить, что оценки, полученные с помощью метода моментов не всегда являются эффективными и несмещенными.
62.Проверка статистических гипотез.
Статистической гипотезой называется всякое непротиворечивое множество утверждений {Н0, Н1, … , Hk-1} относительно свойств распределения случайной величины. Любое из утверждений Hi называется альтернативой гипотезы. Простейшей гипотезой является двухальтернативная: {H0, H1}. В этом случае альтернативу H0 называют нулевой гипотезой, а H1- конкурирующей гипотезой.
Проверка гипотезы о равенстве вероятностей. Пусть произведено две серии опытов, состоящих соответственно из n1 и n2 опытов. В каждом из них
регистрировалось появление одного и того же события А. В первой серии событие А появилось в k1 опытах, во второй – в k2 опытах, причем частота
события
А в первой серии получилась больше,
чем во второй: