
- •Экзамен по дисциплине «Теория вероятностей и математическая статистика» (теоретическая часть) Оглавление
- •2 . Примеры сопряженных семейств распределений.
- •5. Функции потерь. Ожидаемые потери. Апостериорные ожидаемые потери. Свойство решающего правила быть байесовским при условии минимизации апостериорных ожидаемых потерь.
- •6. Классическая схема проверки гипотез. Основная и альтернативная гипотезы. Ошибка первого рода и ошибка второго рода, их вероятности. Уровень значимости.
- •7. Проверка гипотез как задача теории статистических решений. Пример совпадения байесовского решающего правила и классического подхода к проверке гипотез.
- •8. Доверительные интервалы. Множества наивысшей апостериорной плотности. Доверительные множества наивысшей апостериорной плотности.
- •Доверительный интервал для математического ожидания (μ) в случае нормальной генеральной совокупности и известной дисперсии.
- •9. Затраты на наблюдения и понятие общего риска. Определение оптимального размера выборки до начала наблюдений. Примеры.
- •10. Определение оптимального размера выборки в процессе наблюдений. Последовательный критерий отношения вероятностей.
2 . Примеры сопряженных семейств распределений.
3. Статистические оценки параметров распределений по имеющимся наблюдениям. Метод моментов и метод максимального правдоподобия. Пример совпадения байесовского решающего правила при использовании неинформативного априорного распределения и статистической оценки, построенной методом максимального правдоподобия.
Статистические оценки параметров распределений по имеющимся наблюдениям.
Если нам требуется изучить количественный
признак генеральной совокупности и нам
удалось установить, исходя из теоретических
соображений, какое именно распределение
имеет признак, то возникает задача
оценки параметров. Например если признак
имеет нормальное распределение, то
нужно оценить мат. Ожидание и среднее
квадратичное отклонение(эти 2 параметра
полностью определяют нормальное
распределение). Если Пуассона-то оценить
параметр лямбда. Обычно нам даны только
данные выборки , например значение
количественного признака
,
полученные в результате n
наблюдений. Рассматривая
Метод моментов Пирсона
Шаг 1
По выборке находим
моменты:
Шаг 2
Находим теоретические начальные моменты k, используя задание генеральной совокупности Х.
Шаг 3
Составляем систему уравнений (если k=1, то решаем одно уравнение)
Решение этой системы
- точечные оценки соответствующихрпараметров.
Метод максимального правдоподобия Фишера
Шаг 1
Составляем функцию
правдоподобия, которая равна вероятности
того, что компоненты выборочной
совокупности
примут фиксированные значения (
).
Дискретный случай:
Непрерывный случай:
Метод максимального
правдоподобия (МП оценка) состоит в том,
что в качестве оценок неизвестных
параметров
принимаются такие значения
,
при которых функция правдоподобия
принимает максимальное значение, т.е.
вероятность появления данной выборки
будет максимальной.
Шаг 2
Необходимое условие экстремума:
Пусть (
)
– решение системы
Шаг 3
Достаточное условие экстремума
Дифференциал k-го
порядка должен быть меньше нуля :
Пример совпадения байесовского решающего правила при использовании неинформативного априорного распределения и статистической оценки, построенной методом максимального правдоподобия.
Используем для приведения примера теорему.
Пусть условная функция плотности f(x|ɵ) - это функция плотности
Тогда:
На основании того,
что
,
Из выражения
4. Определение решающего правила. Допустимые и минимаксные решающие правила. Примеры допустимых решающих правил, которые не являются минимаксными, и примеры минимаксных решающих правил, которые не являются допустимыми.
Определение решающего правила.
Решающим правилом называется функция h: X →D, где X – множество возможных значений случайного вектора X, D – множество решений. Данная функция каждому набору наблюдений ставит в соответствие некоторое решение.
Д
опустимые
и минимаксные решающие правила.
Примеры допустимых решающих правил, которые не являются минимаксными, и примеры минимаксных решающих правил, которые не являются допустимыми.
Пусть
элементов.