
- •С.Е.Игнатова математическая статистика
- •Санкт-Петербург
- •Утверждено редакционно-издательским советом сПбГиэу
- •Игнатова с.Е.
- •Содержание:
- •Предисловие
- •Введение
- •1.Генеральная совокупность, выборка и основные способы организации выборки.
- •2.Вариационный ряд и порядковые статистики.
- •3.Статистическое оценивание параметров.
- •4.Точечные оценки и их свойства (несмещенность, состоятельность и эффективность).
- •5.Основные выборочные характеристики и их свойства.
- •5.1.Генеральная и выборочная средние.
- •5.2.Групповая и общая средние.
- •5.3.Отклонение от общей средней и его свойство.
- •5.4.Генеральная и выборочная дисперсии.
- •5.5.Групповая, внутригрупповая, межгрупповая и общая дисперсии.
- •5.6.Сложение дисперсий.
- •6.Основные точечные оценки.
- •6.1.Оценка генеральной средней по выборочной средней. Устойчивость выборочных средних.
- •6.2.Оценка генеральной дисперсии по исправленной выборочной.
- •7.Законы распределения выборочных характеристик в нормальной генеральной совокупности.
- •7.1.Число степеней свободы.
- •7.2.Распределение хи-квадрат.
- •7.3.Распределение Стьюдента.
- •7.4.Распределение Фишера-Снедекора.
- •8.Интервальные оценки и доверительные области.
- •8.1.Оценка вероятности (биноминального распределения) по относительной частоте.
- •8.2.Доверительный интервал для оценки математического ожидания нормального распределения при известном среднем квадратическом отклонении.
- •8.3.Доверительный интервал для оценки среднего квадратического отклонения нормального распределения.
- •9.Байесовское статистическое оценивание.
- •10.Статистическая проверка гипотез: основные типы гипотез и общая логическая схема статистического критерия; характеристики качества критерия.
- •10.1.Общая логическая схема статистического критерия
- •10.2.Характеристики качества критерия.
- •11.Критерии согласия и однородности, проверка гипотезы о числовых значениях параметров.
- •11.1.Критерий однородности.
- •Например, рассмотрим непараметрический критерий сдвига.
- •11.2.Критерий согласия.
- •11.3.Методика вычисления теоретических частот нормального распределения:
- •11.4.Пример обработки массива статистических данных.
- •11.5.Сравнение двух дисперсий нормальных генеральных совокупностей
- •12.Неравенство информации, метод максимального правдоподобия и метод моментов.
- •12.1.Метод максимального правдоподобия
- •12.2.Неравенство информации
- •12.3.Эмпирические моменты
- •12.4.Метод моментов.
- •13.Основы статистического исследования зависимостей.
- •13.1.Регрессионный анализ.
- •13.1.1.Отыскание параметров выборочного уравнения линейной регрессии по несгруппированным данным.
- •13.1.2.Выборочный коэффициент корреляции.
- •13.1.3.Корреляционная таблица.
- •13.1.4.Отыскание параметров выборочного уравнения линейной регрессии по сгруппированным данным.
- •13.1.5.Выборочное корреляционное отношение.
- •13.1.6.Свойства выборочного корреляционного отношения.
- •13.1.7.Простейшие случаи криволинейной корреляции.
- •13.1.8.Понятие о множественной корреляции.
- •13.2.Дисперсионный анализ.
- •13.2.1.Общая, факторная и остаточная суммы квадратов отклонений
- •13.2.2.Связь между общей, факторной и остаточной суммами.
- •13.2.3.Общая, факторная и остаточная дисперсии.
- •13.2.4.Сравнение нескольких средних методом дисперсионного анализа.
- •13.2.5.Неодинаковое число испытаний на различных уровнях фактора.
- •Заключение
- •Список литературы:
- •Сведения об авторе
8.3.Доверительный интервал для оценки среднего квадратического отклонения нормального распределения.
Пусть случайная
величина X
имеет нормальное распределение. Требуется
оценить неизвестное среднее квадратическое
отклонение
по исправленному
выборочному
среднему квадратическому отклонению
S,
а так же найти доверительный интервал,
покрывающий среднее квадратическое
отклонение
с заданной надёжностью
.
Считаем, что вероятность попадания случайной оценки S в -окрестность задана и равна .
,
Запишем неравенства
в виде:
(1)
Обозначим
.
Тогда
.
Т.о., случайная величина имеет ограничения:
и
Тогда вероятность
попадания
в интервал
:
,
где f( ,n) – плотность вероятности случайной величины .
Таким образом,
(предполагаем,
что q
< 1).
Значения этого интеграла рассчитываются для разных значений n, q, . Задавая значения n и , можно по таблице определить q.
Вернемся к формуле (1). Из нее следует, что:
.
Подставляя вместо
случайного значения S
полученное
по выборке S,
находим требуемый интервал
.
Пример: Пусть случайная величина X имеет нормальное распределение. Произведена выборка объема n = 25 и найдено исправленное выборочное среднее квадратическое отклонение S= = 0,8. Найти доверительный интервал, покрывающий с надёжностью = 0,95.
Решение: По таблице зависимости n, q и находим q= =0,32. Тогда доверительный интервал имеет вид:
(0,6;1,18).
Заметим, что если
q
> 1, то доверительный интервал имеет
вид
.
9.Байесовское статистическое оценивание.
Определение: Байесовский вывод — статистический вывод, в котором свидетельство и (или) наблюдение используются, чтобы обновить или вновь вывести вероятность того, что гипотеза может быть верной.
Название байесовский происходит от частого использования в процессе вывода теоремы Байеса, которая была изложена в курсе теории вероятностей.
Байесовский вывод использует аспекты научного метода, который вовлекает сбор свидетельств, предназначенных для того, чтобы поддерживать или не поддерживать данную гипотезу. Поскольку свидетельства накапливаются, степень веры в гипотезу должна измениться. С достаточным количеством свидетельств, она должна стать либо очень высокой, либо очень низкой.
Таким образом, сторонники байесовского вывода говорят, что он может использоваться, чтобы провести различие между противоречивыми гипотезами: гипотезы с очень высокой поддержкой должны быть приняты как истинные, а с очень низкой поддержкой должны быть отклонены как ложные. Однако, противники говорят, что этот метод вывода может привести к отклонению благодаря исходному верованию, которого каждый придерживается до того, когда какое-либо свидетельство будет собрано (это — форма так называемого индуктивного отклонения (англ. bias)).
Байесовский вывод использует числовую оценку степени веры в гипотезу до получения свидетельства, чтобы вычислить числовую оценку степени веры в гипотезу после того, как свидетельство было получено (этот процесс повторяется, когда получено дополнительное свидетельство).
В индукционном процессе байесовский вывод обычно опирается на степени веры, или субъективные вероятности, и не обязательно утверждает, что обеспечен объективный метод индукции. Тем не менее, некоторые байесовские статистики полагают, что вероятности могут иметь объективное значение, и поэтому байесовский вывод может обеспечить объективный метод индукции.
Теорема Байеса подправляет вероятность гипотезы, данную новым свидетельством, следующим образом:
,
где
H представляет конкретную гипотезу, которая может быть, а может и не быть некоторой нулевой гипотезой;
P
называется априорной вероятностью H, которая была выведена прежде, чем новое свидетельство E стало доступным;
называется условной вероятностью наблюдения свидетельства E, если гипотеза H оказывается верной (её также называют функцией правдоподобия, когда она рассматривается как функция H для фиксированного E);
называется маргинальной вероятностью E: априорная вероятность наблюдения нового свидетельства E согласно всем возможным гипотезам; может быть вычислено по формуле полной вероятности:
,
как сумма произведений всех вероятностей любого полного
набора взаимно исключающих гипотез и соответствующих
условных вероятностей;
называется апостериорной вероятностью H для данного E.
Приведем простой
пример байесовского вывода.
Пример: Предположим, что есть две полных вазы печенья. В первой вазе 10 шоколадного и 30 простого печенья, в то время как во второй вазе – 20 каждого сорта. Студент выбирает вазу наугад, и затем выбирает печенье наугад. Мы можем предположить, что нет никакой причины полагать, что студент рассматривает одну вазу иначе другой, аналогично и для печенья. Печенье, оказывается, простым. Насколько вероятно, что студент выбрал его из первой вазы?
Интуитивно, кажется
ясным, что ответ должен быть больше
половины, так как есть больше простого
печенья в первой вазе. Точный ответ
дается теоремой Байеса. Пусть
—
выбор первой вазы, а
—
выбор второй вазы. Предполагается, что
вазы идентичны с точки зрения студента,
таким образом
,
а вместе должны составить 1, таким
образом, обе равны 0,5.
Событие E
— наблюдение простого печенья. Из
содержания ваз, мы знаем что
= 0,75 и
= 0,5 .
Формула Байеса
тогда даёт
До того, как мы
наблюдали печенье, вероятность, которую
мы назначили для студента, выбиравшего
первую вазу, была априорной вероятностью
,
равной 0,5. После наблюдения печенья, мы
должны пересмотреть вероятность
,
которая теперь равна 0,6.