
- •С.Е.Игнатова математическая статистика
- •Санкт-Петербург
- •Утверждено редакционно-издательским советом сПбГиэу
- •Игнатова с.Е.
- •Содержание:
- •Предисловие
- •Введение
- •1.Генеральная совокупность, выборка и основные способы организации выборки.
- •2.Вариационный ряд и порядковые статистики.
- •3.Статистическое оценивание параметров.
- •4.Точечные оценки и их свойства (несмещенность, состоятельность и эффективность).
- •5.Основные выборочные характеристики и их свойства.
- •5.1.Генеральная и выборочная средние.
- •5.2.Групповая и общая средние.
- •5.3.Отклонение от общей средней и его свойство.
- •5.4.Генеральная и выборочная дисперсии.
- •5.5.Групповая, внутригрупповая, межгрупповая и общая дисперсии.
- •5.6.Сложение дисперсий.
- •6.Основные точечные оценки.
- •6.1.Оценка генеральной средней по выборочной средней. Устойчивость выборочных средних.
- •6.2.Оценка генеральной дисперсии по исправленной выборочной.
- •7.Законы распределения выборочных характеристик в нормальной генеральной совокупности.
- •7.1.Число степеней свободы.
- •7.2.Распределение хи-квадрат.
- •7.3.Распределение Стьюдента.
- •7.4.Распределение Фишера-Снедекора.
- •8.Интервальные оценки и доверительные области.
- •8.1.Оценка вероятности (биноминального распределения) по относительной частоте.
- •8.2.Доверительный интервал для оценки математического ожидания нормального распределения при известном среднем квадратическом отклонении.
- •8.3.Доверительный интервал для оценки среднего квадратического отклонения нормального распределения.
- •9.Байесовское статистическое оценивание.
- •10.Статистическая проверка гипотез: основные типы гипотез и общая логическая схема статистического критерия; характеристики качества критерия.
- •10.1.Общая логическая схема статистического критерия
- •10.2.Характеристики качества критерия.
- •11.Критерии согласия и однородности, проверка гипотезы о числовых значениях параметров.
- •11.1.Критерий однородности.
- •Например, рассмотрим непараметрический критерий сдвига.
- •11.2.Критерий согласия.
- •11.3.Методика вычисления теоретических частот нормального распределения:
- •11.4.Пример обработки массива статистических данных.
- •11.5.Сравнение двух дисперсий нормальных генеральных совокупностей
- •12.Неравенство информации, метод максимального правдоподобия и метод моментов.
- •12.1.Метод максимального правдоподобия
- •12.2.Неравенство информации
- •12.3.Эмпирические моменты
- •12.4.Метод моментов.
- •13.Основы статистического исследования зависимостей.
- •13.1.Регрессионный анализ.
- •13.1.1.Отыскание параметров выборочного уравнения линейной регрессии по несгруппированным данным.
- •13.1.2.Выборочный коэффициент корреляции.
- •13.1.3.Корреляционная таблица.
- •13.1.4.Отыскание параметров выборочного уравнения линейной регрессии по сгруппированным данным.
- •13.1.5.Выборочное корреляционное отношение.
- •13.1.6.Свойства выборочного корреляционного отношения.
- •13.1.7.Простейшие случаи криволинейной корреляции.
- •13.1.8.Понятие о множественной корреляции.
- •13.2.Дисперсионный анализ.
- •13.2.1.Общая, факторная и остаточная суммы квадратов отклонений
- •13.2.2.Связь между общей, факторной и остаточной суммами.
- •13.2.3.Общая, факторная и остаточная дисперсии.
- •13.2.4.Сравнение нескольких средних методом дисперсионного анализа.
- •13.2.5.Неодинаковое число испытаний на различных уровнях фактора.
- •Заключение
- •Список литературы:
- •Сведения об авторе
12.Неравенство информации, метод максимального правдоподобия и метод моментов.
12.1.Метод максимального правдоподобия
Рассмотрим метод максимального правдоподобия для точечной оценки параметров распределения (предложен Рональдом Фишером).
Пусть Χ
– дискретная случайная величина, которая
при выборке объемом n
получила значения x
,
x₂,
…,
.
Допустим, что
известен вид закона распределения
вероятностей, но неизвестен параметр
⍬.
Обозначим через P(
,
⍬)
вероятность того, что величина Χ
принимает значения
(
).
Определение: Функцией правдоподобия дискретной случайной величины Χ называют функцию аргумента ⍬:
L(x
,
x₂,
…,
,
⍬)
= P(x
P(x₂
…
P(
где x , x₂, …, – фиксированные числа.
Определение:
Точечной оценкой параметра
считается
такое значение
*,
при котором функция L
принимает наибольшее значение. Эту
оценку называют оценкой максимального
правдоподобия.
Т.к. функция L и lnL обычно принимают наибольшие значения при одном и том же аргументе , то оценку * определяют на основе максимизации функции lnL. Для этого функцию исследуют на максимум с помощью необходимого (а иногда и достаточного) условия экстремума. Этот метод особенно полезен в случае малых выборок (т.к. этот метод наиболее полно использует данные выборки), но часто требует довольно сложных вычислений.
Пример:
Найти методом наибольшего правдоподобия
оценку параметра λ
в распределении Пуассона
на основе проведённых опытов.
Решение:
Будем называть опытом группу из n
испытаний. При этом в каждом опыте
фиксируется число появлений рассматриваемого
события. Пусть таких опытов будет m.
Тогда число появлений события в i-ом
опыте будет
.
Подставляя полученное значение
в формулу
Пуассона, получаем:
Эти вероятности
для всех
подставим в функцию правдоподобия
.
Находим логарифм этой функции:
Возьмем первую производную по λ и прировняем её к нулю:
.
Итак,
.
Если взять вторую
производную
,
то оказывается, что она отрицательна.
Это значит, что полученное значение
максимально.
Если плотность
распределения
непрерывной
случайной величины Χ
определяется двумя неизвестными
параметрам
и
,
то функция максимального правдоподобия
имеет вид:
где
,…,
–
наблюдаемые значения Χ.
Далее находят логарифмическую функцию правдоподобия и для отыскания её максимума составляют и решают систему:
.
12.2.Неравенство информации
Определение: Теорией информации называется наука, изучающая количественные закономерности, связанные с получением, передачей, обработкой и хранением информации.
Черты случайности, присущие процессам передачи информации заставляют обратиться при изучении этих процессов к вероятностным и статистическим методам.
Определение: В математической статистике неравенством Краме́ра — Ра́о (в честь Гаральда Крамера и К. Р. Рао) называется неравенство, которое при некоторых условиях на статистическую модель даёт нижнюю границу для дисперсии оценки неизвестного параметра, выражая её через информацию Фишера.
Определение: В математической статистике и теории информации информа́цией Фи́шера называется дисперсия функции вклада выборки.
Эта функция названа в честь описавшего её Рональда Фишера.
Пусть дана
статистическая модель
,
— выборка
размера n,
определена функция
правдоподобия
и выполнены следующие условия (условия
регулярности):
L > 0 и везде дифференцируема по
;
Функция
(функция вклада выборки) имеет конечную дисперсию (или, что то же самое, конечна информация Фишера).
Для любой статистики
имеет место равенство
.
Пусть при этих
условиях дана статистика
,
которая оценивает дифференцируемую
функцию
,
причём смещение
равно дифференцируемой функции
.
Тогда справедливы следующие утверждения:
;
равенство достигается тогда и только тогда, когда
представляется в виде
.
Здесь
—
информация
Фишера.
Часто используется следующая, более слабая версия неравенства. Пусть выполнены условия регулярности, а — несмещённая оценка параметра . Тогда неравенство выглядит так:
.
Этот случай
получается из первого, если взять
и
.
Заметим, что оценка параметра называется эффективной, если для неё неравенство Крамера — Рао обращается в равенство. Таким образом, неравенство может быть использовано для доказательства того, что диcперсия данной оценки наименьшая из возможных, то есть, что данная оценка в некотором смысле лучше всех остальных.
Определение:
Пусть
—
функция
правдоподобия
для данной статистической
модели.
Тогда если определена функция
,
где
—
математическое
ожидание
при данном
,
то она называется информацией Фишера
для данной статистической модели при
n
независимых испытаниях.
Поскольку математическое ожидание функции вклада выборки равно нулю, выписанная величина равна её дисперсии.
Если выборка состоит из одного элемента, то информация Фишера записывается так:
Из того, что в
случае независимости
случайных
величин
дисперсия суммы равна сумме дисперсий
следует, что в случае n
независимых
испытаний
.
Из указанного выше
свойства дисперсий следует, что в случае
независимости случайных величин
(рассматриваемых в одной статистической
модели) информация Фишера их суммы равна
сумме информаций Фишера каждой из них.
Обозначим информацию
Фишера для случайной величины
через
.
Если T(
) — статистика, для которой определена
информация Фишера, то
.