
- •Тема 1. Вероятностное пространство. Операции над событиями. Свойства вероятности.
- •Тема 2. Условная вероятность. Независимость событий. Критерий независимости. Формула полной вероятности. Формула Байеса.
- •Тема 3. Случайные величины. Измеримость функций от случайных величин.
- •Тема 5. Числовые характеристики случайных величин: математическое ожидание, моменты, квантили, медиана. Их свойства.
- •Тема 6. Числовые характеристики случайных величин: дисперсия, ковариация, коэффициент корреляции. Их свойства.
- •Тема 7. Совокупности случайных величин, случайные векторы. Совместная функция распределения. Независимость случайных величин. Критерии независимости.
- •Тема 8. Виды сходимости последовательностей случайных величин.
- •Тема 9. Неравенства Маркова и Чебышева. Закон больших чисел в форме Чебышева.
- •Тема 10. Неравенство Иенсена.
- •Тема 11. Характеристические функции и их свойства. Закон больших чисел в форме Хинчина.
- •Тема 12. Центральная предельная теорема.
- •12. Условное математическое ожидание.
- •13. Статистическая структура. Выборка. Статистика.
- •14. Выборочные моменты. Их асимптотическая нормальность.
- •15. Порядковые статистики. Вариационный ряд. Эмпирическая функция распределения. Их свойства.
- •16. Точечная оценка. Несмещенность, состоятельность.
- •17. Функция правдоподобия. Достаточные статистики, полные статистики. Критерий факторизации.
- •18. Неравенство Рао-Крамера. Эффективные оценки.
- •19. Теорема Рао-Блекуэлла-Колмогорова. Оптимальность оценок являющихся функцией полной достаточной статистики.
- •20. Метод моментов. Свойства оценок, полученных методом моментов.
- •21. Метод максимального правдоподобия. Свойства оценок максимального правдоподобия.
- •22. Доверительные интервалы. Методы центральной случайной величины и и использования точечной оценки.
- •23. Проверка гипотез. Лемма Неймана-Пирсона.
- •24. Критерии согласия Колмогорова и χ - квадрат.
13. Статистическая структура. Выборка. Статистика.
Статистическая структура – совокупность (Ω, F, P), где Ω - мн-во элементарных исходов, F – σ-алгебра событий (подм-в Ω), P – семейство вероятностных мер, определенных на F. Те рассматривается мн-во вероятностных пространств с общими Ω, F и разными вероятностями. P – семейство мер, параметризуемое одно или многомерным числовым параметром P = (PO, O Є Ξ Є R^m). Считается, что на P в данном эксперименте задана случайная величина ξ. Рассмотрим индуцированное вероятностное пространство (Ω, B, {Pξ,O}), Pξ, O= PO(ξ Є B). Выборка - совокупность независимых одинаково распределенных случайных величин X1, X2….Xn, имеющих такое же распределение, как и ξ. Если есть выборка, то функция распределения F(x, O) представляет собой неизвестную функцию распределения, неопределенность которой заключается в O. Пусть имеется некоторая выборка X1(w), …Xn(w) упорядочим её и перейдем к набору случайных величин X(1)(w) = min(X1(w),…Xn(w)), X(k)(w) = {для любого w Є Ω существует l <= i1, i2,…ik-1,ik,ik+1,…,in<=n, ij ≠ il (j ≠ l): X(k)(w) = Xik(w), Xi1(w), Xi2(w),…Xik-1(w) <= Xik(w), все с большими – больше} 2<= k <= n-1, Xn = max(X1(w),…Xn(w)). Эта последовательность называется вариационным рядом. Найдем распределение X(n) P(X(n) < x) = P(max(X1,…,Xn) < x) = [F(x,O)]^n. Для того, чтобы найти распределение X(k) введем индикатор I(Xi <x) = {1, Xi < x; 0 , Xi >= x}. Число величин меньших x mn = Σ<i=1, n>I(Xi < x). Получаем P(X(k) < x) = P(mn >= k) = Σ<j=k, n>P(mn(x) = j) = Σ<j=k, n>Cnj [F(x, O)]^j[1 + F(x, O)]^ (n-j). Статистика T(X1,…Xn) – любая измеримая функция T от выборки.
14. Выборочные моменты. Их асимптотическая нормальность.
Выборочный момент порядка k – Akn(X1, …, Xn) = Ank = Ak = (1/n)Σ<i=1, n>Xi^k. A1 = (1/n)Σ<i=1, n>Xi = !X – выборочное среднее. Центральный выборочный момент порядка k – Mk = (1/n)Σ<i=1, n>(Xi - !X)^k. Центральный момент второго порядка – выборочная дисперсия M2 = S^2. Пусть X1,…Xn – независимые одинаково распределенные случайные величины. Тогда, если у них существует мат-ожидание EOX1^k = ak(O) то оно называется теоретическим моментом порядка k. Если у теоретического момента порядка k существует мат ожидание, то оно равно мат ожиданию выборочного момента порядка k. ЕOAk = EO(1/n)Σ<i=1, n>EOXi^k = (1/n)Σ<i=1, n>ak(O) = ak(O). Для центральных моментов не работает. Если для любого O существует теоретический момент порядка k, то выборочный момент порядка k стремится к теоретическому по вероятности для любого O (закон больших чисел в форме Хинчина) с вероятностью 1 (без док-ва).
15. Порядковые статистики. Вариационный ряд. Эмпирическая функция распределения. Их свойства.
16. Точечная оценка. Несмещенность, состоятельность.
Рассматривается выборка X1,…,Xn с функцией распределения F(x, O), O Є Ξ Є R^m. Статистикой размерности k называется вектор-функция T(X) = (T1(X),…,Tk(X)), где Ti(X) – статистика. Точечной оценкой параметра O = (O1,….,Om) называется m-мерная статистика T(X) = (T1(X),…,Tm(X)), при этом Ti(X) считается оценкой Oi. Оценка T(X) называется несмещенной оценкой функции t(O) = (t1(O),…,tk(O)), если для любого O EOTi(X) = ti(O), i=1,…k. T(X) – асимптотически несмещенная оценка t(O), если EOTi(X) = ti(O) + ani(O), и ani(O) 0, ninf и для любого O. Оценка T(X) – состоятельная оценка t(O), если T(X) t(O) по вероятности при увеличении объема выборки и для любого O. В качестве меры близости EO(T(X) – t(O))^2. Если T(X) – несмещенная (EO(T(X)) = t(O)), то EO(T(X) – t(O))^2 = DOT(X), где M2(O) = DOT(X) зависит от O. В связи с тем, что для двух оценок такие дисперсии могут оказаться несравнимыми вводим понятие оптимальной оценки. Оценка T(X) функции t(O) называется оптимальной, если T(X) – несмещенная, T(X) имеет равномерно минимальную дисперсию, те для любой другой несмещенной оценки T1(X) DOT(X) <= DOT1(X) для любой выборки. Т Если существует оптимальная оценка, то она единственна. От противного – пусть есть две. В силу несмещенности EOT1(X) = EOT2(X)=t(O), и их дисперсии равны. Введем статистику T3(X) = (T1(X) + T2(X))/2, EOT3 = t(O), DT3 = (1/4)(DOT1(X) +DOT2(X) + 2cov(T1(X), T2(X)) <= (1/4)[DOT1(X) + DOT2(X) + 2sqrt<2>(DOT1(X))sqrt<2>(DOT2(X))] = DOT1(X)= DOT2(X). В силу оптимальности оценки равенство достигается, а оно достигается только при T1(X)= aT2(X) + b ET1(X) = aT2(X) + b t(O) = at(O) + b, для любого O, те a = 1, b = 0. ЧТД.