
- •Тема 1. Вероятностное пространство. Операции над событиями. Свойства вероятности.
- •Тема 2. Условная вероятность. Независимость событий. Критерий независимости. Формула полной вероятности. Формула Байеса.
- •Тема 3. Случайные величины. Измеримость функций от случайных величин.
- •Тема 5. Числовые характеристики случайных величин: математическое ожидание, моменты, квантили, медиана. Их свойства.
- •Тема 6. Числовые характеристики случайных величин: дисперсия, ковариация, коэффициент корреляции. Их свойства.
- •Тема 7. Совокупности случайных величин, случайные векторы. Совместная функция распределения. Независимость случайных величин. Критерии независимости.
- •Тема 8. Виды сходимости последовательностей случайных величин.
- •Тема 9. Неравенства Маркова и Чебышева. Закон больших чисел в форме Чебышева.
- •Тема 10. Неравенство Иенсена.
- •Тема 11. Характеристические функции и их свойства. Закон больших чисел в форме Хинчина.
- •Тема 12. Центральная предельная теорема.
- •12. Условное математическое ожидание.
- •13. Статистическая структура. Выборка. Статистика.
- •14. Выборочные моменты. Их асимптотическая нормальность.
- •15. Порядковые статистики. Вариационный ряд. Эмпирическая функция распределения. Их свойства.
- •16. Точечная оценка. Несмещенность, состоятельность.
- •17. Функция правдоподобия. Достаточные статистики, полные статистики. Критерий факторизации.
- •18. Неравенство Рао-Крамера. Эффективные оценки.
- •19. Теорема Рао-Блекуэлла-Колмогорова. Оптимальность оценок являющихся функцией полной достаточной статистики.
- •20. Метод моментов. Свойства оценок, полученных методом моментов.
- •21. Метод максимального правдоподобия. Свойства оценок максимального правдоподобия.
- •22. Доверительные интервалы. Методы центральной случайной величины и и использования точечной оценки.
- •23. Проверка гипотез. Лемма Неймана-Пирсона.
- •24. Критерии согласия Колмогорова и χ - квадрат.
Тема 5. Числовые характеристики случайных величин: математическое ожидание, моменты, квантили, медиана. Их свойства.
Математическим ожиданием случайной величины называется Eξ = $<Ω>ξ(w)P(dw). Если этот интеграл расходится, то говорят, что мат ожидания не существует. Пусть функции f(x), u(x) определены и ограничены на [a, b]. a= x0<x1…<xn= b, xi-1 < yi < xi, тогда
σ = Σ<i=1, n>f(yi)(u(xi)-u(xi-1) – интегральная сумма Стилтьеса. Если существует их конечный предел при стремлении max|xi – xi-1| 0 равный I, то этот предел называется интегралом Стилтьеса и обозначается $<a, b>f(x)du(x). При этом говорят, что f(x) интегрируема на [a, b] по u(x). Математическим ожиданием называется Eξ = $<-inf, inf>xdFξ(x). Если он расходится – мат ожидания не существует. Через площади можно показать, что $xdFξ(x) = -$<-inf, 0>Fξ(x)dx + $<0, inf>(1-Fξ(x))dx. Мат ожидание является характеристикой распределения, а не самой случайной величины (те равенство мат ожиданий следует из равенства по распределению). Для дискретной случайной величины Eξ = Σ<i>xipi. Если абсолютно непрерывна, то Eξ = $xf(x)dx. Св-ва: E(a + bξ) = a + bEξ; E(ξ + η) = Eξ + Eη (если любые 2 из равенства существуют); P(a <= ξ <= b) = 1 a <= Eξ <= b; |Eξ| = E|ξ|; ξ >= 0, Eξ = 0 ξ (п.н.)= 0; P(A) = EIA (мат ожидание индикатора); если ξ и η независимы, то Eξη = EξEη. Моментом k-ого порядка случайной величины ξ называется E(ξ^k). Центральным моментом случайной величины ξ порядка k называется E((ξ – E(ξ)^k). Центральный момент первого порядка равен 0. Утв если существует момент порядка n, то существуют все моменты меньшего порядка. (Оценка |ξ|^k < |ξ|^n + 1).
Тема 6. Числовые характеристики случайных величин: дисперсия, ковариация, коэффициент корреляции. Их свойства.
Дисперсией случайной величины называется её центральный момент второго порядка. Дисперсия константы равна 0 ( DC = E((C – EC)^2) = E(C^2) – 2E(CEC) + E((EC)^2) = E(C^2)– 2E(C^2) + E(C^2) = 0 ). Изменение случайной величины на константу не меняет её дисперсию (D(X + C) = E((X+C – E(X+C))^2) = E(X – EX + C- EC)^2 = E(X-EX)^2 = DX). Константа выносится из-под знака дисперсии с квадратом (просто расписываем). DX >= 0. Пусть X, Y – две независимые случайные величины, тогда если существуют их дисперсии, то существет дисперсия их суммы, причем D(X + Y) = DX + DY ( D(X+Y) = E((X-EX)^2 + (Y-EY)^2 + 2E(X-EX)(Y-EY)) через независимость DX + DY + 2E(X-EX)E(Y-EY) = DX + DY). Аддитивность можно обобщить по индукции. Среднеквадратичное отклонение – квадратный корень из дисперсии. Пусть заданы две случайные величины X, Y. Ковариацией называется cov(X, Y) = E((X-EX)(Y-EY)) = EXY – EXEY. Ковариация не меняется при изменении величин на константы (из второго вида формулы). Ковариация независимых величин равна 0. Дисперсия суммы двух величин в общем случае D(X+Y) = DX + DY + 2cov(X, Y). cov(CX, Y) = Ccov(X, Y). Коэффициент корреляции – p(X, Y) = cov(X, Y)/sqrt(DXDY). Коэффициент корреляции независимых величин равен 0. Для любых двух случайных величин коэффициент корреляции по модулю меньше 1. Док-во: Xc = X – EX, Yc = Y – EY. DXc = E(Xc^2), D(Yc) = E(Yc^2). cov(X,Y) = cov(Xc, Yc) = E(XcYc). Для любого вещественного a: 0 <= D(Xc – aYc) = E(Xc-aYc)^2 – ((E(Xc-aYc))^2) = E(Xc – aYc)^2. Рассматриваем как квадратное относительно a, дискриминант меньше или равен 0, получаем ЧТД. Если |p(X, Y)| = 1, то с вероятностью один случайные величины выражаются друг через друга (в предыдущем док-ве очевидно получится). Случайные величины называются некореллированными, если для них существует коэффициент корреляции и он равен 0.