Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТВиМС.doc
Скачиваний:
14
Добавлен:
23.09.2019
Размер:
196.61 Кб
Скачать

Тема 5. Числовые характеристики случайных величин: математическое ожидание, моменты, квантили, медиана. Их свойства.

Математическим ожиданием случайной величины называется Eξ = $<Ω>ξ(w)P(dw). Если этот интеграл расходится, то говорят, что мат ожидания не существует. Пусть функции f(x), u(x) определены и ограничены на [a, b]. a= x0<x1…<xn= b, xi-1 < yi < xi, тогда

σ = Σ<i=1, n>f(yi)(u(xi)-u(xi-1) – интегральная сумма Стилтьеса. Если существует их конечный предел при стремлении max|xi – xi-1|  0 равный I, то этот предел называется интегралом Стилтьеса и обозначается $<a, b>f(x)du(x). При этом говорят, что f(x) интегрируема на [a, b] по u(x). Математическим ожиданием называется Eξ = $<-inf, inf>xdFξ(x). Если он расходится – мат ожидания не существует. Через площади можно показать, что $xdFξ(x) = -$<-inf, 0>Fξ(x)dx + $<0, inf>(1-Fξ(x))dx. Мат ожидание является характеристикой распределения, а не самой случайной величины (те равенство мат ожиданий следует из равенства по распределению). Для дискретной случайной величины Eξ = Σ<i>xipi. Если абсолютно непрерывна, то Eξ = $xf(x)dx. Св-ва: E(a + bξ) = a + bEξ; E(ξ + η) = Eξ + Eη (если любые 2 из равенства существуют); P(a <= ξ <= b) = 1  a <= Eξ <= b; |Eξ| = E|ξ|; ξ >= 0, Eξ = 0  ξ (п.н.)= 0; P(A) = EIA (мат ожидание индикатора); если ξ и η независимы, то Eξη = EξEη. Моментом k-ого порядка случайной величины ξ называется E(ξ^k). Центральным моментом случайной величины ξ порядка k называется E((ξ – E(ξ)^k). Центральный момент первого порядка равен 0. Утв если существует момент порядка n, то существуют все моменты меньшего порядка. (Оценка |ξ|^k < |ξ|^n + 1).

Тема 6. Числовые характеристики случайных величин: дисперсия, ковариация, коэффициент корреляции. Их свойства.

Дисперсией случайной величины называется её центральный момент второго порядка. Дисперсия константы равна 0 ( DC = E((C – EC)^2) = E(C^2) – 2E(CEC) + E((EC)^2) = E(C^2)– 2E(C^2) + E(C^2) = 0 ). Изменение случайной величины на константу не меняет её дисперсию (D(X + C) = E((X+C – E(X+C))^2) = E(X – EX + C- EC)^2 = E(X-EX)^2 = DX). Константа выносится из-под знака дисперсии с квадратом (просто расписываем). DX >= 0. Пусть X, Y – две независимые случайные величины, тогда если существуют их дисперсии, то существет дисперсия их суммы, причем D(X + Y) = DX + DY ( D(X+Y) = E((X-EX)^2 + (Y-EY)^2 + 2E(X-EX)(Y-EY)) через независимость DX + DY + 2E(X-EX)E(Y-EY) = DX + DY). Аддитивность можно обобщить по индукции. Среднеквадратичное отклонение – квадратный корень из дисперсии. Пусть заданы две случайные величины X, Y. Ковариацией называется cov(X, Y) = E((X-EX)(Y-EY)) = EXY – EXEY. Ковариация не меняется при изменении величин на константы (из второго вида формулы). Ковариация независимых величин равна 0. Дисперсия суммы двух величин в общем случае D(X+Y) = DX + DY + 2cov(X, Y). cov(CX, Y) = Ccov(X, Y). Коэффициент корреляции – p(X, Y) = cov(X, Y)/sqrt(DXDY). Коэффициент корреляции независимых величин равен 0. Для любых двух случайных величин коэффициент корреляции по модулю меньше 1. Док-во: Xc = X – EX, Yc = Y – EY. DXc = E(Xc^2), D(Yc) = E(Yc^2). cov(X,Y) = cov(Xc, Yc) = E(XcYc). Для любого вещественного a: 0 <= D(Xc – aYc) = E(Xc-aYc)^2 – ((E(Xc-aYc))^2) = E(Xc – aYc)^2. Рассматриваем как квадратное относительно a, дискриминант меньше или равен 0, получаем ЧТД. Если |p(X, Y)| = 1, то с вероятностью один случайные величины выражаются друг через друга (в предыдущем док-ве очевидно получится). Случайные величины называются некореллированными, если для них существует коэффициент корреляции и он равен 0.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]