- •СОДЕРЖАНИЕ
- •ЛЕКЦИЯ 1
- •Введение
- •Основные понятия
- •Аксиомы теории вероятностей
- •Непосредственный подсчет вероятностей
- •Основные комбинаторные формулы
- •ЛЕКЦИЯ 2
- •Геометрическое определение вероятностей
- •Теоремы сложения вероятностей
- •Тогда на основании второй аксиомы
- •Условная вероятность
- •Зависимые и независимые события
- •Теоремы умножения вероятностей
- •Вероятность безотказной работы сети
- •ЛЕКЦИЯ 3
- •Формула полной вероятности
- •Формула Байеса
- •Теорема о повторении опытов
- •Функция распределения
- •Ряд распределения
- •Плотность распределения
- •ЛЕКЦИЯ 5
- •Числовые характеристики случайной величины
- •ЛЕКЦИЯ 6
- •Типовые законы распределения
- •ЛЕКЦИЯ 7
- •Функции одного случайного аргумента
- •Закон распределения функции случайного аргумента
- •Числовые характеристики функции случайного аргумента
- •Характеристическая функция случайной величины
- •Двухмерная функция распределения
- •Матрица распределения
- •Двухмерная плотность распределения
- •Зависимые и независимые случайные величины
- •Условные законы распределения
- •ЛЕКЦИЯ 9
- •Числовые характеристики двухмерных величин
- •Условные числовые характеристики
- •ЛЕКЦИЯ 10
- •Нормальный закон распределения на плоскости
- •Закон распределения функции двух случайных величин
- •Многомерные случайные величины
- •Числовые характеристики суммы случайных величин
- •Числовые характеристики произведения случайных величин
- •ЛЕКЦИЯ 12
- •Закон больших чисел
- •Центральная предельная теорема
- •ЛЕКЦИЯ 13
- •Математическая статистика. Основные понятия
- •Оценка закона распределения
- •ЛЕКЦИЯ 14
- •Точечные оценки числовых характеристик
- •Оценка параметров распределения
- •Интервальные оценки числовых характеристик
- •ЛЕКЦИЯ 15
- •Проверка статистических гипотез
- •Критерии согласия
- •Статистические критерии двухмерных случайных величин
- •ЛЕКЦИЯ 17
- •Оценка регрессионных характеристик
- •Метод наименьших квадратов
- •ЛИТЕРАТУРА
ЛЕКЦИЯ 11 Числовые характеристики функции многих переменных
Пусть Y = ϕ(x1, x2, …, xn), где Х1, Х2, …, Хn – случайные величины с известной совместной n-мерной плотностью вероятностей f(x1, x2, …, xn).
Начальные моменты величины Y определяются по формуле
α k ( y ) = M [Y k ] = |
∞∫ ... ∞∫ ϕ k ( x1 , ..., x n ) f ( x1 , ..., x n ) d x1 ...d x n , |
(11.1) |
||
|
−∞ |
−∞ |
|
|
а центральные моменты − по формуле |
|
|||
µk ( y) = M [(Y − mY )k ] = ∞∫ ... ∞∫ (ϕ( x1 ,..., xn ) − mY )k f (x1 ,..., xn )dx1...dxn , |
(11.2) |
|||
причем |
|
−∞ |
−∞ |
|
|
|
|
|
|
mY |
= M[Y] = M[ϕ(x1,..., xn )] =α1(y) , |
(11.3) |
||
|
|
DY |
= µ2 ( y) = α2 ( y) − mY2 . |
(11.4) |
В случае, когда совместная плотность вероятности аргументов f(x1, x2, …, xn)неизвестна, а известны числовые характеристики аргументов, то задача определения числовых характеристик Y разрешима только для определения классов функций ϕ.
Числовые характеристики суммы случайных величин
n
Пусть Y = ∑ Xi , где Х1, Х2, …, Хn – случайные величины с известными
i=1
числовыми характеристиками:
–вектор математических ожиданий M = (m1, m2, …, mn);
–вектор дисперсий D = (D1, D2, …, Dn);
–корреляционная матрица Kij .
Теорема о математическом ожидании суммы случайных величин.
Математическое ожидание суммы случайных величин равно сумме математических ожиданий слагаемых:
M [Y ] = M |
n |
|
n |
|
∑X i |
= ∑mi . |
(11.5) |
||
i=1 |
|
i=1 |
|
Доказательство. Пусть n = 2, т.е. Y = Х1 + Х2, и предположим, что слагаемые – непрерывные случайные величины с некоторой совместной
плотностью распределения f (x1, x2 ) . Тогда
m Y |
= M [ X 1 + X 2 ] = |
∞∫ ∞∫ ( x1 + x 2 ) f ( x1 , x 2 ) d x1 d x2 = |
|
|
−∞ −∞ |
= |
∞∫ ∞∫ x1 f ( x1 , x 2 ) d x1 d x 2 + ∞∫ ∞∫ x 2 f ( x1 , x2 ) d x1 d x2 = m1 + m 2 . |
|
−∞ −∞ |
−∞ −∞ |
Аналогично и для дискретных слагаемых. Используя метод математической индукции, легко доказать, что теорема справедлива для любого n.
Теорема о дисперсии суммы случайных величин. Дисперсия суммы случайных величин равна сумме всех элементов корреляционной матрицы слагаемых:
|
|
|
|
|
n |
|
n |
n |
|
n |
|
|
n |
|
n |
|
|
|
|
|
D[Y ] = D ∑Xi |
= ∑∑Kij = ∑Di |
+ 2∑ ∑ Kij . |
|
(11.6) |
||||||||||||
Доказательство: |
i=1 |
|
i=1 j=1 |
|
i=1 |
|
i=1 j=i+1 |
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
D[Y ] = M [(Y − mY )2 |
] = |
|
|
n |
|
n |
|
2 |
|
|
|
n |
o |
2 |
= |
|||
M |
∑ X i − |
∑ mi |
|
= M |
|
∑ X i |
|
|||||||||||
|
|
|
|
|
|
|
i =1 |
|
i =1 |
|
|
|
|
|
i =1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n n |
o o |
|
n |
n |
|
o |
o |
|
n |
n |
|
|
|
n |
|
|
n n |
= M |
∑ ∑ X i X j |
= ∑ ∑ M X i X j |
= ∑ ∑ K ij = ∑ Di + 2∑ ∑ K ij . |
|||||||||||||||
|
i =1 j =1 |
|
|
i =1 j =1 |
|
|
|
|
i =1 j =1 |
|
|
i =1 |
|
|
i =1 j =i +1 |
Следствие. Дисперсия суммы некоррелированных случайных величин равна сумме дисперсий этих величин, так как Kij = 0, i, j :
n
Если Y = a0 +∑ai Xi ,
i=1
n |
|
n |
|
D ∑ X i |
= ∑Di . |
(11.7) |
|
i=1 |
|
i=1 |
|
a i – неслучайные коэффициенты, |
то математическое |
ожидание и дисперсия Y равны:
|
|
n |
|
n |
|
mY |
= M a0 + ∑ai X i |
= a0 + ∑ai mi ; |
(11.8) |
||
|
|
i=1 |
|
i=1 |
|
|
n |
|
n |
n n |
|
DY = D a0 +∑ai Xi |
= ∑ai2 Di + 2∑ ∑ ai aj Kij . |
(11.9) |
|||
|
i=1 |
|
i=1 |
i=1 j=i+1 |
|
Это легко доказать, используя (11.6), (11.7) и свойства математического ожидания (M[c] = c, M[X + c] = mX + c , M[c X] = c mX ) и дисперсии (D[c] = 0,
D[X + c] = DX, D[c X] = c2 DX).
Пример. Докажем, что абсолютная величина корреляционного момента двух случайных величин не превышает среднего геометрического их дисперсий:
Kxy ≤ Dx Dy или Kxy ≤σx σy .
Введем в рассмотрение случайные величины Z1 =σY X −σXY, Z2 = σYX + σYY и вычислим их дисперсии по формуле (11.9):
D[ Z1 ] = 2σ X2 σ Y2 − 2σ X σ Y K X Y ; D[Z 2 ] = 2σ X2 σY2 + 2σ X σY K XY .
Так как дисперсия всегда неотрицательна, то |
2σX2σY2 −2σXσY KXY ≥0 |
||||
σX σY ≥ KXY и 2σX2 σY2 + 2σX σY KXY ≥ 0 −σ X σ Y |
≤ K X Y . Таким образом, |
||||
−σX σY ≤ K XY ≤σX σY |
|
K X Y |
|
≤ σ X σ Y . |
|
|
|
|
Числовые характеристики произведения случайных величин
n
Пусть Y = ∏ X i , где (X1, X2, …, Xn) – случайные величины с известными
i =1
числовыми характеристиками:
–вектор математических ожиданий M = (m1, m2, …, mn);
–вектор дисперсий D = (D1, D2, …, Dn);
–корреляционная матрица Kij .
Теорема о математическом ожидании произведения случайных величин. Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс ковариация:
mY |
= M [ X1 X 2 ]= m1m2 + K12 . |
(11.10) |
Доказательство. По определению ковариация равна |
|
|
o o |
|
|
K12 = M [ X1 X 2 ] = M [( X1 |
− m1 )( X 2 − m2 )] = M [ X1 X 2 − m1 X 2 |
− m2 X1 + m1m2 ] = |
M [ X1 X 2 ] − m1M [ X 2 ] − m2 M [ X1 ] + m1m2 = M [ X1 X 2 ] − m1m2 .
Откуда следует формула (11.10).
Следствие. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий:
mY = M |
|
n |
|
n |
(11.11) |
|
∏ X i |
= ∏ mi . |
|||
|
|
i =1 |
|
i =1 |
|
Доказательство. Пусть n = 2. |
Для |
независимых |
случайных величин |
||
Kij = 0, i, j , тогда формула (11.10) |
примет вид mY |
= M [ X1 X 2 ]= m1m2 . |
Используя метод математической индукции, легко доказать, что (11.11) справедлива для любого n.
Теорема о дисперсии произведения случайных величин. Дисперсия произведения независимых случайных величин равна
DY |
|
n |
|
n |
n |
(11.12) |
= D |
∏ X i |
= ∏ ( Di + m i2 ) − ∏ m i2 . |
||||
|
|
i =1 |
|
i =1 |
i =1 |
|
Доказательство. По определению дисперсия равна
n |
|
|
n |
2 |
|
n |
|
2 |
n |
|
n |
n |
||
D ∏Xi |
= M |
∏Xi |
|
− M ∏Xi |
|
= M ∏Xi2 |
|
−∏mi2 =∏ |
||||||
i=1 |
|
|
|
|
|
|
i=1 |
|
|
|
i=1 |
i=1 |
|
|
|
i=1 |
|
|
|
|
i=1 |
||||||||
|
|
|
|
|
n
(Di +mi2 ) −∏mi2 .
i=1
Следствие. Дисперсия произведения независимых центрированных случайных величин равна произведению дисперсий этих величин:
DY |
|
n |
|
|
n |
|
(11.12) |
= D |
∏ X i |
= ∏ Di . |
|||||
|
|
i = |
1 |
|
i = |
1 |
|