- •Аннотация
- •Содержание
- •Введение
- •Основные понятия
- •Аксиомы теории вероятностей
- •Непосредственный подсчет вероятностей
- •Основные комбинаторные формулы
- •ЛЕКЦИЯ 2
- •Геометрическое определение вероятностей
- •Теоремы сложения вероятностей
- •Условная вероятность
- •Зависимые и независимые события
- •Теоремы умножения вероятностей
- •Вероятность безотказной работы сети
- •ЛЕКЦИЯ 3
- •Формула полной вероятности
- •Формула Байеса
- •Теорема о повторении опытов
- •Функция распределения
- •Ряд распределения
- •Плотность распределения
- •ЛЕКЦИЯ 5
- •Числовые характеристики случайной величины
- •ЛЕКЦИЯ 6
- •Типовые законы распределения
- •ЛЕКЦИЯ 7
- •Функции одного случайного аргумента
- •Закон распределения функции случайного аргумента
- •Числовые характеристики функции случайного аргумента
- •Характеристическая функция случайной величины
- •Двухмерная функция распределения
- •Матрица распределения
- •Двухмерная плотность распределения
- •Зависимые и независимые случайные величины
- •Условные законы распределения
- •ЛЕКЦИЯ 9
- •Числовые характеристики двухмерных величин
- •Условные числовые характеристики
- •ЛЕКЦИЯ 10
- •Нормальный закон распределения на плоскости
- •Закон распределения функции двух случайных величин
- •Многомерные случайные величины
- •ЛЕКЦИЯ 11
- •Числовые характеристики функции многих переменных
- •Числовые характеристики суммы случайных величин
- •Числовые характеристики произведения случайных величин
- •ЛЕКЦИЯ 12
- •Закон больших чисел
- •Центральная предельная теорема
- •ЛЕКЦИЯ 13
- •Математическая статистика. Основные понятия
- •Оценка закона распределения
- •ЛЕКЦИЯ 14
- •Точечные оценки числовых характеристик
- •Оценка параметров распределения
- •Интервальные оценки числовых характеристик
- •ЛЕКЦИЯ 15
- •Проверка статистических гипотез
- •Критерии согласия
- •Статистические критерии двухмерных случайных величин
- •ЛЕКЦИЯ 17
- •Оценка регрессионных характеристик
- •Метод наименьших квадратов
- •ЛИТЕРАТУРА
ЛЕКЦИЯ 11 |
|
|
|
|
|
|
|
|
|
Числовые характеристики функции многих переменных |
|
||||||
Пусть Y = ϕ(x1 , x2 |
,…,xn), где Х1 , Х2 ,…Хn |
- случайные величины с |
||||||
известной совместной n-мерной плотностью вероятностей f ( x1 ,x2 ....xn ). |
||||||||
Начальные моменты величины Y определяются по формуле |
|
|
||||||
α k ( y ) |
= M [Y k ] = |
∞∫ ... ∞∫ ϕ k ( x1 , ..., x n ) f ( x1 , ..., x n ) d x1 ...d x n |
, |
(11.1) |
||||
|
|
−∞ |
−∞ |
|
|
|
|
|
а центральные моменты − по формуле |
|
|
|
|
||||
µk ( y) = M [(Y − mY )k ] = ∞∫ ... ∞∫ (ϕ(x1 ,..., xn ) − mY )k f (x1 ,..., xn )dx1...dxn , |
(11.2) |
|||||||
причем |
|
|
−∞ |
−∞ |
|
|
|
|
mY |
= M[Y] = M[ϕ(x1,..., xn )] =α1(y) , |
|
|
|||||
|
|
(11.3) |
||||||
|
|
|
DY = µ2 ( y) = α2 ( y) − mY2 . |
|
(11.4) |
|||
В |
случае, когда |
совместная |
плотность |
вероятности |
аргументов |
|||
f ( x1 ,x2 |
....xn )неизвестна, а известны числовые характеристики аргументов, то |
|||||||
задача определения числовых характеристик Y разрешима только для |
||||||||
определения классов функций ϕ. |
|
|
|
|
||||
|
Числовые характеристики суммы случайных величин |
|
||||||
|
n |
|
|
|
|
|
|
|
Пусть Y = ∑ Xi |
, где Х1 , Х2 ,…Хn |
- случайные величины с известными |
||||||
|
i=1 |
|
|
|
|
|
|
|
числовыми характеристиками:
-вектор математических ожиданий M=(m1,m2,…mn);
-вектор дисперсий D=(D1,D2,…Dn);
-корреляционная матрица 
Kij 
.
Теорема о математическом ожидании суммы случайных величин.
Математическое ожидание суммы случайных величин равно сумме математических ожиданий слагаемых:
M [Y ] = M |
n |
|
n |
|
∑Xi |
= ∑mi . |
(11.5) |
||
i=1 |
|
i=1 |
|
|
Доказательство. Пусть n = 2, т.е. Y = Х1 + Х2 и предположим, что слагаемые непрерывные случайные величины с некоторой совместной
плотностью распределения f (x1, x2 ) . Тогда
m Y |
= M [ X 1 + X 2 ] = |
∞∫ ∞∫ ( x1 + x 2 ) f ( x1 , x 2 ) d x1 d x 2 = |
|
|
−∞ −∞ |
= |
∞∫ ∞∫ x1 f ( x1 , x 2 ) d x1 d x 2 + ∞∫ ∞∫ x 2 f ( x1 , x 2 ) d x1 d x 2 = m1 + m 2 . |
|
−∞ −∞ |
−∞ −∞ |
|
52
Аналогично и для дискретных слагаемых. Используя метод математической индукции, легко доказать, что теорема справедлива для любого n.
Теорема о дисперсии суммы случайных величин. Дисперсия суммы случайных величин равна сумме всех элементов корреляционной матрицы слагаемых:
D[Y
=M
|
D[Y ] |
= D ∑Xi |
= ∑∑Kij = ∑Di + 2∑ ∑ Kij . |
|
|||||||||||
|
|
|
|
n |
|
|
n n |
|
n |
|
|
n |
n |
|
|
Доказательство: |
i=1 |
|
|
i=1 j=1 |
|
i=1 |
|
i=1 j=i+1 |
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
||||
] = M [(Y − mY )2 |
] = |
|
|
n |
n |
|
2 |
|
|
n |
|
2 |
= |
||
M |
|
∑ X i − ∑ mi |
|
= M |
|
∑ X i |
|
||||||||
|
|
|
|
|
|
i =1 |
i =1 |
|
|
|
|
i =1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n n |
|
n |
n |
|
|
|
n |
n |
|
|
n |
|
|
n n |
|
∑ ∑ X i X j |
= ∑ ∑ M X i X j |
= ∑ ∑ K ij = ∑ Di + 2∑ ∑ |
||||||||||||
|
i =1 j =1 |
|
i =1 j =1 |
|
|
|
i =1 j =1 |
|
i =1 |
|
|
i =1 j =i +1 |
|||
(11.6)
K ij .
Следствие. Дисперсия суммы некоррелированных случайных величин равна сумме дисперсий этих величин, так как Kij = 0, i, j :
n
Если Y = a0 +∑ai Xi ,
i=1
D |
n |
|
n |
|
∑X i |
= ∑Di . |
(11.7) |
||
i=1 |
|
i=1 |
|
|
a i - не случайные коэффициенты, то математическое
ожидание и дисперсия Y равны:
|
|
n |
|
n |
|
mY |
= M a0 + ∑ai X i |
= a0 + ∑ai mi ; |
(11.8) |
||
|
|
i=1 |
|
i=1 |
|
|
n |
|
n |
n n |
|
DY = D a0 +∑ai Xi |
= ∑ai2 Di + 2∑∑ ai aj Kij . |
(11.9) |
|||
|
i=1 |
|
i=1 |
i=1 j=i+1 |
|
Это легко доказать, используя (11.6), (11.7) и свойства математического ожидания (M[c] = c, M[X+c] = mX + c , M[c X] = c mX ) и дисперсии (D[c] = 0,
D[X+c] = DX, D[c X] = c2 DX).
Пример. Докажем, что абсолютная величина корреляционного момента двух случайных величин не превышает среднего геометрического их дисперсий:
|
|
Kxy ≤ |
Dx Dy |
или |
|
Kxy |
|
≤σx σy . |
|
|||||
|
|
|
|
|
||||||||||
|
Введем в |
рассмотрение |
случайные |
величины Z1 =σY X −σXY, |
||||||||||
Z2 =σY X +σYY, и вычислим их дисперсии по формуле (11.9): |
|
|||||||||||||
|
D[ Z1 ] = 2σ X2 σ Y2 − 2σ X σ Y K XY ; D[Z 2 ] = 2σ X2 σY2 + 2σ X σY K XY . |
|
||||||||||||
Так |
как |
дисперсия |
всегда |
неотрицательна, |
то |
|||||||||
2σX2σY2 −2σXσY KXY ≥0 σX σY ≥ KXY и 2σX2 σY2 + 2σX σY K XY ≥ 0 −σ X σ Y ≤ K X Y . |
||||||||||||||
Таким образом, −σ X σY ≤ K XY |
≤ σX σY |
|
|
K X Y |
|
≤ σ X σ Y . |
|
|||||||
|
|
|
||||||||||||
53
Числовые характеристики произведения случайных величин
n
Пусть Y = ∏ X i , где Х1 , Х2 ,…Хn - случайные величины с известными
i =1
числовыми характеристиками:
-вектор математических ожиданий M=(m1,m2,…mn);
-вектор дисперсий D=(D1,D2,…Dn);
-корреляционная матрица 
Kij 
.
Теорема о математическом ожидании произведения случайных величин. Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс ковариация:
mY = M [ X1 X 2 ]= m1m2 + K12 . |
(11.10) |
Доказательство. По определению ковариация равна:
K12 = M [ X1 X 2 ] = M [( X1 − m1 )( X 2 − m2 )] = M [ X1 X 2 − m1 X 2 − m2 X1 + m1m2 ] =
M [ X1 X 2 ] − m1M [ X 2 ] − m2 M [ X1 ] + m1m2 = M [ X1 X 2 ] − m1m2 .
Откуда следует формула (11.10).
Следствие. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий:
mY = M |
|
n |
|
n |
(11.11) |
|
∏ X i |
= ∏ mi |
|||
|
|
i =1 |
|
i =1 |
|
Доказательство: Пусть n = 2. Для |
независимых случайных величин |
||||
Kij = 0, i, j , тогда формула (11.10) примет вид mY |
= M [ X1 X 2 ]= m1m2 . |
||||
Используя метод математической индукции, легко доказать, что (11.11) справедлива для любого n.
Теорема о дисперсии произведения случайных величин. Дисперсия произведения независимых случайных величин равна
DY |
|
n |
|
n |
n |
(11.12) |
= D |
∏ X i |
= ∏ ( Di + m i2 ) − ∏ m i2 |
||||
|
|
i =1 |
|
i =1 |
i =1 |
|
Доказательство: По определению дисперсия равна
n |
|
|
n |
2 |
|
n |
2 |
n |
|
n |
n |
|
D ∏Xi |
= M |
∏Xi |
|
− M ∏Xi |
= M ∏Xi2 |
|
−∏mi2 =∏ |
|||||
i=1 |
|
|
i=1 |
|
|
|
i=1 |
|
i=1 |
|
i=1 |
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
n
(Di +mi2 ) −∏mi2 .
i=1
Следствие. Дисперсия произведения независимых центрированных случайных величин равна произведению дисперсий этих величин:
DY |
|
n |
|
|
n |
|
(11.12) |
= D |
∏ X i |
= ∏ Di . |
|||||
|
|
i = |
1 |
|
i = |
1 |
|
54
