- •Глава 1 Случайные события
- •1.1. Вводные понятия
- •1.2. Алгебра событий
- •1.4. Схема геометрической вероятности
- •1.5. Условные вероятности. Независимость событий
- •1.6. Правила вычисления вероятностей сложных событий
- •1.8. Обобщения схемы Бернулли
- •Глава 2 Случайные величины
- •2.1. Основные понятия, связанные со случайной величиной
- •2.3. Закон распределения случайной величины дискретного типа
- •2.5. Случайные величины непрерывного типа и их законы распределения
- •2.7. Нормальное распределение
- •Глава 3Случайные векторы
- •3.1. Основные понятия. Свойства функции распределения
- •3.2. Случайные векторы дискретного типа и их законы распределения
- •3.4. Числовые характеристики случайного вектора дискретного типа
- •3.5. Случайные векторы непрерывного типа и их законы распределения
- •Глава 4. Функции от случайных величин
- •4.1. Теоремы о математическом ожидании функций
- •4.3. Характеристическая функция и ее свойства
- •4.4. Законы распределения функций
- •Глава 5 Законы больших чисел и предельные теоремы теории вероятностей
- •5.1. Законы больших чисел
- •5.2. Центральная предельная теорема
- •5.3. Следствия ЦПТ для схемы Бернулли
- •Глава 6. Статистическое оценивание
- •6.1. Первичная обработка выборки
- •6.2. Точечное оценивание неизвестных характеристик генерального
- •6.4. Интервальное оценивание
- •Глава 7.Проверка статистических гипотез
- •7.1. Общие понятия. Методика проверки
- •7.2. Выбор критической области
- •7.4. Проверка гипотез о законе распределения
- •Глава 8.Корреляционный анализ
- •Глава 9Регрессионный анализ
- •Глава 10.Однофакторный дисперсионный анализ
- •Литература
|
f X (x) = |
|
1 |
|
|
+∞ |
|
|
|
|
|
dy |
|
|
|
|
|
= |
|
|
1 |
|
+∞ |
|
|
|
dy |
|
|
|
|
|
= |
|
||||||||
|
|
|
|
∫ 1 + x2 + y2 + x2 |
y2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
π2 |
|
|
|
|
π2 |
∫ (1 + x2 ) (1+ y2 ) |
|
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
−∞ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
_ ∞ |
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
1 |
|
|
1 |
|
|
+∞ |
dy |
|
|
|
1 |
|
|
|
1 |
|
|
|
1 |
|
|
|
|
|
|
+∞ |
|
1 |
|
|
|
|
1 |
|
|
|||||
= |
|
|
|
|
|
|
|
|
∫ |
|
|
= |
|
|
|
|
|
|
|
|
|
|
|
|
arctg( y) |
|
= |
|
|
|
|
|
|
|
. |
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
π(1 |
+ x2 ) |
|
π |
|
1+ y2 |
|
|
|
|
|
π |
1 |
+ x |
2 |
|
|
π |
|
|
|
|
|
|
−∞ |
|
π |
|
|
(1 + x2 ) |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
−∞ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Полученная плотность соответствует распределению Коши. |
|
|||||||||||||||||||||||||||||||||||||||||
Аналогично |
|
f |
( y) = |
1 |
|
|
1 |
|
f |
X ,Y |
(x, y) = f |
x |
(x) |
f |
y |
( y) и |
||||||||||||||||||||||||||
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
Y |
|
π |
(1 |
+ y2 ) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
компоненты X и Y независимы. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
Пример 8. Пусть Х1, Х2,…Хn |
независимы и Xk N(mk,σk). Построить |
|||||||||||||||||||||||||||||||||||||||||
плотностьсовместногораспределения компонентвектораХ= (X1,X2…Xn). В силу (3.5) для общего случая n-мерного вектора
f |
|
(x , x ...x ) |
= |
n |
f |
|
(x |
) = |
|
n |
|
|
|
|
1 |
|
|
|
|
1 |
(x |
|
−m |
)2 |
|
||||||
|
∏ |
|
∏ |
|
|
|
2π |
exp − |
|
, |
|||||||||||||||||||||
|
X |
1 2 |
n |
|
|
X k |
|
|
k |
σ |
k |
|
|
|
2 |
σ2 |
|
k |
|
|
k |
|
|
||||||||
|
|
|
|
|
k =1 |
|
|
|
|
|
|
|
k =1 |
|
|
|
|
|
|
|
k |
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
1 |
|
n |
(x |
− m ) |
2 |
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
fX (x1...xn ) = |
|
|
|
|
|
|
|
|
|
|
|
exp − |
|
|
|
k |
|
|
k |
|
|
- |
|
||||||
|
|
|
|
n |
|
|
|
|
|
|
2 |
∑ |
|
σ2 |
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
k =1 |
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
(2π) 2 σ |
|
... |
σ |
n |
|
|
|
|
|
k |
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
плотность n-мерного распределения с независимыми компонентами.
Замечание. Если X и Y нормальны, но зависимы, то плотность век-
тора (X,Y) записывается следующим образом: f X ,Y (x, y) = C e−Q(x, y) ,
где С - нормировочная константа; Q - неотрицательно определенная квадратичная форма двух переменных.
Более подробная запись двумерной плотности и свойства двумерного распределения приводятся в [2].
Глава 4. Функции от случайных величин
4.1. Теоремы о математическом ожидании функций
58
Определение. Пусть на вероятностном пространстве {Ω,F,P} заданы случайные величины X(w) и Y(w) и z = ϕ(x,y) - действительная функция от двух переменных. Тогда Z = ϕ(X,Y), при определенных условиях на случайные величины X и Y будет являться случайной величиной, определенной на том же вероятностном пространстве.
Теорема 4.1 (новая формула для математического ожидания).
Пусть X случайная величина дискретного типа с заданным законом распределения. Пусть математическое ожидание M[X] существует.
M [X ]= ∑X (wi ) P(wi ). |
(4.1) |
i |
|
Известна следующая формула, вытекающая из определения математического ожидания:
n |
|
M [X ]= ∑xk P{X = xk } . |
(4.2) |
k =1
Различие формул (4.1) и (4.2) состоит в том, что в (4.1) возможны повторные значения X(wi).
Разобьем все элементарные исходы на блоки:
Bk = {wi X(wi) = xk, i Ik},
где Ik множество индексов k-го блока.
По правилам теории вероятностей можем записать:
P{X = xk } = P(Bk ) = ∑P(wi ).
i Ik
Преобразуем (4.2) следующим образом:
n |
n |
M [X ]= ∑xk ∑P(wi ) = ∑∑xk P(wi ) = |
|
k =1 i Ik |
k =1i Ik |
n |
|
= ∑∑X (wi ) P(wi ) = ∑X (wi ) P(wi ), |
|
k =1i Ik |
i |
что и требовалось доказать. 
Теорема 4.2 (о математическом ожидании функции). Пусть Х -
СВДТ с заданным законом распределения и Z = ϕ(X) - новая случайная величина, где ϕ(х) - некоторая действительная функция действительной переменной.
59
n
Тогда M [Z ]= ∑ϕ(xk )P{X = xk }.
k =1
Используем разбиение на блоки из теоремы 4.1.
M [Z ]= ∑Z (wi ) P(wi ) = ∑ϕ(X (wi )) P(wi ) = ∑∑ϕ(X (wi )) P(wi ) =
i |
|
i |
|
k i Ik |
|
|
n |
|
n |
= ∑∑ϕ(xk ) P(wi ) = ∑ϕ(xk ) ∑P(wi ) = ∑ϕ(xk ) P{X = xk }, |
||||
k i Ik |
|
k =1 |
i I |
k =1 |
что и требовалось доказать. |
|
|
||
Обобщение теоремы 4.2. |
|
|
||
∑∑ |
ϕ(xi , y j ) pij , если(x, y) СВДТ; |
|||
|
|
|||
i |
j |
|
|
(4.3) |
M [ϕ(X ,Y )]= +∞+∞ |
|
|
||
∫ |
∫ϕ(x, y) f X ,Y (x, y)dxdy, если(x, y) СВНТ. |
|||
−∞−∞ |
|
|
|
|
Замечание. Как показывает (4.3), для вычисления математического ожидания от функции Z = ϕ(X,Y) не обязательно знать закон распределения этой новой случайной величины, достаточно знать закон распределения того вектора, от которого она зависит.
Пример 1. На круговом индикаторе цели радиусом а наблюдается световое пятно - отраженный импульс от цели. Будем считать, что на этапе поиска цели пятно появляется наудачу в месте экрана. Найти среднее (по распределению) значение расстояния от центра экрана до светового пятна.
Формализуем задачу: пусть (X,Y) - случайные координаты центра пятна (случайная точка на плоскости). По описанию эксперимента
(X,Y) R (в круге радиусом a)
0, еслиточка внекруга(x2 + y2 ≥ z2 ); |
||||||||||
|
1 |
|
|
|
2 |
|
2 |
|
2 |
|
f X ,Y (x, y) = |
|
, если |
x |
+ y |
< a |
. |
||||
|
π a |
2 |
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
Нас интересует M[Z], где Z = ϕ(X ,Y ) =
X 2 +Y 2 . По формуле (4.3)
60
|
X |
2 |
+Y |
2 |
|
|
∫ |
x |
2 |
+ y |
2 |
|
dxdy |
= |
|
|
|
|
|||||
M |
|
|
= |
|
|
|
|
π a |
2 |
|
|
|
|
||||||||||
|
|
|
|
|
|
Sкруга |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
переходимкполярнойсистемекоординат |
|
|
1 |
|
2π |
a |
2 |
|
|||||||||||||||
|
|
|
∫dϕ∫r |
dr = |
|||||||||||||||||||
= x = r cos(ϕ), y = r sin(ϕ),dxdy = rdrdϕ. |
|
|
= |
|
|
|
|
||||||||||||||||
|
π a |
2 |
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
0 |
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
= 2 π |
|
a3 |
|
1 |
= |
|
2 |
a. |
|
|
|
|
|
|
|
|
|
||||
|
|
3 |
π a2 |
3 |
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
Замечание. Формула (4.3) позволяет в записи моментов случайного вектора ввести оператор математического ожидания. Например, для начальных моментов СВНТ имеем
αk,s = M [X k Y s ]= {ϕ(x, y) = xk ys }= +∞∫ +∞∫xk ys fX ,Y (x, y)dxdy,
−∞ −∞
что совпадает с определением из параграфа 3.4.
В частности, DX = M [(X − mX )2 ], т.е. дисперсия - математическое ожидание квадрата центрированной случайной величины.
|
|
o o |
, |
|
|
|
KX,Y = M X Y |
||
|
|
|
|
|
o |
o |
|
|
|
где X = X − mX , Y |
= Y − mY - центрированные компоненты СВ, т.е. |
|||
ковариация, есть математическое ожидание произведения центрированных случайных величин.
4.2. Свойства числовых характеристик случайного вектора
Свойство 1. Линейность математического ожидания.
M [a X + b Y + c]= a M[X ] + b M[Y ] + c.
M [a X + b Y + c]= M[ϕ(X ,Y )] = {ϕ(x, y) = ax + by + c}=
проведемдоказательство |
= |
∑∑ |
(a xi +b y j + c)pij = |
|
= |
|
|||
для дискретногослучая |
|
|
|
|
|
|
|
i j |
|
61
= a ∑∑xi pij + b ∑∑y j pij + c ∑∑pij = i j i j i j
= a ∑xi ∑pij +b ∑yi ∑pij + c = a ∑xi pi• +b ∑y j p• j + c =
i |
j |
i |
j |
i |
j |
= a M [X ] + b M[Y ] + c.
Следствия из свойства 1:
1)M[c] = c;
2)M[aX] = aM[X];
3)если X ≥ 0 M[X] ≥ 0 Y ≥ X M[Y] ≥ M[X].
Свойство 2.
D[a X +b Y + c]= a2 D[X ] + b2 D[Y ] + 2 a b KX ,Y .
По новому определению дисперсии:
∆ |
|
|
o 2 |
|
|
|
∆ |
|
|
|
|
|
|
|
D[Z ]=M[Z ] D[a X + b Y + c]= |
|
|
|
|
|
|
|
|||||||
∆ |
|
|
|
|
|
|
|
|
|
o |
o |
2 |
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
=M[(a X +b Y + c − M [a |
X +b Y + c]) ] = M |
|
|
|
= |
|||||||||
a X +bY |
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
= M[a |
2 |
o |
2 |
2 o 2 |
o |
o |
раскрываемскобки |
результат. |
||||||
|
X |
+b |
Y |
+ 2ab X Y ] = |
|
|
|
|||||||
|
|
|
|
|
|
|
посвойству1 |
|
|
|
|
|
|
|
Следствия из свойства 2:
1)D[aX ] = a2 D[X ] ;
2)D[X] ≥ 0;
3)D[c] = 0;
4)если D[X] = 0 X = const.
Свойство 2 в общей формулировке:
n |
|
n |
n n |
D ∑ak X k + c = ∑ak2 D[X k ] + 2∑ ∑ai a j Ki, j , |
|||
k =1 |
|
k =1 |
i=1 j=1 |
|
|
|
i< j |
o o
где Ki, j = M[X i Y j ].
62
Определение 1. Случайные величины X и Y называются некорре-
лированными, если KX,Y = 0. Свойство 3.
M[XY] = M[X] M[Y] + KX,Y.
∆ |
раскрываемскобки |
|
|
K X ,Y =M[(X − mX ) (Y − mY )] = |
|
||
|
ииспользуемсвойство1 |
|
|
результат.
Напрактикеэтосвойствоиспользуется длявычисленияковариации:
K X ,Y = α1,1 − mX mY .
Следствие из свойства 3.
Если KX,Y = 0, то M[XY] = M[X] M[Y].
Замечание. Для большего числа случайных величин ( ≥3) некоррелированности недостаточно для расщепления математического ожидания произведения в произведение математических ожиданий. В этом случае должна выполняться независимость в совокупности.
M[XYZ] = M[X] M[Y] M[Z], если X,Y,Z независимы в совокупности.
Свойство 4. Если X и Y независимы, то D[XY] = D[X] D[Y] +
+ m2X D[Y] + m2Y D[X].
Выразить дисперсии через математическое ожидание и воспользоваться свойствами 1, 3. 
Свойство 5. Неравенство Коши-Буняковского:
M 2[XY] ≤ M[X 2] M[Y 2].
Рассмотрим неравенство M[(aX + Y)2] ≥ 0, а R или M[a2X 2+ + 2aXY + Y 2] = {по свойству линейности} = a2M[X 2] + 2aM[XY] + M[Y 2] ≥ 0
дискриминант = 4 M 2[XY] – 4 M[X 2]M[Y 2] ≤ 0 результат. 
Следствия из свойства 5:
1) приY ≡ 1 M 2[X] ≤ M[X 2] (илиm2Y ≤ α2): если α2 α1 = mX;
2) если α4, то существуют и α1, α2, α3.
Для доказательства использовать неравенство КошиБуняковского); 
3) |КХ,Y| ≤ σXσY
63
|
В неравенстве Коши-Буняковского |
|
|
o |
o |
|||||||||
|
заменим X→ X , Y→Y |
|||||||||||||
M 2 |
o o |
o 2 |
o 2 |
|
|
|
|
|
|
|
|
|
|
|
[X Y ] |
≤ M[X ]M[Y ] K 2 |
≤ D |
X |
D |КХ,Y| ≤ σXσY. |
|
|||||||||
|
|
|
X ,Y |
|
|
|
Y |
|
|
|
|
|||
|
Определение 2. Число ρX ,Y = |
|
K X ,Y |
называется коэффициен- |
||||||||||
|
σ |
X |
σ |
|||||||||||
|
|
|
|
|
|
|
Y |
|
|
|
|
|||
том корреляции случайных величин X и Y . |
|
|
|
|
||||||||||
|
Определение 3. Пусть X - случайная величина с характеристиками |
|||||||||||||
mX |
и σX. |
Тогда |
преобразованная |
величина |
U = |
X −mX |
|
называется |
||||||
σ |
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
Y |
|
||
стандартизованной случайной величиной, так как M[U] = 0, D[U] = 1, а само преобразование называется преобразованием стандартизации.
Проверим, например, что D[U] = 1.
|
X − mX |
|
|
1 |
|
1 |
|
|
D[U ] = D |
|
= |
D[X − mX ] = |
D[x] =1. |
||||
|
|
|
||||||
|
σX |
|
σ2X |
σ2X |
||||
Свойство 6. Преобразуем случайный вектор (X,Y) в (U,V) по пра-
вилу преобразования стандартизации: |
U = |
X −mX |
|
, V = |
Y −mY |
. Тогда |
||||||||||||||||||||||||||||
|
|
|
|
|
||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
σ |
|
|
|
|
|
|
|
|
|
|
|
σ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
|
|
|
ρU,V = ρX,Y. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
По определению |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
KU ,V |
|
|
|
|
|
|
|
∆ o o |
|
|
|
X |
− m |
|
|
|
Y |
− m |
|
|
||||||||||||
ρ |
= |
|
|
|
|
= K |
|
|
|
=M[U V ] = M[UV ] = M |
|
|
|
|
|
|
|
X |
|
|
|
|
|
|
Y |
|
= |
|||||||
σ σ |
U ,V |
|
|
σ |
|
|
|
|
|
σ |
|
|
|
|||||||||||||||||||||
U ,V |
|
|
|
|
|
|
|
|
|
|
|
|
X |
|
|
|
|
|
|
Y |
|
|
||||||||||||
|
|
U V |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
= |
1 |
|
|
|
M[(X −m |
X |
) (Y −m )] = |
K X ,Y |
|
|
= ρ |
X ,Y |
. |
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
σY σY |
|
|
|
|
|
Y |
|
σX σY |
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
Таким образом, показано, что преобразование |
|
|
стандартизации не |
|||||||||||||||||||||||||||||||
меняет коэффициента корреляции. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
Свойство 7. |
|
|
ρ X , Y |
|
|
≤1. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
Следует из определения ρX,Y и следствия 2 из свойства 5.
K X ,Y ≤ σX σY ρX ,Y ≤1 . 
64
Свойство 8. Пусть Y = aX + b ρX ,Y |
|
a |
1, |
если a > 0; |
|
= |
|
= |
если a < 0. |
||
a |
|||||
|
|
−1, |
Обратно. Если ρX ,Y = ±1 Y = aX + b,
где a > 0, если ρX ,Y = +1,
a < 0, если ρX ,Y = −1.
ПустьY = aX + b M[Y] = aM[X] + b, D[Y] = D[aX + b] = a2D[X].
∆ |
o |
o |
|
o |
|
|
|
o |
= a DX = a σ2X . |
|||||||||||||
K X ,Y =M X Y |
= M X (a X ) |
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
ρX ,Y = |
K X ,Y |
= |
|
a σ2X |
|
|
= |
|
|
a |
= ±1. |
|||||||||||
σ |
X |
σ |
σ |
X |
|
|
a |
|
σ |
|
|
|
a |
|
|
|||||||
|
|
|
|
|
||||||||||||||||||
|
|
|
|
Y |
|
|
|
|
|
|
|
|
X |
|
|
|
|
|
|
|||
Обратно. Пусть ρX ,Y = +1. Перейдем от (X,Y) к (U,V) путем преобразования стандартизации рассмотрим D[U −V ] = D[U ] + D[V ] − 2KU ,V =
=1+1− 2 ρU ,V σU σV = 2 − 2 = 0 . Так как D[U – V] = 0, то согласно следствию 4 из свойства 2 U – V = const = c.
|
|
U −V = |
X −mX |
− |
Y −mY |
= c |
||||||||||||
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
σ |
X |
|
|
|
|
|
σ |
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Y |
|
|
||
|
|
|
|
|
Y −mY |
= |
X −mX |
|
−c ; |
|||||||||
|
|
|
|
|
σ |
|
||||||||||||
|
|
|
|
|
|
|
|
σ |
X |
|
|
|
|
|||||
|
|
|
|
|
|
Y |
|
|
|
|
|
|
|
|
|
|||
Y = |
σY |
X + m |
− |
|
σY |
|
m |
|
−c σ |
|
Y = aX + b, где a > 0. |
|||||||
σX |
σX |
|
|
|
||||||||||||||
|
Y |
|
|
|
|
X |
|
|
|
|
|
X |
|
|
|
|
||
|
{ |
1444244443 |
|
|
|
|
||||||||||||
|
a |
|
|
|
|
|
b |
|
|
|
|
|
|
|
|
|
|
|
Случай ρX ,Y = −1 рассматривается аналогично. 
Пример 2. Пусть Y = –3X + 1. Вычислить ρX,Y.
Ответ: ρX,Y = –1. 
Свойство 9. Из независимости X и Y следует некоррелированность
X и Y.
Пусть X и Y СВНТ и независимы fX ,Y (x, y) = f X (x) fY ( y)
65
