
Конспект лекций Глазова / 5.3. Среднее и дисп лин ф-ции сл арг
.doc5.3. Среднее и дисперсия
линейной функции случайных аргументов.
Рассмотрим одномерную функцию
Y=(Х)
многомерного случайного аргумента. Если плотность fx(x) системы аргументов задана, то для полного статистического описания величины Y необходимо по fx(x) найти плотность fy(y), что в большинстве случаев является сложной задачей. Если в полном описании Y нет необходимости, может быть достаточным определение нескольких ее моментов. В соответствии с п. 5.2, начальные моменты величины Y найдутся из формулы
,
и аналогичным
образом - центральные моменты. Как видим,
в общем случае для определения моментов
величины Y
необходимо
знать многомерную плотность величины
Х
и выполнить многомерное интегрирование.
Однако, для некоторых простых функций
(х)
нет необходимости ни в том, ни в другом.
Наиболее простым и, одновременно,
наиболее важным примером такого рода
является определение первых двух
моментов линейной функции многих
переменных.
Пусть
Y= |
(5.3.1) |
где {ak} (k=1, 2, ..., n) и b - постоянные, n - число случайных аргументов; т. е. Y есть линейная функция n случайных аргументов. Далее для сокращения записей используем оператор усреднения и его линейность (см. формулу (5.2.5)). Практически линейность оператора усреднения сводится к двум простым правилам: постоянный множитель можно выносить за знак оператора, среднее от суммы функций равно сумме средних от них.
Математическое ожидание величины Y:
my=M(Y)=M()=
,
или
my= |
(5.3.2) |
где учтено, что математическое ожидание постоянной b равно самой этой постоянной, и обозначено mk=m(Xk). Сравнивая (5.3.2) с (5.3.1), можно заключить, что математическое ожидание линейной функции случайных величин равно той же функции математических ожиданий этих величин. Замечательно, что этот результат справедлив при любых взаимозависимостях между случайными аргументами Хk.
Следствие 1. Положив в (5.3.1) и (5.3.2) n=1, получим, что если Y=aX, то my=amx , т. е. постоянный множитель можно выносить за знак математического ожидания. Этот вывод не является новым: это свойство уже использовалось при выводе (5.3.2).
Следствие 2. Если ak=1 при всех k, b=0, то (5.3.1) примет вид
Y=,
а (5.3.2) - вид
my=,
т. е. математическое ожидание суммы случайных величин равно сумме их математических ожиданий. И этот очень важный для практических приложений вывод не нов: это ничто иное как свойство линейности оператора усреднения.
Пусть Y=X1X2 , т. е. Y - нелинейная функция двух случайных аргументов. Найдем математическое ожидание величины Y двумя способами.
Первый способ.
Записав
,
где верхним нулем обозначены центрированные
величины, и учтя, что M(X0)=0,
а
математическое ожидание неслучайной
величины равно ей самой, получим:
или
my=K1,2+m1m2 , |
(5.3.3) |
где K1,2 - ковариация случайных величин X1, X2 . Таким образом, математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс их ковариация.
Второй способ. Учитывая интерпретацию моментов как средних от функций случайных аргументов и соотношение (см. п. 4.2)
,
имеем
my=M(X1X2)=(X1
, X2)=
(X1
, X2)+m1m2
,
и поскольку
(X1
, X2)=K1,2
, получаем
тот же результат (5.3.3).
Следствие 3. Из (5.3.3) видно, что среднее от произведения двух случайных величин тогда и только тогда равно произведению их средних, когда они не коррелированы, т. е. когда K1,2=0.
Вернемся к линейной функции вида (5.3.1) и найдем ее дисперсию. Сначала центрируем Y, вычитая из (5.3.1) равенство (5.3.2):
Y0=Y-my=[,
или
Y0=.
Теперь, учитывая, что дисперсия равна среднему от квадрата центрированной величины, находим:
Dy=M[(Y0)2]=M[()2]=
=M(,
или
Dy= |
(5.3.4) |
где Kks
- ковариация
между Xk
и Xs
.
Обозначив
,
перепишем результат в виде
Dy= |
т. е. Dy - линейная функция ковариаций системы {Xk}. Если ввести вектор-столбец a={ak}, k=1, 2, ..., n, и вспомнить о ковариационной матрице K={Kks}, то выражение (5.3.4) можно записать в виде
Dy=aTKa.
Поскольку K - неотрицательно определенная матрица, квадратичная форма справа не принимает отрицательных значений ни при каких коэффициентах аk , что и следовало ожидать, т. к. дисперсия не может быть отрицательной. Но при некоторых наборах коэффициентов аk Dy может обратиться в нуль, что мы увидим в частных случаях.
Учтем теперь, что при равных индексах Kkk=Dk , и Kks=Ksk , т. е. диагональные элементы матрицы K суть соответствующие дисперсии, и эта матрица симметричная. Тогда (5.3.4) запишется в виде
Dy= |
(5.3.5) |
Из этой формулы видно, что Dy равна взвешенной сумме дисперсий случайных аргументов плюс некоторый член, вклад в который дают те пары величин Хk , ковариация между которыми не равна нулю.
Следствие 4. Если все случайные аргументы попарно не коррелированы, Dy равна взвешенной сумме дисперсий этих величин:
Dy= |
Действительно,
при этом все Kks=0
при
ks
, и
второй член справа в (5.3.5) исчезает.
Следствие 5. Дисперсия суммы случайных величин равна
Dy= |
(5.3.6) |
Действительно, если аk=1 при всех k, и b=0, то в (5.3.1) Y превращается в сумму случайных величин:
Y=,
а (5.3.5) переходит в (5.3.6).
Следствие 6. Дисперсия суммы некоррелированных величин равна сумме их дисперсий:
Dy= |
(5.3.7) |
Действительно, в этом случае все ковариации равны нулю и второй член справа в (5.3.6) исчезает.
Этот важный результат, имеющий большое значение в приложениях, в частности, в теории ошибок, часто неверно интерпретируют, утверждая, что равенство (5.3.7) справедливо при независимости случайных слагаемых. Как мы видим, для справедливости этого равенства достаточно некоррелированности слагаемых.
Следствие 7. Постоянный множитель можно выносить из под знака дисперсии с квадратом:
D(aX)=a2D(X). |
(5.3.8) |
Действительно, этот результат следует из (5.3.5), если положить n=1 и обозначить буквой а единственный оставшийся коэффициент.
Извлекая из обеих частей равенства (5.3.8) положительный квадратный корень, получаем
,
т. е. постоянный множитель можно выносить из под знака с. к. о. с модулем.
Рассмотрим важный и поучительный частный случай, когда
Y=X1+X2 .
Полагая в (5.3.6) n=2, получаем
Dy=D1+2K12+D2.
Выразив ковариацию
через коэффициент корреляции
r
между
Х1
и Х2:
K12=r,
получим
Dy= |
(5.3.9) |
Поучительно
проследить, как меняется Dy
по мере
изменения r.
Зависимость
Dy
от r
линейна; при r=-1
Dy
достигает
минимального (при данных
)
значения (
)2;
при r=1
Dy
достигает
максимального значения (
)2;
при
r=0
Dy=
.
Пусть в рассматриваемом
частном случае
,
тогда (5.3.9) примет вид
.
По-прежнему
зависимость Dy
от r
линейна, причем при r=-1
Dy
принимает
минимальное значение Dy=0,
при r=1
- максимальное
значение Dy=4,
при r=0
Dy=2
.
Смысл этих значений дисперсии Dy
суммы
двух СВ таков: при r=-1
величины
Х1
и Х2
меняются в разных направлениях - с
увеличением Х1
настолько же уменьшается Х2
и наоборот, так что сумма Х1+Х2
остается постоянной, т. е. неслучайной
и ее дисперсия равна нулю (эта возможность
предсказана выше); при r=1
величины
Х1
и Х2
меняются в одном направлении - с
увеличением одной увеличивается и
другая и наоборот, поэтому дисперсия
их суммы достигает наибольшего значения;
при r=0
корреляция отсутствует и дисперсия
суммы СВ принимает некоторое среднее
значение.
Обратим внимание на то, что хотя в правую часть (5.3.1) входит слагаемым величина b, в формулу (5.3.4) для дисперсии Dy эта величина не входит; это значит, что дисперсия СВ не меняется от прибавления к ней неслучайной величины. Смысл этого прост: дисперсия, как и всякий центральный момент, не меняется при сдвиге распределения в целом, т. е. при прибавлении детерминированной величины.
Рассмотрим еще один частный случай:
Y=X1-X2 .
В выражении (5.3.1) этому случаю соответствуют: n=2, a1=1, a2=-1. Подставляя эти значения в (5.3.5), получаем:
Dy=D1-2K12+D2=.
Как и в предыдущем
частном случае, Dy
зависит
от r
линейно; при r=1
Dy
достигает
(при данных
)
минимального значения (
)2;
при r=-1
- максимального
значения (
)2;
при r=0
Dy=
.
Обратим внимание на то, что в отсутствие
корреляции дисперсия разности получилась
та же самая, что и дисперсия суммы. Это
частный случай более общей закономерности:
как следует из (5.3.5), при отсутствии
корреляций (Kks=0
при
k
s)
и аk=
1,
Dy=
и не зависит от знаков коэффициентов ak .
В п. 4.4 было дано определение линейной статистической зависимости между X и Y как возможности однозначного представления
Y=aX+b+Z |
(4.4.10) |
при а0.
Там же со ссылкой на данный пункт принято,
что, если а
определено из условия максимума Dz
, то
|
(4.4.11) |
Докажем это теперь. Равенство (4.4.10) принимает вид (5.3.1), если положить n=2, a=a1 , X=X1 , Z=X2 , a2=1. Поэтому, учитывая эти переобозначения, из (5.3.6) находим
Dz=D[Y-aX-b]=Dy-2aKx,y+a2Dx . |
(5.3.10) |
Чтобы найти значение а, максимизирующее Dz , продифференцируем (5.3.10) по а и результат приравняем нулю:
,
откуда
a==Kx,y/Dx
,
(
называется
коэффициентом регрессии Y
на Х).
Подставляя это значение а
в (5.3.10), окончательно получаем (4.4.11).
В п. 3.7 было принято, со ссылкой на данный пункт, что среднее и дисперсия биномиального распределения, соответственно, равны:
m=np, D=npq.
Покажем это теперь. Как указано в п. 3.7, случайную величину, имеющую биномиальное распределение, можно рассматривать как сумму n независимых СВ, каждая из которых имеет распределение Бернулли:
xi |
0 |
1 |
pi |
1-р |
р |
Там же найдено, что СВ с распределением Бернулли имеет
mx=p, Dx=pq.
Поэтому, используя Следствие 2 и Следствие 6, получаем
m=nmx=np, D=nDx=npq,
что и требовалось.