Лекции / Лекции (МП-3 Земсков) / Лекции (word) / Лекци11-12
.docЛекция 11.
Определения: случайные величины X и Y рассматриваются как компоненты некоторого вектора, называются независимыми, если функция распределения
F(x,y)=Fx(X)Fy(Y), (расщепляется на произвольные составляющие).
(x,y) R2.
Следствие (локальное определение независимости).
Из (1) (2)
(плотность также должна расшепляться).
Это определение обобщается на вектор размерности ( количество случайных величин, рассматриваемых в одном и том же вероятностном пространстве).
Пример 1. Пусть плотность вектора имеет вид
(x,y) R2.
Является X и Y независимыми?
Решение.
По свойству плотности
Полученная плотность является распределением Коши.
Аналогично,
независимы.
Пример 2. Пусть Х1, Х2,…Хn – независимы и XkN(mk,k).
Построить плотность совместного распределения компонент вектора Х=(х1,х2…хn).
Решение.
В силу (2) для общего случая n-мерного вектора:
,
-
плотность n-мерного распределения с независимыми компонентами.
Замечание. Если X и Y – нормальны, но зависимы, то плотность вектора (X,Y) записывается следующим образом:
где С – нормировочная константа;
Q – неотрицательная определенная квадратичная форма двух переменных.
Глава 4. Функция от случайных величин.
§ 4.1. Теоремы о математическом ожидании функций.
Определение. Пусть на вероятностном пространстве {Ω,F,P} заданы случайные величины X(w) и Y(w) и z=(x,y) – действительная функция от двух переменных Z=(X,Y), при определенных условиях на случайные величины X и Y будет являться случайной величиной определенной на том же вероятностном пространстве.
? Как вычислить математическое ожидание M[Z]?
Теорема 11.1. (новая формула для математического ожидания).
Пусть X – случная величина дискретного типа с заданным законом распределения. Пусть математическое ожидание M[X] существует.
(3)
Доказательство.
Нам известна следующая формула из определения математического ожидания:
. (4)
Отличие формул (3) и (4): в (3) возможны повторения значения X(wi).
Разобьем все значения X(wi) на блоки:
Bk={wiX(wi)=xk, iIk},
где Ik – множество индексов k-го блока.
По правилам теории вероятностей мы можем записать:
Преобразуем (4) следующим образом:
что и требовалось доказать.
Теорема 11.2. (о математическом ожидании функции).
Пусть Х – СВДТ с заданным законом распределения и Z=(X) – новая случайная величина, где (х) – некоторая действительная функция действительной переменной.
Тогда (5)
Доказательство.
Используем разбиение на блоки из Т.11.1.
что и требовалось доказать.
Обобщение теоремы 11.2.
(6)
Замечание. Как показывает (6) для вычисления математического ожидания от функции Z=(X,Y) не надо знать закон распределения этой новой случайной величины, а достаточно знать закон распределения, того вектора, от которого она зависит.
Пример 3. На круговом индикаторе цели радиуса а наблюдается световое пятно, отраженное импульсом от цели. Будем считать, что на этапе поиска цели пятно появляется наудачу в месте экрана.
Найти среднее (по распределению) значение расстояния от центра экрана до светового пятна.
Решение.
Формализуем задачу: пусть (X,Y) – случайные координаты центра пятна (точка). По описанию эксперимента:
(X,Y) R (в круге радиуса a)
Нас интересует M[Z],
где
По формуле (6):
Замечание. Формула (6) позволяет оправдать следующие обозначение для моментов случайного вектора ( типа):
что совпадает с определением из лекции10.
В частности, , то есть дисперсия – математическое ожидание квадрата случайной величины.
Kx,y=, где
Kx,y – ковариация.
§ 4.2. Свойства числовых характеристик случайного вектора.
-
Линейность.
Доказательство.
Для дискретного случая:
Следствия из свойства 1.
-
M[c]=c;
-
M[aX]=aM[X] (математическое ожидание как спектр);
-
Если X ≥ 0 M[X]≥ 0 Y ≥ X M[Y] ≥ M[X].
Доказательство.
По новому определению дисперсии:
Достаточно возвести в квадрат и воспользоваться свойством 1.
Лекция 12.
Следствия из свойства 2.
1)
2) D[X] ≥ 0;
3) D[c]=0;
4) Если D[X]=0 X-const.
Свойство 2 в общей формулировке:
Определение. Случайные величины X и Y называются некоррелированными, если KX,Y=0.
3. M[XY]=M[X]M[Y]+KX,Y.
Доказательство.
На практике это свойство используется для следующей записи:
Следствия из свойства 3.
Если KX,Y =0, то M[XY]=M[X]M[Y]
Замечание. Для большого числа случайных величин (≤ 3) некоррелированности недостаточно для распределения математического ожидания должны быть независимы в совокупности.
M[XYZ]=M[X]M[Y]M[Z], если X,M, Y, Z независимы в совокупности.
4. Если X и Y независимы D[XY]=D[X]D[Y]+m2x D[Y]+ m2y D[X]
-
Неравенство Коши-Буняковского
M 2[XY]=M[X 2]M[Y 2]
Доказательство.
Рассмотрим неравенство M[(aX+Y)2] ≥ 0, а R или M[a 2X+2aXY+Y] (по свойству линейностью) = a 2M[X 2]+2aM[XY]+M[Y 2] ≥ 0 (дискриминант =
= 4 M 2[XY]-4 M[X 2]M[Y 2] ≤ 0 результат.
Следствия из свойства 5.
1) При Y0 M 2[X] ≤ M[X 2] (или m2x ≤ 2 ) или: если 2 2 mx=1
Доказать, что если 4, то автоматически существует 1, 2, 3, используя неравенство Коши-Буняковского.
2) КХ,Y ≤ XY
Доказательство. В неравенстве Коши-Буняковского заменим X, Y КХ,Y ≤ XY
Определение Число называется коэффициентом корреляции случайных величин X и Y .
Определение. Пусть X случайная величина с характеристиками mx и x
Преобразованная величина ,
называется стандартизированной случайной величиной, так как
M[U]=0, D[U]=1.
-
Преобразуем случайные векторы (X,Y) в (U,V), где
(вектор (X,Y) подвергли преобразованию стандартизации), тогда U,V=X,Y.
Доказательство.
Таким образом, показано, что операция стандартизации не меняет коэффициента корреляции.
Доказательство.
Следует из определения X,Y и следствия 2 из свойства 5.
-
Пусть Y=aX+b
Обратно: Если Y=aX+b,
где a>0, если
a<0, если
Доказательство.
Пусть Y=aX+b M[Y]=aM[X]+b,
D[Y]=D[aX+b]=a2D[X].
Обратно.
Пусть Перейдем от (X,Y) к (U,V) путем преобразования стандартизации рассмотрим
.
Так как D[U-V]=0, то U-V=const=c.
;
Y=aX+b, где a>0.
Случай рассматривается аналогично.
-
Из независимости X и Y некоррелированность X и Y. Обратное не верно.
Доказательство.
Пусть X и Y СВНТ и независимы
Тот факт, что обратное неверное демонстрирует следующий пример.
Пример 1. Пусть (X,Y) – C вектор дискретного типа с законом распределения, описываемым следующей таблицей.
X\Y |
-1 |
0 |
1 |
-1 |
1/8 |
0 |
1/8 |
0 |
0 |
1/2 |
0 |
1 |
1/8 |
0 |
1/8 |
-
Показать, что (используя
-
Заметим, что ни в одной кдетке.
Пример 2. Пусть (X,Y) ~R (круге радиуса а). Показать, что , но X и Y – зависимы.
§ 4.3. Характеристическая функция и ее свойства.
Определение. Комплекснозначная функция действительного переменного t, определяемая равенством
, называется характеристической функцией случайной величины Х.
Воспользуемся формулой Эйлера:
Договоримся, что свойства линейности математического ожидания распространяется и на комплексные случайные величины.
Теорема 12.1.
Доказательство.
Для определения линейности, пусть Х-СВНТ =
=(по теореме 11.2) = (по формуле Эйлера)=
=, что и требовалась доказать.