Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
matan_3_semestr.doc
Скачиваний:
11
Добавлен:
25.12.2018
Размер:
837.12 Кб
Скачать

Зависимые и независимые случайные величины

Случайные величины называются независимыми, если закон распределения одной из них не зависит от того какое значение принимает другая случайная величина.

Понятие зависимости случайных величин является очень важным в теории вероятностей.

Условные распределения независимых случайных величин равны их безусловным распределениям.

Определим необходимые и достаточные условия независимости случайных величин.

Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы функция распределения системы (X, Y) была равна произведению функций распределения составляющих.

            Аналогичную теорему можно сформулировать и для плотности распределения:

Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы плотность совместного  распределения системы (X, Y) была равна произведению плотностей распределения составляющих.

           Ковариа́ция в теории вероятностей — это мера линейной зависимости двух случайных величин.

Пусть X,Y — две случайные величины, определённые на одном и том же вероятностном пространстве. Тогда их ковариация определяется следующим образом:

,

в предположении, что все математические ожидания E в правой части определены.

Замечания

  • Если , то есть имеют конечный второй момент, то ковариация определена и конечна.

  • В гильбертовом пространстве несмещённых случайных величин с конечным вторым моментом ковариация имеет вид и играет роль скалярного произведения.

Свойства

  • Если X,Y — независимые случайные величины, то:

cov(X,Y) = 0

  • Но обратное утверждение, вообще говоря, неверно: из отсутствия ковариации не следует независимость. Пример:

Пусть случайная величина Z принимает значения , каждое с вероятностью . Тогда cosZ будет принимать значения -1, 0 и 1, каждое с вероятностью , а . Тогда cov(sinZ,cosZ) = 0, но

  • Ковариация случайной величины с собой равна дисперсии: cov(X,X) = D[X].

  • Ковариация симметрична:

cov(X,Y) = cov(Y,X).

  • В силу линейности математического ожидания, ковариация может быть записана как

.

  • Пусть случайные величины, а их две произвольные линейные комбинации. Тогда

.

В частности ковариация (в отличие от коэффициента корреляции) не инвариантна относительно смены масштаба, что не всегда удобно в приложениях.

  • Если α и β - числа, то

cov(X + α,Y + β) = cov(X,Y).

  • Неравенство Коши-Буняковского: если принять в качестве скалярного произведения двух случайных величин ковариацию , то норма случайной величины будет равна дисперсии , и Неравенство Коши-Буняковского запишется в виде:

Корреля́ция (корреляционная зависимость) — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом, изменения одной или нескольких из этих величин приводят к систематическому изменению другой или других величин. Математической мерой корреляции двух случайных величин служит коэффициент корреляции.

Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными (возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]