- •1. Предмет теории вероятностей
- •Классическое определение вероятности
- •Геометрическое определение вероятности
- •Теорема сложения вероятностей и ее следствия
- •Условная вероятность
- •Теорема умножения вероятностей.
- •3. Формулы полной вероятности и формула Байеса
- •Определение
- •Свойства
- •Тождества
- •Числовые характеристики дискретных случайных величин
- •Зависимые и независимые случайные величины
- •Свойства
- •Свойства коэффициента корреляции
- •11. Числовые характеристики непрерывных случайных величин
- •Свойства
- •Определение
- •Свойства распределения Пуассона
- •Равномерное распределение.
- •Центральная предельная теорема Ляпунова.
- •Исправленная выборочная дисперсия
- •Определение
Зависимые и независимые случайные величины
Случайные величины называются независимыми, если закон распределения одной из них не зависит от того какое значение принимает другая случайная величина.
Понятие зависимости случайных величин является очень важным в теории вероятностей.
Условные распределения независимых случайных величин равны их безусловным распределениям.
Определим необходимые и достаточные условия независимости случайных величин.
Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы функция распределения системы (X, Y) была равна произведению функций распределения составляющих.
Аналогичную теорему можно сформулировать и для плотности распределения:
Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы плотность совместного распределения системы (X, Y) была равна произведению плотностей распределения составляющих.
Ковариа́ция в теории вероятностей — это мера линейной зависимости двух случайных величин.
Пусть X,Y — две случайные величины, определённые на одном и том же вероятностном пространстве. Тогда их ковариация определяется следующим образом:
,
в предположении, что все математические ожидания E в правой части определены.
Замечания
-
Если , то есть имеют конечный второй момент, то ковариация определена и конечна.
-
В гильбертовом пространстве несмещённых случайных величин с конечным вторым моментом ковариация имеет вид и играет роль скалярного произведения.
Свойства
-
Если X,Y — независимые случайные величины, то:
cov(X,Y) = 0
-
Но обратное утверждение, вообще говоря, неверно: из отсутствия ковариации не следует независимость. Пример:
Пусть случайная величина Z принимает значения , каждое с вероятностью . Тогда cosZ будет принимать значения -1, 0 и 1, каждое с вероятностью , а . Тогда cov(sinZ,cosZ) = 0, но
-
Ковариация случайной величины с собой равна дисперсии: cov(X,X) = D[X].
-
Ковариация симметрична:
cov(X,Y) = cov(Y,X).
-
В силу линейности математического ожидания, ковариация может быть записана как
.
-
Пусть случайные величины, а их две произвольные линейные комбинации. Тогда
.
В частности ковариация (в отличие от коэффициента корреляции) не инвариантна относительно смены масштаба, что не всегда удобно в приложениях.
-
Если α и β - числа, то
cov(X + α,Y + β) = cov(X,Y).
-
Неравенство Коши-Буняковского: если принять в качестве скалярного произведения двух случайных величин ковариацию , то норма случайной величины будет равна дисперсии , и Неравенство Коши-Буняковского запишется в виде:
Корреля́ция (корреляционная зависимость) — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом, изменения одной или нескольких из этих величин приводят к систематическому изменению другой или других величин. Математической мерой корреляции двух случайных величин служит коэффициент корреляции.
Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными (возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин).