- •ВВЕДЕНИЕ
- •Глава XIV ТЕОРИЯ ВЕРОЯТНОСТЕЙ
- •Раздел I
- •Виды случайных событий
- •Классическое определение вероятности
- •Основные формулы комбинаторики
- •Статистическое определение вероятности
- •Непосредственное вычисление вероятностей
- •§ 2. Теорема сложения вероятностей несовместных событий
- •§ 3. Условная вероятность. Теорема умножения вероятностей
- •§ 4. Теорема сложения вероятностей совместных событий
- •§ 5. Формула полной вероятности
- •§ 6. Формула Бейеса
- •§ 7. Схема Бернулли
- •Раздел II
- •§ 2. Математическое ожидание, дисперсия и среднеквадратическое отклонение случайной величины, их свойства
- •Свойства математического ожидания
- •Свойства дисперсии
- •Примеры решения задач
- •§ 3. Примеры распределения случайных величин
- •3.1 Биномиальное распределение
- •3.2 Распределение Пуассона
- •3.3 Нормальное распределение
- •3.4. Равномерное распределение
- •3.5 Показательное (экспоненциальное) распределение
- •§ 4. Система случайных величин
- •§ 5. Ковариация и коэффициент корреляции
- •Свойства коэффициента корреляции
- •§ 6. Закон больших чисел. Теорема Чебышева
- •§ 7. Центральная предельная теорема Ляпунова
- •Глава XV МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
- •§ 1. Задачи математической статистики
- •§ 2. Выборочный метод
- •2.1 Генеральная и выборочная совокупности
- •2.2 Статистическое распределение выборки
- •2.3 Эмпирическая функция распределения
- •2.4 Полигон и гистограмма
- •2.5 Оценки математического ожидания
- •2.6 Оценки дисперсии
- •§ 3. О статистической проверке гипотез
- •ПЕРЕЧЕНЬ КОНТРОЛЬНЫХ ВОПРОСОВ
- •КОНТРОЛЬНЫЕ ЗАДАНИЯ
- •Вариант 1
- •Вариант 2
- •Вариант 3
- •Вариант 4
- •Вариант 5
- •Вариант 6
- •Вариант 7
- •Вариант 8
- •Вариант 9
- •Вариант 10
- •ПРИЛОЖЕНИЕ
- •Список рекомендуемой литературы
39
Определение. Две случайные величины называются независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина.
Теорема. Для того, чтобы случайные величины X и Y были независимыми, необходимо и достаточно, чтобы функция распределения системы ( X , Y ) была равна произведению функций распределения составляющих:
Доказательство. |
|
F(t1, t2 ) = F1 (t1 ) F2 (t2 ) . |
|||||
|
|
|
|
|
|
||
а) |
Необходимость. |
Пусть X и Y |
– независимы. Тогда события X < t1 и |
||||
Y < t2 независимы. |
Следовательно, |
вероятность совмещения этих событий |
|||||
равна произведению вероятностей, т.е. |
|
|
|
||||
|
P( X < t1, Y < t2 ) = P( X < t1 ) P(Y < t2 ) |
F (t1, t2 ) = F1 (t1 ) F2 (t2 ) . |
|||||
б) |
Достаточность. |
Пусть F(t1, t2 ) = F1(t1 ) F2 (t2 ) |
|||||
|
P( X < t1, Y < t2 ) = P( X < t1 ) P(Y < t2 ) |
( X < t1 ) и (Y < t2 ) – незави- |
|||||
симые события, следовательно, X и Y – независимые величины. |
|
|
|||||
|
|||||||
Y |
Следствие. |
Для того, чтобы непрерывные случайные величины X и |
|||||
были независимыми, необходимо и достаточно, чтобы плотность распре- |
деления системы ( X , Y ) была равна произведению плотностей распределения составляющих:
f(t1, t2 ) = f (t1 ) f (t2 ) .
§5. Ковариация и коэффициент корреляции
Определение. Пусть X , Y – случайные величины, |
X Y – их произ- |
||||
ведение, M ( X ) , M (Y ) , M ( X Y ) – математические ожидания этих величин, |
|||||
σ( X ) , σ (Y ) – средние квадратические отклонения величин X и Y . |
|
||||
Число k , определяемое формулой |
|
|
|||
k( X , Y ) = M ( X Y ) − M ( X ) M (Y ) , |
|
(1) |
|||
называется коэффициентом ковариации величин X и Y , |
а число |
r( X , Y ) , |
|||
определяемое формулой |
|
|
|
|
|
r( X , Y ) = |
k( X , Y ) |
= M ( X Y ) − M ( X ) M (Y ) , |
(2) |
||
σ( X ) σ(Y ) |
|||||
|
σ( X ) σ(Y ) |
|
|
коэффициентом корреляции.
С помощью коэффициентов k и r можно измерять степень зависимости случайных величин. Из известного свойства математического ожидания вытекает, что для независимых случайных величин k( X , Y ) = r( X , Y ) = 0 . Ес-
тественно считать, что чем больше k и r по абсолютной величине, тем больше степень зависимости X и Y .