
- •Часть I. Теория вероятностей
- •Тема 1. Классическое определение вероятности…………………………………………............................4
- •Тема 2. Геометрическое и статистическое определения вероятности……………………………………8
- •Тема 3. Алгебра событий....................................................................................................................................12
- •Тема 4. Формула полной вероятности и формула Байеса………………………………………………...15
- •Тема 5. Схема Бернулли……………………………………………………………………………………….19
- •Тема 6. Дискретные случайные величины....................................................................................................25
- •Тема 12. Системы случайных величин……………………………………………………………………63
- •Тема 13. Функции случайных величин……………………………………………………………………82
- •Тема 14. Предельные теоремы теории вероятностей………………………………………………….100
- •Тема 15. Случайные функции…………………………………………………………………………….108
- •Тема 16. Вероятностные основы теории информации…………………………………………………116
- •Тема 1. Классическое определение вероятности
- •Случайные события.
- •Классификация событий
- •Классическое определение вероятности.
- •1.4. Контрольные вопросы
- •Тема 2. Геометрическое и статистическое определения вероятности
- •2.1. Геометрическая вероятность
- •2.2. Статистическая вероятность. Закон больших чисел.
- •Число бросаний Относит. Частота появления герба
- •2.3. Условная вероятность
- •2.4. Контрольные вопросы
- •2.5. Задачи для самостоятельно решения
- •Тема 3. Алгебра событий
- •3.1. Произведение событий
- •3.2. Сумма событий. Свойства операций сложения и умножения событий.
- •3.3. Вероятность появления хотя бы одного из событий.
- •3.4. Принцип практической невозможности.
- •3.5. Контрольные вопросы
- •Тема 4. Формула полной вероятности события и формула Байеса
- •4.1. Формула полной вероятности события
- •4.2. Формула Байеса
- •4.3. Контрольные вопросы
- •4.4. Задачи для самостоятельно решения
- •Тема 5. Повторение опытов.
- •5.1. Частная задача о повторении опытов (схема Бернулли)
- •5.2. Независимые испытания с несколькими исходами.
- •5.3. Формулы Муавра-Лапласа
- •5.3.1. Локальная теорема Муавра-Лапласа. Функция Гаусса.
- •5.3.2. Интегральная теорема Муавра-Лапласа. Функция Лапласа.
- •Тема 6. Дискретные случайные величины
- •6.1. Классификация случайных величин
- •6.2. Законы распределения дискретных случайных величин
- •6.2.1. Ряд распределения. Многоугольник распределения
- •6.2.2. Функция распределения
- •Тема 7. Числовые характеристики дискретных случайных величин
- •7.1. Характеристики положения. Математическое ожидание. Мода. Медиана.
- •7.2. Дисперсия. Среднеквадратическое отклонение.
- •7.3. Контрольные вопросы.
- •Тема 8. Законы распределения дискретных случайных величин
- •8.1. Биномиальное распределение (закон Бернулли).
- •8.2. Закон Пуассона
- •8.3. Контрольные вопросы.
- •8.4. Задачи для самостоятельного решения.
- •Тема 9. Непрерывные случайные величины
- •9.1. Законы распределения непрерывных случайных величин.
- •9.1.1. Интегральный закон распределения
- •9.1.2. Плотность распределения
- •10.1. Математическое ожидание. Мода. Медиана.
- •10.2. Дисперсия. Среднее квадратичное отклонение.
- •10.3. Моменты распределения.
- •10.4. Контрольные вопросы.
- •Тема 11. Законы распределения непрерывных случайных величин
- •11.1. Закон равномерной плотности.
- •11.2. Задачи для самостоятельного решения.
- •11.3. Экспоненциальное (показательное) распределение.
- •11.4. Задачи для самостоятельного решения.
- •11.5. Нормальный закон распределения.
- •11.5.1. Плотность нормального распределения вероятностей.
- •11.5.2. Нормальная функция распределения.
- •11.6. Контрольные вопросы
- •11.7. Задачи для самостоятельного решения.
- •Тема 12. Системы случайных величин
- •12.1. Функция распределения системы двух случайных величин.
- •12.2. Плотность распределения системы двух непрерывных случайных величин.
- •12.3. Таблица распределения системы двух дискретных случайных величин.
- •12.4. Условные законы распределения и их числовые характеристики.
- •12.5. Зависимые и независимые случайные величины
- •12.6. Числовые характеристики системы двух случайных величин.
- •Тема 13. Функции случайных величин
- •13.1. Числовые характеристики функций случайных величин.
- •13.2. Теоремы о числовых характеристиках функций случайных величин.
- •13.3. Законы распределения функций случайных величин.
- •13.3.1. Закон распределения функции одного случайного аргумента.
- •Функция на участке (а, b) монотонно возрастает или убывает.
- •2. Функция на участке (а, b) не является монотонной.
- •13.3.2. Закон распределения функции двух случайных аргументов.
- •13.3.3. Закон распределения суммы двух непрерывных случайных аргументов. Композиция законов распределения.
- •Тема 14. Предельные теоремы теории вероятностей
- •14.1. Закон больших чисел. Центральная предельная теорема.
- •14.1.1. Неравенство Чебышёва.
- •14.1.2. Теорема Чебышёва.
- •14.1.3. Теорема Бернулли
- •14.2. Центральная предельная теорема.
- •Тема 15. Случайные функции
- •15.1. Понятие о случайной функции.
- •15.2. Закон распределения случайной функции.
- •15.3. Вероятностные характеристики случайных функций.
- •15.4. Стационарные случайные функции.
- •Тема 16. Вероятностные основы теории информации
- •16.1. Энтропия как мера степени неопределенности состояния физической системы.
- •16.2. Энтропия и информация.
- •Приложение. Приближённые значения функции стандартного нормального распределения
12.6. Числовые характеристики системы двух случайных величин.
В п. 7 рассмотрели числовые характеристики одной дискретной случайной величины X, а в п. 10 для непрерывной. Напомним, что в качестве таких характеристик используются начальные и центральные моменты различных порядков. Из этих характеристик важнейшими являются две: математическое ожидание тх и дисперсия Dx.
Аналогичные числовые характеристики — начальные и центральные моменты различных порядков — можно ввести и для системы двух случайных величин.
Определение. Начальным моментом порядка k, s системы (X, Y) называется
математическое ожидание произведения Хk на Y s:
=
Определение. Центральным моментом порядка k, s системы (X, Y) называется математическое ожидание произведения k-й и s-й степени соответствующих центрированных величин:
Эти формулы справедливы как для системы двух непрерывных случайных величин, так и для системы двух дискретных случайных величин.
На практике чаще всего находят применение начальные моменты первого порядка:
представляющие собой математические ожидания отдельно для каждой случайной величины, входящей в систему, а также центральные моменты второго порядка:
представляющие собой дисперсии отдельно для каждой случайной величины, входящей в систему.
Особую роль в качестве характеристики системы двух случайных величин, как дискретных, так и непрерывных играет второй смешанный центральный момент:
=
,
представляющий собой математическое ожидание центрированных случайных величин.
Характеристика
называется корреляционным
моментом
или ковариацией
случайных
величин X
и Y.
Смысл этой характеристики состоит в том, что она описывает не только степень рассеивания случайных величин X и Y, входящих в систему, но и связь между ними.
Все формулы, приведенные выше для начальных и центральных моментов относятся как к дискретным, так и к непрерывным случайным величинам.
Применительно к описанию системы двух дискретных случайных величин они принимают вид:
где суммирование распространяется на все возможные значения i, j.
Применительно к описанию системы двух непрерывных случайных величин они принимают вид:
Пример. Задан закон распределения двумерной дискретной случайной величины :
|
Y |
|||
-2 |
3 |
6 |
||
X |
-0,8 |
0,10 |
0,30 |
0,10 |
-0,5 |
0,15 |
0,25 |
0,10 |
Найти числовые
характеристики системы:
Решение.
;
=0,025;
;
+
=
+
Выше уже говорилось, что корреляционный момент есть характеристика системы случайных величин, описывающая связь между случайными величинами, входящими в систему. Для того чтобы убедиться в этом, докажем, что для независимых случайных величин корреляционный момент равен нулю.
Доказательство проведем для непрерывных случайных величин. Пусть X, Y — независимые непрерывные величины с плотностью распределения f(х, у). В п. 12.4 мы доказали, что для независимых величин
f (x, y) = f1 (x) f2 (y),
где f1
(x)
f2
(y)
— плотности распределения соответственно
величин X
и Y.
Подставляя это выражение в формулу корреляционного момента системы непрерывных случайных величин
видим, что двойной интеграл превращается в произведение двух интегралов:
.
Интеграл
представляет
собой не что иное, как первый центральный
момент
величины X,
и, следовательно,
равен нулю; по той же причине равен нулю
и второй сомножитель; следовательно,
для независимых случайных величин
= 0.
Таким образом, если корреляционный момент двух случайных величин отличен от нуля, это есть признак наличия зависимости между ними.
Из формулы для корреляционного момента видно, что корреляционный момент характеризует не только зависимость величин, но и их рассеивание. Действительно, если, например, одна из величин (X, Y) весьма мало отклоняется от своего математического ожидания (почти не случайна), то корреляционный момент будет мал, какой бы тесной зависимостью ни были связаны величины (X, Y). Поэтому для характеристики связи между величинами (X, Y) в чистом виде переходят от момента к безразмерной характеристике
где
— средние
квадратичные отклонения величин X,
Y.
Эта характеристика
называется коэффициентом
корреляции
величин X
и Y.
Очевидно,
коэффициент корреляции обращается в
нуль одновременно с корреляционным
моментом; следовательно, для
независимых случайных величин
коэффициент корреляции равен нулю.
Случайные величины, для которых корреляционный момент (а значит, и коэффициент корреляции) равен нулю, называются некоррелированными.
Выясним, эквивалентно ли понятие некоррелированности случайных величин понятию независимости. Выше мы доказали, что две независимые случайные величины всегда являются некоррелированными. Остается выяснить: справедливо ли обратное положение, вытекает ли из некоррелированности величин их независимость? Оказывается — нет. Можно построить примеры таких случайных величин, которые являются некоррелированными, но зависимыми. Равенство нулю коэффициента корреляции — необходимое, но не достаточное условие независимости случайных величин. Из независимости случайных величин вытекает их некоррелированность; напротив, из некоррелированности величин еще не следует их независимость. Условие независимости случайных величин — более жесткое, чем условие некоррелированности.
Убедимся в этом на
примере. Рассмотрим систему случайных
величин (X,
Y),
распределенную
с равномерной плотностью
внутри
круга С радиуса
r
с центром в
начале координат:
Нетрудно убедиться, что в данном примере величины являются зависимыми. Действительно, если величина X приняла, например, значение 0, то величина Y может с равной вероятностью принимать все значения от -r до r; если же величина X приняла значение r, то величина Y может принять только одно единственное значение, в точности равное нулю. Таким образом, диапазон возможных значений Y зависит от того, какое значение приняла X.
Посмотрим, являются
ли эти величины коррелированными.
Вычислим корреляционный момент. Имея
в виду, что по соображениям симметрии
=
,
получим:
Для вычисления интеграла разобьем область интегрирования (круг С) на четыре сектора C1, C2, С3, С4, соответствующие четырем координатным углам. В секторах C1 и С3 подынтегральная функция положительна, в секторах С2 и С4 — отрицательна; по абсолютной же величине интегралы по этим секторам равны; следовательно, интеграл равен нулю, и величины (X, Y) не коррелированы.
Таким образом, мы видим, что из некоррелированности случайных величин не всегда следует их независимость.
Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятностная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или же убывать) по линейному закону. Эта тенденция к линейной зависимости может быть более или менее ярко выраженной, более или менее приближаться к функциональной, т. е. самой тесной линейной зависимости. Коэффициент корреляции характеризует степень тесноты линейной зависимости между случайными величинами. Если случайные величины X и Y связаны точной линейной функциональной зависимостью:
Y = aX+b,
то
= ± 1, причем
знак «плюс» или «минус» берется в
зависимости от того, положителен или
отрицателен коэффициент а.
В общем случае,
когда величины X
и Y
связаны
произвольной вероятностной зависимостью,
коэффициент корреляции может иметь
значение в пределах:
1
<
<
1.
В случае
>
0 говорят о положительной
корреляции
величин X
и Y,
в случае
<
0 — об отрицательной
корреляции.
Положительная корреляция между случайными величинами означает, что при возрастании одной из них другая имеет тенденцию в среднем возрастать; отрицательная корреляция означает, что при возрастании одной из случайных величин другая имеет тенденцию в среднем убывать.
В рассмотренном выше примере двух случайных величин (X, Y), распределенных внутри круга с равномерной плотностью, несмотря на наличие зависимости между X и Y, линейная зависимость отсутствует; при возрастании X меняется только диапазон изменения Y, а его среднее значение не меняется; естественно, величины (X, Y) оказываются некоррелированными.
Если в нашем распоряжении имеются результаты ряда опытов над системой двух случайных величин (X, Y), то о наличии или отсутствии существенной корреляции между ними легко судить в первом приближении по графику, на котором изображены в виде точек все полученные из опыта пары значений случайных величин. Например, если наблюденные пары значений величин расположились так, как показано на левом рисунке
то это указывает на наличие явно выраженной положительной корреляции между величинами. Еще
более ярко выраженную положительную корреляцию, близкую к линейной функциональной зависимости, наблюдаем на правом рисунке.
На следующем рисунке показан случай сравнительно слабой отрицательной корреляции.
Наконец, проиллюстрируем случай практически некоррелированных случайных величин:
На практике, перед тем как исследовать корреляцию случайных величин, всегда полезно предварительно построить наблюденные пары значений на графике для первого качественного суждения о типе корреляции.
Свойства ковариации и коэффициента корреляции
1. Если случайные величины независимы, то их ковариация, а, следовательно, и коэффициент корреляции равны нулю.
2. Область значений коэффициента корреляции:
3. Если
то между случайными величинами существует
линейная функциональная зависимость.
4. Ковариация случайных величин по абсолютной величине не превосходит произведение их средних квадратичных отклонений:
.
5. Корреляционный момент (ковариацию) можно вычислять по формуле