- •Теория вероятностей
- •§ 1. Предмет теории вероятностей
- •§ 2. Случайные события или исходы. Множество элементарных событий. Основные понятия
- •Примеры на построение множества ω.
- •Алгебраические операции над событиями
- •Диаграмма Венна.
- •Свойства операций
- •§ 3. Различные подходы к определению вероятности
- •П. 1. Аксиоматическое определение вероятности
- •П. 2. Классическое определение вероятности
- •Решение.
- •Решение.
- •Пп. 1. Комбинаторный метод вычисления вероятностей в классической схеме
- •Решение.
- •Решение.
- •Решение.
- •Решение.
- •Решение.
- •Решение.
- •Решение.
- •Решение.
- •Решение.
- •Пп. 2. Геометрические вероятности в классической схеме
- •Решение.
- •П. 3. Статистическое определение вероятности
- •§ 4. Основные теоремы теории вероятностей п.1. Теоремы сложения вероятностей
- •Доказательство.
- •Доказательство (методом математической индукции).
- •Доказательство.
- •Доказательство.
- •Решение.
- •Д оказательство (геометрическое)
- •П.2. Теоремы умножения вероятностей
- •Доказательство.
- •Решение.
- •Решение.
- •§ 5. Формулы полной вероятности и формула Байеса п. 1. Формула полной вероятности (следствие обеих основных теорем сложения и умножения)
- •Решение.
- •П. 2. Формула Байеса (Бейеса) (следствие теоремы умножения и формулы полной вероятности)
- •Решение.
- •§ 6. Последовательность независимых испытаний п. 1. Независимые испытания
- •П. 2. Формулы Бернулли.
- •Решение.
- •Решение.
- •Замечания.
- •Решение.
- •П. 3. Предельные теоремы в схеме Бернулли
- •Решение.
- •Решение.
- •Доказательство.
- •Решение.
- •П. 4. Наивероятнейшее число появления события в независимых испытаниях
- •Решение.
- •§ 7. Случайные величины п. 1. Основные определения
- •П. 2. Законы распределения случайных величин. Законы распределения дискретных случайных величин. Функция распределения
- •Формы закона распределения дсв.
- •Решение.
- •Решение.
- •3. Функция распределения – универсальный закон распределения (для дсв и нсв).
- •Свойства f(X).
- •Доказательство.
- •Графики функции распределения.
- •Решение.
- •Решение.
- •П. 3. Плотность распределения вероятностей нсв
- •Свойства плотности распределения
- •2. Условие нормировки: интеграл в бесконечных пределах от плотности распределения равен 1: . (4) Доказательство
- •Решение.
- •Решение.
- •П. 4. Числовые характеристики случайных величин, их роль и назначение
- •Пп 1. Характеристики положения (математическое ожидание, мода, медиана)
- •1. Математическое ожидание или среднее значение случайной величины
- •2. Мода случайной величины
- •3. Медиана случайной величины
- •Пп 2. Моменты
- •Доказательство.
- •И эксцесс
- •Решение.
- •Решение.
- •Решение.
- •П. 5. Законы распределения вероятностей дискретных случайных величин: биномиальный, Пуассона, гипергеометрический. Пп 1. Биномиальное распределение
- •Решение.
- •Пп 2. Распределение Пуассона
- •Решение.
- •Решение.
- •Пп 3. Гипергеометрическое распределение
- •Решение.
- •П. 6. Законы распределения вероятностей непрерывных случайных величин: равномерный, показательный, нормальный Пп 1. Равномерное распределение или закон равномерной плотности
- •Решение.
- •Пп 2. Показательное или экспоненциальное распределение
- •Решение.
- •Пп 3. Нормальный закон распределения
- •Смысл параметров m и σ
- •Решение.
- •§ 8. Системы случайных величин или случайные векторы п. 1. Основные понятия.
- •П. 2. Законы распределения свдт и свнт
- •Закон. Таблица распределения – закон распределения свдт.
- •Решение.
- •Решение.
- •Закон. Функция распределения – закон распределения свдт и свнт.
- •Решение.
- •3. Плотность распределения (для свнт)
- •Решение.
- •Решение.
- •П. 4. Плотности распределения отдельных величин, входящих в систему. Равномерное и нормальное распределения. Условные законы распределения
- •Решение.
- •Решение.
- •П. 5. Числовые характеристики системы. Корреляция. Линии регрессии
- •Решение.
- •Решение.
- •Решение.
- •Решение.
- •§ 9. Закон больших чисел. Предельные теоремы теории вероятностей
Решение.
xi \ yj |
0 |
1 |
2 |
0 |
0 |
0 |
|
1 |
0 |
|
0 |
2 |
|
0 |
0 |
Случайный вектор дискретного типа, следовательно, F(x,y) = .
F(x, y) |
y ≤ 0 |
0 < y ≤ 1 |
1 < y ≤ 2 |
y > 2 |
x ≤ 0 |
0 |
0 |
0 |
0 |
0 < x ≤ 1 |
0 |
0 |
0 |
|
1 < x ≤ 2 |
0 |
0 |
|
+ |
x > 2 |
0 |
|
+ |
+ + =1 |
Пояснение:
.
=
.
=
.
.
Ковариация, корреляция. Линии регрессии
Особую роль при исследовании системы играет второй смешанный центральный момент.
Определение 72. Второй смешанный центральный момент μ11 называется корреляционным или моментом связи или ковариацией:
.
для СВДТ .
для СВНТ.
Теория корреляции решает две задачи: 1) установление формы связи между случайными величинами, 2) определение тесноты и силы этой связи.
, помимо рассеивания, характеризует
взаимное влияние случайных величин
X и Y,
входящих в систему. Для оценки степени
влияния используется не сам момент, а
безразмерное соотношение, которое
называется нормированной ковариацией
или коэффициентом корреляции:
–
коэффициент корреляции двух случайных компонент X и Y случайного вектора.
(Иногда его обозначают как
).
Средние квадратические отклонения
случайных величин Х и У равны
,
.
Определение 17. X
и Y называются
некоррелированными случайными величинами,
если их коэффициент корреляции
,
и коррелированными, если отличен от
нуля.
Свойства коэффициента корреляции
:
Если X и Y – независимые СВ, то =
.
(X и Y
некоррелированные случайные величины).
Обратное утверждение неверно, так как
X и Y
могут быть зависимыми, но при этом
.
.В случае
говорят о положительной корреляции Х
и Y , что означает: при
возрастании одной из них
другая тоже имеет тенденцию в среднем
возрастать. Например, вес и рост человека.В случае
говорят об отрицательной корреляции
Х и Y , что означает:
при возрастании одной из них другая
имеет тенденцию в среднем убывать.
Например, время, потраченное на подготовку
прибора к работе и количество
неисправностей, обнаруженных при его
работе.
Взаимная связь двух случайных величин,
помимо
,
может быть описана с помощью линий
регрессии. Действительно, хотя при
каждом значении Х = x
величина Y остается
случайной величиной, допускающей
рассеивание своих значений, однако
зависимость Y от Х
сказывается часто в изменении средних
размеров Y при переходе
от одного значения х к другому. С
изменением х будет изменяться и
.
Это означает, что можно рассматривать
функцию
=
,
областью определения которой является
множество возможных значений случайной
величины Х. Эта функция носит
название регрессии Y
по Х.
Аналогично, зависимость X
от Y описывает функция
=
.
и
– уравнения регрессии
Линии, определенные этими уравнениями, называются кривыми или линиями регрессии. (Вводятся лишь для непрерывных СВ, для ДСВ линии будут состоять из точек.)
Если обе линии регрессии – прямые, то корреляционную зависимость называют линейной (линейная корреляция). Для нормально распределенного случайного вектора (X,Y) уравнения регрессии линейные:
,
.
Связь коэффициента корреляции и линий регрессии
1) Если
,
то линии регрессии наклонены вправо.
2) Если
,
то линии регрессии наклонены влево.
3) Если , то линии регрессии проходят параллельно осям координат.
4) Если,
,
то линии регрессии сливаются в одну
линию, а случайные величины X
и Y связаны между собой
линейной функциональной зависимостью
,
,
причем знак коэффициента корреляции
(+ rХУ ) или
(– rХУ)
берется в зависимости от знака (+ или –)
коэффициента а, который называется
коэффициентом регрессии.
Часто пишут уравнение в виде:
и
называют его уравнением парной
регрессии, где коэффициент регрессии
.
Определение 73. Ковариационной
матрицей случайного вектора называется
симметрическая действительная матрица,
элемент которой представляет собой
ковариации соответствующих пар
компонент:
.
Определение 74. Корреляционной
матрицей случайного вектора называется
нормированная ковариационная матрица
.
Пример 9. Дано уравнение парной
регрессии
.
Выберите правильный коэффициент
корреляции: 1)
= 0,6, 2)
= – 0,6, 3)
=1,2.
