
- •1.Основные понятия и закономерности теории вероятностЕй.
- •1.1.Элементы комбинаторики.
- •1.2. Основные понятия теории вероятностей.
- •1.3. Классическое определение вероятности.
- •1.4. Сложение вероятностей.
- •1.5. Геометрические вероятности.
- •1.6. Условные вероятности.
- •1.7.Теорема умножения.
- •1.8.Независимые события. Теорема умножения для независимых событий.
- •1.9.Вероятность появления хотя бы одного события.
- •1.10. Теорема сложения вероятностей совместных событий.
- •1.11. Формула полной вероятности.
- •1.12. Формула Байеса.
- •1.13. Повторные испытания. Формула Бернулли.
- •1.14. Локальная теорема Лапласа.
- •1.15. Интегральная теорема Лапласа.
- •2. Случайные величины.
- •2.1. Понятие случайных величин.
- •2.2. Законы распределения вероятностей для дсв .
- •2.3. Биноминальное распределение.
- •2.4. Распределение Пуассона.
- •2.5.Числовые характеристики дсв. Математическое ожидание.
- •2.6. Свойства математического ожидания.
- •2.7. Математическое ожидание числа появлений события в независимых испытаниях.
- •2.8. Дисперсия случайной величины.
- •2.9. Формула для вычисления дисперсии.
- •2.10. Свойства дисперсии.
- •2.11. Дисперсия числа появлений событий в независимых испытаниях.
- •В соответствии с последним свойством
- •2.12. Среднее квадратическое отклонение.
- •2.13. Среднее квадратическое отклонение суммы взаимно независимых случайных величин.
- •2.14. Одинаково распределенные взаимно независимые величины.
- •2.15. Центральные и начальные моменты случайных величин.
- •3. Непрерывные случайные величины.
- •3.1. Функция распределения вероятностей случайной величины.
- •3.2. График функции распределения.
- •3.3. Плотность распределения вероятностей непрерывной случайной величины.
- •3.4. Вероятность попадания непрерывной случайной величины в заданный интервал.
- •3.5. Нахождение функции распределения по плотности вероятностей.
- •3.6. Свойства плотности распределения.
- •3.7. Вероятностный смысл плотности распределения.
- •3.8.Числовые характеристики непрерывной случайной величины.
- •3.9. Равномерное распределение.
- •3.10. Нормальное распределение.
- •3.11. Нормальная кривая.
- •3.17. Показательное распределение.
- •4.Законы больших чисел.
- •4.1. Неравенство Чебышева.
- •4.2. Теорема Чебышева.
- •4.3. Теорема Бернулли.
- •5. Система случайных величин.
- •5.1. Понятие о системе нескольких случайных величин.
- •5.2. Закон распределения вероятностей для дискретных двумерных случайных величин.
- •5.3. Функция распределения двумерной случайной величины и плотность распределения вероятностей непрерывной двумерной случайной величины.
- •5.4. Условные законы распределения составляющих двумерных случайных величин.
- •5.5.Условное математическое ожидание.
- •5.6. Зависимые и независимые случайные величины.
- •5.7. Корреляционный момент. Коэффициент корреляции.
- •5.8.Линейная регрессия. Прямые линии среднеквадратической регрессии.
- •6. Математическая статистика.
- •6.1.Задачи математической статистики.
- •Способы отбора.
- •6.2.Статистическое распределение выборки.
- •6.3. Эмпирическая (опытная) функция распределения.
- •6.4.Полигон и гистограмма для статистического распределения.
- •6.5.Статистические оценки параметров распределения.
- •6.6.Генеральная и выборочная средняя.
- •6.7.Оценка генеральной средней по выборочной средней.
- •6.8.Групповая и общая средняя.
- •6.9.Отклонение значений признака от общей средней.
- •6.10.Генеральная и выборочная дисперсия.
- •6.11.Групповая, внутригрупповая, межгрупповая, общая дисперсии.
- •6.12. Оценка генеральной дисперсии по исправленной выборочной.
- •6.13. Точность оценки. Доверительная вероятность и доверительный интервал.
- •6.14. Доверительный интервал для математического ожидания нормального распределения при известном .
- •6.15.Доверительный интервал для математического ожидания нормального распределения при неизвестном среднем квадратическом отклонении .
- •6.16. Другие характеристики вариационного ряда.
- •7. Статистическая проверка гипотез.
- •7.1. Статистическая гипотеза. Нулевая и конкурирующая гипотезы. Простая и сложная гипотезы.
- •7.2. Отыскание критических точек и критических областей.
- •7.3. Сравнение двух дисперсий нормальных генеральных совокупностей.
- •7.4. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых известны.
- •Правило проверки гипотезы.
- •7.5. Сравнение выборочной средней с генеральной средней нормальной совокупности.
- •7.6. Проверка гипотезы о нормальном распределении. Критерий согласия Пирсона.
- •7.7. Схема вычисления теоретических частот для нормального распределения.
- •8.Теория корреляции.
- •8.1.Основные понятия.
- •8.2. Условные средние и выборочные уравнения регрессии.
- •8.3.Отыскание параметров выборочного уравнения среднеквадратической регрессии по несгруппированным данным..
- •8.4. Корреляционная таблица.
- •8.5.Отыскание параметров выборочного уравнения линейной регрессии в случае сгруппированных данных.
- •8.6. Выборочный коэффициент корреляции.
- •8.7. Простейшие случаи криволинейной корреляции.
- •8.8. Понятие о множественной корреляции.
- •Содержание.
5.7. Корреляционный момент. Коэффициент корреляции.
Определение: Корреляционным моментом случайных величин X и Y называют математическое ожидание от произведения отклонения данных случайных величин:
.
Эту формулу можно переписать следующим образом:
.
Для вычисления корреляционного момента ДСВ используется следующая формула:
.
Для непрерывной случайной величины корреляционный момент будет равен:
.
Корреляционный момент служит для характеристики связи между случайными величинами X и Y.
Теорема 1: Корреляционный момент двух независимых случайных величин X и Y равен 0 (нулю).
Доказательство: Пусть случайные величины независимы. Вычислим их корреляционный момент в соответствии с определением:
.
По свойству математического ожидания независимых случайных величин:
.
Теорема доказана.
Следствие:
Если корреляционный момент
(не равен нулю), то случайные величины
X
и Y
зависимые.
Определение: Коэффициентом корреляции случайных величин X и Y называется отношение корреляционного момента к произведению средних квадратических отклонений случайных величин X и Y,
.
Из определения следует, что коэффициент корреляции для независимых случайных величин равен нулю.
Теорема 2: Модуль корреляционного момента двух случайных величин не превосходит среднего геометрического дисперсий данных величин:
.
Доказательство:
рассмотрим случайную величину :
Вычислим дисперсию:
, т.о.
.
Аналогично,
используя случайную величину
,
можно
получить:
;
,
,
что и требовалось доказать.
Теорема
3:
Коэффициент корреляции по модулю не
превосходит единицы.
.
Доказательство:
Из теоремы 1 имеем:
.
Поделим
все части на
получим:
, откуда
и
,
что и требовалось доказать.
Определения: Две случайные величины X и Y называют коррелированными, если их корреляционный момент отличен от 0 (нуля).
Две случайные величины X и Y называют некоррелированными, если их корреляционный момент равен 0 (нулю).
Из этих определений следует, что две коррелированные величины будут также зависимы. Обратное утверждение не всегда справедливо: если две случайные величины зависимы, то они могут быть как коррелированными, так и некоррелированными.
5.8.Линейная регрессия. Прямые линии среднеквадратической регрессии.
Пусть даны две случайные величины (X, Y), где X и Y зависимые. Предположим, что одна величина может быть выражена через другую величину линейно, т.е. представим случайную величину Y как линейную функцию от Х:
Y g (X) = a + b*X .
Найдем коэффициенты a и b , используя метод наименьших квадратов.
Функция g(X) = a + b*X, называется наилучшим приближением случайной величины Y. Для того, чтобы эта функция давала более точное приближение, достаточно, чтобы математическое ожидание отклонения квадрата случайной величины Y от данной функции было бы наименьшим:
M(Y – a – b*X)2 .
Функцию g (X) называют среднеквадратической регрессией случайной величины Y на X .
Теорема: Линейная среднеквадратическая регрессия случайной величины Y на X имеет следующий вид:
,
где
.
Доказательство: Рассмотрим функцию от двух переменных равную:
.
Данную функцию можно представить в виде:
Исследуя данную функцию F(a,b) на экстремум, вычислим частные производные первого порядка и приравняем их к нулю:
Решая, получим:
F(a, b) имеет наименьшее значение, тогда получим, что
,
, что и требовалось доказать.
Коэффициент,
равный
, называют
коэффициентом регрессии случайной
величины Y
на X
, а прямую
прямой среднеквадратической регрессии случайной величины Y на случайную величину X .
Если в F(a, b) подставить найденные коэффициенты, то получим наименьшее значение данной функции
которое называется остаточной дисперсией Y относительно X, и которая характеризует величину ошибки, которая допускается при замене случайной величины Y на g (X).
Если
коэффициент корреляции
,
то F(a,b)
= 0 и ошибка не возникает. Это значит, что
X
и Y
связаны функциональной линейной
зависимостью.
Аналогично можно получить прямую среднеквадратической регрессии случайной величины X на Y . Она имеет вид:
.
Обе прямые среднеквадратической регрессии Y на X и X на Y пересекаются в точке с координатами (mx, my), которая называется центром совместного распределения случайных величин X , Y .
Если коэффициент r = 1 , то прямые регрессии будут совпадать.