- •1. Основные понятия теории вероятностей. Элементы комбинаторики.
- •1.1 Предмет теории вероятностей.
- •1.2 Элементы комбинаторики.
- •1.3 Основные понятия теории вероятностей.
- •Лекция 2. Алгебра событий.
- •2.1. Объединение, пересечение событий. Противоположные события.
- •2.2. Зависимые и независимые события.
- •Лекция 4. Повторные испытания. Локальная и интегральная теорема Муавра - Лапласа.
- •4.1 Локальная теорема Муавра - Лапласа.
- •4.2 Формула Пуассона.
- •4.3 Интегральная теорема Муавра - Лапласа.
- •4.4 Вероятностные отклонения относительной частоты от постоянной вероятности.
- •Лекция 5. Случайные величины.
- •5.1. Дискретные и непрерывные случайные величины. Закон распределения вероятностей дискретной случайной величины.
- •5.2. Числовые характеристики дискретной случайной величины.
- •5.3. Биномиальное распределение дискретной случайной величины. Распределение Пуассона.
- •Лекция 6. Числовые характеристики дискретных случайных величин.
- •6.1. Дисперсия дискретной случайной величины.
- •6.2. Определение дисперсии и ее свойства.
- •6.3. Свойства дисперсии.
- •6.4. Дисперсия числа появлений событий в независимых испытаниях.
- •6.5. Среднеквадратичное отклонение.
- •Лекция 7. Закон больших чисел. Теорема Чебышева. Функция и плотность распределения непрерывной случайной величины.
- •7.1. Закон больших чисел.
- •7.2. Функция и плотность распределения вероятности непрерывной случайной величины.
- •7.3. Плотность распределения вероятности непрерывности случайной величины.
- •Лекция 8. Числовые характеристики случайных величин. Важнейшие распределения.
- •8.1. Математическое ожидание и дисперсия непрерывных случайных величин.
- •8.2. Важнейшие распределения.
- •8.3. Нормальная кривая.
- •Лекция 9. Математическая статистика.
- •9.1. Генеральная и выборочная совокупность.
- •9.2. Полигон и гистограмма.
- •3. Эмпирическая функция распределения.
- •4. Генеральная средняя и выборочная средняя.
- •5. Генеральная и выборочная дисперсия.
- •Лекция 10. Проверка статистических гипотез.
- •10.1 Общие положения.
- •Лекция 12. Двумерные случайные величины.
- •12.1. Общие понятия.
- •12.2. Функция распределения двумерной случайной величины и ее свойства.
- •Плотность совместного распределения вероятностей непрерывной двумерной случайной величины (двумерная плотность вероятности). Ее свойства.
- •Условное математическое ожидание.
- •Зависимые и независимые лучайные величины.
- •Корреляционный момент. Коэффициент корреляции.
- •Лекция 13. Корреляция и регрессия.
- •13.1 Ковариация.
- •13.2 Коррелированные и зависимые случайные величины.
- •13.3 Линейная регрессия. Прямые линии среднеквадратичной регрессии.
- •Линейная и нормальная корреляция.
- •Оценка корреляции и регрессионной характеристики по выборке.
13.3 Линейная регрессия. Прямые линии среднеквадратичной регрессии.
Рассмотрим двумерную случайную величину (Х,У), где Х,У зависимые случайные величины, представим одну из величин как функцию другой. Ограничимся приближенным представлением величины У в виде линейной функцией от Х
Это можно сделать различными способами ( метод наименьших квадратов ).
называют
наилучшим приближением У
в смысле метода наименьших квадратов,
если
принимает наименьшее возможное
значение. Функция g(X)
называется среднеквадратичной
регрессией У
на Х. Имеет место следующая теорема:
линейная среднеквадратичная регрессия
У на Х имеет вид
,
Можно
убедиться, что коэффициент
.
При этих значениях коэффициентов
значение функции наименьшее. Прямая
(1) - прямая среднеквадратичной
регрессии У
на Х,
а коэффициент
-
коэффициент
регрессии У на Х. Прямая среднеквадратичной
регрессии Х на У имеет вид:
(2)
При
обе прямые регрессии совпадают. Из
(1) и (2) следует, что обе прямые
регрессии проходят через точку
которую называют центром совместного
распределения.
Лекция 14. Корреляционный анализ.
Линейная и нормальная корреляция.
Рассмотрим двумерную случайную величину (Х,Y), если обе функции регрессии YХ и ХY связанны линейной корреляционной зависимостью. Графики линейных функций регрессии–прямые линии, причем можно доказать, что они совпадают с прямыми среднеквадратичной регрессии.
Теорема. Если двумерная случайная величина (Х,Y) распределена нормально, то Х и Y связаны линейной корреляционной зависимостью.
Доказательство:
двумерная плотность вероятности
,
(1)
где
(2)
Плотность вероятности
составляющей Х:
. (3)
Найдем функцию
регрессии
,
для чего найдем сначала условный закон
распределения величины Y,
при Х=х.
.
Подставив соотношения
(1) и (3) в правую часть этой формулы и
упростим это выражение, имеем:
.
Заменив U
и V
по формулам (2), окончательно получим:
.
Полученное условное
распределение нормально с мат. ожиданием
(функцией регрессии):
и дисперсией
.
Аналогично можно
получить функцию регрессии
:
Так как обе функции линейны, то корреляция между величинами х и y– линейная, что и требовалось доказать. Отсюда делаем вывод, что уравнение прямых регрессии:
совпадают с кривыми среднеквадратичных.
Оценка корреляции и регрессионной характеристики по выборке.
Для случайного вектора (X,Y) выборка, объема n дает n пар значений признака:
.
В этом случае говорят о связной выборке,
в противоположность независимым
выборкам, где совершенно независимо
друг от друга наблюдается
значений х и
значений
y.
Для прямых регрессии могут быть даны оценки. Другими словами: теоретически характеристики регрессии могут быть оценены по выборке.
По функциям выборки получаются следующие характеристики (оценки).
Для ковариации
(корреляционного момента) получают в
качестве оценки эмпирическую ковариацию.
.
Отсюда получают
оценки для теоретической корреляции и
регрессионных характеристик. Например,
эмпирический коэффициент корреляции
имеет вид:
Аналогично получим эмпирические коэффициенты регрессии:
Эмпирические прямые регрессии будут иметь вид:
.
При приблизительно коррелированных Х и Y можно сделать наилучшие предсказания для у при данном значении х или наилучшее предсказание для х при данном значении у.
Вопрос о том, имеется ли приблизительно линейная корреляция между х и у, только в редких случаях может быть решен теоретически. Это удается, если известно, что х и у распределены нормально, тогда линии регрессии являются прямыми, т.е. имеется точная линейная корреляция.
