
- •2. Элементы теории множеств.
- •3.Элементы комбинаторики.
- •6.Случайные события.
- •8.Основные свойства вероятности.
- •9.Повторные испытания.
- •9.Повторные испытания.
- •10.Характеристики дискретных случайных величин.
- •12. Характеристики непрерывных случайных величин
- •13. Характеристики случайных величин.
- •15. Непрерывные распределения.
- •17. Генеральная совокупность и выборка.
- •20. Графическое изображение вариационных рядов. Полигон.
- •22. Метод наименьших квадратов и линейная регрессия. Диаграмма рассеивания.
- •25. Закон больших чисел. Частота и вероятность - статистическое определение вероятности. Неравенство Чебышева. Теорема Чебышева. Теорема Бернулли.
- •26. Центральная предельная теорема. Формулировка центральной предельной теоремы. Теорема Ляпунова. Локальная теорема Муавра-Лапласа. Интегральная теорема Муавра-Лапласа.
- •33. Оценка параметров. Понятие оценки. Несмещённые оценки. Статистика. Состоятельность оценок. Свойства точечных оценок. Исправленная дисперсия.
20. Графическое изображение вариационных рядов. Полигон.
Полигоном частот
называют ломаную, отрезки которой
соединяют точки
.
Полигоном
относительных частот
называют ломаную, отрезки которой
соединяют точки
.
Относительная частота
.
Гистограмма.
Гистограммой частот
называется ступенчатая фигура, состоящая
из прямоугольников, основаниями которых
служат частичные интервалы длиной
,
а высоты равны частоте
.
Гистограммой
относительных частот называется
ступенчатая фигура, состоящая из
прямоугольников, основаниями которых
служат частичные интервалы длиной
,
а высоты равны
(плотность относительной частоты).
Двумерные и трехмерные гистограммы.
Гистограммой частот называется ступенчатая фигура, состоящая из прямоугольников, основаниями которых служат частичные интервалы длиной , а высоты равны частоте .
Гистограммой относительных частот называется ступенчатая фигура, состоящая из прямоугольников, основаниями которых служат частичные интервалы длиной , а высоты равны (плотность относительной частоты).
Эмпирическая плотность распределения.
Эмпирической
функцией распределения (функция
распределения выборки) называют функцию
,
определяющую для каждого значения
относительную частоту события
По определению имеем
,
где
-
число вариант меньше
;
-
объем выборки.
22. Метод наименьших квадратов и линейная регрессия. Диаграмма рассеивания.
Диаграммы рассеивания - графическое представление пар исследуемых данных в виде множества точек (облака) на координатной плоскости.
Полезный способ визуализации множества двух- или трехмерных данных (совместного распределения двух или трех переменных). На ней каждому наблюдению соответствует одна точка, по осям откладываются значения переменных, точки на диаграмме не соединены между собой.
Чем сильнее точки группируются вдоль прямой линии, тем сильнее линейная взаимосвязь между двумя переменными (тем выше корреляция).
Если линия, вдоль которой группируются точки, идет от левого нижнего угла к правому верхнему, взаимосвязь между двумя переменными положительная (прямая).
Диаграмма рассеяния показывает также нелинейную взаимосвязь между переменными и наличие или отсутствие выбросов.
Кривые регрессии.
Для двух случайных величин регрессия X на Y (часто говорят также Y по X) – это функция y = f(x), дающая для каждого возможного значения x случайной величины X условное математическое ожидание Y. Графическое представление этой функции и называется кривой регрессии.
Если функция f линейна, f(x) = a*x+b, то кривая регрессии Y по X представляет собой прямую, а регрессию называют простой линейной. В этом случае, коэффициент линейной регрессии Y по X – это коэффициент a перед x (угловой коэффициент, наклон) в уравнении линии регрессии.
Для оценки коэффициентов линейной регрессии по выборке, состоящей из n пар наблюдений показателей X и Y, используют, как правило, метод наименьших квадратов.
Чтобы найти линию регрессии представим одну из случайных величин как функцию другой. Это можно сделать различными способам; наиболее употребительный из них метод наименьших квадратов.
Определение параметров линейной регрессии – одна из задач регрессионного анализа. Она решается способом наименьших квадратов, основанным на требовании, чтобы сумма квадратов отклонений вариант от линии регрессии была наименьшей. Этому требованию удовлетворяет следующая система нормальных уравнений:
Ряды регрессии — это ряды усредненных значений (yx и xy) варьирующих признаков Y и X, соответствующих значениям аргументов xi и yi. Поэтому эмпирические уравнения регрессии следует записывать так:
yx=a+by/x*x и xy = ax/y + bx/y*y (2.9)
Формулы для определения параметров а и b принимают следующие выражения:
и
.
(2.10)
Уравнение линейной регрессии можно выразить в виде отклонений вариант от их средних арифметических:
и
.
В таком случае система нормальных уравнений для определения параметров а и b будет следующая:
Поскольку
и
,
то параметр b
выразится в виде приведенной формулы
параметр а
легко найти по формуле
Если средние
и
перенести
в правую часть уравнения (2.11), то при
система
нормальных уравнений принимает следующий
вид:
и
,
Заменив в формуле параметры by/x и bx/y на их значения из формулы, получим систему уравнений парной линейной регрессии:
.Эти
уравнения удобны для определения
параметров при отыскивании эмпирических
уравнений регрессии в практической
работе для точности прогнозирования
результатов.
Система уравнений для нахождения параметров линейной регрессии.
Метод нахождения
минимального отклонения и есть метод
наименьших квадратов.
Это суммарное
отклонение зависит от коэффициентов а
и b функции
Y,
поэтому эти коэффициенты должны быть
минимальными, то есть производная
функции
в этих точках равны нулю:
Найдя частные производные и приравняв их нулю, получим следующую систему уравнений
Решив
эту систему, мы найдем наилучший набор
этих параметров. Эта теоретическая
кривая с параметрами, которые определяются
методом наименьших квадратов, и будет
искомой линией —
линией
линейной
регрессии.
Линейная регрессия.
Если функция f линейна, f(x) = a*x+b, то кривая регрессии Y по X представляет собой прямую, а регрессию называют простой линейной. В этом случае, коэффициент линейной регрессии Y по X – это коэффициент a перед x (угловой коэффициент, наклон) в уравнении линии регрессии.