
- •Особенности обоснования формы модели
- •Методы отбора факторов
- •Цели регрессионного анализа
- •Математическое определение регрессии
- •Парная регрессия
- •Линейный коэффициент парной корреляции rху
- •Парный коэффициент корреляции
- •Корреляционный анализ
- •Ограничения корреляционного анализа
- •Дисперсионный анализ
- •Критерий Стьюдента
- •Критические значения коэффициента Стьюдента (t-критерия) для различной доверительной вероятности p и числа степеней свободы f:
- •Доверительные интервалы:
- •Средняя стандартная ошибка прогноза .
- •Доверительный интервал прогноза
- •Множественная регрессия
- •Автокорреляция
- •1) Линейная
- •2) Степенная
Особенности обоснования формы модели
Наиболее часто используемые виды функций:
1)
линейная
;
2)
правая полулогарифмическая
;
3)
степенная
;
4)
гиперболическая
;
5)
логарифмическая гиперболическая
;
6) обратная линейная (функция Торнквиста)
.
Методы отбора факторов
- априорное
(до построения модели) исследование характера и силы взаимосвязей между рассматриваемыми переменными, по результатам которого в модель включаются факторы, наиболее значимые по своему «непосредственному» влиянию на зависимую переменную у.
Для оценки силы влияния используется парный линейный коэффициент корреляции.
Ложная корреляция, характеризуется достаточно высокими по абсолютной величине значениями коэффициентов парной корреляции у процессов, с содержательной точки зрения между собой никак не связанными.
- апостериорное
исследование предполагает первоначально включить в модель все отобранные на этапе содержательного анализа факторы. Уточнение их состава в этом случае производится на основе анализа характеристик качества построенной модели, одной из групп которых являются и показатели, выражающие силу влияния каждого из факторов на зависимую переменную уt.
Регрессио́нный анализ (линейный)
статистический метод исследования зависимости между зависимой переменной Y и одной или несколькими независимыми переменными X1,X2,...,Xp. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Терминология зависимых и независимых переменных отражает лишь математическую зависимость переменных, а не причинно-следственные отношения.
Цели регрессионного анализа
Определение степени детерминированности вариации критериальной (зависимой) переменной предикторами (независимыми переменными)
Предсказание значения зависимой переменной с помощью независимой(-ых)
Определение вклада отдельных независимых переменных в вариацию зависимой
Математическое определение регрессии
Пусть Y, X1,X2,...,Xp — случайные величины с заданным совместным распределением вероятностей. Если для каждого набора значений X1 = x1,X2 = x2,...,Xp = xp определено условное математическое ожидание
y(x1,x2,...,xp) = E(Y | X1 = x1,X2 = x2,...,Xp = xp) (уравнение линейной регрессии в общем виде),
то функция y(x1,x2,...,xp) называется регрессией величины Y по величинам X1,X2,...,Xp, а ее график — линией регрессии Y по X1,X2,...,Xp, или уравнением регрессии.
Парная регрессия
у = f(х),
у - зависимая переменная (результативный признак);
х - независимая, объясняющая переменная (признак-фактор).
Линейная регрессия: у = а + b • х + ε.
Нелинейные регрессии делятся на два класса:
Регрессии, нелинейные по объясняющим переменным:
• полиномы разных степеней
у = а + b1 • х + b2 • х2 + b3 • х3 + ε;
• равносторонняя гипербола
у
= а +
+
ε.
Регрессии, нелинейные по оцениваемым параметрам:
степенная
;
показательная
;
экспоненциальная
.
метод наименьших квадратов (МНК)
,
.
Качество построенной модели определяется с помощью коэффициентов: