
- •Парная регрессия (линейная и нелинейная). Метод наименьших квадратов. (Рассмотреть показательную, степенную и полиномиальную модели.)
- •3. Множественная линейная регрессия. Корреляционная матрица.
- •4. Метод включения факторов, метод исключения факторов
- •5 Вопрос Анализ остатков: гомоскедастичность, гетероскедостичность остатков (тесты Гольфельда-Квандта,ранговой корреляции Спирмана )
- •6. Компоненты динамического ряда, аддитивная и мультипликативная модели динамичного ряда
- •7. Автокорреляция уровней динамического ряда. Автокорреляционная функция.
- •10. Линейная модель авторегрессионного процесса первого порядка
- •11. Обобщенный метод наименьших квадратов
- •12. Общая характеристика системы эконометрических уравнений (основные определения и понятия).
Парная регрессия (линейная и нелинейная). Метод наименьших квадратов. (Рассмотреть показательную, степенную и полиномиальную модели.)
Регрессией в теории вероятностей и математической статистике принято
называть зависимость среднего значения какой-либо величины (y) от некоторой
другой величины или от нескольких величин (хi).
Парной регрессией называется модель, выражающая зависимость средне-
го значения зависимой переменной y от одной независимой переменной х
yˆ = f (x), (2.1)
где у – зависимая переменная (результативный признак); х – независимая,
объясняющая переменная (признак–фактор).
Парная регрессия применяется, если имеется доминирующий фактор, обу-
славливающий большую долю изменения изучаемой объясняемой переменной,
который и используется в качестве объясняющей переменной.
Множественной регрессией называют модель, выражающую зависимость
среднего значения зависимой переменной y от нескольких независимых пере-
менных х1, х2, …, хp
ŷ = f (x1,x2,...,xp). (2.2)
Множественная регрессия применяется в ситуациях, когда из множества
факторов, влияющих на результативный признак, нельзя выделить один доми-
нирующий фактор и необходимо учитывать одновременное влияние несколь-
ких факторов.
Используя уравнение регрессии (2.1), соотношение между значениями пе-
ременными у и х (модель связи) можно записать как
y = f (x) + ε , (2.3)
где первое слагаемое f(x) можно интерпретировать как ту часть значения y, ко-
торая объяснена уравнением регрессии (2.1), а второе слагаемое ε как необъяс-
ненную часть значения y (или возмущение). Соотношение между этими частя-
ми характеризует качество уравнения регрессии, его способность представлять
зависимость между переменными х и y. При построении уравнения регрессии ε
рассматривается как ошибка модели, представляющая собой случайную вели-
чину, удовлетворяющую определенным предположениям.
Наличие составляющей ε обусловлено такими причинами, как наличие до-
полнительных факторов, оказывающих влияние на переменную y, неверный
вид функциональной зависимости f(x), ошибки измерения, выборочный харак-
тер исходных данных.
По виду аналитической зависимости различают линейные и нелинейные
регрессии.
Линейная парная регрессия описывается уравнением:
yˆ = a + b *x . (2.4)
Примеры наиболее часто используемых нелинейных регрессий:
– полиномы разных степеней
yˆ x = a + b1 * x + b2 * x2 + b3 * x3 ,
– равносторонняя гипербола
yˆ = (a + b)/ x ,
– степенная yˆ = a * xb
– экспоненциальная yˆ = ea+b*x ,
– показательная ŷ = a·bx ,
Вопрос № 2
Остатки
При оценке параметров уравнения регрессии применяется метод наименьших квадратов. При этом делаются определенные предпосылки относительно случайной составляющей Е. В модели у= а0+а1*хi+Еi. Е- разница между родным значением данных (исходных ) и прогнозируемым (по модели). Ошибки (остатки) находятся как E= Yi- yi(xi) = Yi – (a0+a1*xi).
Коэффициент детерминации
По величине R2 можно тоько предполагать на сколько значима или незначима модель для дальнейшего испол-ия, поэтому неоходимо проверить стат.значимость самого коэф-та, для проверки используется распределение Фишера F= R2/1-R2 Если F>Fкрит то R2 стат значим.
R2
(коэф-т детерминации) показывает на
сколько найденная модель описывает
связь между факторами x и y. Т.е. под
значимостью уравнения регрессии
понимается значимое отличие коэффициента
детерминации от 0. R^2=1-
.
R^2
должен находиться в пределах 0<R^2<1.
По величине R2 можно только предполагать на сколько значима или незначима модель для дальнейшего использования, поэтому необходимо проверить статистическую значимость самого коэф-та, для проверки используется распределение Фишера F= R2/1-R2. Если F>Fт, то R2 статистически значим.
Распределение Фишера.
Критерий Фишера предназначен для сопоставления двух выборок по частоте встречаемости интересующего исследователя эффекта.
Критерий оценивает достоверность различий между процентными долями двух выборок, в которых зарегистрирован интересующий нас эффект.
Для вычисления нужно найти отношение дисперсий двух выборок, причем так, чтобы большая по величине дисперсия находилась бы в числителе, а меньшая – в знаменателе.
Величина F-критерия связана с коэффициентом детерминации г^2. Значение F-критерия можно выразить следующим образом:
F=
Оценка значимости уравнения регрессии обычно дается в виде таблицы. Т.е. существует значение F-критерия наблюдаемое (по нашей модели) и табличное. Если F наблюдаемое > F табличное, то делается вывод о значимости гипотеза, если же Fн<Fт, то гипотеза незначима.