- •Тема 1. Предмет эконометрики
- •Показатели вариации
- •Показатели динамики
- •Понятие о корреляционной связи
- •Парная линейная регрессия
- •Коэффициент эластичности
- •Относительная ошибка аппроксимации
- •Нелинейные модели парной регрессии и корреляции
- •Метод наименьших квадратов. Свойства оценок на основе мнк.
- •Свойства оценок мнк
- •Проверки существенности факторов и показатели качества регрессии
- •Системы эконометрических уравнений
- •Структурная и приведенная формы модели
- •Проблема идентификации
- •Оценивание параметров системы одновременных уравнений
- •Косвенный метод мнк
- •Двухшаговый метод наименьших квадратов (дмнк)
Нелинейные модели парной регрессии и корреляции
Различают 2 класса нелинейных регрессий:
Регрессии нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам.
к ним относятся:
парабола у=a+bx+cx2
y=a+b/x – равносторонняя гипербола
у=b*ln x – полулогарифмическая функция
у=axb – степенная
у=abx-показательная
у=еа+bx - экспоненциальная
Регрессии, нелинейные по оцениваемым параметрам
Регрессии, нелинейные по включенным переменным приводятся к линейному виду простой заменой переменных, а дальнейшая оценка параметров производится методом НМК.
у=a+bx+cx2
Z=x2
y=a+bx+cz
И неизвестные параметры мы находим методом НМК.
y=a+b/x
z=1/x
y=a+bz
b=
a= -b
у |
Х |
Z |
Z |
5 |
2 |
0,5 |
ln2 |
7 |
4 |
0,25 |
ln4 |
Мы работаем с z, чтобы найти параметры а и b.
Нелинейные модели 2го класса, в свою очередь, делятся на 2 типа:
Нелинейные модели внутренне-линейные (приводятся к линейному виду с помощью соответствующих преобразований, например, логарифмированием). Сюда относятся показательная, степенная, экспоненциальная, логистическая у=а/(1+becx), обратная у= 1/(а+bх)
Нелинейные модели внутренне нелинейные (не приводятся к линейному виду).
y=а+bxc
Среди всех нелинейных функция наиболее часто используется степенная функция, которая приводится к линейному виду логарифмированием у=a*xb
log y = log a*xb
log y = ln a+ln xb
log y = ln a +b ln x
log y = Y, ln a = A, ln x = X
Y=A+bX.
-
х
у
Х
Y
1
3
ln 1
ln 3
2
4
ln 2
ln 4
Далее делается операция, обратная логарифмированию – потенцирование:
ln y = A+b ln x
ln y = G
y=eG
i.e. y=eA+b lnx
y=eA+eb ln x
y=eA+xb
В нелинейных функциях такую интерпретацию имеет параметр b.
Параметр b в степенной функции является коэф-м эластичности, который показывает, на сколько % в среднем изменится результат при изменении фактора на 1% от его среднего значения.
Коэф-т эластичности для нелинейных функций: Э=f’(x)*
Эср = f’(xcp)*
Таблица расчета средних коэф-в эластичности для наиболее используемых уравнений регрессий:
-
Вид функции у
f’(x)
Эср
y=a+bx
b
b*
у=a+bx+cx2
b+2cx
у=а+b/x
-b/x2
-
y=a*xb
ab*x-1
y=a+b ln x
b/x
b/(a+b ln x cp)
y=1/(a+bx)
-b/(a+bx)2
-bx/(a+bx cp)
a+b xcp - среднее значение у. Эластичность получается сразу в %.
Бывают случаи, когда для рассматриваемых признаков бессмысленно изменение в %. В этих случаях коэф-т эластичности не рассчитывают.
Для уравнений нелинейной регрессии определяют показатель тесноты связи. В это случае он называется индексом корреляции.
ρxy=
σ2y (общая) =
=
Квадрат индекса корреляции носит название индекса детерминации и характеризует долю дисперсии результативного признака у, объясняемую регрессией в общей дисперсии результативного признака.
ρxy2=1-(σ2ост/σ2ост)=σ2факторная/σ2у
σ2факт=
Индекс детерминации можно сравнивать с коэф-м парной линейной детерминации для обоснования возможностей применения линейной функции. Чем больше кривизна линии регрессии, тем меньше величина парного линейного коэф-та детерминации по сравнению с индексом детерминации.
Индекс детерминации используется для проверки существенности в целом уравнения регрессии по F-критерию Фишера.
Fф= (ρxy2/(1- ρxy2))*(n-m-1)/m
n-m-1 = k1
m=k2
m- число параметров при х
Сравниваем с табличным значением, если оно больше фактического, то уравнение считается статистически значимым. Fтабл = (α, k1, k2)
О качестве нелинейного уравнения можно судить также, используя ошибку аппроксимации, которая вычисляется аналогично линейной функции.
Пример.
Поэтому отбор факторов обычно осуществляется в 2 стадии:
Подбираются факторы, исходя из сущности проблемы;
На основе матрицы показателей корреляции определяют факторы для параметров регрессии. Корреляция между объясняющими переменными позволяет исключить из модели дублирующие факторы.
Считается, что 2 переменные явно коллинеарны (находятся между собой в линейной зависимости), если парный коэф-т корреляции между ними больше 0,7. rXiXj>0,7.
Если факторы явно коллинеарны, то один из них дублирует другого, а значит, один из них надо исключить из модели. Предпочтение при этом отдаётся не фактору, тесно связанному с результатом, а фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами.
Пример. Пусть матрица коэф-в парной корреляции оказалась следующей:
-
У
Х1
Х2
Х3
У
1
Х1
0,8
1
Х2
0,7
0,6
1
Х3
0,8
0,5
0,2
1
y=f(х1, х2, х3).
Оставляем тот фактор, который менее тесно связан с результатом – х2. Убираем х1.
(Excel- анализ данных – корреляция – матрица корреляции).
При наличии мультиколлинеарности факторов, т.е. когда более, чем 2 фактора, связаны между собой линейной связью, имеет место совокупное воздействие факторов друг на друга. Наличие мультиколлинеарности означает, что некоторые факторы будут всегда действовать в унисон, в результате вариация исходных данных не будет являться независимой, а следовательно, нельзя будет оценить воздействие каждого фактора в отдельности. Наличие мультиколлинеарности приводит к следующим последствиям:
Затрудняется интерпретация параметров множественной регрессии, они теряют экономический смысл;
Оценки параметров ненадёжны, обнаруживаются большие стандартные ошибки, что делает модель непригодной для анализа и прогнозирования.
Для оценки мультиколлинеарности факторов используют определитель матрицы парных коэф-в корреляции между факторами. Если бы факторы не коррелировали между собой, то матрица парных коэф-в была бы единичной, т.к. все диагональные коэф-ты были бы равны 0.
Пусть нам дано уравнение регрессии следующего вида:
y=a+b1x1+b2x2+b3x3
1-матрица
∆r= = =1
Если наоборот – между факторами существует полная линейная зависимость, то и все коэф-ты корреляции будут равны единице, т.е. (матрица 2)
∆r= =0
и её определитель будет равен 0. Следовательно, чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадёжнее результаты множественной регрессии (мультиколлинеарность – это плохо =)).
Чем ближе к 1 – тем меньше мультиколлинеарность факторов.
Существует ряд подходов преодоления сильной межфакторной корреляции. Самый простой путь – убрать из модели один или несколько факторов. 2ой подход связан с преобразованием факторов, при котором уменьшается корреляция между ними. Существует много способов отбора факторов в модель. Наибольшее применение получили следующие:
Метод исключения – рассматривается полный набор факторов, а потом отсеиваются факторы из полного набора.
Метод включения – дополнительное введение факторов.
Шаговый регрессионный анализ – исключение ранее введённого фактора.
При отборе факторов рекомендуется пользоваться следующим правилом: число включаемых факторов в 6-7 раз должно быть меньше объёма совокупности, по которой строится регрессия. Если это соотношение нарушается, то число степеней свободы остаточной дисперсии очень мало. Это приводит к тому, что уравнение регрессии оказывается статистически незначимым, т.е. F-критерий меньше табличного значения.