
- •2. История возникновения эконометрики как науки 4
- •1. Что такое эконометрика?
- •2. История возникновения эконометрики как науки
- •3. Основные виды и этапы построения эконометрических моделей
- •4. Анализ мультиколлинеарности
- •5. Автокорреляция
- •6. Метод наименьших квадратов (мнк)
- •7. Предпосылки применения метода наименьших квадратов (мнк)
- •8. Оценка значимости (надежности, существенности) эконометрических уравнений и их отдельных параметров
- •9. Системы одновременных (взаимозависимых, совместных) уравнений
- •9. Косвенный и двухшаговый мнк
- •Рекомендуемая литература
5. Автокорреляция
Автокорреляция – корреляция между наблюдаемыми показателями, упорядоченными во времени (временные ряды) или в пространстве (перекрестные данные). В эконометрике рассматривают два типа автокорреляции:
(1)автокорреляция уровней временного ряда;
(2) автокорреляция так называемых остатков εi = yxi - yi - т.е. отклонений расчетных значений y от фактических;
При наличии во временном ряде тенденции и циклических колебаний значения каждого последующего уровня ряда всегда зависят от предыдущих. Корреляционную зависимость между последовательными уровнями временного ряда называют автокорреляцией уровней ряда.
Количественно ее можно измерить с помощью линейного коэффициента корреляции между уровнями исходного временного ряда и уровнями этого ряда, сдвинутыми на несколько шагов во времени.
Формула для расчета коэффициента автокорреляции первого порядка имеет вид:
(5.1)
где
Эту
величину называют коэффициентом
автокорреляции уровней ряда первого
порядка, так как он измеряет зависимость
между соседними уровнями ряда:
и
.
Аналогично
можно определить коэффициенты
автокорреляции второго и более высоких
порядков. Так, коэффициент автокорреляции
второго порядка характеризует тесноту
связи между уровнями
и
и определяется по формуле:
(5.2)
где
Число
периодов, по которым рассчитывается
коэффициент автокорреляции, называют
лагом. С увеличением лага число пар
значений, по которым рассчитывается
коэффициент автокорреляции, уменьшается.
Считается целесообразным для обеспечения
статистической достоверности коэффициентов
автокорреляции использовать правило
– максимальный лаг должен быть не больше
.
Автокорреляция остатков возникает при нарушении предпосылок метода наименьших квадратов (МНК), как правило, при построении нелинейных уравнений регрессии. Для проверки наличия или отсутствия автокорреляции остатков используют критерий Дарбина-Уотсона (подробнее см. далее п.6 и п.7).
6. Метод наименьших квадратов (мнк)
Сущность данного метода заключается в том, что параметры уравнений регрессии определяются таким образом, чтобы достигала минимума сумма квадратов разностей между фактическими значениями результативного признака и его теоретическими значениями:
Q(a0 , a1, a2 a3,… an) = (уфакт – утеор )2 min (6.1)
Чтобы найти параметры a0 , a1, a2 a3,… an, при которых достигается минимум функции Q необходимо в формуле (6.1) заменить утеор конкретной математической функцией, то есть той аналитической зависимостью, которая будет приблизительно описывать (аппроксимировать) статистическую зависимость между факторными переменными x0 , x 1, x 2 x3,… xn. Затем, нужно воспользоваться известным из высшей математики способом поиска экстремума функции нескольких переменных.
Как известно, для нахождения минимума такой функции, нужно найти частные производные по каждой из ее переменных (т.е. в данном случае в роли переменных выступают параметры a0 , a1, a2 a3,… an) и приравнять данное выражение к нулю. Получим систему нормальных уравнений, из которых найдем заданные коэффициенты. Вид системы нормальных уравнений зависит от вида того конкретного уравнения регрессии, для которого мы ищем соответствующие значения параметров.
Рассмотрим такую систему на примере уравнения парной линейной регрессии у = a0 + a1x
Q = (уфакт – a0 – a1xфакт )2 min
Утеор = a0 + a1xфакт
(6.2)
Затем, преобразовав уравнения (6.2), получим соответствующую систему нормальных уравнений:
(6.3)
Решением системы (6.3) будут:
Рассчитав (оценив) коэффициенты a0 , a1 по этим формулам можно построить модель (уравнение парной линейной регрессии):
Аналогичным образом, используя МНК, можно получить значения параметров других функций (уравнений регрессии), используемых при аппроксимации.
Уравнение парной линейной регрессии является простейшим случаем регрессии. В этом уравнении мы имели дело только с двумя признаками — результативным y и факторным x.
Но на результат действует обычно не один фактор, а несколько, что необходимо учитывать для достаточно полного анализа связей.
В математической статистике разработаны методы построения множественной регрессии (Регрессия называется множественной, если число независимых переменных, учтенных в ней, больше или равно двум.),
Сущность метода наименьших квадратов может быть записана в наиболее общей форме в матричном виде: пусть
ε=Y-AX;
где Y – вектор фактических значений y;
AX – вектор расчетных значений y;
ε – вектор остатков.
Решаем задачу на поиск экстремума:
Записываем в матричном виде дифференцирование и приравнивание к нулю:
Отсюда получаем общий вид системы нормальных уравнений для поиска параметров регрессионных моделей:
В данном выражении используются следующие обозначения:
-
матрица значений факторных переменных.
m – число факторных переменных;
n – число их значений (статистических данных).
(транспонированная матрица)
Например, система уравнений для поиска параметров 2х факторных регрессионных моделей y=a0 + a1x1 + a2x2 имеет вид:
(6.4)
До сих пор мы, в основном, изучали линейные уравнения парной и множественной регрессии. Но не всегда связь между признаками может быть достаточно хорошо представлена линейной функцией. Иногда для описания реально существующей статистической зависимости более пригодными, а порой и единственно возможными являются более сложные нелинейные функции. Метод наименьших квадратов, как мы заметили, изучая его сущность, был разработан для линейных функций. Его использование для расчета параметров нелинейных уравнений регрессии, основано на предварительном приведении нелинейных уравнений к линейному виду, то есть на процедуре их линеаризации.
Таким образом, линеаризация уравнений регрессии – это использование различных процедур (логарифмирование, замена переменных), в результате которых нелинейные уравнения приводятся к линейному виду. Следует учитывать, что далеко не все нелинейные уравнения легко привести к линейному виду.
Поэтому в эконометрике принято различные нелинейные уравнения регрессии делить на несколько типов, в зависимости от того, насколько сложной является процедура их линеаризации.
Прежде всего, различают два класса нелинейных уравнений регрессии.
Первый класс – это уравнения регрессии, нелинейные относительно факторных переменных (x1,x2), но линейные относительно параметров (a0,a1,a2…).
К этому классу относятся, например, следующие уравнения:
y=a0 + a1x + a2x2(парабола)
y= a0 + a1x + a2x2 + a3x3 + …+ anxn (полином n–ой степени)
y= a0 + a1/x (гипербола)
Второй класс – это уравнения, нелинейные относительно оцениваемых параметров.
К этому классу относятся, например, следующие уравнения:
y=a0 xa1 (степенная)
y=a0 a1x (показательная)
y=ea0+a1*x(экспоненциальная)
Кроме того, к данному классу относятся так называемые функции с пределом насыщения или S-образные кривые: например, логистическая функция
y
=
;
логистическая кривая Перла-Рида
y
=
;
кривая Гомперца
y
=
и некоторые другие).
Первый класс функций обычно сводится к уравнениям множественной линейной регрессии путем замены переменных.
Рассмотрим, например, следующее уравнение регрессии:
y=a0 + a1x + a2x2 (уравнение парной квадратической регрессии или просто параболы).
Обозначим x=x1; x2=x2
Получим уравнение y=a0 + a1x1+ a2x2, для которого ранее уже рассматривалась система нормальных уравнений. Построим эту систему, а затем выполним обратную замену переменных.
n a0 + a1 ∑x1+a2 ∑x2=∑y
a0∑x1 + a1 ∑x21+a2 ∑x1x2=∑yx1 (6.5)
a0∑x2+ a1 ∑x1x2+a2∑x22 =∑yx2
Значения переменных в системе (6.5) снова заменим: x1 на x, а x2 на x2.
Получим другую систему (6.6), которая непосредственно может использоваться уже для расчета параметров квадратического уравнения регрессии y=a0 + a1x + a2x2.
na0+ a1 ∑x+a2 ∑x2=∑y
a0∑x+ a1 ∑x2+a2 ∑x3=∑yx (6.6)
a0∑x2+ a1 ∑x3+a2∑x4 =∑yx2
Точно также приводится к линейному виду полином любой степени.
Второй класс функций приводится к линейному виду путём специальных процедур линеаризации. Наиболее часто используют логарифмирование.
Однако эта процедура применима не ко всем функциям.
Существуют нелинейные уравнения, которые не могут быть приведены к линейному виду путем логарифмирования.
Поэтому в эконометрике принято делить уравнения регрессии, нелинейные по их параметрам, на два типа:
1) Нелинейные, но внутренне линейные, уравнения;
2) Нелинейные, внутренне нелинейные, уравнения.
Внутренне линейные уравнения достаточно легко приводятся к линейному виду путём логарифмирования и дополнительной замены переменных.
Внутренне не линейные уравнения принципиально не могут быть приведены к линейному виду. К таким уравнениям относятся, например:
y = a (1 – 1/ (1 – x)b
или
y = a + bxc
Рассмотрим пример линеаризации одной из функций, относящихся к классу внутренне линейных уравнений.
Например, рассмотрим уравнение степенной функции:
y=a0 xa1
Логарифмируя данное уравнение, получаем:
ln y = ln a0 + a1 ln x
Вводим новые переменные:
y1=ln y
x1= ln x
Заменяя переменные, получаем следующее уравнение:
y1 = ln a0 + a1 x1
Для такого уравнения легко составить систему нормальных уравнений:
nlna0+a1∑ x1=∑ y1
lna0∑ x1+a1∑( x1)2 =∑x1 y1
Повторно заменяя переменные, получаем систему:
nlna0+a1∑ln x =∑lny
lna0∑ln x +a1∑(lnx)2 =∑ lnx×lny
Решив эту систему, мы найдем параметры уравнения степенной функции. Следует обратить внимание на то, что в данной системе неизвестными являются lna0 и a1, но a0 легко найти путем процедуры потенцирования : a0 = eln a0 , т.е. возводим число «e» в степень lna0
Важнейшей проблемой при построении уравнений нелинейной регрессии является возможность нарушения предпосылок МНК, которые нужно проверять уже после их построения.