
- •Компьютерные технологии решения эконометрических задач
- •Оглавление
- •Глава V. Временные ряды ……………………..……………………………….. 84
- •Предисловие
- •Глава I парная линейная регрессия
- •1.1. Основные теоретические сведения
- •Реализация задания на компьютере с помощью ппп Ехсеl
- •Контрольные задания
- •Вариант 1.1
- •Вариант 1.2
- •Вариант 1.3
- •Вариант 1.4
- •Вариант 1.5
- •Вариант 2.1
- •Вариант 2.2
- •Вариант 2.3
- •Вариант 2.4
- •Вариант 2.5
- •Вариант 3.1
- •Вариант 3.2
- •Вариант 3.3
- •Вариант 3.4
- •Вариант 3.5
- •Вариант 4.1 (Центральный регион)
- •Вариант 4.2 (Волго-Вятский регион)
- •Вариант 4.3 (Поволжский регион)
- •Вариант 4.4 (Северный и Северозападный регионы)
- •Вариант 4.5 (Дальневосточный регион)
- •Вариант 5.1 (Центральный регион)
- •Вариант 5.2 (Волго-Вятский регион)
- •Вариант 5.3 (Поволжский регион)
- •Вариант 5.4 (Северный и Северозападный регионы)
- •Вариант 5.5 (Дальневосточный регион)
- •Вариант 6.1 (Центральный регион)
- •Вариант 6.2 (Волго-Вятский регион)
- •Вариант 6.3 (Поволжский регион)
- •Вариант 6.4 (Северный и Северозападный регионы)
- •Вариант 6.5 (Дальневосточный регион)
- •Вариант 7.1 (Центральный регион)
- •Вариант 7.2 (Волго-Вятский регион)
- •Вариант 7.3 (Поволжский регион)
- •Вариант 7.4 (Северный и Северозападный регионы)
- •Вариант 7.5 (Дальневосточный регион)
- •Вопросы для подготовки к защите индивидуального задания
- •Глава II множественная линейная регрессии
- •2.1. Основные теоретические сведения
- •Для проверки статистической значимости коэффициентов регрессии используется случайная величина
- •2.2. Реализация задания на компьютере с помощью ппп Ехсеl
- •Контрольные задания
- •Вариант 1.1
- •Вариант 1.2
- •Вариант 1.3
- •Вариант 1.4
- •Вариант 1.5
- •Вопросы для подготовки к защите индивидуального задания
- •Глава III нелинейная регрессия
- •3.1. Основные теоретические сведения
- •3.2. Реализация задания на компьютере с помощью ппп Excel
- •Вопросы для подготовки к защите индивидуального задания
- •Глава IV нарушение предпосылок мнк и их корректировка
- •4.1. Основные теоретические сведения
- •Гетероскедастичность
- •Автокорреляция.
- •Мультиколлинеарность.
- •4.2. Реализация задания на компьютере с помощью ппп Ехсеl
- •4.2.1. Проверка наличия гетероскедастичности
- •4.2.2. Проверка наличия мультиколлинеарности
- •4.2.3. Проверка наличия автокорреляции
- •Вопросы для подготовки к защите индивидуального задания
- •Глава V временные ряды
- •5.1. Основные теоретические сведения
- •5.1.1. Основные понятия и определения
- •Этапы построения прогноза по временным рядам
- •5.2. Реализация задания на компьютере с помощью ппп Ехсеl
- •Контрольные задания
- •Вопросы для подготовки к защите индивидуального задания
- •Литература
- •Приложения
- •Ссылки и массивы
Автокорреляция.
Определение и основной критерий обнаружения автокорреляции – критерий Дарбина-Уотсона DW были рассмотрены ранее (Глава II). Здесь рассмотрим только основные методы корректировки явления автокорреляции.
1) Так как автокорреляция чаще всего вызывается спецификацией модели, то необходимо, прежде всего, скорректировать саму модель. Возможно, автокорреляция вызвана отсутствием в модели некоторой важной объясняющей переменной, либо неправильно выбрана структура или вид функциональной зависимости. В этом случае нужно ввести дополнительную переменную, либо скорректировать вид функциональной зависимости. Если вышеизложенные действия не позволили в полной мере решить проблему автокорреляции, то следует применить авторегрессионную схему.
2) Авторегрессионная схема первого порядка.
Предполагается, что случайные отклонения подвержены автокорреляции 1-го порядка, т.е.
,
(4.17)
где
(i
= 1,…,n)
представляет белый
шум, т.е.
последовательность независимых нормально
распределенных случайных величин с
нулевой средней и дисперсией
;
- параметр, называемый коэффициентом
авторегрессии.
В этом случае исходное уравнение регрессии приводится к виду:
,
(4.18)
где
Значение
коэффициента
можно оценить с помощью коэффициента
корреляции
из
известного соотношения критерия
Дарбина-Уотсона:
DW =2(1- ),
т.е.
.
(4.19)
Существует еще ряд методов оценки коэффициента (метод Кохрана-Оркатта, метод Хилдрета-Лу и др.). На них останавливаться не будем.
Мультиколлинеарность.
Мультиколлинеарность – это явление связано с наличием линейной зависимости между факторами Хj регрессионной модели.
Одно из негативных последствий мультиколлинеарности заключается в том, что невозможно определить силу изолированного влияния факторов на объясняемую переменную.
При построении многофакторной модели (множественной регрессии) необходимо соблюдение следующего правила:
Мультиколлинеарность присутствует во всех экономических моделях, где все переменные экономических объектов должны быть взаимосвязаны между собой. Иначе экономическая система не будет существовать.
Поэтому мультиколлинеарность была, есть и будет, бороться с ней бесполезно, но учитывать ее при построении множественных регрессионных моделей необходимо.
Методы обнаружения мультиколлинеарности.
Признаки наличия мультиколлинеарности:
1) Коэффициент детерминации R2 достаточно высок, но все или некоторые коэффициенты уравнения регрессии статистически не значимы (низкие t-статистики);
2) Высокие парные коэффициенты корреляции.
Для проверки этого признака формируется определитель матрицы парных коэффициентов между объясняющими переменными:
R
=
, (4.20)
где
. (4.21)
Матрица
R
– симметричная, причем на главной
диагонали стоят единицы, т.е.
=1.
При полном отсутствии корреляции между
факторами
=0,
при
,
и определитель R
равен 1. Если же между факторами существует
полная линейная зависимость, т.е.
=1,
то det
R
= 0.
Таким образом, чем ближе к нулю detR, тем сильнее мультиколлинеарность. Вывод о наличии мультиколлинеарности делается по результатам проверки нулевой гипотезы Н0 : det R = 1, при альтернативной гипотезе Н1 : det R = 0.
Статистическая проверка гипотез:
Н0 : det R = 1;
Н1 : det R = 0
осуществляется
с помощью
-
распределения.
Величина
(4.22)
сравнивается
с критическим значением
(
),
где n
– объем выборки, m
– количество объясняющих переменных.
Если
>
,
то Н0
отклоняется и делается вывод о наличии
мультиколлинеарности.
Высокие частные коэффициенты корреляции.
Частные коэффициенты корреляции – это коэффициенты корреляции между двумя факторами, «очищенные» от влияния других факторов. Например для трех факторов Х1, Х2, Х3 частный коэффициент корреляции для Х1, Х2 будет:
,
(4.23)
где
- парный коэффициент корреляции между
Х1
и Х2
;
- частный коэффициент корреляции между
Х1
и Х2.
Схема вычисления элементов матрицы частных коэффициентов корреляции:
а) Обращение матрицы парных коэффициентов корреляции (4.20)
R-1
= C
=
;
(4.24)
б) Вычисление частных коэффициентов корреляции
.
(4.24)
Частные коэффициенты корреляции могут быть использованы для определения «чистого» влияния Хj на Y и ранжирования таким образом зависимости Хj на результат. Для этого составляется расширенная матрица частных коэффициентов:
|
Y |
X1 |
X2 |
… |
Xm |
Y |
1 |
|
|
… |
|
X1 |
|
1 |
|
… |
|
X2 |
|
|
1 |
… |
|
… |
… |
… |
… |
… |
… |
Xm |
|
|
|
… |
1 |
Частные
коэффициенты корреляции
определяют
степень линейной зависимости Хj
и Y.
Методы устранения мультиколлинеарности.
Мультиколлинеарность можно и не корректировать, если целью задачи является прогноз будущих значений зависимой переменной. Если же целью исследования является определение степени влияния каждой из объясняющих переменных на Y, то мультиколлинеарность исказит истинные связи между переменными. В этом случае мультиколлинеарность необходимо устранить. Единого метода устранения мультиколлинеарности не существует, однако одним из возможных методов является исключение из модели переменных.
Суть метода в следующем:
1. Определяется расширенная матрица частных коэффициентов корреляции. Осуществляется ранжирование переменных Хj в соответствие с коэффициентами .
2.
В модели оставляют наиболее значимые
аргументы, т.е. с большими значениями
,
но при этом, чтобы
были бы низкими.