Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЭКОНОМЕТРИКА(Горбатков).doc
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
1.15 Mб
Скачать

4.10. Разностные уравнения с лаговыми пременными

Назначение: Если классическое уравнение регрессии (УР) оказалось неадекватным (например, имеет место смещенность остатков M[ei]¹0, их автокорреляция, гетероскедантичность), то целесообразно построение разностной авторегрессионной модели.

Структура уравнения регрессии: В левой части уравнения регрессии стоит аппроксимируемая величина Z(d) – разность порядка d, а в правой части линейная комбинация лаговых переменных порядка p, аппроксимирующая эту разность Z(d):

(4.10)

Пример для разности первого порядка

Для практического построения разностной автореррессионной модели необходимо провести идентификацию модели, т.е. выбрать оптимальные с точки зрения адекватности и качества модели значения порядка разности d* и порядка уравнения регрессии (числа лаговых переменных) р*.

Может быть использован следующий алгоритм:

(4.11.а)

(4.11.б)

В алгоритме (4.11.а)оптимальное значение порядка разностей d* находится из условия минимизации дисперсий D(Z(d)) разностей порядка d(d=var), которые для каждого порядка d вычисляются по всем наблюдениям . Обычно на практике достаточно взять d= 1,2,3, т.е. ограничиться разностями третьего порядка.

В алгоритме (4.11.б) порядок p* регрессионного полинома (4.10) находиться из условия максимизации коэффициента автокорреляции r(p) при вариации p=1,2,3,… .

4.11. Оценка коэффициентов авторегрессионных моделей.

В структуру разностной авторегрессии оцениваемые коэффициенты модели входят линейным образом, поэтому применим классический метод наименьших квадратов:

(4.12)

- вектор наблюдений зависимой переменной.

4.12. Прогнозирование по разностной авторегрессионной модели

Прогнозирование осуществляется как в обычном линейном уравнении регрессии. После получения точечного и интервального прогноза следует вернуться от разностей к зависимой переменной Yt по формулам связи разностей с Yt. Например, для разностей первого порядка получим соотношение:

(4.13)

Глава V. Некоторые вопросы практического построения регрессионных моделей

5.1.Проблема спецификации переменных. Мультиколлинеарность

Мультиколлениарность – это линейная взаимосвязь двух любых регрессоров Xj и Xk , (j, k = ), что является нарушением предпосылки 7 метода наименьших квадратов.

Здесь может быть два случая:

а) Два любых фактора имеют между собой линейную функциональную (детерминированную) связь

xj=a+bxk. (5.1)

В этом случае соответствующий вектор-столбцы в базе данных xij , ( ) и xik, ( ) оказываются строго линейно – зависимыми и определитель матрицы нормальных уравнений равен нулю:

(5.2)

Значит матрица необратима и оценить параметры уравнения регрессии по методу наименьших квадратов невозможно.

б) Линейная связь (5.1) стохастическая (скрытная). Однако она может быть выявлена путем вычисления коэффициента линейной парной корреляции . Если критерии Стьюдента значим, то стохастическая линейная взаимосвязь есть!

Следствия мультиколленеарности:

1). Матрица нормальных уравнений формально обратима, но плохо обусловлена (её определитель очень мал, и тем меньше, чем сильнее взаимосвязь хj и xk). При большой размерности этой матрицы (десятки и сотни регрессоров) возникают вычислительные проблемы ее обращения.

2) Если все же удалось построить уравнение регрессии с сохранением в нем мультиколлинеарных факторов, уравнение регрессии, как правило имеет плохое качество:

  • Модель, как правило, неадекватна;

  • Имеют место большие среднеквадратичные отклонения оцениваемых параметров ;

  • Оценки неустойчивы по вариации исходных данных;

  • Данные моделирования трудноинтерпретируемы.