- •Эконометрика
- •Содержание
- •1. Введение в эконометрическое моделирование
- •1.1. Эконометрическая модель и экспериментальные данные
- •1.2. Этапы эконометрического моделирования
- •2. Регрессионная модель. Общие положения
- •3. Парная линейная регрессия
- •3.1. Вид уравнения и предпосылки для регрессионного анализа
- •3.2.Отыскание оценок параметров парной регрессии
- •3.3. Оценка значимости уравнения и его параметров
- •3.4. Интервалы прогноза по линейному уравнению регрессии.
- •4. Множественная линейная регрессия
- •4.1. Матричная форма регрессионной модели
- •4.2. Отбор факторов для моделей множественной регрессии
- •4.3. Влияние на качество модели множественной регрессии избыточных переменных и отсутствия существенных переменных Пусть истинная модель представляется в виде:
- •4.4. Оценка параметров модели множественной регрессии
- •4.5. Оценка надёжности результатов множественной регрессии.
- •5. Нелинейная парная регрессия
- •5.1. Функции и их характеристики
- •5.2 Корреляция при нелинейной регрессии
- •6. Модели ancova (модели ковариационного анализа). Фиктивные переменные.
- •7. Оценка точности регрессионных моделей.
- •8. Гетероскедастичность остатков.
- •8.1. Сущность и причины гетероскедастичности
- •8.2. Выявление гетероскедастичности
- •8.3. Устранение гетероскедастичности
- •9. Автокорреляция в остатках
- •9.1 Сущность и причины автокорреляции в остатках
- •9.2. Обнаружение автокорреляции в остатках
- •9.3. Методы устранения автокорреляции
- •10. Системы одновременных уравнений
- •10.1. Виды переменных и уравнений соу
- •10.2. Проблемы идентификации
- •Для первого уравнения матрица a запишется:
- •10.3. Оценивание параметров структурной модели
- •11. Динамические эконометрические модели
- •11.1. Интерпретация параметров модели с распределенным лагом
- •11.2. Интерпретация параметров модели авторегрессии
- •11.3. Соображения о выборе лаговых структур в модели с распределенным лагом
- •11.4. Полиномиальные лаговые структуры Алмон
- •11.5. Геометрические структуры Койка
- •11.6. Оценка параметров авторегрессионных моделей первого порядка (ar(1)–моделей)
- •11.7. Модель адаптивных ожиданий
- •12. Сглаживание временных рядов
- •12.1. Метод скользящей средней
- •12.2. Регрессионная модель и метод конечных разностей
- •12.3. Стационарные и нестационарные временные ряды
- •12.4. Преобразования arma и arima
- •13. Моделирование временного ряда при наличии структурных изменений
- •14. Статистико-математические таблицы
- •2. Критические значения t-критерия Стьюдента при уровне
- •3. Критические значения корреляции для уровней значимости
- •4. Значения статистик Дарбина – Уотсона dL dU при
- •5. Критические значения количества рядов (таблица Сведа-Эйзенхарта
- •Эконометрика Учебное пособие Безруков Анатолий Владимирович
- •Редактор
- •454021 Челябинск, ул. Братьев Кашириных, 129
- •454021 Челябинск, ул. Молодогвардейцев, 57б
4.3. Влияние на качество модели множественной регрессии избыточных переменных и отсутствия существенных переменных Пусть истинная модель представляется в виде:
а мы считаем, что моделью является регрессионное уравнение
и рассчитываем оценку величины b1 по формуле
вместо
формулы
В
целом проблемы смещения оценки здесь
нет, но в общем случае оценка будет
неэффективной в смысле наличия большей
дисперсии, чем при правильной спецификации.
Это легко понять интуитивно. Истинная
модель может быть записана в виде
Здесь b1 будет являться несмещенной оценкой параметра β1, а b2 будет несмещенной оценкой нуля (при выполнении условий Гаусса-Маркова).
Утрата эффективности в связи с включением x2 в случае, когда она не должна быть включена, зависит от корреляции между x1 и x2.
Сравним (см. табл. 4.1):
таблица 4.1
Парная регрессия
|
Множественная регрессия
|
Дисперсия
окажется большей при множественной
регрессии, и разница будет тем больше,
чем коэффициент парной корреляции
будет
ближе по модулю к единице.
Теперь, пусть переменная y зависит от двух факторов x1 и x2:
однако
мы не уверены в значимости фактора x2,
и
поэтому мы запишем уравнение регрессии так:
или
Если выбросить x2 из регрессионной модели, то x1 будет играть двойную роль – отражать свое прямое влияние на объясняемую переменную y и заменять фактор x2 в описании его влияния. Это опосредованное влияние величины x1 на y будет зависеть от двух обстоятельств: от видимой способности переменной x1 имитировать поведение x2 и от прямого влияния x2 на y. Способность переменной x1 объяснять поведение переменной x2 определяется коэффициентом наклона h линии псевдорегрессии:
Величина коэффициента h рассчитывается при помощи обычной формулы для парной регрессии
Влияние
х2
на у
определяется в адекватном уравнении
регрессии коэффициентом b2,
и таким образом, эффект имитации
посредством величины b2
может быть записан как
(прямое влияния величины х1
на
у
описывается с помощью b1).
При оценивании регрессионной зависимости у от х1 (без включения в нее переменной х2) коэффициент при х1 определяется формулой:
При условии, что величина х1 не является стохастической, ожидаемым значением коэффициента при х1 будет сумма первых двух членов последней формулы. Присутствие 2-го слагаемого предполагает, что математическое ожидание коэффициента при х1 будет отличаться от истинной величины b1, то есть, другими словами, оценка будет смещенной. Величина смещения определится выражением:
Направление смещения определяется знаками b2 и cov(x1,x2); иногда смещение бывает настолько сильным, чтобы заставить коэффициент регрессии сменить знак.
Если
то
смещение исчезает.
Другим серьезным следствием невключения переменной, которая на самом деле должна присутствовать в регрессии, является то, что формулы для стандартных ошибок коэффициентов и тестовые статистики, вообще говоря, становятся неприменимыми.
4.4. Оценка параметров модели множественной регрессии
Параметры модели в классическом варианте оценивают с помощью МНК. Предпосылки для МНК в множественной регрессии:
1.
математическое ожидание остатков во
всех наблюдениях равняется нулю
;
2. отсутствие гетероскедастичности остатков
;
3. отсутствие автокорреляции в остатках
;
4. объясняющие переменные детерминированы, а у – объясняемая переменная, случайна и остатки не коррелируют с объясняющими переменными.
5. остатки должны быть распределены нормально: εi ~ N (0; σ);
6. регрессионная модель должна быть линейна относительно параметров;
7. отсутствие интеркорреляции и мультиколлинеарности
Уравнение множественной регрессии выглядит следующим образом:
Обратившись к матричной форме записи можно увидеть, что система нормальных управлений (СНУ), для такой множественной линейной модели будет иметь такой вид:
В матричной форме вектор оценки параметров запишется:
Дисперсия остатков отыскивается так:
Эти формулы справедливы для классического МНК при гомоскедастичности остатков и отсутствии автокорреляции в остатках.
Модель, где все факторы, присутствуют в масштабах своих единиц измерения, не позволяет сравнить (оценить) степень вклада каждого фактора в результат, поэтому для исключения этого недостатка строят уравнения с использованием стандартизованных переменных и коэффициентов.
Коэффициенты
регрессии
такой модели имеют тот же смысл, что и
в парной регрессии, только каждый
коэффициент отвечает за свой фактор.
Они показывают на сколько своих СКО
изменится в среднем результат y,
если соответствующий фактор
изменится на одно свое СКО
при
неизменном среднем уровне остальных
факторов.
Долю
влияния j–го
фактора в суммарном влиянии всех факторов
можно оценить по величине дельта–коэффициентов
:
Качество уравнения множественной регрессии можно оценить с помощью коэффициента множественной корреляции или его квадрата - коэффициента детерминации:
Если число наблюдений n недостаточно велико по сравнению с количеством факторов p, то величина R2 считается завышенной и в таких случаях вычисляют исправленное значение R2.
.
