- •Эконометрика
- •Содержание
- •1. Введение в эконометрическое моделирование
- •1.1. Эконометрическая модель и экспериментальные данные
- •1.2. Этапы эконометрического моделирования
- •2. Регрессионная модель. Общие положения
- •3. Парная линейная регрессия
- •3.1. Вид уравнения и предпосылки для регрессионного анализа
- •3.2.Отыскание оценок параметров парной регрессии
- •3.3. Оценка значимости уравнения и его параметров
- •3.4. Интервалы прогноза по линейному уравнению регрессии.
- •4. Множественная линейная регрессия
- •4.1. Матричная форма регрессионной модели
- •4.2. Отбор факторов для моделей множественной регрессии
- •4.3. Влияние на качество модели множественной регрессии избыточных переменных и отсутствия существенных переменных Пусть истинная модель представляется в виде:
- •4.4. Оценка параметров модели множественной регрессии
- •4.5. Оценка надёжности результатов множественной регрессии.
- •5. Нелинейная парная регрессия
- •5.1. Функции и их характеристики
- •5.2 Корреляция при нелинейной регрессии
- •6. Модели ancova (модели ковариационного анализа). Фиктивные переменные.
- •7. Оценка точности регрессионных моделей.
- •8. Гетероскедастичность остатков.
- •8.1. Сущность и причины гетероскедастичности
- •8.2. Выявление гетероскедастичности
- •8.3. Устранение гетероскедастичности
- •9. Автокорреляция в остатках
- •9.1 Сущность и причины автокорреляции в остатках
- •9.2. Обнаружение автокорреляции в остатках
- •9.3. Методы устранения автокорреляции
- •10. Системы одновременных уравнений
- •10.1. Виды переменных и уравнений соу
- •10.2. Проблемы идентификации
- •Для первого уравнения матрица a запишется:
- •10.3. Оценивание параметров структурной модели
- •11. Динамические эконометрические модели
- •11.1. Интерпретация параметров модели с распределенным лагом
- •11.2. Интерпретация параметров модели авторегрессии
- •11.3. Соображения о выборе лаговых структур в модели с распределенным лагом
- •11.4. Полиномиальные лаговые структуры Алмон
- •11.5. Геометрические структуры Койка
- •11.6. Оценка параметров авторегрессионных моделей первого порядка (ar(1)–моделей)
- •11.7. Модель адаптивных ожиданий
- •12. Сглаживание временных рядов
- •12.1. Метод скользящей средней
- •12.2. Регрессионная модель и метод конечных разностей
- •12.3. Стационарные и нестационарные временные ряды
- •12.4. Преобразования arma и arima
- •13. Моделирование временного ряда при наличии структурных изменений
- •14. Статистико-математические таблицы
- •2. Критические значения t-критерия Стьюдента при уровне
- •3. Критические значения корреляции для уровней значимости
- •4. Значения статистик Дарбина – Уотсона dL dU при
- •5. Критические значения количества рядов (таблица Сведа-Эйзенхарта
- •Эконометрика Учебное пособие Безруков Анатолий Владимирович
- •Редактор
- •454021 Челябинск, ул. Братьев Кашириных, 129
- •454021 Челябинск, ул. Молодогвардейцев, 57б
2. Регрессионная модель. Общие положения
По виду аналитической зависимости объясняемой переменной от объясняющих переменных регрессионную модель подразделяют на линейную и нелинейную. В большинстве случаев строят линейные модели, так как они кроме простоты имеют два положительных качества:
1) если многомерная случайная величина (X,Y), где X – вектор, имеет совместное нормальное распределение, то уравнение регрессии будет линейным, например:
,
если x
– одномерная случайная величина.
Предположение о нормальности распределения вполне естественно и может быть обоснованно с помощью предельных теорем теории вероятности.
В некоторых случаях величины X и Y могут не иметь нормального распределения (X может быть вообще детерминированным), но некоторые функции от них могут быть распределены нормально.
2) меньший риск значительной ошибки, так как линейная функция имеет постоянную производную и не претерпевает значительных изменений при изменении аргументов.
Модели, нелинейные по объясняющим
переменным, можно свести к линейным
путём переименования переменных. При
этом в модели за новую переменную
берётся интересующая нас экономическая
переменная с примененным к ней нелинейным
оператором. Так, для модели
Можно принять
и получить
Отметим, что содержательная интерпретация результатов при такой замене переменных затрудняется.
Модели, нелинейные по параметрам, подразделяются на:
– внутренне линейные (линеаризуемые)
– внутренне нелинейные (нелинеаризуемые)
Первые могут быть приведены к линейному виду путём соответствующих математических преобразований, например:
Для оценки параметров внутренне нелинейной модели (5 этап) используют специальные итерационные процедуры. Такие модели достаточно редки и экзотичны, и мы в дальнейшем их рассматривать не будем.
Уравнения регрессии и некоторые тождества, связывающие объясняющие и объясняемые переменные, могут составлять так называемые системы одновременных уравнений. Тождества не содержат параметров, подлежащих оцениванию, и не включают случайные составляющие. Каждое уравнение такой системы, кроме своих объясняющих переменных может включать объясняемые переменные из других уравнений, в том числе их лаговые значения.
Таким образом, эконометрическая модель на основе системы одновременных уравнений позволяет объяснить поведение эндогенных переменных в зависимости от экзогенных переменных и лаговых значений эндогенных переменных, то есть в зависимости от предопределённых (заранее определённых) переменных.
Построение и исследование регрессионной модели называют регрессионным анализом. Задачей регрессионного анализа является установление формы зависимости между переменными, оценка функции регрессии и отыскание прогнозных значений зависимых переменных.
3. Парная линейная регрессия
3.1. Вид уравнения и предпосылки для регрессионного анализа
Парная линейная регрессия описывается уравнением:
Для получения оценки параметров линейной функции регрессии взята выборка, состоящая из векторных переменных (xi, yi).
Оценкой
записанной выше модели является уравнение
где
Классический подход к оцениванию параметров α и β основан на классическом (обычном или традиционном) методе наименьших квадратов (МНК).
Чтобы регрессионный анализ давал достоверные результаты необходимо выполнить 4 условия Гаусса– Маркова:
1.M(εi) = 0 – остатки имеют нулевое среднее для всех i = 1,…, n.
2. D(εi) = σ2 = const для всех i = 1,…, n – гомоскедастичность остатков, то есть их равноизменчивость.
– отсутствие автокорреляции в остатках.
4. Объясняющая переменная X детерминирована, а объясняемая переменная Y – случайная величина и остатки не коррелируют с X:
Объясняющая переменная в том случае, когда она стоит в уравнении регрессии, может называться регрессором.
Наряду с этими четырьмя условиями Гаусса – Маркова применяют 5-е условие: остатки должны быть распределены нормально; это условие необходимо для обеспечения правильного оценивания значимости уравнения регрессии и его параметров.
Наилучшие оценки называют BLUE – оценками (Best Linear Unbiased Estimators).
Они обладают следующими свойствами:
1. Это оценки несмещённые:
3. Оценки эффективны, то есть имеют наименьшие дисперсии среди всех возможных оценок.
Если нарушаются 2-е и/или 3-е условия Гаусса – Маркова, то оценки не теряют свойства 1и 2, а свойство 3 (эффективность) теряют; дисперсии становятся смещёнными.
