
- •1.Предмет, задачи и методы эконометрики.
- •2.1 Общие положения.
- •2.2 Метод наименьших квадратов.
- •2.3 Свойства оценок полученных мнк.
- •3.1 Выбор функционального показателя.
- •4.1 Общие положения.
- •3.2 Отбор факторов-аргументов.
- •3.3. Выбор формы связи
- •3.4 Отбор исходных данных.
- •4.2 Проверка случ-ти колебаний уровня остаточной последоват-ти.
- •4.4 Проверка рав-ва матем.Ожидания случайной компоненты нулю.
- •4.3 Проверка соответствия распределения случ.Компоненты нормальному з-ну распредел-я.
- •4.5 Проверка независ-ти значений уровней случайной компоненты.
- •4.6 Определение точности модели.
- •5.1 Линейные ур-я регрессии. Закон сложения дисперсий.
- •5.2 Коэф.Парной и частной коррел., коэф.Эластичности.
- •5.3 Коэф.Множественной коррел.И детерминации.
- •6.1 Критерий Фишера.
- •6.2 Критерий Стьюдента.
- •7.1.Гетероскедастичность остатков в ур.Регрессии и ее последствия.
- •7.2.1. Тест ранговой корреляции Спирмена.
- •7.2.2.Тест Голфенда-Квандта.
- •7.2.3 Тест Глейзера.
- •7.3 Методы устранения гетероскедастичности.
- •8.1 Автокорреляция (остатков) и связанные с ней факторы.
- •8.2. Обнаруж-е автокоррел.1-го порядка. Критерий Дарбина–Уотсона
- •8.3.1. Устранение автокоррел, описыв.Авторегрессионной схемой 1го порядка в общем случае. Поправка Прайса – Уинстена.
- •9.2, 9.3 Мультиколлин-ть: способы ее обнаружения и устранения.
- •10. Обобщенный мнк и его исп-ие для оценки эфф-ти методов определения параметров уравнения регрессии.
- •11.1.Фиктивные переменные для пространственных выборок и временных рядов.
- •11.2.Фиктивные переменные для коэф-та наклона ур-ия регрессии.
- •11.3 Тест Чоу.
- •12.1 Линеаризация уравнения регрессии путем замены переменных.
- •12.2 Линеаризация уравнения регрессии с использованием логарфмического преобразования (степенные и показательные функции).
- •12.3 Представление случайного члена в преобразованных нелинейных ур-ях регрессии.
- •12.4 Определение параметров нелин-го ур-ия герессии, не приводимого к лин-му ур-ию.
- •12.5 Выбор вида ур-ия регрессии с использ-ем теста Бокса-Кокса.
- •13.1 Общая характеристика временных рядов. Трендовые модели.
- •13.2 Предварительный анализ временных рядовю. Метод Ирвина.
- •13.3 Сглаживание временных рядов экономич. Показ-ей.
- •13.5 Замещающие переменные и их использование при построении уравнения регрессии (общие сведения).
- •13.6 Непреднамеренное использование замещающих переменных.
- •13.7 Лаговые переменные и их использование пи построении уравнения регрессии(общие сведения).
- •14.1 Система линейных одновременных уравнений слоу (общие сведения)
- •14.2 Структурная и приведённая формы слоу.
- •14.3 Косвенный метод наименьших квадратов (кмнк) и его использование для определения параметров слоу.
- •14.4 Метод инструментальных переменных (мип) и его применение для параметров уравнения регрессия (общий случай)
- •14.5 Метод инструментальной переменной (мип) и его применение для слоу.
- •14.6 Идентифицируемость слоу.
- •14.7 Двухшаговый метод наименьших квадратов.
- •14.8 Трехшаговый мнк.
14.2 Структурная и приведённая формы слоу.
При оценивании параметров СЛОУ важно различать эндогенные и экзогенные переменные
Эндогенной считается та переменная, которая определяется внутри модели.
Экзогенными считаются те переменные, которые задаются из вне или берётся как заданная.
Такая классификация переменных позволяет выявить как действительно определяются эндогенные переменные. Например в уравнениях Ct=α+βyt+Ut (2) и yt=Ct+It (3) Ct определяется yt. и наоборот. Чтобы выявить от чего же все-таки зависит Ct ,преобразуем (2) путём подстановки yt и его значений
Сt=α+β*Ct+βIt+Ut
Ct=α/(1-β) +β*It/(1-β) +Ut/(1-β)
Из этого уравнения видно, что Сt определяется инвестициями и случайной составляющей. Исходные уравнения вида (2) и (3) называются структурными уравнениями и разделяются на поведенческие уравнения вида (2) которые отражают эмпирические связи между уравнениями; и уравнения –тождества вида (3).
Сt=α+β1*yt+β2*Ct-1+Ut
Yt=Ct+It
Ct=α+β1*Ct+β2*Ct-1+β1*It+Ut
Ct=α/(1-β) +β1*It/(1-β1) +β2*Ct-1/(1-β1)+Ut/(1-β1) – приведённое уравнение т.к. Сt-1 это предопределённая переменная.
Лаговые переменные и экзогенные переменные вместе составляют систему предопределённых переменных.
14.3 Косвенный метод наименьших квадратов (кмнк) и его использование для определения параметров слоу.
Данный метод рассматривается на примере определения параметров функции потребления простой кейнсианской модели
Ct=α+β*yt + Ut (1)
{
yt=Ct+It (2)
Ct=α/(1-β) + β*It/(1-β) + Ut/(1-β)
α׳= α/(1-β) (3)
β׳=β/(1-β) (4) Ct=α׳+β׳*It+U׳t (5)
в уравнении (5) слева имеем только экзогенные переменные и к нему может быть применён стандартный МНК и найдены оценки α׳ и β׳
Используя эти оценки из уравнения (3) и (4) можно найти оценки
α= α׳/(1+ β׳) β= β׳/(1+ β׳) Это и есть КМНК
исходная структурная система уравнений преобразуется в систему приведённых уравнений. Используя ее МНК находим несмещённые оценки коэффициентов приведённой системы уравнений.
используя соотношение ((3), (4)) между коэффициентами приведённой системы уравнений и структурной системы уравнений находим коэффициенты структурной системы уравнений.
Если число коэффициентов приведённой системы уравнений равно числу коэффициентов исходной структурной системы уравнений, то система уравнений считается идентифицируемой.
Если число коэффициентов уравнений будет < числа коэффициентов структурной системы уравнений, то система уравнений является не идентифицируемой.
Если число коэффициентов приведённой системы уравнений > числа коэффициентов структурной системы уравнений, то в этом случае имеем сверх идентифицируемую систему уравнений. И эта система может быть несовместной.
14.4 Метод инструментальных переменных (мип) и его применение для параметров уравнения регрессия (общий случай)
При наличии ошибок измерения, если их причина заключается в том, что измеряемая переменная принципиально отличается от истинной объясняющей переменной в уравнении, то можно попытаться заменить её более подходящей переменой.
Для этой цели используем МИП, который заключается в частичной замене непригодной объясняющей переменной такой переменной, которая существенным образом отражала воздействие на Y исходной объясняющей переменной, но не коррелированна со случайной составляющей.
Таким образом в практике возникают 2 случая необходимости использования МИП: 1)когда используемая объясняющая переменная может быть измерена с большими ошибками или вообще неизмерима и она заменяется другой объясняющей переменной. 2)если объясняющая переменная но коррелирует существенным образом со случайной составляющей.
В обоих случаях необходимо найти замену исходной объясняющей переменной и новая переменная должна:
а) коррелировать существенным образом с заменяемой объяснительной переменной
б) не коррелировать со случайной составляющей
y=α+β*x+U В качестве исходной переменной – x, заменяемой z.
В этом случае величина β инструментальных переменных определяется
βип= cov(y;z) / cov(x;z)
При больших выборках βип=cov(y;z) / cov(x;z) = сov[(α+β*x+u);z] / cov(x;z) =
=( cov(α;z) + cov(β-x;z) + cov(u;z) )/ cov(x;z) = β + (cov(u;z) / cov(x;z))
Для достаточно больших выборок cov(u;z) =>0 а cov (x;z), при условии, что x и z достаточно сильно коррелируют между собой, стремится к истинному значению.
Поэтому, чем выше корреляция между x и z тем выше будет совпадение оценок инструментальной переменой и обычного МНК.
Однако, если корреляция между x и z будет приближаться к 1 функциональной зависимости то есть опасность, что z начнёт коррелировать со случайной составляющей.