
- •1.Предмет, задачи и методы эконометрики.
- •2.1 Общие положения.
- •2.2 Метод наименьших квадратов.
- •2.3 Свойства оценок полученных мнк.
- •3.1 Выбор функционального показателя.
- •4.1 Общие положения.
- •3.2 Отбор факторов-аргументов.
- •3.3. Выбор формы связи
- •3.4 Отбор исходных данных.
- •4.2 Проверка случ-ти колебаний уровня остаточной последоват-ти.
- •4.4 Проверка рав-ва матем.Ожидания случайной компоненты нулю.
- •4.3 Проверка соответствия распределения случ.Компоненты нормальному з-ну распредел-я.
- •4.5 Проверка независ-ти значений уровней случайной компоненты.
- •4.6 Определение точности модели.
- •5.1 Линейные ур-я регрессии. Закон сложения дисперсий.
- •5.2 Коэф.Парной и частной коррел., коэф.Эластичности.
- •5.3 Коэф.Множественной коррел.И детерминации.
- •6.1 Критерий Фишера.
- •6.2 Критерий Стьюдента.
- •7.1.Гетероскедастичность остатков в ур.Регрессии и ее последствия.
- •7.2.1. Тест ранговой корреляции Спирмена.
- •7.2.2.Тест Голфенда-Квандта.
- •7.2.3 Тест Глейзера.
- •7.3 Методы устранения гетероскедастичности.
- •8.1 Автокорреляция (остатков) и связанные с ней факторы.
- •8.2. Обнаруж-е автокоррел.1-го порядка. Критерий Дарбина–Уотсона
- •8.3.1. Устранение автокоррел, описыв.Авторегрессионной схемой 1го порядка в общем случае. Поправка Прайса – Уинстена.
- •9.2, 9.3 Мультиколлин-ть: способы ее обнаружения и устранения.
- •10. Обобщенный мнк и его исп-ие для оценки эфф-ти методов определения параметров уравнения регрессии.
- •11.1.Фиктивные переменные для пространственных выборок и временных рядов.
- •11.2.Фиктивные переменные для коэф-та наклона ур-ия регрессии.
- •11.3 Тест Чоу.
- •12.1 Линеаризация уравнения регрессии путем замены переменных.
- •12.2 Линеаризация уравнения регрессии с использованием логарфмического преобразования (степенные и показательные функции).
- •12.3 Представление случайного члена в преобразованных нелинейных ур-ях регрессии.
- •12.4 Определение параметров нелин-го ур-ия герессии, не приводимого к лин-му ур-ию.
- •12.5 Выбор вида ур-ия регрессии с использ-ем теста Бокса-Кокса.
- •13.1 Общая характеристика временных рядов. Трендовые модели.
- •13.2 Предварительный анализ временных рядовю. Метод Ирвина.
- •13.3 Сглаживание временных рядов экономич. Показ-ей.
- •13.5 Замещающие переменные и их использование при построении уравнения регрессии (общие сведения).
- •13.6 Непреднамеренное использование замещающих переменных.
- •13.7 Лаговые переменные и их использование пи построении уравнения регрессии(общие сведения).
- •14.1 Система линейных одновременных уравнений слоу (общие сведения)
- •14.2 Структурная и приведённая формы слоу.
- •14.3 Косвенный метод наименьших квадратов (кмнк) и его использование для определения параметров слоу.
- •14.4 Метод инструментальных переменных (мип) и его применение для параметров уравнения регрессия (общий случай)
- •14.5 Метод инструментальной переменной (мип) и его применение для слоу.
- •14.6 Идентифицируемость слоу.
- •14.7 Двухшаговый метод наименьших квадратов.
- •14.8 Трехшаговый мнк.
12.1 Линеаризация уравнения регрессии путем замены переменных.
Многие эк-ие явления более лучшим способом, чем лин-ые уравнения, описываются нелин-ми уравнениями. И в этом случае мы не можем применить к ним обычный МНК, и используем станд-ые подходы к оценке стат. надежности. В связи с этим встает задача по возможности привести нелин-ое уравнение к лин-му виду. В тех случаях, когда нелин-ть касается факториальных переменных, но не связана с нелин-тью коэф-ов ур-ия регрессии, нелин-сть обычно устраняется путем замены переменных:
Вводим
нов. перемен.:
и
След-но
,
т. е. лин-ое ур-ие.
Во всех случаях, когда можно вычислить нов. перем-ую с использованием инф-ии об исход. перм-ой до опред-ия пар-ов ур-ия регрессии. Метод замены пер-ых решает поставл. задачи линеализацией ур-ия регрессии.
12.2 Линеаризация уравнения регрессии с использованием логарфмического преобразования (степенные и показательные функции).
В тех случаях, когда связь между фактор-ми перем-ми и результ-им приз-ом имеет вид степенного ур-ия (мультиколлин-ая функция) линеализация произв-ся путем логарифмирования исх. ур-ия.
12.3 Представление случайного члена в преобразованных нелинейных ур-ях регрессии.
(1)
(2)
Если
в
(1) удовл-ет четырем условиям случайности,
т. е. мат. ожид-е =0, независимо др. от
друга, то случ. Составляющая во (2) также
будет удовл-ть этим усл-ям, и найденные
из (2) с пом. МНК оценки параметров будут
несмещ-ми, состоят-ми и эффектив-ми
оценками. Если будем иметь ур-ие вида:
(3)
, то случ. состав-ая должна входить как
сомножитель.
(4)
Четырем усл-ям
случайности должен удовл-ть lnδi,
а само δi
подчин.др.
законам. Н-р,
В получаемые с пом. МНК оценки состоятельные и эфектив-ые для ур-ия (4) и все стат. критерии справедливы для лин-го аддитивного ур-ия (4).
12.4 Определение параметров нелин-го ур-ия герессии, не приводимого к лин-му ур-ию.
Возьмем ур-ие:
.Данное
ур-ие не м. б. приведено к лин-му путем
замены переменных или логарифмированием.
Для оценки парам-ов данного ур-ия также
используем метод
минимизации суммы квадратов отклонений.
Алгоритм нах-ия парам-ов α и b
представим в виде послед-ти процедур:
1) примем некоторые правдоподобные исходн. знач-я α и b (α =1÷10, b = 0 ÷ 1,α0 =1,b=0,5)
2) исп-уя эти знач-я,
найдем теоретич. знач-я
и
вычислим
3) вычислим
4)сделаем небольшой шаг по параметру α: Δ α =1+0,1= 1,1 и снова найдем величину μ(2). Если μ(2)< μ(1) , то шаг сделан в правильном направлении.
5) продолжаем увелич-ть α в дан. напр-ии по шагам до тех пор, пока μ не начнет расти.
6) аналогич-ую процедуру проводим с параметром b фиксиров. α.
7) фиксируем найденное b и снова начинаем изменять α. Процедура повтор-ся до тех пор, пока любые измен-ия α и b не будут приводиь к увнлич-ю μ.
12.5 Выбор вида ур-ия регрессии с использ-ем теста Бокса-Кокса.
Исп-ие нелин-ых
ур-ий для построения ур-ия регрессии
значит-но повышает универс-сть регр-го
анализа, но и усложняет задачу исслед-ля,
т.к. усложняется проблема спецификации
ур-ия регрессии. Если мы имеем дело с
парной регрессией, то вид ур-ия м.б. решен
(выбран) путем построения графика
зависимости у = f(x)
и по виду этого графика можно дост-но
просто выбрать ур-ия. Однако в случае
множ-ой регрессии такой подход практич-ки
невозможен. В этом случае часто задача
решется путем подбора подходящей функции
и в качестве критерия оптим-ти используют
коэф-т множ-ой детерминации R2,
иногда сумма квадратов отклонений.
Такой подход неправомерен, если
сравниваются принципиально различ-е
функц-ые зависимости. Н-р: лин-ая аддитивная
модель
(1) мультипликтивная
модель
(2)
Использовать для срав-ия этих моделей сумму кавдратов отклонений невозм-но, т. к. lnyi ≠ yi, а значит-но < его
(3)
Величина R2 также не может быть использ-на, хотя она и безразмерна, т. к. она относ-ся к разным понятиям. В (1) она объясняет дисперсию у, объясн-ую дисперсией факториальных приз-ов (х1 и х2). Во (2) она объясняет дисперсию lny, вызванную дисперсией ln х1 или ln х2 . В тех случаях, когда R2 у одной модели значит-но >, чем у другой, тогда можно обоснованно осущ-ть выбор в пользу этой модели. Однако в тех случаях, когда R2 одной и др. модели соизмеримы др.с другом, то проблема выбора усложняется. В этом случае предлагается для выбора исп-ть тест Бокса-Кокса (это в общем случае). Для сравнения моделей (1) и (2) Пол Зарембко предложил упрощение теста Бокса-Кокса в 1968г. Суть теста в этом сл. след-ая:
исход-ые данные по у исп-ся для вычисления средней геометрической
значение у персчит-ся с исп-ем
исп-ие нов. знач-я у находим параметры (оценки) ур-ия (1). А исп-уя ln y’из ур-ия (3) нах-ся оценки ао,β1,β2.Для этих двух моделей (1) и (3) нах-ся сумма квадратов отклонений. Эти суммы являются сопоставимыми и след-но та модель, которая дает меньшую сумму квадратов отклонений и признается лучшей.
для того, чтобы окончат-но решить вопрос, что действительно одна из моделей дает лучшее соответ-ие, рассчит-ся пок-ль:
, где Т-число набл-й (n), Z-отнош-е ∑ кв. отклонений в 1 и 2 ур-ии.
. Х2расч. сравнив-ся с табличным. Данное стат. распределение им. одну степень свободы и разное знач-е уровня значимости, если Х2расч. > Х2табл. при 5 %-значимости, то действ-но одна из моделей сущ-но лучше другой.