
- •1. Эконометрика и ее место в ряду других экономических и статистических дисциплин. Типы моделей и типы данных в эконометрике.
- •Общая задача. При помощи статистических методов выразить те закономерности, которые экономическая теория определяет лишь количественно.
- •Эконометрическая модель.
- •2. Коэффициент ковариации. Коэффициент корреляции. Их свойства. Выборочные оценки основных числовых характеристик случайных величин. Проверка значимости коэффициента корреляции.
- •Свойства ковариации
- •3. Регрессионная модель. Причины включения в модель случайного отклонения. Парная линейная регрессия. Мнк. Задачи линейного регрессионного анализа.
- •Парная регрессия.
- •Метод наименьших квадратов
- •4. Основные свойства точечных оценок. Теорема Гаусса-Маркова для однородной модели.
- •6. Проверка гипотез в одномерной модели. Интервальная оценка коэффициентов.
- •7. Множественная регрессия. Мнк. Теорема Гаусса-Маркова для многомерной модели.
- •Метод наименьших квадратов
- •9. Множественная регрессия. Гипотеза «длинная-короткая» модель. Специфика модели. Исключение существенной переменной. Включение несущественной переменной. Пошаговая регрессия.
- •10. Множественная регрессия. Тест Чоу на наличие структурного сдвига. Фиктивные переменные.
- •11. Стохастические (случайные). Обобщенный мнк. Теорема Айткена.
- •13. Гетероскедастичность. Метод взвешенных наименьших квадратов. Коррекция моделей на гетероскедастичность (3 случая).
- •14. Описание тестов проверки на гетероскедастичность (тесты Голдфельда-Куандта, Бреуша-Пагана).
- •15. Мультиколлинеарность: последствия, способы обнаружения, средства устранения. Тест.
- •16. Частный коэффициент корреляции. Его свойства, процедура вычисления.
- •17. Автокорреляция: последствия, способы обнаружения, средства устранения.
- •19. Оценивание моделей с автокорреляцией.
- •Линейные формы: интерпретация регрессии
- •21. Временные ряды. Факторы, влияющие на формирование значений временного ряда. Структура временного ряда. Основные задачи анализа временных рядов.
- •Исследование временноых рядов
- •22. Стационарные временные ряды. Их характеристики. Белый шум. Проверка стационарности временного ряда.
- •Правило проверки гипотезы об отсутствии тренда в тесте серий
- •23.Выравнивание временного ряда (аналитическое – выделение тренда регрессией от времени; механическое – метод последовательных разностей.)
- •3 Основных подхода:
- •24. Автоковариационная и автокорреляционная функция. Способ вычисления. Коррелограмма.
- •25. Линейные модели стационарных временных рядов (авторегрессии и скользящего среднего)
- •26. Модель авторегрессии ar(p). Уравнения Юла Уокера.
- •27. Модель авторегрессии ar (1)
- •28. Модель авторегрессии ar(2). Расчет параметров.
- •29. Модель скользящего среднего ma(1). Расчет параметров.
- •30. Частная автокорреляционная функция. Модели arma(p,q). Свойства acf и pacf.
- •31. Модели arima(p,d,q). Методолгия Бокса-Дженкинса. Интерпретация функций акф и чакф.
9. Множественная регрессия. Гипотеза «длинная-короткая» модель. Специфика модели. Исключение существенной переменной. Включение несущественной переменной. Пошаговая регрессия.
Множественная регрессия – это прогнозирование единственной переменной y на основании нескольких переменных Х. Она широко используется в решении проблем спроса, доходности акций, при изучении функций издержек производства. Основная цель множественной регрессии – построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное воздействие их на моделируемый показатель. Построение уравнения множественной регрессии начинается с выбора спецификации модели. Суть проблемы спецификации включает в себя два вопроса: отбор факторов и выбор вида уравнения регрессии. Факторы, включаемые во множественную регрессии., должны отвечать требованиям: 1. быть количественно измеримы. Если необходимо включить качественный фактор, то нужно придать ему количественную определенность. 2. не должны быть коррелированны между собой и тем более находиться в точной функциональной связи.
Пусть
есть линейная модель:
,
.
Y зависит от k факторов .
- параметры (коэффициенты) модели, - случайные возмущения.
Матричная форма записи модели: . Два уравнения регрессии:
1. Теоретическая регрессия: , где - случайные возмущения.
2. Модельная регрессия: yi=b0+b1xi1+...+bkxik+ei, где ei - остатки, а . b1 – оценки коэффициентов βi.
Спецификация модели - это список параметров, входящих в модель (сам выбор регрессоров).
Исследования модели, как правило, базируются на правильной спецификации модели, т.е. утверждении, что зависимая переменная y, регрессоры X и оцениваемые параметры β связаны соотношением: y=X*β+ε (истинная модель).
Однако на практике в процессе спецификации модели (собственно самого выбора регрессоров) возникают ситуации, когда в оцениваемой модели отсутствует часть независимых переменных, имеющихся в истинной модели (исключение существенных переменных) или присутствуют независимые переменные, которых нет в истинной модели (включение несущественных переменных).
Включение несущественных переменных: модель - Y=X*β+Z*γ+ε, истина - Y=X*β+ε → вводя лишний параметр, мы увеличиваем дисперсию оценок и ошибок, т.о. понижая точность предсказания. Последствия:
-Оценки коэффициентов при прочих переменных остаются несмещенными
-стандартные ошибки растут, t-статистика уменьшается, эффективность оценок ↓.
-Не теряется возможность правильной оценки и интерпретации уравнения
-Несущественная переменная может быть значимой, уравнение с ней – давать лучший прогноз
-Увеличивается риск мультиколлинеарности.
Исключение существенных переменных: модель - Y=X*β+ε; истина (процесс, порождающий данные) - Y=X*β+Z*γ+ε → в данном случае коэффициент β оказывается смещенным и мы проверяем модель на «длинную-короткую» регрессию. Последствия:
Коэффициенты при оставшихся в модели переменных могут оказаться смещенными
Их стандартные ошибки t-статистики и другие показатели качества становятся некорректными и не могут быть использованы для суждения о качестве уравнения.
Уменьшается возможность правильной оценки и интерпретации уравнения.
Тест на выбор «длинной» или «короткой» регрессии. Данный тест используется для отбора наиболее существенных объясняющих переменных. Например, переход от большого числа исходных показателей состояния анализируемой системы к меньшему числу наиболее информативных переменных может быть обусловлен дублированием информации, доставляемой сильно взаимосвязанными признаками или неинформативностью признаков, мало меняющихся при переходе от одного объекта к другому. Так, если две какие-либо объясняющие переменные сильно коррелированы с результирующим показателем Y и друг с другом, то часто бывает достаточно включения в модель одной из них, а дополнительным вкладом от включения другой можно пренебречь.
Пусть
.
Предположим, что модель не зависит от
последних
объясняющих переменных и их можно
исключить из модели. Это соответствует
гипотезе
,
т.е. последние
коэффициентов
равны
.
Тест по проверке данной гипотезы состоит в следующем:
Построить по МНК «длинную» регрессию по всем параметрам
и найти для нее
.
Используя МНК, построить «короткую» регрессию по первым
параметрам
и найти для нее
.
Вычислить F-статистику:
Найти критическую точку распределения Фишера при выбранном уровне значимости
:
.
Если
, то гипотеза
отвергается, т.е. следует использовать «длинную» модель. Если
, то гипотеза принимается, т.е. лучше «короткая» модель.
Пошаговая регрессия. Процедура отбора объясняющих переменных:
1. Вычисляется rкр для n’=n-k+1 степеней свободы
2. Из множества потенциальных факторов исключаем все те, чей коэф-т корреляции с Y меньше критического r(Y, Xj)<rкр.
3. В модель включается переменная Х1 с максимальным коэф-том корреляции Хi1: r(Y, Хi1) = max r(Y,Xj), j = 1,…,k.
4. Затем в модель включается фактор, имеющий макс частный коэф-т коррел. с У без включенных в модель к этому шагу. Хi1: r(Y, Хi2| Хi1) = max r(Y,Xj| Хi1), j = 1,…,k-1.
5.Шаги 4 и 5 проверяются по F-критерию.