- •1.Актуальность эконометрических исследований, пути совершенствования эконометрических знаний.
- •2. Основы эконометрического моделирования: этапы, типы эконометрических моделей, типы данных.
- •I. Модели временных рядов:
- •II. Регрессионные модели с одним уравнением.
- •III. Системы одновременных уравнений.
- •3. Природа возникновения ошибки в регрессионной модели. Статистические свойства теоретической и фактической ошибки.
- •4. Мнк для множественной регрессии
- •5. Теорема Гаусса-Маркова для множественной регрессии. Определение ковариационно – дисперсионной матрицы вектора коэффициентов регрессии.
- •6. Критериальная проверка качества множественной регрессии.
- •7. Коэффициент эластичности
- •8. Проблема мультиколлинеарности. Примеры. Геометрическая интерпретация. Практические пути ее решения.
- •9. Проблема гетероскедастичности. Примеры. Геометрическая интерпретация. Практические пути ее решения.
- •10. Обобщение мнк на случай непостоянства ковариационно-дисперсионной матрицы ошибки. Статистические методы тестирования дисперсии ошибки.
- •12. Метод главных компонент. Его преимущества и недостатки при построении моделей. Компоненты и факторы, их взаимосвязи.
- •13. Модели с лаговыми независимыми переменами. Основные подходы и процедур оценки их параметров. Метод ш.Алмон
- •14.Модели с лаговыми зависимыми переменными. Проблемы оценки их параметров. Схема Койка.
- •15. Двухшаговый мнк и особенности его применения в моделях с лаговыми зависимыми переменными. Инструментальные переменные, их содержание и особенности формирования.
- •16. Система взаимозависимых эконометрических моделей. Свойства моделей и их влияние на их качество оценок параметров. Структурная и приведенная формы системы моделей.
- •17. Основные подходы к оценке параметров взаимозависимых уравнений. Косвенный и двухшаговый мнк.
- •18. Методы выявления примерной структуры эконометрической модели.
- •19. Эконометрические модели с переключениями.
- •20. Эконометрические модели с эволюционными изменениями коэффициентов
- •21. Точечные и интервальные прогнозы
4. Мнк для множественной регрессии
Метод наименьших квадратов (МНК) – один из методов регрессионного анализа для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки.
Параметры модели выбираются таким образом, чтобы сумма квадратов отклонений эмпирических значений от модельных была минимальной
В
общем виде линейную
модель множественной регрессии
можно записать следующим образом:
где
–
значение i-ой результативной переменной,
x1i…xmi – значения факторных переменных;
β0…βm – неизвестные коэффициенты модели множественной регрессии;
εi – случайные ошибки модели множественной регрессии.
В результате оценивания данной эконометрической модели определяются оценки неизвестных коэффициентов.
Суть метода наименьших квадратов состоит в том, чтобы найти такой вектор β оценок неизвестных коэффициентов модели, при которых сумма квадратов отклонений (остатков) наблюдаемых значений зависимой переменной у от расчётных значений ỹ (рассчитанных на основании построенной модели регрессии) была бы минимальной.
Матричная форма функционала F метода наименьших квадратов:
Следовательно,
Предпосылки МНК:
Случайный характер остатков
Нулевая средняя величина остатков, не зависящая от
Гомоскедастичность – дисперсия каждого отклонения одинакова для всех значений x
Пример гетероскедастичноти:
Отсутствие автокорреляции остатков. Значения распределены независимо друг от друга
Остатки подчиняются нормальному распределению
Коэффициенты
интеркорреляции позволяют исключать
из модели дублирующие факторы. 2 переменных
коллинеарны, если
.
Наибольшие трудности в использовании
аппарата множественной регрессии
возникают при наличии мультиколлинеарности
факторов, когда более чем 2 фактора
связаны между собой линейной зависимостью.
Чем сильнее коллинеарность факторов,
тем менее надежна оценка распределения
суммы объясненной вариации по отдельным
факторам с помощью МНК.
Существуют другие линеаризуемые функции для построения уравнения множественной регрессии:
Экспонента:
Гипербола:
,
используется при обратных связях
признаков
5. Теорема Гаусса-Маркова для множественной регрессии. Определение ковариационно – дисперсионной матрицы вектора коэффициентов регрессии.
Уравнение множественной регрессии:
Теорема Гаусса-Маркова:
Предположим, что:
X – детерминированная n x k матрица, имеющая максимальный ранг k
Тогда
оценка МНК
является наиболее эффективной (в смысле
наименьшей дисперсии) оценкой в классе
линейных (по y)
несмещенных оценок.
По
аналогии с парной регрессией построим
оценку
для вектора
так, чтобы вектор оценок зависимой
переменной
минимально (в смысле квадрата нормы
разности) отличался от вектора Y
заданных значений:
Решением
условия (14.5), если ранг матрицы
равен
,
является оценка
Нетрудно проверить, что эта оценка несмещенная. Ковариационная (дисперсионная) матрица оценки равна
𝐷[
Доказана справедливость теоремы Гаусса - Маркова.
В условиях справедливости требований МНК оценка (14.6) является наилучшей (в смысле минимума дисперсии) оценкой в классе линейных несмещенных оценок.
