- •Оглавление
- •1. Основы эконометрики. Типы данных, используемых в эконометрике. Оценка тесноты линейной связи. 3
- •Введение
- •Основы эконометрики. Типы данных, используемых в эконометрике. Оценка тесноты линейной связи.
- •Линейные регрессионные модели.
- •Использование средств Excel для проведения регрессионного анализа
- •3. Примеры использования различных функций Excel для оценки параметров парной линейной регрессии
- •Вычисляем обратную матрицу .
- •4. Умножаем обратную матрицу на транспонированную матрицу .
- •5. Умножаем матрицу на y.
- •4. Некоторые вопросы применения моделей множественной регрессии.
- •Свойства оценок мнк.
- •4.1. Проверка условия гомоскедастичности случайной составляющей (возмущения).
- •Упорядочение п наблюдений по мере возрастания переменной х.
- •4.2. Проверка условия независимости случайных составляющих в различных наблюдениях.
- •4.3. Проверка условия независимости объясняющих факторов
- •4.4. Регрессионные модели с переменной структурой (фиктивные переменные).
- •5. Комплексный пример исследования экономических данных с использованием корреляционно-регрессионного анализа
- •5.1. Матрица коэффициентов парной корреляции. Выбор факторных признаков для построения регрессионной модели
- •5.2.А. Выбор факторных признаков для построения регрессионной модели на основе анализа матрицы коэффициентов парной корреляции.
- •5.2.Б. Выбор факторных признаков для построения регрессионной модели методом исключения.
- •5.3. Оценка качества модели регрессии
- •5.4. Оценка значимости уравнения регрессии и его коэффициентов
- •5.5. Проверка условия независимости остатков
- •5.6. Оценка влияния факторов, включенных в модель, на объем реализации
- •5.7. Оценка точечных и интервальных прогнозных оценок объема реализации на два квартала вперед
- •Задачи для самостоятельного решения.
- •7. Задания для выполнения контрольной работы
- •Литература
- •Приложение. Значения статистик Дарбина-Уотсона при 5%-ном уровне значимости.
4. Некоторые вопросы применения моделей множественной регрессии.
Линейная модель множественной регрессии имеет вид:
,
(4.1)
где
- количество наблюдений, k-
количество факторов, включенных в
модель.
Для того чтобы регрессионный анализ, основанный на обычном методе наименьших квадратов, давал наилучшие из всех возможных результатов, должны выполняться следующие условия (предпосылки), известные как условия Гаусса – Маркова.
Основные предпосылки метода наименьших квадратов.
Предполагается, что истинная зависимость (4.1) имеет линейный вид. Линейность по переменным и линейность по оценкам. В матричном это можно записать в следующем виде
.
С помощью МНК оценивается регрессия y
.
(4.2)
Наблюдений больше, чем оцениваемых коэффициентов, т.е.
Предпосылки
на остаточную компоненту
Первое условие. Математическое ожидание случайной составляющей в любом наблюдении должно быть равно нулю.
.
(4.3)
Фактически
если уравнение регрессии включает
постоянный член, то обычно это условие
выполняется автоматически, так как
роль константы состоит в определении
любой систематической тенденции
,
которую не учитывают объясняющие
переменные, включенные в уравнение
регрессии.
Второе условие. Дисперсия случайной составляющей должна быть постоянна для всех наблюдений.
Это условие гомоскедастичности составляющей (возмущения).
.
Или
в матричном виде
.
(4.4)
Третье условие предполагает отсутствие систематической связи между значениями случайной составляющей в любых двух наблюдениях.
Условная некоррелированность
(4.5)
Возмущения
не коррелированы (условие
независимости случайных составляющих
в
различных наблюдениях).
К предпосылкам на регрессоры относятся следующие:
Среди регрессоров нет линейно зависимых, или, что то же самое матрица
существует,
или определитель
не равен нулю
.
(4.6)Векторы отдельных наблюдений независимы и одинаково распределены.
Предположение о нормальности
Наряду с перечисленными условиями обычно также предполагается нормальность распределения случайного члена. Дело в том, что если случайный член нормально распределен, то так же будут распределены и коэффициенты регрессии.
Свойства оценок мнк.
В тех случаях, когда предпосылки выполняются, оценки, полученные по МНК, будут обладать свойствами несмещенности, состоятельности и эффективности.
Несмещенность оценки означает, что математическое ожидание остатков равно нулю. Если оценки обладают свойством несмещенности, то их можно сравнивать по разным исследованиям.
Для практических целей важна не только несмещенность, но и эффективность оценок. Оценки считаются эффективными среди линейных и несмещенных, если они характеризуются наименьшей дисперсией. Поэтому несмещенность оценки должна дополняться минимальной дисперсией.
Степень достоверности доверительных интервалов параметров регрессии обеспечивается, если оценки будут не только несмещенными и эффективными, но и состоятельными. Состоятельность оценок характеризует увеличение их точности с увеличением объема выборки Метод наименьших квадратов дает оценки, имеющие наименьшую дисперсию в классе всех линейных оценок, если выполняются предпосылки нормальной линейной регрессионной модели.
Наиболее сложным и важным при построении модели множественной регрессии является отбор факторов для включения в модель. С возникающими при этом проблемами мультиколлинеарности факторов, гетероскедастичности остатков и автокорреляции остатков можно ознакомиться в работах [1], [2], [3], [4], [5], [6] и др. С построением моделей с фиктивными переменными можно ознакомиться в работах [5], [6], [9], [10].
