- •1)Основные причины наличия в регрессионной модели случайного отклонения.
- •2)Основные этапы регрессионного анализа.
- •3)Спецификация модели, каким образом она осуществляется?
- •4)Стандартная ошибка регрессии Sxy.
- •5)Различие между теоретическим и эмпирическим уравнениями регрессии.
- •10)Доверительный интервал для предсказания индивидуальных значений зависимой переменной.
- •11)Каким образом определяется модель множественной линейной регрессии?
- •12)Предпосылки мнк. Каковы последствия их невыполнимости?
- •1°. Математическое ожидание случайного отклонения равно нулю для всех наблюдений:
- •4°. Случайное отклонение должно быть независимо от объясняющих переменных.
- •13)Характеристика коэффициентов уравнения регрессии.
- •14)Суть мнк для построения множественного линейного уравнения регрессии.
- •15)Статистическая значимость коэффициентов регрессии.
- •16)Интервальные оценки коэффициентов регрессии
- •17)Коэффициент детерминации r2. Отличие скорректированного коэффициента детерминации от обычного.
- •18)Анализ статистической значимости коэффициента детерминации r2.
- •19)Как используется f-статистика в регрессионном анализе?(Ответ в предыдущем вопросе)
- •20)Проверка общего качества уравнения регрессию
- •21)Автокорреляцией остатков и ее виды.
- •22)Статистика Дарбина–Уотсона. Формула расчета. Суть показателя.
- •28)Определениие мультиколлинеарности. Признаки наличия мультиколлинеарности.
- •29)Методы проверки наличия мультиколлиниарности. Показатель vif – «фактор инфляции вариации»
- •30)Методы устранения мультиколлинеарности.
- •31)Гетероскедастичность. Последствия гетероскедастичности.
- •32)Методы смягчения гетероскедастичности
- •33)Автокорреляция. Основные причины автокорреляции.
- •34)Последствия автокорреляции. Основные методы обнаружения автокорреляции.
- •35)Спецификация модели
- •36)Основные признаки качественной регрессионной модели.
- •37)Основные виды ошибок спецификации.
- •1. Отбрасывание значимой переменной
- •2. Добавление незначимой переменной
- •38)Обнаружение и корректировка ошибок спецификации
- •39)Проблемы спецификации
- •40)Необходимость использования фиктивных переменных в регрессионных уравнениях
- •41)Использование фиктивных переменных для сезонного анализа
12)Предпосылки мнк. Каковы последствия их невыполнимости?
Предпосылки МНК
1°. Математическое ожидание случайного отклонения равно нулю для всех наблюдений:
M( ) = 0, i = 1, 2, ..., п.
2°.Гомоскедастичностъ (постоянство дисперсии отклонений). Дисперсия случайных отклонений < постоянна:
3°. Отсутствие автокорреляции.
Случайные
отклонения
и
-
являются независимыми друг от
друга для всех
4°. Случайное отклонение должно быть независимо от объясняющих переменных.
5°. Модель является линейной относительно параметров. .Для случая ножественной линейной регрессии существенными являются еще две предпосылки.
6°. Отсутствие мультиколлинеарности.
Между объясняющими переменными отсутствует строгая (сильная) линейная зависимость.
7°.
Ошибки
,
i=
1, 2, ..., n,
имеют нормальное распределение
(
.
Выполнимость данной предпосылки важна для проверки статистических гипотез и построения интервальных оценок.
При невыполнимости данной предпосылки (при гетероскедастичности) последствия применения МНК будут следующими.
Оценки коэффициентов по-прежнему останутся несмещенными и линейными.
Оценки не будут эффективными (т.е. они не будут иметь наименьшую дисперсию по сравнению с другими оценками данного параметра). Они не будут даже асимптотически эффективными. Увеличение дисперсии оценок снижает вероятность получения максимально точных оценок.
Дисперсии оценок будут рассчитываться со смещением. Смещенность появляется вследствие того, что не объясненная
уравнением
регрессии дисперсия
(т
- число
объ
ясняющих
переменных), которая используется при
вычислении
оценок дисперсий всех коэффициентов
(формула (6.23)), не является
более несмещенной.
4. Вследствие вышесказанного все выводы, получаемые на основе соответствующих t- и F-статистик, а также интервальные оценки будут ненадежными. Следовательно,статистические выводы, получаемые при стандартных проверках качества оценок, могут быть ошибочными и приводить к неверным за иключениям по построенной модели. Вполне вероятно, что стандартные ошибки коэффициентов будут занижены, а следовательно, t-статистики будут завышены. Это может привести к признанию статистически значимыми коэффициентов, таковыми на самом деле не являющихся.
13)Характеристика коэффициентов уравнения регрессии.
Рассмотрим самую употребляемую и наиболее простую из моделей множественной регрессии — модель множественной линейной регрессии.
Теоретическое линейное уравнение регрессии имеет вид:
(6.3)
или для индивидуальных наблюдений i, i = 1, 2,…, n,
(6.4)
Здесь — вектор размерности (т + 1) неизвестных параметров. , у = 1, 2, ..., т, называется -м теоретическим коэффициентом регрессии (частичным коэффициентом регрессии). Он характеризует чувствительность величины Y к изменению . Другими словами, он отражает влияние на условное математическое ожидание M( ) зависимой переменной У объясняющей переменной Хj при условии, что все другие объясняющие переменные модели остаются постоянными. — свободный член, определяющий значение У в случае, когда все объясняющие переменные Xj) равны нулю.
—
оценки
теоретических значений
коэффициентов регрессии (эмпирические
коэффициенты регрессии);
