- •2. Предпосылки классического уравнения регрессии.
- •3 Несмещенная оценка коэффициента уравнения регрессии.
- •4. Эффективная оценка коэффициента уравнения регрессии.
- •5. Состоятельная оценка коэффициента уравнения регрессии.
- •6. Коэффициенты множественной корреляции и детерминации.
- •7. Анализ корреляционной матрицы.
- •8. Для чего и как в эконометрике используется критерий Стьюдента?
- •10. Что показывает критерий Фишера
- •11. Для чего в эконометрике используется критерий Дарбина-Уотсона
- •12. Что показывает коэффициент детерминации.
- •13. Какой критерий применяют для диагностики на гетероскедантичность (непостоянство дисперсии).
- •14. Структура динамического ряда. Основные компоненты.
- •15. Вид уравнения авторегресси первого порядка.
- •16. Вид уравнения скользящей средней.
- •18. Что такое «стационарная модель»?
- •19. Причины линеаризации. Примеры.
- •20. Множественная линейная регрессия
- •21. Использвание t-статистики для проверки статистических гипотез о параметрах регрессии.
- •22. Использование коэф-та детерминации r2 и f-критерия для проверки статистических гипотез о параметрах регрессии.
- •23 Мультиколлинеарность
- •24. Гетероскедастичность и гомоскедастичность
- •25. Условия Гаусса-Маркова
- •26. Оценка степени надежности уравнения регрессии. Коэф-ты корреляции, детерминации, дисперсионное отношение Фишера.
- •27. Проверка значимости коэф-тов регрессии по t-критерию Стьюдента
- •28. Тест Дарбина-Уотсона
- •31. Гетероскедастичность и корреляция во времени
- •32. Модель скользящего среднего ма(q). Процедура идентификации.
- •33. Модель авторегрессии ar(p). Процедура идентификации.
- •34. Модели arma (p, q) и arima (p,q,d)
22. Использование коэф-та детерминации r2 и f-критерия для проверки статистических гипотез о параметрах регрессии.
Коэф-т детерминации: R-squared или R2 (показывает адекватность той модели которую мы выбираем, чем он больше, тем лучше нам подходит эта модель)
показывает долю объясненной дисперсии временного ряда.
всегда увеличивается с включением новой переменной
низкое значение коэф-та детерминации не свидетельствует о низком качестве модели и может объясняться наличием существенных факторов, не включенных в модель.
показатели R2 в разных моделях с разным числом переменных несравнимы.
по своей природе коэф-т детерминации не может быть больше 1, всегда больше 0
- скорректированный коэф-т детерминации R-squared bar: показывает долю объясненной дисперсии с учетом числа переменных уравнения регрессии.
Критерий Фишера или F-критерий:
Критерий, статистика которого подчиняется F-распределению, если нулевая гипотеза верна. Этот критерий применяется, например, для:
проверки равенства дисперсий двух нормальных совокупностей на основе выборочных дисперсий, оцениваемых по двум независимым выборкам;
проверки гипотезы о равенстве средних нескольких (скажем, K) нормальных совокупностей с одинаковыми дисперсиями, на основе статистики средних и дисперсий из K независимых выборок.
Статистика Фишера подтверждает гипотезу о том, что между плотностью и концентрацией нет связи. Связь есть, когда вероятность маленькая. Чем больше коэф-т Фишера тем лучше.
Статистика – функция, вычисляемая по наблюденной выборке. Соответственно, статистика критерия – это статистика, используемая в статистическом критерии.
Если ее значение попадает в критическую область, нулевая гипотеза отвергается. Выбор статистики является важным этапом в разработке критерия. Он определяется вероятностной моделью, описывающей исследуемую ситуацию, и гипотезами – нулевой и альтернативной.
Критерий Фишера д.б. меньше табличного значения , тогда регрессии будут одинаковыми и можно присоединять еще одну выборку.
F = (S0 – S1 – S2/ S1+ S2) * (n1 +n2 – 2m – 2)/ m+1
S1 и S2 – сумма квадратов отклонений от линии регрессии для 1 и 2 уравнения
S0 – сумма квадратов отклонений для объединенного уравнения
n1 и n2 – кол-во наблюдений в первой и второй выборке
m – кол-во перемнных
23 Мультиколлинеарность
Мультиколлинеарность – зависимость между 2мя или более независимыми переменными, которая приводит к ошибкам в модели.
Строгая мультиколлинеарность – наличие линейной функциональной связи между независимыми переменными.
Нестрогая м-ть – наличие сильной линейной корреляционной связи между независимыми переменными.
Проблемы мультиколлинеарности:
1. Корреляционные связи есть всегда. Проблема мультиколлинеарности – проблема силы проявления корреляционных связей.
2. Однозначных критериев мультиколлинеарности не существует
3. Строгая м-ть нарушает одно из основных условий Гаусса-Маркова и делает построение регрессии полностью не возможным.
4. Нестрогая мультиколлинеарность затрудняет работу, но не препятствует получению правильных выводов.
Точных количественных критериев для проверки мульти-ти не сущ-ет, но имеются рекомендации:
1. Если среди парных коэф-тов им-ся значения от 0,8 и выше, то это свид-ет о наличие мульти-ти.
2. Внешние признаки модели с наличием мульти-ти:
А) некоторые из коэф-тов регрессии имеют неправильные с т.з. эконом теории знаки или неоправданно высокие абсолютные значения.
Б) знак коф-та регрессии при одном из объясняющих факторов отличается от знака коф-та парной корреляции между этой объясняющей и объясняемой переменной.
В) небольшое изменение объемов исходной выборки приводит к существенным изменениям оценок коэф-та регрессии, вплоть до изменения знака.
Г) большинство оценок коэф-та регрессии оказываются статистически незначимо отличны от 0 в то время как многие из них имеют отличные от 0 значения и модель в целом является значимой по проверке по F-критерию.
Методы устранения мульти-ти:
1) удалить из модели один или неск. Факторов
2) преобразование факторов при которых уменьшается коллинеарность
3) исп-е в модели взаимодействия факторов, например в виде их произведения
4) исп-е метода главных компонентов (поворот матрицы исходных данных и объединению неск факторов в отд группы)
