
- •Параметризация;
- •Коэффициент детерминации;
- •Уменьшается коэффициент детерминации;
- •Тест Лагранжа;
- •Метод Кохрана – Оркатта;
- •Метод первых разностей;
- •Ancova – модель;
- •Тест Парка;
- •Anova - моделями;
- •Изменение среднего значения y под воздействием единичного изменения переменной X в тот же самый момент времени;
- •Метод наименьших квадратов;
- •Тест Парка;
- •Метод наименьших квадратов;
- •Гомоскедастичность
- •Гомоскедастичность;
Тест Лагранжа;
Тест Валда;
Тест Рамсея;
Тест Чоу.
В большинстве случаев положительная автокорреляция объясняется следующими причинами:
воздействие не учтенных в модели факторов;
наличие дисперсии случайных отклонений;
использование перекрестных данных в модели;
отсутствием зависимости между объясняющими переменными.
При применении МНК к последствиям автокорреляции чаще всего относят:
оценки параметров перестают быть эффективными;
дисперсии оценок не являются смещенными;
отсутствие инерции экономических показателей;
отсутствие корреляции между случайными отклонениями.
К методам обнаружения автокорреляции относят:
Метод Кохрана – Оркатта;
метод рядов;
метод Хилдрета – Лу;
метод взвешенных наименьших квадратов.
К методам устранения автокорреляции относят:
Метод первых разностей;
метод взвешенных наименьших квадратов;
метод наименьших квадратов;
все выше указанные методы.
Мультиколлинеарность – это:
линейная взаимосвязь двух или нескольких значений случайных отклонений;
инерция в изменениях экономических показателей;
нелинейная взаимосвязь двух или нескольких объясняющих переменных;
линейная взаимосвязь двух или нескольких объясняющих переменных;
Мультиколлинеарность может быть в случае:
парной регрессии;
множественной регрессии;
нелинейной регрессии;
во всех выше рассмотренных случаях.
Сильная корреляционная зависимость между двумя или несколькими объясняющими переменными называется:
несовершенной мультиколлинеарностью;
совершенной мультиколлинеарностью;
положительная автокорреляция;
отрицательная автокорреляция
К последствиям мультиколлинеарности относится:
увеличение t-статистки коэффициентов;
оценки коэффициентов по МНК не меняются при малейшем изменении данных;
низкие частные коэффициенты корреляции;
большие дисперсии оценок.
К признакам, по которым может быть установлено наличие мультиколлинеарности относится:
высокие t-статистки коэффициентов;
низкая парная корреляция между малозначимыми объясняющими переменными;
высокие частные коэффициенты корреляции;
ни один из признаков не является верным.
Методом устранения мультиколлинеарности не является:
изменение спецификации модели;
использование предварительной информации о некоторых параметрах;
исключение переменной из модели;
авторегрессионное преобразование первого порядка.
Исключение переменной из модели может привести к:
возникновению ошибок спецификации;
устранению автокорреляции в модели;
появлению отрицательной автокорреляции;
возникновению мультиколлинеарности в модели.
Переменная, которая отражает влияние в моделях качественного фактора называют:
фиктивной;
эмпирической;
статистической;
действительной.
Регрессионные модели, содержащие лишь качественные объясняющие переменные называются:
ANCOVA – модель;
LOGIT – модель;
ANOVA – модель;
ANVA – модель.
Модели, в которых объясняющие переменные носят как количественный, так и качественный характер называются: