
- •1. Определение эконометрики. Предмет и метод эконометрики.
- •2.Классификация моделей и типы данных.
- •3.Этапы построения эконометрической модели:
- •4. Модель парной регрессии.
- •5. Случайный член. Причины его существования.
- •6. Условия нормальной линейной регрессии (Гаусса-Маркова).
- •7. Метод наименьших квадратов.
- •8. Свойства коэффициентов регрессии.
- •9. Нелинейная регрессия. Методы линеаризации.
- •10. Функциональная спецификация модели парной регрессии.
- •11. Интерпретация линейного уравнения регрессии.
- •12. Определение тесноты связи между факторами: линейный коэффициент корреляции, коэффициент детерминации.
- •13. Оценка тесноты связи в нелинейной регрессионной модели.
- •15. Взаимосвязь t-статистики и f-статистики для парной регрессии.
- •16. Коэффициент эластичности.
- •17. Оценка статистической значимости уравнения в целом. F-критерий Фишера
- •18. Модель множественной регрессии.
- •19. Ограничения модели множественной регрессии.
- •20. Идентификация параметров множественной регрессии мнк.
- •21. Интерпретация параметров уравнения множественной регрессии
- •22. Показатели тесноты связи во множественном регрессионном анализе – парные и частные коэффициенты корреляции.
- •23. Стандартизированное уравнение множественной регрессии.
- •24. Коэффициент множественной корреляции, скорректированный коэффициент множественной корреляции, множественный коэффициент детерминации.
- •25. Оценка статистической значимости множественных коэффициентов регрессии, t-критерий Стьюдента.
- •26. Модели с переменной структурой (фиктивные переменные).
- •27. Оценка статистической значимости множественного уравнения регрессии, f-критерий Фишера.
- •28. Спецификация модели множественной регрессии. Свойства множественных коэффициентов регрессии.
- •29. Решение проблемы выбора модели (с ограничением и без ограничений).
- •30.Методы отбора факторов: априорный и апостериорный.
- •31. Гетероскедостичность и автокорреляция случайного члена.
- •32. Автокорреляция первого порядка и критерий Дарбина – Уотсона.
- •33. Тест серий (критерий Бреуша – Годфри)
- •34. Тест на гетероскедостичность: Голдфелда – Квандта, тест Уайта.
- •36. Структурная и приведенная формы модели.
- •37. Эндогенные и экзогенные переменные. Проблема идентифицируемости систем уравнений.
- •38. Оценивание параметров в системах одновременных уравнений: косвенный и двухшаговый мнк.
7. Метод наименьших квадратов.
Самым популярным методом идентификации функции является МНК.
Остаток или отклонение – это разница между наблюдаемыми значениями у и ее теоретическими значениями в каждом наблюдении, т.е. при каждом значении х.
Х1 (у1 –Ŷ1)2 = е12
Х2 (у2 –Ŷ2)2 = е22
Хn (уn –Ŷn)2 = еn2
S =Σei2 = Σ(уi –Ŷi)2 = Σ(уi – a – bxi)2 min
Система ур-й: частная дисперсия S по a = 0
частная дисперсия S по b = 0
a = yср – bxср
b = ((xy)ср - хсруср)/((x2)ср – xср2) = cov(x,y)/var(x)
МНК (метод нахождения минимума) – метод оценки параметров модели через минимизацию суммы квадратов отклонений фактических значений от теоретических.
8. Свойства коэффициентов регрессии.
Y = α + βx +u
Ŷ = a +bx – теоретическое уравнение регрессия
а- α + ξ1
b – β + ξ2
Свойства коэффициентов регрессии зависят от свойств случайной компоненты, и Чтобы оценки, найденные по методу наименьших квадратов были наилучшими, т.е. несмещенными, эффективными, состоятельными, случайная компонента должна удовлетворять четырем условиям Гаусса – Маркова.
1. Математическое ожидание случайной компоненты в любом наблюдении должно быть равно 0. E(ui) = 0
Иногда случайная компонента положительна, иногда отрицательна, но она не должна иметь системного смещения ни в одном из двух возможных направлений.
Если уравнение регрессии включает константу, то можно предположить, что это условие выполняется автоматически, т.к. роль константы состоит в определении любой систематической тенденции в поведении у, которую не учитывают объясняющие переменные, включенные в модель.
2.Дисперсия случайной компоненты должна быть постоянна для любых наблюдений. Иногда случайная компонента будет больше или меньше, но не должно быть априорной причины, для того чтобы она порождала большую ошибку в одних уравнениях, чем в других.
σu2-постоянна
Если это условие выполняется, то говорят, что дисперсия ошибки гомоскедостична, в противном случае присутствует гетероскедостичность ошибки.
3. Значения случайной компоненты должны быть независимы в разных наблюдениях. Если это условие выполняется, то говорят, что отсутствует автокорреляция случайной компоненты.
E(ui, uj) = 0, i≠j
Если случайная компонента велика и положительна в одном наблюдении, то это не должно обязательно обуславливать системную тенденцию к тому, что она будет велика и положительна в др наблюдении.
4.Случайная компонента должна быть распределена независимо от объясняющих переменных.
E(ui, xi) = 0
Иногда формулируют дополнительное условие о нормальности распределения случайной компоненты. Если случайная компонента распределена нормально, то и оценки параметров распределены нормально вокруг истинных значений.
Несмещенность оценки означает, что математическое ожидание остатков равно нулю. Следовательно, при большом числе выборочных оцениваний остатки не будут накапливаться и найденный параметр регрессии b можно рассматривать как среднее значение из возможного большого количества несмещенных оценок. Если оценки обладают свойством несмещенности, то их можно сравнивать по разным исследованиям. Для практических целей важна не только несмещенность, но и эффективность оценок.
Оценки считаются эффективными, если они характеризуются наименьшей дисперсией. Поэтому
несмещенность оценки должна дополняться минимальной дисперсией. В практических исследованиях это означает возможность перехода от точечного оценивания к интервальному.
Степень реалистичности доверительных интервалов параметров регрессии обеспечивается, если оценки будут не только несмещенными и эффективными, но и состоятельными.
Состоятельность оценок характеризует увеличение их точности с увеличением объема выборки. Большой практический интерес представляют те результаты регрессии, для которых доверительный интервал ожидаемого значения параметра регрессии a, имеет предел значений вероятности, равный единице. Иными словами, вероятность получения оценки на заданном расстоянии от истинного значения параметра близка к единице. Указанные критерии оценок (несмещенность, состоятельность, эффективность) обязательно учитываются при разных способах оценивания. Метод наименьших квадратов строит оценки регрессии на основе минимизации суммы квадратов остатков. Поэтому очень важно исследовать поведение остаточных величин регрессии е,. Условия, необходимые для получения несмещенных, состоятельных и эффективных оценок, представляют собой предпосылки МНК, соблюдение которых желательно для получения достоверных результатов регрессии.