
- •1. Нестационарные по математическому ожиданию и стационарные процессы.
- •2. Понятие, предмет, задачи эконометрики.
- •3. Основные этапы развития эконометрики.
- •4. Особенности эконометрического метода.
- •5. Стохастика - детерминированный характер социально - экономических явлений.
- •7. Основные этапы моделирования связи методом корреляционно-регрессионного анализа.
- •8. Выбор объекта исследования при построении эконометрической модели.
- •9. . Выбор факторов, включаемых в систему, при построении эконометрической модели.
- •10. Сбор исходной информации при построении эконометрической модели.
- •11. Первичная статистическая обработка при построении эконометрической модели.
- •12. Построение двухмерной линейной модели корреляционно-регрессионного анализа.
- •13. Проверка значимости коэффициентов простой линейной регрессии и адекватности регрессионной модели.
- •14. Оценка существенности параметров линейной регрессии с помощью дисперсионного анализа.
- •15.Нелинейная регрессия
- •16. Множественная линейная регрессия: задача и основные предположения.
- •17. Выбор формы уравнения множественной регрессии.
- •18. Проверка значимости результатов множественной регрессии.
- •19. Метод наименьших квадратов для множественной линейной регрессии.
- •20. Геометрическая интерпретация метода наименьших квадратов.
- •21. Статистические свойства оценок параметров, теорема Гаусса - Маркова.
- •22. Парные, частные коэффициенты корреляции, совокупные коэффициенты множественной корреляции и детерминации. Понятие и связь между ними.
- •24. Использование коэффициента детерминации r2 и f-критерия для проверки статистических гипотез о параметрах регрессии.
- •25. Предпосылки метода наименьших квадратов. Гомоскедастичность дисперсии остатков. Гетероскедастичность.
- •2) Нулевая средняя величина остатков, т.Е.
- •4. Отсутствие автокорреляции остатков. Значения остатков распределены независимо друг от друга.
- •26. Обобщенный метод наименьших квадратов.
- •Сущность обобщённого мнк
- •27. Взвешенный метод наименьших квадратов.
- •28. Регрессионные модели с переменной структурой (фиктивные переменные).
- •29. Экономическая интерпретация многофакторной регрессионной модели.
- •30. Понятие мультиколлинеарности, ее значение при отборе факторов.
- •31. Расчет ошибки репрезентативности и доверительных интервалов при построении моделей.
- •32. Методы исключения тенденции во временных рядах.
- •33. Скользящая средняя и метод центрирования.
- •34. Автокорреляция. Тесты на автокорреляцию остатков (критерий Дарбина-Уотсона).
- •35. Оценивание при наличии автокорреляции остатков.
- •36. Прогнозирование в регрессионных моделях. Хуета какая то
- •37. Система линейных одновременных уравнений и ее идентификация.
- •38. Приведенная форма структурной модели.
- •39Идентификация параметров структурной и приведенной форм модели.
- •40. Оценивание параметров структурной формы модели.
- •42. Двушаговый метод оценки параметров систем одновременных уравнений.
- •43. Экономически значимые примеры систем одновременных уравнений.
- •45. Типы динамических эконометрических моделей. Модели с распределенным лагом и модели авторегрессии.
- •46. Интерпретация моделей: краткосрочный, промежуточный и долгосрочный мультипликаторы.
- •48. Метод Алмон. Метод Койка. Метод главных компонент. Метод Алмон
25. Предпосылки метода наименьших квадратов. Гомоскедастичность дисперсии остатков. Гетероскедастичность.
При
оценке параметров уравнения регрессии
применяется МНК. При этом делаются
определенные предпосылки относительно
составляющей
Исследования
остатков
предполагают
проверку наличия следующих пяти
предпосылок МНК:
1) случайный характер остатков.
2) Нулевая средняя величина остатков, т.Е.
3. Гомоскедастичность — дисперсия каждого отклонения одинакова для всех значений хj. Если это условие применения МНК не соблюдается, то имеет место гетероскедастичность. Наличие гетероскедастичности можно наглядно видеть из поля корреляции.
4. Отсутствие автокорреляции остатков. Значения остатков распределены независимо друг от друга.
5. Остатки подчиняются нормальному распределению.
В тех случаях, когда все пять предпосылок выполняются, оценки, полученные по МНК и методу максимального правдоподобия, совпадают между собой
26. Обобщенный метод наименьших квадратов.
Обобщённый
метод наименьших
квадратов (ОМНК, GLS — англ. Generalized
Least
Squares) —
метод оценки параметров регрессионных
моделей,
являющийся обобщением классического метода
наименьших квадратов.
Обобщённый метод наименьших квадратов
сводится к минимизации «обобщённой
суммы квадратов» остатков регрессии —
,
где
—
вектор остатков,
—
симметрическая положительно определенная
весовая матрица. Обычный МНК является
частным случаем обобщённого, когда
весовая матрица пропорциональна
единичной.
Сущность обобщённого мнк
Известно,
что симметрическую положительно
определенную матрицу можно разложить
как
,
где P- некоторая невырожденная квадратная
матрица. Тогда обобщённая сумма квадратов
может быть представлена как сумма
квадратов преобразованных (с помощью
P) остатков
.
Для линейной
регрессии
это
означает, что минимизируется величина:
где
,
то есть фактически суть обобщённого
МНК сводится к линейному преобразованию
данных и применению к этим данным обычного
МНК.
Если в качестве весовой матрицы
используется
обратная ковариационная
матрица
случайных
ошибок
(то
есть
),
преобразование P приводит к тому, что
преобразованная модель удовлетворяет
классическим предположениям
(Гаусса-Маркова), следовательно оценки
параметров с помощью обычного МНК будут
наиболее эффективными в классе линейных
несмещенных оценок. А поскольку параметры
исходной и преобразованной модели
одинаковы, то отсюда следует
утверждение — оценки
ОМНК являются наиболее эффективными в
классе линейных несмещенных оценок (теорема
Айткена). Формула обобщённого МНК имеет
вид:
27. Взвешенный метод наименьших квадратов.
В
случае диагональной весовой матрицы
(а значит и ковариационной матрицы
случайных ошибок) имеем так называемый
взвешенный МНК (WLS — Weighted Least Squares). В
данном случае минимизируется взвешенная
сумма квадратов остатков модели, то
есть каждое наблюдение получает «вес»,
обратно пропорциональный дисперсии
случайной ошибки в данном наблюдении:
.
Фактически данные преобразуются
взвешиванием наблюдений (делением на
величину, пропорциональную предполагаемому
стандартному отклонению случайных
ошибок), а к взвешенным данным применяется
обычный МНК.