- •2. Автокорреляция случайных возмущений: определение, причины, последствия, количественные характеристики вектора случайных возмущений в условиях автокорреляции
- •3.Алгоритм проверки адекватности множественной регрессионной модели
- •4. Алгоритм проверки значимости регрессоров в множественной регрессионной модели: выдвигаемая статистическая гипотеза, процедура ее проверки, формулы для расчета статистики
- •5. Анализ влияния факторов на зависимую переменную по модели регрессии
- •6. Анализ матрицы коэффициентов парной корреляции. Проверка значимости коэффициентов корреляции
- •7. Способы включения случайного возмущения в спецификацию нелинейной модели
- •8. Гетероскедастичность случайного возмущения: определение, причины, последствия, количественные характеристики вектора случайных возмущений в условиях гетероскедастичности
- •9. Диагностика эконометрических моделей: тестирование гетероскедастичности случайного возмущения (тест Голдфельда-Квандта)
- •10. Диагностика эконометрических моделей: тестирование гетероскедастичности случайного возмущения (тест Уайта)
- •11. Диагностика эконометрических моделей: тестирование значимости структурных изменений в экономике (тест Чоу)
- •12. Диагностика эконометрических моделей: тестирование функциональной формы (тест Рэмси reset)
- •13. Классификация эконометрических моделей для панельных данных
- •14. Классическая множественная регрессионная модель: спецификация, предпосылки
- •15. Классическая множественная регрессионная модель: числовые характеристики вектора мнк-оценок параметров.
- •16. Классическая множественная регрессионная модель: числовые характеристики вектора оценок эндогенной переменной
- •17. Классическая множественная регрессионная модель: числовые характеристики вектора ошибок прогнозов
- •19. Линейно-вероятностная модель с дискретной зависимой переменной. Спецификация модели
- •20. Матричная форма метода наименьших квадратов: спецификация множественной регрессионной модели в матричной форме, вывод оценки вектора параметров модели
- •21. Методы обнаружения мультиколлинеарности
- •22. Модели бинарного выбора. Логит и пробит модели
- •23. Модель панельных данных со случайными эффектами
- •24. Объединённая модель панельных данных
- •25. Модели для панельных данных: типы моделей
- •26. Модель бинарного выбора: Спецификация модели. Оценка параметров модели методом максимального правдоподобия
- •Линейно-вероятностная модель (lpm-Linear Probability Model)
- •27. Мультиколлинеарность и методы ее устранения
- •28. Обобщенный метод наименьших квадратов
- •29. Обобщенный метод наименьших квадратов структурных изменений в экономике: использование фиктивных переменных, тест Чоу
- •30. Определение структурных изменений в экономике: использование фиктивных переменных, тест Чоу
- •31. Основные числовые характеристики вектора остатков в классической множественной регрессионной модели. Оценка дисперсии возмущений модели множественной регрессии
- •32. Основные этапы эконометрического моделирования
- •Сбор статистической информации об объекте исследования
- •Оценка параметров модели (параметризация, настройка)
- •Проверка адекватности модели (верификация)
- •33. Оценка параметров парной регрессионной модели методом наименьших квадратов (суть метода, вывод формул для нахождения оценок коэффициентов через систему нормальных уравнений)
- •35. Показатели качества модели: коэффициент детерминации (обычный, скорректированный)
- •36. Пошаговые процедуры отбора факторов в модель регрессии
- •38. Проблема мультиколлинеарности в моделях множественной регрессии. Виды мультиколлинеарности, признаки, последствия
- •39. Проблема мультиколлинеарности в моделях множественной регрессии: полная мультиколлинеарность (определение, последствия, пример способа устранения)
- •40. Последствия и признаки частичной мультиколлинеарности
- •41. Прогнозирование на основе модели множественной регрессии
- •42. Свойства оценок мнк (определения и смысл)
- •43. Структурная и приведённая формы спецификации эконометрических моделей
- •44. Схема проведения эконометрических исследований (краткая характеристика каждого этапа)
- •46. Тест Бреуша-Годфри на наличие (отсутствие) автокорреляции случайных возмущений: предпосылки, нулевая гипотеза, тестовая статистика, алгоритм
- •47. Тест Дарбина-Уотсона на наличие (отсутствие) автокорреляции случайных возмущений: предпосылки, нулевая гипотеза, тестовая статистика, алгоритм
- •48. Тестирование мультиколлинеарности. Метод Фаррара-Глоубера
- •49. Типы нелинейности эконометрических моделей. Оценивание эконометрических моделей нелинейных по переменным
- •51. Модель Кобба-Дугласа. Оценка линеаризуемой нелинейной модели и проверка ее адекватности.
- •52. Типы переменных в эконометрических моделях. Типы экономических моделей (примеры)
- •Модели временных рядов;
- •Регрессионные модели с одним уравнением;
- •Системы одновременных уравнений
- •53. Фиктивные переменные наклона. Спецификация моделей. Примеры
- •54. Фиктивные переменные: определение, назначение, типы (спецификация, смысл параметра при фиктивной переменной)
- •55. Эконометрическое исследование: определение, задача, цель, метод. Назначение эконометрических моделей
- •56. Доступный метод взвешенных наименьших квадратов: способ корректировки переменных; числовые характеристики возмущений в преобразованной модели
- •57. Способы корректировки автокорреляции: алгоритм метода Кохрейна-Оркатта.
- •58. Способы корректировки автокорреляции: алгоритм метода Хилдрета-Лу
- •59. Способы корректировки автокорреляции: поправка Прайса-Уинстона в авторегрессионной схеме первого порядка
- •60. Методы обнаружения мультиколлинеарности. Метод дополнительных регрессий
58. Способы корректировки автокорреляции: алгоритм метода Хилдрета-Лу
Пусть исходное уравнение регрессии содержит автокорреляцию случайных членов.
Допустим, что автокорреляция подчиняется автокорреляционной схеме первого порядка: , где - коэффициент автокорреляции, а - случайный член, удовлетворяющий предпосылкам МНК.
Данная схема оказывается авторегрессионой, поскольку определяется значениями этой же величины с запаздыванием, и схемой первого порядка, потому что в этом случае запаздывание равно единице.
Величина есть коэффициент корреляции между двумя соседними ошибками. Пусть известно. Преобразуем исходное уравнение регрессии следующим образом:
.
Обозначим: .
Это преобразование переменных называется авторегрессионым (AR), или преобразованием Бокса-Дженкинса.
Тогда преобразованное уравнение , где , , не содержит автокорреляцию, и для оценки его параметров используется обычный МНК.
Способ вычисления и приводит к потере первого наблюдения. Эта проблема при малых выборках обычно преодолевается с помощью поправки Прайса-Винстена:
Оценка коэффициента из этой зависимости непосредственно используется и для исходного уравнения, а коэффициент рассчитывается по формуле: .
На практике величина неизвестна, ее оценка получается одновременно с оценками в результате следующих итеративных процедур.
Процедура Хильдрата-Лу. Эта процедура, также широко применяема в регрессионных пакетах, основана на тех же самых принципах, но использует другой алгоритм вычислений:
1.
Преобразованное уравнение оценивают
для каждого значения
из
интервала (-1;1) с заданным шагом внутри
его;
2. Выбирают
значение
,
для которого сумма квадратов остатков
в преобразованном уравнении минимальна,
а коэффициенты регрессии определяются
при оценивании преобразованного
уравнения с использованием этого
значения.
59. Способы корректировки автокорреляции: поправка Прайса-Уинстона в авторегрессионной схеме первого порядка
В связи с тем, что наличие в модели регрессии автокорреляции между остатками модели может привести к негативным результатам всего процесса оценивания неизвестных коэффициентов модели, автокорреляция остатков должна быть устранена.
Устранить автокорреляцию остатков модели регрессии можно с помощью включения в модель автокорреляционного параметра, однако на практике данный подход реализовать весьма затруднительно, потому что оценка коэффициента автокорреляции является величиной заранее неизвестной.
Авторегрессионной схемой первого порядка называется метод устранения автокорреляции первого порядка между соседними членами остаточного ряда в линейных моделях регрессии либо моделях регрессии, которые можно привести к линейному виду.
На практике применение авторегрессионной схемы первого порядка требует априорного знания величины коэффициента автокорреляции. Однако в связи с тем, что величина данного коэффициента заранее неизвестна, в качестве его оценки рассчитывается выборочный коэффициент остатков первого порядка.
Выборочный коэффициент остатков первого порядка рассчитывается по формуле:
В общем случае коэффициент автокорреляции порядка l рассчитывается по формуле:
где l – временной лаг;
T – число наблюдений;
t – момент времени, в который осуществлялось наблюдение;
– среднее
значение исходного временного ряда.
Предположим, что на основе собранных наблюдений была построена линейная парная модель регрессии:
yt=
Рассмотрим применение авторегрессионной схемы первого порядка на примере данной модели.
Исходная линейная модель парной регрессии с учётом процесса автокорреляции остатков первого порядка в момент времени t может быть представлена в виде:
yt=.
где – коэффициент автокорреляции, |<1;
– независимые, одинаково распределённые случайные величины с нулевым математическим ожиданием и дисперсией G2(
Модель регрессии в момент времени (t-1) может быть представлена виде:
yt-1=
Если модель регрессии в момент времени (t-1) умножить на величину коэффициента автокорреляции и вычесть её из исходной модели регрессии в момент времени t, то в результате мы получим преобразованную модель регрессии, учитывающую процесс автокорреляции первого порядка:
Для более наглядного представления преобразованной модели воспользуемся методом замен:
Yt=yt
Xt=xt
Zt=1.
В результате преобразованная модель регрессии примет вид:
Yt= Zt*
ли устранённой.
Авторегрессионную схему первого порядка можно применить ко всем строкам матрицы данных Х, кроме первого наблюдения. Однако если не вычислять Y1 и X1, то подобная потеря в небольшой выборке может привести к неэффективности оценок коэффициентов преобразованной модели регрессии. Данная проблема решается с помощью поправки Прайса-Уинстена. Введём следующие обозначения:
Тогда оценки неизвестных коэффициентов преобразованной модели регрессии (4) можно рассчитать с помощью классического метода наименьших квадратов:
Оценки коэффициентов исходной модели регрессии (1) определяются по формулам:
В результате оцененная модель регрессии будет иметь вид:
