- •Эконометрическая модель.
- •Измерения в экономике. Шкалы измерений.
- •Случайные события и случайные переменные. Распределение случайных величин.
- •Статистические характеристики случайных величин и их свойства.
- •Основные функции распределения.
- •Оценки статистических характеристик и их желательные свойства.
- •Проверка статистических гипотез.
- •Критерий и критическая область.
- •Мощность статистического критерия. Уровень значимости.
- •Модель линейной регрессии.
- •Оценивание параметров регрессии. Метод наименьших квадратов.
- •Система нормальных уравнений мнк и ее решение.
- •Свойства оценок параметров, полученных методом наименьших квадратов. Условия Гаусса – Маркова.
- •Коэффициент детерминации и его свойства.
- •Предположение о нормальном распределении случайной ошибки в рамках классической линейной регрессии и его следствия.
- •Доверительные интервалы оценок параметров и проверка гипотез об их значимости.
- •Прогнозирование по регрессионной модели и его точность. Доверительные и интервалы прогноза.
- •Ковариационная матрица оценок коэффициентов регрессии.
- •Проверка значимости коэффициентов и адекватности регрессии для множественной линейной регрессионной модели.
- •Коэффициент множественной детерминации. Скорректированный коэффициент детерминации.
- •Проблемы спецификации регрессионной модели. Пошаговая регрессия.
- •Проблема смещения Предположим, что переменная у зависит от двух переменных х1, и х2 в соответствии с соотношением:
- •Неприменимость статистических тестов
- •Замещающие переменные. Фиктивные переменные.
- •Мультиколлинеарность. Влияние мультиколлинеарности на оценки параметров уравнения регрессии.
- •Методы борьбы с мультиколлинеарностью.
- •Линеаризация регрессионных моделей путем логарифмических преобразований.
- •Модели с постоянной эластичностью. Производственная функция Кобба - Дугласа.
- •Модель с постоянными темпами роста (полулогарифмическая модель).
- •Полиномиальная регрессия.
- •Кривая Филипса
- •Гетероскедастичность. Последствия гетероскедастичности для оценок параметров регрессии методом наименьших квадратов и проверки статистических гипотез.
- •Признаки гетероскедастичности и ее диагностирование. Обнаружение гетероскедастичности
- •1. Графический анализ остатков
- •2. Тест ранговой корреляции Спирмена
- •3. Тест Голдфелда-Квандта
- •Оценивание коэффициентов множественной линейной регрессии в условиях гетероскедастичности. Обобщенный метод наименьших квадратов.
- •Автокорреляция. Причины автокорреляции.
- •Влияние автокорреляции на свойства оценок мнк.
- •Тест серий. Статистика Дарбина – Уотсона.
- •Способы противодействия автокорреляции.
- •Стохастические объясняющие переменные. Последствия ошибок измерения.
- •Инструментальные переменные.
- •Лаговые переменные и экономические зависимости между разновременными значениями переменных.
- •Модели с распределенными лагами.
- •Модели авторегрессии как эквивалентное представление моделей с распределенными лагами.
- •Ожидания экономических агентов и лаговые переменные в моделях
- •Модели наивных и адаптивных ожиданий.
- •Модель гиперинфляции Кейгана.
- •44. Модель гиперинфляции Кейгана
- •Понятие об одновременных уравнениях. Структурная и приведенная форма модели.
- •Структурная и приведённая форма. Идентифицируемость
- •Примеры
- •Проблема идентификации. Неидентифицируемость и сверхидентифицированность.
- •Оценивание системы одновременных уравнений. Косвенный и двухшаговый мнк.
- •Системы эконометрических уравнений с лаговыми переменными.
- •Модель Кейнса.
- •Модель Клейна.
- •Матричная форма записи модели Клейна
Коэффициент множественной детерминации. Скорректированный коэффициент детерминации.
Коэффициент множественной детерминации характеризует, насколько процентов построенная модель регрессии объясняет разброс значений результативной переменной относительно ее среднего значения.
Коэффициент множественной детерминации рассчитывается как квадрат коэффициента множественной корреляции:
R2(y, x1 …xi ) = ∑Biстанд * r (yxi)
Коэффициент множественной детерминации также называется количественной характеристикой объясненной построенной моделью множественной регрессии дисперсии результативной переменной. Чем больше значение коэффициента множественной детерминации, тем лучше модель регрессии описывает анализируемую взаимосвязь между переменными.
Коэффициент множественной детерминации можно также рассчитать на основании теоремы о разложении сумм квадратов.
Сумма квадратов разностей между значениями результативной переменной и ее средним значением по выборке может быть представлена следующим образом:
∑ (yi – yср)2 =∑(yi - yi˜)2 +∑( yi˜ - yср)2
∑ (yi – yср)2 — общая сумма квадратов модели множественной регрессии с п переменными (Total Sum Square — TSS);
∑(yi - yi˜)2 — сумма квадратов остатков модели множественной регрессии с п переменными (Error Sum Square — ESS);
∑( yi˜ - yср)2 — сумма квадратов объясненной регрессии модели множественной регрессии с n переменными (Regression Sum Square — HSS).
Коэффициент множественной детерминации, рассчитанный через теорему о разложении сумм квадратов:
R2(y, x1 …xi ) = 1- ESS/TSS
Скорректированный коэффициент детерминации
Иногда его также называют «исправленным» коэффициентом R2, хотя это определение не означает, по мнению многих, что такой коэффициент улучшен по сравнению с обычным.
Воздействие на качество дополнительно включенной в модель регрессии факторной переменной не всегда можно определить с помощью обычного коэффициента множественной детерминации. Для этой цели рассчитывается скорректированный (adjusted) коэффициент множественной детерминации, в котором учитывается количество факторных переменных.
Как отмечалось выше, при добавлении объясняющей переменной к уравнению регрессии коэффициент R2 никогда не уменьшается, а обычно увеличивается. Скорректированный коэффициент R2, который обычно обозначают , обеспечивает компенсацию для такого автоматического сдвига вверх путем наложения «штрафа» за увеличение числа независимых переменных. Этот коэффициент определяется следующим образом:
где k — число независимых переменных. По мере роста k увеличивается отношение k/(n — k— 1) и, следовательно, возрастает размер корректировки коэффициента R2 в сторону уменьшения.
Можно показать, что добавление новой переменной к регрессии приведет к увеличению R , если и только если соответствующая t-cтатистика больше единицы (или меньше -1). Следовательно, увеличение при добавлении новой переменной необязательно означает, что ее коэффициент значимо отличается от нуля. Поэтому отнюдь не следует, как можно было бы предположить, что увеличение означает улучшение спецификации уравнения.
Это является одной из причин того, почему не стал широко использоваться в качестве диагностической величины. Другая причина состоит в уменьшении внимания к самому коэффициенту R2. Ранее среди экономистов наблюдалась тенденция рассматривать коэффициент R2 в качестве основного индикатора успеха в спецификации модели. Однако на практике, как будет показано в следующих главах, даже плохо определенная модель регрессии может дать высокий коэффициент R2, и признание этого факта привело к снижению значимости R2. Теперь он рассматривается в качестве одного из целого ряда диагностических показателей, которые должны быть проверены при построении модели регрессии.