- •Эконометрика Конспект лекций для студентов Содержание
- •Раздел 1. Основы регрессионного анализа 3
- •Раздел 2. Множественная регрессия 16
- •Раздел 1. Основы регрессионного анализа
- •1.1. Предмет и цель исследований эконометрики. Основные понятия
- •1.1.1. Сущность и история возникновения эконометрики
- •1.1.2. Основные понятия эконометрики
- •1.1.3. Эконометрические модели
- •1.1.4. Парная линейная регрессия
- •1.2. Оценка параметров парной линейной регрессии. Метод наименьших квадратов (мнк).
- •1.2.1. Мнк для парной линейной регрессии
- •1.2.2. Условия Гаусса-Маркова (предпосылки мнк)
- •Теорема Гаусса-Маркова.
- •1.2.3. Коэффициенты корреляции и детерминации
- •1.3. Оценка существенности уравнения регрессии и его параметров. Прогнозирование в линейной регрессии
- •1.3.1. Оценка значимости по критериям Фишера и Стьюдента
- •1.3.2. Прогнозирование в линейной регрессии
- •1.3.3. Ошибки аппроксимации
- •Раздел 2. Множественная регрессия
- •2.1. Отбор факторов и выбор формы уравнения множественной регрессии
- •2.1.1. Требования к отбору факторов
- •2.1.2. Фиктивные переменные
- •2.1.3. Ошибки спецификации
- •2.2. Традиционный метод наименьших квадратов для множественной регрессии. Частная и множественная корреляция
- •2.2.1. Мнк для множественной регрессии
- •2.2.2. Частные уравнения, частная корреляция
- •2.2.3. Коэффициенты множественной корреляции и детерминации
- •2.2.4. Оценка значимости уравнения множественной регрессии
- •2.3. Нелинейная регрессия. Линеаризация нелинейной регрессии
- •2.3.1. Виды нелинейной регрессии
- •2.3.2. Линеаризация
- •2.3.3. Критерий Чоу
- •2.3.4. Метод наименьших квадратов для нелинейных регрессионных моделей
- •2.3.5. Корреляция для нелинейной регрессии. Коэффициенты эластичности
- •2.3.6. Оценка существенности нелинейной регрессии
1.2.2. Условия Гаусса-Маркова (предпосылки мнк)
Свойства оценок коэффициентов регрессии, а следовательно, и качество построенной регрессии существенно зависят от свойств случайного отклонения ε. Доказано, что для получения по МНК наилучших результатов необходимо, чтобы выполнялся ряд предпосылок относительно случайного отклонения:
Математическое ожидание случайного отклонения εi равно нулю:
М(εi) = 0, i = 1, 2, … , n.
Дисперсии случайных отклонений εi для всех наблюдений равны:
D(εi) = D(εj) = σ2=const, i, j = 1, 2, … , n.
Выполнимость данной предпосылки называется гомоскедастичностью (постоянством дисперсий отклонений).
Невыполнимость данной предпосылки называется гетероскедастичностью (непостоянством дисперсий отклонений).
Случайные отклонения εi при разных наблюдениях являются независимы друг от друга, т.е. корреляционный момент, или ковариация, между εi и εj при i≠j равна 0:
cov(εi,εj) = 0 для i≠j, i, j = 1, 2, … , n.
Выполнимость данной предпосылки означает отсутствие автокорреляции.
Невыполнимость данной предпосылки говорит о наличии автокорреляции случайных отклонений.
Случайное отклонение εi должно быть независимо от объясняющих переменных:
cov(εi,xi) = 0, i = 1, 2, … , n.
Модель является линейной относительно параметров.
Теорема Гаусса-Маркова.
Если предпосылки 1-5 выполнены, то оценки, полученные по МНК, обладают следующими свойствами:
Оценки являются несмещенными, т.е. математическое ожидание оценки параметра равно самому параметру. Это вытекает из условия, что М(εi)=0, и говорит об отсутствии систематической ошибки в определении положения линии регрессии.
Оценки состоятельны, т.к. дисперсия оценок параметров при возрастании числа наблюдений n стремится к нулю. Другими словами, при увеличении объема выборки надежность оценок увеличивается.
Оценки эффективны, т.е. они имеют наименьшую дисперсию по сравнению с любыми другими оценками данных параметров, линейными относительно величин yi.
Такие оценки называются наилучшими линейными несмещенными оценками.
1.2.3. Коэффициенты корреляции и детерминации
Уравнение регрессии всегда дополняется показателем тесноты связи. При использовании линейной регрессии таким показателем является линейный коэффициент корреляции. Существует несколько видов формулы линейного коэффициента корреляции, основные из них представлены ниже:
где
и
- среднее квадратическое отклонение x
и y соответственно.
Линейный коэффициент корреляции, как известно, всегда находится в следующих пределах: -1≤ rxy ≤1 . Знак коэффициента регрессии определяет знак коэффициента корреляции. Если b < 0, тогда -1≤ rxy ≤0, и наоборот, если b > 0, тогда 0≤ rxy ≤1. Чем ближе значение коэффициента корреляции по модулю |rxy | к единице, тем теснее связь между признаками в линейной форме. Однако, если абсолютная величина коэффициента корреляции близка к нулю, то это означает, что между рассматриваемыми признаками отсутствует линейная связь. При другом виде уравнения регрессии связь может оказаться достаточно тесной.
Для оценки качества подбора линейного уравнения регрессии находят также квадрат коэффициента корреляции, называемый коэффициентом детерминации R2 = (rxy)2 . Он отражает долю вариации результативного признака, объясненную с помощью уравнения регрессии, или, иными словами, долю дисперсии результата, объясненную регрессией, в общей дисперсии y:
Следовательно, величина (1-R2) характеризует долю вариации, или долю дисперсии результата у, вызванную влиянием всех остальных, не учтенных в модели факторов. Значения коэффициента детерминации могут изменяться от нуля до единицы (0 ≤ R2 ≤ 1). Например, R2=0,94 означает, что уравнением регрессии объясняется 94% дисперсии результативного признака, а прочими, не учтенными в модели факторами - 6%. Чем ближе коэффициент детерминации к единице, тем меньше роль других факторов и линейное уравнение регрессии описывает лучше исходные данные.
