Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Konspekt_lektsiy_po_ekonometrike_dlya_studentov-vechernikov (1).docx
Скачиваний:
1
Добавлен:
01.07.2025
Размер:
212.3 Кб
Скачать

1.2.2. Условия Гаусса-Маркова (предпосылки мнк)

Свойства оценок коэффициентов регрессии, а следовательно, и качество построенной регрессии существенно зависят от свойств случайного отклонения ε. Доказано, что для получения по МНК наилучших результатов необходимо, чтобы выполнялся ряд предпосылок относительно случайного отклонения:

  1. Математическое ожидание случайного отклонения εi равно нулю:

М(εi) = 0, i = 1, 2, … , n.

  1. Дисперсии случайных отклонений εi для всех наблюдений равны:

D(εi) = D(εj) = σ2=const, i, j = 1, 2, … , n.

Выполнимость данной предпосылки называется гомоскедастичностью (постоянством дисперсий отклонений).

Невыполнимость данной предпосылки называется гетероскедастичностью (непостоянством дисперсий отклонений).

  1. Случайные отклонения εi при разных наблюдениях являются независимы друг от друга, т.е. корреляционный момент, или ковариация, между εi и εj при ij равна 0:

covij) = 0 для ij, i, j = 1, 2, … , n.

Выполнимость данной предпосылки означает отсутствие автокорреляции.

Невыполнимость данной предпосылки говорит о наличии автокорреляции случайных отклонений.

  1. Случайное отклонение εi должно быть независимо от объясняющих переменных:

cov(εi,xi) = 0, i = 1, 2, … , n.

  1. Модель является линейной относительно параметров.

Теорема Гаусса-Маркова.

Если предпосылки 1-5 выполнены, то оценки, полученные по МНК, обладают следующими свойствами:

  1. Оценки являются несмещенными, т.е. математическое ожидание оценки параметра равно самому параметру. Это вытекает из условия, что М(εi)=0, и говорит об отсутствии систематической ошибки в определении положения линии регрессии.

  2. Оценки состоятельны, т.к. дисперсия оценок параметров при возрастании числа наблюдений n стремится к нулю. Другими словами, при увеличении объема выборки надежность оценок увеличивается.

  3. Оценки эффективны, т.е. они имеют наименьшую дисперсию по сравнению с любыми другими оценками данных параметров, линейными относительно величин yi.

Такие оценки называются наилучшими линейными несмещенными оценками.

1.2.3. Коэффициенты корреляции и детерминации

Уравнение регрессии всегда дополняется показателем тесноты связи. При использовании линейной регрессии таким показателем является линейный коэффициент корреляции. Существует несколько видов формулы линейного коэффициента корреляции, основные из них представлены ниже:

где и - среднее квадратическое отклонение x и y соответственно.

Линейный коэффициент корреляции, как известно, всегда находится в следующих пределах: -1≤ rxy ≤1 . Знак коэффициента регрессии определяет знак коэффициента корреляции. Если b < 0, тогда -1≤ rxy ≤0, и наоборот, если b > 0, тогда 0≤ rxy ≤1. Чем ближе значение коэффициента корреляции по модулю |rxy | к единице, тем теснее связь между признаками в линейной форме. Однако, если абсолютная величина коэффициента корреляции близка к нулю, то это означает, что между рассматриваемыми признаками отсутствует линейная связь. При другом виде уравнения регрессии связь может оказаться достаточно тесной.

Для оценки качества подбора линейного уравнения регрессии находят также квадрат коэффициента корреляции, называемый коэффициентом детерминации R2 = (rxy)2 . Он отражает долю вариации результативного признака, объясненную с помощью уравнения регрессии, или, иными словами, долю дисперсии результата, объясненную регрессией, в общей дисперсии y:

Следовательно, величина (1-R2) характеризует долю вариации, или долю дисперсии результата у, вызванную влиянием всех остальных, не учтенных в модели факторов. Значения коэффициента детерминации могут изменяться от нуля до единицы (0 ≤ R2 ≤ 1). Например, R2=0,94 означает, что уравнением регрессии объясняется 94% дисперсии результативного признака, а прочими, не учтенными в модели факторами - 6%. Чем ближе коэффициент детерминации к единице, тем меньше роль других факторов и линейное уравнение регрессии описывает лучше исходные данные.