
- •Санкт-Петербургский торгово-экономический институт
- •Основы эконометрики
- •1.Введение
- •1.Эконометрика как наука
- •1.1.Определение
- •1.2.Классификация задач эконометрики
- •1.3.Математико-статистический инструментарий эконометрики
- •2.Эконометрическое моделирование
- •2.1.Основные понятия эконометрического моделирования
- •2.2.Типы эконометрических моделей
- •2.3.Типы данных
- •2.4.Основные этапы и проблемы эконометрического моделирования
- •3.Обзор элементарных понятий статистики
- •3.1.Переменные
- •3.2.Зависимости
- •3.3.Статистическая значимость
- •3.4.Нормальное распределение
- •4.Парный регрессионный анализ
- •4.1.Основные понятия регрессионного анализа
- •4.2.Модель парной линейной регрессии
- •4.3.Метод наименьших квадратов
- •4.4.Интерпретация уравнения регрессии
- •4.5.Качество оценки: коэффициент детерминации r2
- •4.6.Случайные ошибки
- •4.6.1.Природа случайности
- •4.6.2.Условия Гаусса-Маркова
- •4.6.3.Оценка дисперсии ошибок σ2
- •4.6.4. Оценка дисперсий параметров модели a и b
- •4.7.Свойства коэффициента регрессии и проверка гипотез
- •4.7.1.Формулирование нулевой гипотезы.
- •4.7.2.Проверка гипотез
- •4.7.3.Доверительные интервалы
- •4.8.Таблица дисперсионного анализа для простой линейной регрессии
- •5.Множественный регрессионный анализ
- •5.1.Модель множественной линейной регрессии
- •5.2.Фиктивные переменные
- •5.2.1.Модель бинарной фиктивной переменной
- •5.2.2.Модель сезонных колебаний
- •5.2.3.Кусочно-линейная модель
- •6. Перспективы и проблемы эконометрики
- •7.Системы для обработки эконометрических данных
- •8.Примеры эконометрических моделей
- •8.1.Маркетинг
- •29.2.Финансы
- •37.1.Социально-экономические исследования
- •Рекомендуемая литература
- •Основы эконометрики
- •194021, Санкт-Петербург, Новороссийская ул., 50
4.5.Качество оценки: коэффициент детерминации r2
Цель регрессионного анализа состоит в объяснении поведения зависимой переменной y. В любой выборке y оказывается уравнительно низким в одних наблюдениях и сравнительно высоким ‑ в других. Мы хотим знать, почему это так.
Разброс значений y в выборке можно описать с помощью дисперсии. Обозначим выборочную дисперсию через Var(y).
В парном регрессионном анализе мы объясняем поведение y его зависимость от х. Построив регрессионную зависимость, можно разбить значение y на две составляющие:
|
(0) |
где
-
расчетное (прогнозируемое) значение в
точке i,
ei ‑ остаток между фактическим и cпрогнозированным значением, то есть та часть уi, мы уже не можем объяснить уравнением регрессии.
Можно доказать, что
|
(0) |
Таким образом, мы можем разложить дисперсию у на две части:
‑ часть
дисперсии, «объясненная» уравнением
регрессии,
‑ «необъясненная»
уравнением регрессии часть.
Следовательно,
‑ это доля дисперсии у, объясненная
уравнением регрессии. Это отношение
известно как коэффициент детерминации
R2:
|
(0) |
Таким образом, коэффициент детерминации, характеризует долю дисперсии у, объясненной регрессией y по x.
Из (0) получаем:
|
(0) |
что равносильно:
|
(0) |
Максимальное значение коэффициента детерминации равно 1: R2=1. Это происходит в том случае, когда линия регрессии точно соответствует всем наблюдениям, то есть линия регрессии проходит точно через все yi, и все остатки равны нулю: ei=0.
Если видимая связь между y и x отсутствует, то R2 близок к 0.
Желательно, чтобы R2 был больше. То есть мы выбираем a и b так, чтобы максимизировать R2.
Это
не противоречит тому, что надо
минимизировать сумму квадратов отклонений
,
выраженную уравнением (0).
Действительно,
|
(0) |
Следовательно, из выражений (0) и (0) получим:
|
(0) |
Итак, на основании выражения (0) можно сделать вывод о том, что принцип минимизации суммы квадратов остатков эквивалентен максимизации коэффициента детерминации R2.
Альтернативное представление для коэффициента детерминации – представление через суммы квадратов отклонений.
Рассмотрим возможные отклонения y, связанные с моделью регрессии. Справедливо соотношение:
|
(0) |
Здесь
‑ общее
отклонение;
‑ остаток;
‑ отклонение,
объясненное регрессией.
Заметим, что
|
(0) |
Тогда из (0) получаем:
|
(0) |
Следовательно, общая сумма квадратов отклонений равна сумме квадратов отклонений, объясненных регрессией плюс сумма квадратов остатков:
|
(0) |
Здесь
‑
общая
сумма квадратов отклонений;
‑ сумма
квадратов отклонений, объясненных
регрессией;
‑
сумма
квадатов остатков.
Выражение для коэффициента детерминации через суммы квадратов отклонений будет иметь вид:
|
(0) |
На
интуитивном уровне представляется
очевидным, что чем больше соответствие,
обеспечиваемое уравнением регрессии,
то есть между фактическим и прогнозным
значениями объясняемой переменной y,
тем больше должен быть коэффициент
корреляции
между
y
и
.
Можно доказать, что коэффициент детерминации равен квадрату коэффициента корреляции между фактическим и прогнозным значениями y:
|
(0) |
Здесь
‑ выборочная ковариация между y
и
.