- •Институт экономики переходного периода
- •В.П. Носко
- •Эконометрика для начинающих
- •Основные понятия, элементарные методы, границы применимости, интерпретация результатов
- •Оглавление
- •Часть 1. Оценивание и подбор моделей связи между переменными без привлечения вероятностно-статистических методов 7
- •Часть 2. Статистические выводы при стандартных предположениях о вероятностной структуре ошибок в линейной модели наблюдений 85
- •Часть 3. Проверка выполнения стандартных предположений об ошибках в линейной модели наблюдений. Коррекция статистических выводов при нарушении стандартных предположений об ошибках 180
- •Предисловие
- •Часть 1. Оценивание и подбор моделей связи между переменными без привлечения вероятностно-статистических методов
- •1.1. Эконометрика и ее связь с экономической теорией
- •1.2. Две переменные: меры изменчивости и связи
- •1.3. Метод наименьших квадратов. Прямолинейный характер связи между двумя экономическими факторами
- •1.4. Свойства выборочной ковариации, выборочной дисперсии и выборочного коэффициента корреляции
- •1.5. «Обратная» модель прямолинейной связи
- •1.6. Пропорциональная связь между переменными
- •1.7. Примеры подбора линейных моделей связи между двумя факторами. Фиктивная линейная связь
- •1.8. Очистка переменных. Частный коэффициент корреляции
- •1.9. Процентное изменение факторов в линейной модели связи
- •1.10. Нелинейная связь между переменными
- •1.11. Пример подбора моделей нелинейной связи, сводящихся к линейной модели.
- •1.12. Линейные модели с несколькими объясняющими переменными
- •Часть 2. Статистические выводы при стандартных предположениях о вероятностной структуре ошибок в линейной модели наблюдений
- •2.1. Вероятностное моделирование ошибок
- •2.2. Гауссовское (нормальное) распределение ошибок в линейной модели наблюдений
- •2.3. Числовые характеристики случайных величин и их свойства
- •2.4. Нормальные линейные модели с несколькими объясняющими переменными
- •2.5. Нормальная множественная регрессия: доверительные интервалы для коэффициентов
- •2.6. Доверительные интервалы для коэффициентов: реальные статистические данные
- •2.7. Проверка статистических гипотез о значениях коэффициентов
- •2.8. Проверка значимости параметров линейной регрессии и подбор модели с использованием f-критериев
- •2.9. Проверка значимости и подбор модели с использованием коэффициентов детерминации. Информационные критерии
- •2.10. Проверка гипотез о значениях коэффициентов: односторонние критерии
- •2.11. Некоторые проблемы, связанные с проверкой гипотез о значениях коэффициентов
- •2.12. Использование оцененной модели для прогнозирования
- •Часть 3. Проверка выполнения стандартных предположений об ошибках в линейной модели наблюдений. Коррекция статистических выводов при нарушении стандартных предположений об ошибках
- •3.1. Проверка адекватности подобранной модели имеющимся статистическим данным: графические методы
- •3.2. Проверка адекватности подобранной модели имеющимся статистическим данным: формальные статистические процедуры
- •3.3. Неадекватность подобранной модели: примеры и последствия
- •3.4. Коррекция статистических выводов при наличии гетероскедастичности (неоднородности дисперсий ошибок)
- •3.5. Коррекция статистических выводов при автокоррелированности ошибок
- •3.6. Коррекция статистических выводов при наличии сезонности. Фиктивные переменные
- •Заключение
- •Список литературы
2.4. Нормальные линейные модели с несколькими объясняющими переменными
Начиная с этого момента, мы будем предполагать, что
(1) Модель наблюдений имеет вид
где - значение объясняемой переменной в -м наблюдении;
-
известное значение
-ой
объясняющей переменной в
-м
наблюдении;
- неизвестный
коэффициент при
-ой
объясняющей переменной;
- случайная
составляющая (“ошибка“) в
-м
наблюдении.
(2)
- случайные величины, независимые
в совокупности, имеющие одинаковое
нормальное распределение N (0,2)
с нулевым математическим ожиданием и
дисперсией
(3) Если не оговорено противное, то в число объясняющих переменных включается переменная, тождественно равная единице, которая объявляется первой объясняющей переменной, так что
При сделанных предположениях являются наблюдаемыми значениями нормально распределенных случайных величин , которые независимы в совокупности и для которых
так что
В отличие от , случайные величины имеют распределения, отличающиеся сдвигами.
Определенную указанным образом модель наблюдений мы будем называть нормальной линейной моделью с p объясняющими переменными. Иначе ее еще называют нормальной линейной моделью множественной регрессии переменной y на переменные x1, ... , xp . Термин “множественная” указывает на использование в правой части модели наблюдений двух и более объясняющих переменных, отличных от постоянной. Термин “регрессия” имеет определенные исторические корни и используется лишь в силу традиции.
Оценивание
неизвестных коэффициентов модели
методом наименьших квадратов
состоит в минимизации по всем
возможным значениям
суммы квадратов
Минимум этой суммы достигается при некотором наборе значений коэффициентов
так что
Это минимальное значение мы опять обозначаем RSS , так что
и называем остаточной суммой квадратов.
Коэффициент детерминации R2 определяется как
где
Обозначая
(подобранные - fitted- значения объясняющей переменной по оцененной линейной модели связи), и определяя остаток (residual) от i-го наблюдения как
мы получаем:
Обозначая
- объясненная
моделью (explained) сумма
квадратов, или регрессионная
сумма квадратов, мы так же, как и в
случае простой линейной регрессии
с
,
имеем разложение
так что
И опять, это разложение справедливо только при наличии постоянной составляющей в модели линейной связи. При этом, также, здесь
т.е. коэффициент
детерминации равен квадрату выборочного
коэффициента корреляции
между переменными
и
.
Последний называется множественным
коэффициентом корреляции (multiple-R).
Для поиска значений
,
минимизирующих сумму
следует приравнять
нулю частные производные этой суммы
(как функции от
)
по каждому из аргументов
.
В результате получаем систему
нормальных уравнений
или
Это система линейных уравнений с неизвестными . Ее можно решать или методом подстановки или по правилу Крамера с использованием соответствующих определителей. В векторно-матричной форме эта система имеет вид
где
- матрица значений
объясняющих переменных в
наблюдениях;
- транспонированная матрица;
и
соответственно, вектор-столбец значений объясняемой переменной в наблюдениях и вектор-столбец оценок неизвестных коэффициентов. Система нормальных уравнений имеет единственное решение, если выполнено условие
(4) матрица XTX невырождена, т.е. ее определитель отличен от нуля:
которое можно заменить условием
(4’) столбцы матрицы X линейно независимы.
При выполнении
этого условия матрица
(размера
) имеет обратную к ней матрицу
.
Умножая в таком случае обе части
последнего уравнения слева на матрицу
,
находим искомое решение системы
нормальных уравнений:
Введем дополнительные обозначения
,
,
,
.
Тогда модель наблюдений
можно представить в матрично-векторной форме
Вектор подобранных значений имеет вид
и вектор остатков равен
Определяющим для всего последующего является то обстоятельство, что в нормальной линейной модели с несколькими объясняющими переменными оценки коэффициентов как случайные величины имеют нормальные распределения (хотя эти случайные величины уже не являются независимыми в совокупности).
Действительно,
поскольку
,
то оценки
являются линейными комбинациями
значений
,
т.е. имеют вид
где
- коэффициенты, определяемые значениями
объясняющих переменных. Поскольку же
у нас
- наблюдаемые значения случайных
величин
, то
является наблюдаемым значением
случайной величины
которую мы также будем обозначать
:
Ранее мы выяснили, что при наших предположениях
Поэтому случайные величины также будут нормальными как линейные комбинации независимых нормально распределенных случайных величин.
Можно показать, что математическое ожидание случайной величины равно
(
является несмещенной оценкой
истинного значения коэффициента
),
а дисперсия этой случайной величины
равна
-му
диагональному элементу матрицы
:
Рассмотренная ранее модель простой линейной регрессии
вкладывается в
модель множественной линейной регрессии
с
:
,
,
,
.
Матрица
имеет вид
Учитывая, что
находим:
