
- •Глава I. Основные аспекты эконометрического моделирования
- •Глава II. Корреляционный анализ
- •Глава III. Множественный регрессионный анализ
- •Глава IV. Временные ряды
- •Глава V. Некоторые вопросы практического построения регрессионных моделей
- •Введение Определение эконометрики
- •Значение эконометрики в экономике
- •Задачи эконометрики
- •Глава I. Основные аспекты эконометрического
- •1.1. Понятие о модели, системе
- •1.2. Адекватность модели
- •1.3. Модель типа черного ящика
- •1.4. Основная предпосылка эконометрического анализа
- •1.5. Построение параметрической регрессионной модели
- •1.6. Классификация эконометрических моделн.
- •1.6.1. По структуре уравнений регрессии
- •1.6.2. По способу учета динамики:
- •1.6.3. По виду связи между
- •1.6.4. По алгоритму оценки параметров модели
- •1.7. Типы данных
- •1.7.1. Данные пространственного типа
- •1.7.2. Временной (динамический) ряд
- •1.8. Этапы построения эконометрической модели
- •Глава II. Корреляционный анализ
- •2.1. Цель корреляционного анализа
- •2.2. Числовые меры корреляционной связи
- •2.2.1. Ковариация
- •2.2.2. Выборочная оценка коэффициента линейной парной корреляции
- •2.2.3. Математический смысл коэффициента линейной парной корреляции
- •2.2.4. Статистический смысл коэффициента линейной парной корреляции
- •2.2.5. Геометрическая интерпретация коэффициента корреляции
- •2.3. Проверка статистической значимости коэффициента корреляции
- •2.4. Множественный корреляционный анализ
- •2.4.1. Корреляционная матрица
- •2.4.2. Выборочный линейный коэффициент множественной корреляции
- •2.4.3. Частный коэффициент корреляции
- •2.4.4. Коэффициент детерминации
- •2.4.5. Оценка значимости множественного коэффициента детерминации
- •2.4.6. Индекс корреляции при нелинейной связи двух случайных величин
- •2.4.7. Индекс множественной корреляции
- •2.5. Коэффициент ранговой корреляции
- •Глава III. Множественный регрессионный анализ
- •3.1. Постановка задачи
- •3.2. Метод наименьших квадратов (мнк) в скалярной форме
- •3.3. Матричная форма метода наименьших квадратов.
- •3.3.1.Уравнение наблюдений в матричной форме
- •3.3.2.Нормальные уравнения регрессии и формула для параметров уравнения
- •3.4. Предпосылки метода наименьших квадратов
- •3.5. Свойства оценок, получаемых по методу наименьших квадратов
- •3.6. Оценка адекватности уравнения регрессии (проверка гипотез о предпосылках метода наименьших квадратов)
- •3.6.1.Гипотеза о близости к нулю математического ожидания остатков
- •3.6.2. Гипотеза о статистической значимости коэффициентов регрессии bj
- •3.6.3. Гипотеза о статистической значимости всего уравнения регрессии в целом
- •3.6.4. Оценка качества уравнения регрессии
- •3.6.5. Скорректированный коэффициент детерминации
- •3.6.6. Проверка гипотезы о чисто случайном характере остатков
- •3.6.7. Проверка гипотезы о нормальном законе распределения остатков
- •3.7. Точечный прогноз и оценка доверительных интервалов прогноза
- •3.8. Оценка погрешностей расчета по уравнению регрессии
- •3.9. Коэффициент эластичности, бета-коэффициент и дельта-коэффициент для линейного уравнения регрессии
- •Глава IV. Временные ряды
- •4.1. Понятие о временных рядах, их классификация
- •4.2. Компонентный анализ временных рядов
- •4.3. Понятие случайного процесса
- •4.4. Понятие о коэффициенте корреляции во временном ряде. Автокорреляционная функция (акф)
- •4.5. Выборочная оценка коэффициента автокорреляции для числа степеней свободы
- •4.6. Частный коэффициент автокорреляции
- •4.7. Предварительный анализ временных рядов
- •4.8. Авторегрессионные модели.
- •Ar(p) – порядка p
- •4.9. Авторегрессионная модель скользящей средней
- •4.10. Разностные уравнения с лаговыми пременными
- •4.11. Оценка коэффициентов авторегрессионных моделей.
- •4.12. Прогнозирование по разностной авторегрессионной модели
- •Глава V. Некоторые вопросы практического построения регрессионных моделей
- •5.1.Проблема спецификации переменных. Мультиколлинеарность
- •5.2.Способы устранения мультиколлинеарности
- •5.3. Метод пошаговой регрессии (конструктивный метод)
- •5.4. Деструктивный подход (“расщепления”) мультиколлинеарных пар
- •5.5.Случай нелинейных координатных функций
- •5.5.1.Формальная замена переменных
- •5.5.2. Специальное преобразование
- •5.6. Линейные уравнения регрессии с переменной структурой. Фиктивные переменные
- •5.7. Способ устранения коррелированности регрессоров с остатками с помощью инструментальных переменных
- •5.8. Двухшаговый метод наименьших квадратов
- •Литература
3.3. Матричная форма метода наименьших квадратов.
3.3.1.Уравнение наблюдений в матричной форме
Запишем наблюдения в каждой точке i с учетом (3.1):
(3.4)
Введем в рассмотрение матрицу плана наблюдений или матрицу базисных функций (не путать с вектором ).
(3.5)
Тогда при условии линейного вхождения вектора параметров в модель, получим:
(3.6)
Справедливость уравнения (3.6) проверяется переводом уравнения (3.6) в скалярную форму по правилу умножения матрицы X на вектор .
В уравнении наблюдений (3.6)
=
(b0,b1,….,bj,….bn)
- n
– мерный
вектор оцениваемых параметров;
=
(e0,e1,….,ej,….en);
- N
– мерный
вектор остатков;
=
(y0,y1,….,yj,….yn);
- N
– мерный
вектор наблюдений.
Замечание: Если структура модели нелинейна по , т.е. входит в базисную функцию, то записать уравнение (3.6) невозможно и классический метод наименьших квадратов непримерим.
3.3.2.Нормальные уравнения регрессии и формула для параметров уравнения
Используем известную формулу из матричной алгебры:
(3.7)
Тогда, опуская
стрелки с учетом того, что
получаем:
(3.8)
(3.9)
Система нормальных уравнений запишется в виде:
(3.10)
где (XTX) – матрица нормальных уравнений.
Пусть обратная матрица (XTX)-1 существует (она называется информационной матрицей Фишера). Тогда получим явную матричную формулу для оценки коэффициентов (параметров) уравнения регрессии:
Если det(XTX)-1=0, то матрица нормальных уравнений необратима и вычислить вектор параметров нельзя.
Если det(XTX)-1¹0, но очень мал, то обращаемая матрица плохо обусловлена. Возникает вычислительные проблемы обращения матриц большей размерности.
3.4. Предпосылки метода наименьших квадратов
Классический метод наименьших квадратов, лежащий в основе регрессионного анализа, предъявляет довольно жесткие требования к данным и свойствам полученных случайных остатков
Должны выполняться ряд условий (предпосылок) метода наименьших квадратов.
Пусть выполнена основная предпосылка эконометрического анализа, т.е. моделируемую случайную величину Y можно разбить на две части объясненную и случайную:
Перечислим предпосылки классического метода наименьших квадратов.
1). Зависимая переменная Yi и возмущения Ei – это случайные величины, а вектор объясняющих переменных Хi – неслучайный (детерминированный).
2). Математическое ожидание возмущений Ei равно 0:
M[Ei]=0
3). Дисперсия возмущений Ei (дисперсия зависимой переменной Yi) постоянна:
(3.12)
Это условие
называется гомоскедастичностью или
равноизменчивостью возмущения Ei
(зависимой
переменной Yi).
На рисунке 3.1. показан случай нарушения
свойства гомоскедастичности:
,
т.е. для разных диапазонов изменения х
дисперсия
существенно
изменяется (зависит от х).
4). Возмущения Ei и Ej (или наблюдение Yi и Yj) не корректированы:
M(Ei·Ej)= 0 ; i¹j (3.13)
5). Ранг матрицы планирования опытов X[Nxn] должен быть не более числа опытов N:
r=k < N,
где k – число членов регрессии. Ранг r равен числу линейно независимых столбцов матрицы X. На практике для получения модели хорошего качества N должно превышать k в несколько раз.
6). Возмущения Ei (или зависимая переменная Yi) есть нормально распределенная случайная величина
E~N(0;s2EN). (3.14)
При выполнении всех предпосылок 1…6 модель называется классической нормальной регрессионной моделью.
Замечание 1: Формально уравнение регрессии можно построить и без выполнения предпосылки s о нормальном ЗР? возмущений Ei. Однако при этом модель не имеет практического смысла, поскольку невозможно оценить:
адекватность;
доверительные интервалы оценок коэффициентов и Y.
В этих операциях используется НЗР ? (критерий Стьюдента)
Замечание 2: Для получения адекватного, хорошо интерпретируемого (с возможностью раздельной оценки вклада каждого фактора) уравнения регрессии с необходимой точностью требуется выполнение еще одной, седьмой предпосылки.
7). Отсутствие мультиколлинеарности.
Мультиколлениарность – это наличие линейной корреляции объясняющих переменных между собой.
Предпосылки метода наименьших квадратов проверяются как соответствующие статистические гипотезы (см. ниже).