
- •Глава I. Основные аспекты эконометрического моделирования
- •Глава II. Корреляционный анализ
- •Глава III. Множественный регрессионный анализ
- •Глава IV. Временные ряды
- •Глава V. Некоторые вопросы практического построения регрессионных моделей
- •Введение Определение эконометрики
- •Значение эконометрики в экономике
- •Задачи эконометрики
- •Глава I. Основные аспекты эконометрического
- •1.1. Понятие о модели, системе
- •1.2. Адекватность модели
- •1.3. Модель типа черного ящика
- •1.4. Основная предпосылка эконометрического анализа
- •1.5. Построение параметрической регрессионной модели
- •1.6. Классификация эконометрических моделн.
- •1.6.1. По структуре уравнений регрессии
- •1.6.2. По способу учета динамики:
- •1.6.3. По виду связи между
- •1.6.4. По алгоритму оценки параметров модели
- •1.7. Типы данных
- •1.7.1. Данные пространственного типа
- •1.7.2. Временной (динамический) ряд
- •1.8. Этапы построения эконометрической модели
- •Глава II. Корреляционный анализ
- •2.1. Цель корреляционного анализа
- •2.2. Числовые меры корреляционной связи
- •2.2.1. Ковариация
- •2.2.2. Выборочная оценка коэффициента линейной парной корреляции
- •2.2.3. Математический смысл коэффициента линейной парной корреляции
- •2.2.4. Статистический смысл коэффициента линейной парной корреляции
- •2.2.5. Геометрическая интерпретация коэффициента корреляции
- •2.3. Проверка статистической значимости коэффициента корреляции
- •2.4. Множественный корреляционный анализ
- •2.4.1. Корреляционная матрица
- •2.4.2. Выборочный линейный коэффициент множественной корреляции
- •2.4.3. Частный коэффициент корреляции
- •2.4.4. Коэффициент детерминации
- •2.4.5. Оценка значимости множественного коэффициента детерминации
- •2.4.6. Индекс корреляции при нелинейной связи двух случайных величин
- •2.4.7. Индекс множественной корреляции
- •2.5. Коэффициент ранговой корреляции
- •Глава III. Множественный регрессионный анализ
- •3.1. Постановка задачи
- •3.2. Метод наименьших квадратов (мнк) в скалярной форме
- •3.3. Матричная форма метода наименьших квадратов.
- •3.3.1.Уравнение наблюдений в матричной форме
- •3.3.2.Нормальные уравнения регрессии и формула для параметров уравнения
- •3.4. Предпосылки метода наименьших квадратов
- •3.5. Свойства оценок, получаемых по методу наименьших квадратов
- •3.6. Оценка адекватности уравнения регрессии (проверка гипотез о предпосылках метода наименьших квадратов)
- •3.6.1.Гипотеза о близости к нулю математического ожидания остатков
- •3.6.2. Гипотеза о статистической значимости коэффициентов регрессии bj
- •3.6.3. Гипотеза о статистической значимости всего уравнения регрессии в целом
- •3.6.4. Оценка качества уравнения регрессии
- •3.6.5. Скорректированный коэффициент детерминации
- •3.6.6. Проверка гипотезы о чисто случайном характере остатков
- •3.6.7. Проверка гипотезы о нормальном законе распределения остатков
- •3.7. Точечный прогноз и оценка доверительных интервалов прогноза
- •3.8. Оценка погрешностей расчета по уравнению регрессии
- •3.9. Коэффициент эластичности, бета-коэффициент и дельта-коэффициент для линейного уравнения регрессии
- •Глава IV. Временные ряды
- •4.1. Понятие о временных рядах, их классификация
- •4.2. Компонентный анализ временных рядов
- •4.3. Понятие случайного процесса
- •4.4. Понятие о коэффициенте корреляции во временном ряде. Автокорреляционная функция (акф)
- •4.5. Выборочная оценка коэффициента автокорреляции для числа степеней свободы
- •4.6. Частный коэффициент автокорреляции
- •4.7. Предварительный анализ временных рядов
- •4.8. Авторегрессионные модели.
- •Ar(p) – порядка p
- •4.9. Авторегрессионная модель скользящей средней
- •4.10. Разностные уравнения с лаговыми пременными
- •4.11. Оценка коэффициентов авторегрессионных моделей.
- •4.12. Прогнозирование по разностной авторегрессионной модели
- •Глава V. Некоторые вопросы практического построения регрессионных моделей
- •5.1.Проблема спецификации переменных. Мультиколлинеарность
- •5.2.Способы устранения мультиколлинеарности
- •5.3. Метод пошаговой регрессии (конструктивный метод)
- •5.4. Деструктивный подход (“расщепления”) мультиколлинеарных пар
- •5.5.Случай нелинейных координатных функций
- •5.5.1.Формальная замена переменных
- •5.5.2. Специальное преобразование
- •5.6. Линейные уравнения регрессии с переменной структурой. Фиктивные переменные
- •5.7. Способ устранения коррелированности регрессоров с остатками с помощью инструментальных переменных
- •5.8. Двухшаговый метод наименьших квадратов
- •Литература
4.10. Разностные уравнения с лаговыми пременными
Назначение: Если классическое уравнение регрессии (УР) оказалось неадекватным (например, имеет место смещенность остатков M[ei]¹0, их автокорреляция, гетероскедантичность), то целесообразно построение разностной авторегрессионной модели.
Структура уравнения регрессии: В левой части уравнения регрессии стоит аппроксимируемая величина Z(d) – разность порядка d, а в правой части линейная комбинация лаговых переменных порядка p, аппроксимирующая эту разность Z(d):
(4.10)
Пример для разности
первого порядка
Для практического построения разностной автореррессионной модели необходимо провести идентификацию модели, т.е. выбрать оптимальные с точки зрения адекватности и качества модели значения порядка разности d* и порядка уравнения регрессии (числа лаговых переменных) р*.
Может быть использован следующий алгоритм:
(4.11.а)
(4.11.б)
В алгоритме
(4.11.а)оптимальное значение порядка
разностей d*
находится из условия минимизации
дисперсий D(Z(d))
разностей порядка d(d=var),
которые для каждого порядка d
вычисляются
по всем наблюдениям
.
Обычно на практике
достаточно взять d=
1,2,3, т.е. ограничиться разностями третьего
порядка.
В алгоритме (4.11.б) порядок p* регрессионного полинома (4.10) находиться из условия максимизации коэффициента автокорреляции r(p) при вариации p=1,2,3,… .
4.11. Оценка коэффициентов авторегрессионных моделей.
В структуру
разностной авторегрессии оцениваемые
коэффициенты модели
входят линейным
образом, поэтому применим классический
метод наименьших квадратов:
(4.12)
- вектор наблюдений
зависимой переменной.
4.12. Прогнозирование по разностной авторегрессионной модели
Прогнозирование осуществляется как в обычном линейном уравнении регрессии. После получения точечного и интервального прогноза следует вернуться от разностей к зависимой переменной Yt по формулам связи разностей с Yt. Например, для разностей первого порядка получим соотношение:
(4.13)
Глава V. Некоторые вопросы практического построения регрессионных моделей
5.1.Проблема спецификации переменных. Мультиколлинеарность
Мультиколлениарность
– это линейная взаимосвязь двух любых
регрессоров Xj
и Xk
, (j,
k
=
),
что является нарушением предпосылки
7 метода наименьших квадратов.
Здесь может быть два случая:
а) Два любых фактора имеют между собой линейную функциональную (детерминированную) связь
xj=a+bxk. (5.1)
В этом случае
соответствующий вектор-столбцы в базе
данных xij
, (
)
и xik,
(
)
оказываются строго линейно – зависимыми
и определитель матрицы нормальных
уравнений равен нулю:
(5.2)
Значит матрица
необратима и
оценить параметры уравнения регрессии
по методу наименьших квадратов невозможно.
б) Линейная связь
(5.1) стохастическая (скрытная). Однако
она может быть выявлена путем вычисления
коэффициента линейной парной корреляции
.
Если критерии Стьюдента
значим, то
стохастическая линейная взаимосвязь
есть!
Следствия мультиколленеарности:
1). Матрица
нормальных уравнений формально обратима,
но плохо обусловлена (её определитель
очень мал, и тем меньше, чем сильнее
взаимосвязь хj
и xk).
При большой размерности этой матрицы
(десятки и сотни регрессоров) возникают
вычислительные проблемы ее обращения.
2) Если все же удалось построить уравнение регрессии с сохранением в нем мультиколлинеарных факторов, уравнение регрессии, как правило имеет плохое качество:
Модель, как правило, неадекватна;
Имеют место большие среднеквадратичные отклонения оцениваемых параметров ;
Оценки неустойчивы по вариации исходных данных;
Данные моделирования трудноинтерпретируемы.