
- •Глава I. Основные аспекты эконометрического моделирования
- •Глава II. Корреляционный анализ
- •Глава III. Множественный регрессионный анализ
- •Глава IV. Временные ряды
- •Глава V. Некоторые вопросы практического построения регрессионных моделей
- •Глава VI. Практическое применение (на примере разбора
- •Введение Определение эконометрики
- •Значение эконометрики в экономике
- •Задачи эконометрики
- •Глава I. Основные аспекты эконометрического
- •1.1. Понятие о модели, системе
- •1.2. Адекватность модели
- •1.3. Модель типа черного ящика
- •1.4. Основная предпосылка эконометрического анализа
- •1.5. Построение параметрической регрессионной модели
- •1.6. Классификация эконометрии.
- •1.6.1. По структуре уравнений регрессии
- •1.6.2. По способу учета динамики:
- •1.6.3. По виду связи между .
- •1.6.4. По алгоритму оценки параметров модели.
- •1.7. Типы данных
- •1.7.1. Данные пространственного типа
- •1.7.2. Временной (динамический) ряд
- •1.8. Этапы построения эконометрической модели
- •Глава II. Корреляционный анализ
- •2.1. Цель корреляционного анализа
- •2.2. Числовые меры корреляционной связи
- •2.2.1. Ковариация
- •2.2.2. Выборочная оценка коэффициента линейной парной корреляции
- •2.2.3. Математический смысл коэффициента линейной парной корреляции
- •2.2.4. Статистический смысл коэффициента линейной парной корреляции
- •2.2.5. Геометрическая интерпретация коэффициента корреляции
- •2.3. Проверка статистической значимости коэффициента корреляции
- •2.4. Множественный корреляционный анализ
- •2.4.1. Корреляционная матрица
- •2.4.2. Выборочный коэффициент множественной корреляции
- •2.4.3. Частный коэффициент корреляции
- •2.4.4. Коэффициент детерминации
- •2.4.5. Оценка значимости множественного коэффициента детерминации
- •2.4.6. Индекс корреляции при нелинейной связи двух случайных величин
- •2.4.7. Индекс множественной корреляции
- •2.5. Коэффициент ранговой корреляции
- •Глава III. Множественный регрессионный анализ
- •3.1. Постановка задачи
- •3.2. Метод наименьших квадратов (мнк) в скалярной форме
- •3.3. Матричная форма метода наименьших квадратов.
- •3.3.1.Уравнение наблюдений в матричной форме
- •3.3.2.Нормальные уравнения регрессии и формула для параметров уравнения
- •3.4. Предпосылки метода наименьших квадратов
- •3.5. Свойства оценок, получаемых по методу наименьших квадратов
- •3.6. Оценка адекватности уравнения регрессии (проверка гипотез о предпосылках метода наименьших квадратов)
- •3.6.1.Гипотеза о близости к нулю математического ожидания остатков
- •3.6.2. Гипотеза о статистической значимости коэффициентов регрессии bj
- •3.6.3. Гипотеза о статистической значимости всего уравнения регрессии в целом
- •3.6.4. Оценка качества уравнения регрессии
- •3.6.5. Скорректированный коэффициент детерминации
- •3.6.6. Проверка гипотезы о чисто случайном характере остатков
- •3.6.7. Проверка гипотезы о нормальном законе распределения остатков
- •3.7. Точечный прогноз и оценка доверительных интервалов прогноза
- •3.8. Оценка погрешностей расчета по уравнению регрессии
- •3.9. Коэффициент эластичности, бета-коэффициент и дельта-коэффициент для линейного уравнения регрессии
- •Глава IV. Временные ряды
- •4.2. Компонентный анализ временных рядов
- •4.3. Понятие случайного процесса
- •4.4. Понятие о коэффициенте корреляции во временном ряде (акф)
- •4.5. Выборочная оценка коэффициента автокорреляции для числа степеней свободы
- •4.6. Частный коэффициент автокорреляции.
- •4.7. Сглаживание временных рядов
- •4.8. Авторегрессионные модели.
- •Ar(p) – порядка p.
- •4.9. Авторегрессионная модель скользящей средней.
- •4.10. Разностные уравнения с лаговыми пременными
- •4.11. Оценка коэффициентов регрессии.
- •4.12. Прогнозирование по разностной авторегрессионной модели.
- •Глава IV. Некоторые вопросы практического построения регрессионных моделей
- •5.1.Проблема спецификации переменных. Мультиколлинеарность
- •5.2.Способы устранения мультиколлинеарности
- •5.3. Метод пошаговой регрессии (конструктивный метод)
- •5.4. Деструктивный подход (“расщепления”) мультиколлинеарных пар
- •5.5.Случай нелинейных координатных функций
- •5.5.1.Формальная замена переменных
- •5.5.2. Специальное преобразование
- •5.6. Линейные уравнения регрессии с переменной структурой Фиктивные переменные
- •5.7. Способ устранения коррелированности регрессоров с остатками с помощью инструментальных переменных
- •5.8. Двух шаговый метод наименьших квадратов
- •5.9. Обобщенный метод наименьших квадратов
- •5.10. Трех шаговый метод наименьших квадратов
- •Глава VI. Практическое применение (на примере разбора лабораторной и курсовой работы) Литература
5.2.Способы устранения мультиколлинеарности
1) Выявление мультиколлинеарных пар, и их исключения (фильтрация регрессоров).
Проводиться коэффициент автокорреляции, т.е вычисляется корреляционная матрица K. По критерию Стьюдента tT проверяется значимость её элементов {Tij}. В выявленных мултаколлинеарных – парах оставляется в модели тот регрессор, который теснее связан с Y, а другой отбрасывается.
2) Метод пошаговой регрессии
5.3. Метод пошаговой регрессии (конструктивный метод)
Идея состоит в пошаговом алгоритме построения мультиколленеарных уравнений регрессии. При этом на каждом очередном шаге вводится еще одна независимая переменная.
Для ЛУМР:
-
одна объясненная переменная
– – – – – – – – – – – –
Процедура введения новых переменных продолжается до тех пор, пока будет (стабилизируется) скорректированный (адаптированный) коэффициент детерминации:
Заметим, что в
данном алгоритме контроль отсутствия
(или слабого проявления мультиколленеарности)
реализуется косвенно. Если при введении
нового регрессора скорректированный
коэффициент детерминации
растет, причем
то
это признак повышения качества модели.
При наличии мультиколленеарности
качество уравнения регрессии не
улучшилось бы!
5.4. Деструктивный подход (“расщепления”) мультиколлинеарных пар
Алгоритм следующий:
1. Вводятся все регрессоры по итогам обработки экспертных оценок.
2. Проводится корреляционный анализ и вычисляется корреляционная матрица К.
3. Выявляются мультиколлинеарные пары, для которых критерий Стьюдента значим:
4. В модели оставляется
та переменная из мультиколлинеарной
пары
,
которая теснее связана с Y,
а другая отбрасывается.
5.5.Случай нелинейных координатных функций
5.5.1.Формальная замена переменных
Пусть
- нелинейные
функции. Модель линейна по параметрам
и нелинейна по
.
(5.3)
Сделаем замену переменных
(5.4)
Получаем исходный случай метода наименьших квадратов.
После нахождения
,
делается возврат к старым переменным.
5.5.2. Специальное преобразование
Пример:
Эта модель нелинейна, как по искомым параметрам, так и по входным факторам. Требуется уже не просто замена переменных, а специальное преобразование переменных.
5.6. Линейные уравнения регрессии с переменной структурой Фиктивные переменные
При наличии качественных переменных имеем неоднородную структуру данных.
а) Построение разных (отдельных) моделей для каждого уровня качественной переменной.
б) Введение в уравнение регрессии качественных переменных. Они называются также фиктивными, номинальными, нечисловыми, структурными, “манекенами” (dummy variabls) и присвоение градациям этих переменных “цифровых меток”.
Возможные подходы при кодировке:
1. Введение булевых (бинарных, дихотомических переменных)
Например: “признак 1” – есть высшее образование;
“признак 2” – нет высшего образования.
Случай нескольких градаций качественного признака. Если качественный признак имеет несколько уровней.
Возможны два подхода:
1.Ввести дискретную переменную, имеющую столько же уровней, сколько признаков.
2.Ввести несколько бинарных переменных.
В примере с образованием (начальное, среднее, высшее): Хj = (1; 2; 3;)
Однако такие данные трудно содержательно интерпретировать.
Действительно, приписываемые цифровые метки (1; 2; 3;) никак не связаны ни с экспертными оценками, ни с закономерностями исследуемого объекта. Такое кодирование вносит в уравнение регрессии искусственные связи. В частности, качественный признак “образование” может оказаться на порядок более значимым (или менее значимым) по сравнению с другими факторами в зависимости от цифр кода.
Поэтому предпочтительнее способ 2, т.е. введение нескольких бинарных переменных.
Правило: Число бинарных переменных должно быть на 1 меньше, чем число градаций качественного признака.
Поясним это на примере с качественным признаком “образование”. Число градаций 3, значит достаточно ввести две бинарные переменные.
Если образование среднее, то автоматически оно не начальное.
Если начальное, то это отражено парой {Z1=0; Z2=0}.
Если ввести третью бинарную переменную
–
возникает “логическая
ловушка”.
Если сумма значений фиктивный переменных, включенных в регрессию, равна постоянному числу (например: 1) в любой i–ой строке, то качественный признак будет неразличим в уравнение регрессии, т.е. его оценка будет смешана со свободным членом.
Поясним это утверждение.
Пусть качественный признак отражен тремя градациями и, соответственно закодирован тремя бинарными (двоичными) переменными Z1, Z2, Z3.
Тогда их сумма равна:
Zi = Z1+ Z2+ Z3 Z3=1
в любой i
– ой строке матрицы планирования Х.
Возникает функциональная мультиколлинеарность,
т.е. мультиколлинеарность состоит в
линейной зависимости первого столбца
для
с
вектор – столбцами для
,
а именно: первый столбец равен сумме
столбцов для качественных переменных.
и метод наименьших квадратов неприменим.
Сложные модели с влиянием качественных переменных на параметры :
Замечание 3: Возможны смешанные уравнения регрессии с фиктивными переменными.
( )
Пример:
- потребление продукта.
Х – доход
Z1 – сезонность (влияние на свободный член)
Z2 – уровень доходности домашнего хозяйства влияют на b1 при Х (склонность к потреблению).