
- •Глава I. Основные аспекты эконометрического моделирования
- •Глава II. Корреляционный анализ
- •Глава III. Множественный регрессионный анализ
- •Глава IV. Временные ряды
- •Глава V. Некоторые вопросы практического построения регрессионных моделей
- •Глава VI. Практическое применение (на примере разбора
- •Введение Определение эконометрики
- •Значение эконометрики в экономике
- •Задачи эконометрики
- •Глава I. Основные аспекты эконометрического
- •1.1. Понятие о модели, системе
- •1.2. Адекватность модели
- •1.3. Модель типа черного ящика
- •1.4. Основная предпосылка эконометрического анализа
- •1.5. Построение параметрической регрессионной модели
- •1.6. Классификация эконометрии.
- •1.6.1. По структуре уравнений регрессии
- •1.6.2. По способу учета динамики:
- •1.6.3. По виду связи между .
- •1.6.4. По алгоритму оценки параметров модели.
- •1.7. Типы данных
- •1.7.1. Данные пространственного типа
- •1.7.2. Временной (динамический) ряд
- •1.8. Этапы построения эконометрической модели
- •Глава II. Корреляционный анализ
- •2.1. Цель корреляционного анализа
- •2.2. Числовые меры корреляционной связи
- •2.2.1. Ковариация
- •2.2.2. Выборочная оценка коэффициента линейной парной корреляции
- •2.2.3. Математический смысл коэффициента линейной парной корреляции
- •2.2.4. Статистический смысл коэффициента линейной парной корреляции
- •2.2.5. Геометрическая интерпретация коэффициента корреляции
- •2.3. Проверка статистической значимости коэффициента корреляции
- •2.4. Множественный корреляционный анализ
- •2.4.1. Корреляционная матрица
- •2.4.2. Выборочный коэффициент множественной корреляции
- •2.4.3. Частный коэффициент корреляции
- •2.4.4. Коэффициент детерминации
- •2.4.5. Оценка значимости множественного коэффициента детерминации
- •2.4.6. Индекс корреляции при нелинейной связи двух случайных величин
- •2.4.7. Индекс множественной корреляции
- •2.5. Коэффициент ранговой корреляции
- •Глава III. Множественный регрессионный анализ
- •3.1. Постановка задачи
- •3.2. Метод наименьших квадратов (мнк) в скалярной форме
- •3.3. Матричная форма метода наименьших квадратов.
- •3.3.1.Уравнение наблюдений в матричной форме
- •3.3.2.Нормальные уравнения регрессии и формула для параметров уравнения
- •3.4. Предпосылки метода наименьших квадратов
- •3.5. Свойства оценок, получаемых по методу наименьших квадратов
- •3.6. Оценка адекватности уравнения регрессии (проверка гипотез о предпосылках метода наименьших квадратов)
- •3.6.1.Гипотеза о близости к нулю математического ожидания остатков
- •3.6.2. Гипотеза о статистической значимости коэффициентов регрессии bj
- •3.6.3. Гипотеза о статистической значимости всего уравнения регрессии в целом
- •3.6.4. Оценка качества уравнения регрессии
- •3.6.5. Скорректированный коэффициент детерминации
- •3.6.6. Проверка гипотезы о чисто случайном характере остатков
- •3.6.7. Проверка гипотезы о нормальном законе распределения остатков
- •3.7. Точечный прогноз и оценка доверительных интервалов прогноза
- •3.8. Оценка погрешностей расчета по уравнению регрессии
- •3.9. Коэффициент эластичности, бета-коэффициент и дельта-коэффициент для линейного уравнения регрессии
- •Глава IV. Временные ряды
- •4.2. Компонентный анализ временных рядов
- •4.3. Понятие случайного процесса
- •4.4. Понятие о коэффициенте корреляции во временном ряде (акф)
- •4.5. Выборочная оценка коэффициента автокорреляции для числа степеней свободы
- •4.6. Частный коэффициент автокорреляции.
- •4.7. Сглаживание временных рядов
- •4.8. Авторегрессионные модели.
- •Ar(p) – порядка p.
- •4.9. Авторегрессионная модель скользящей средней.
- •4.10. Разностные уравнения с лаговыми пременными
- •4.11. Оценка коэффициентов регрессии.
- •4.12. Прогнозирование по разностной авторегрессионной модели.
- •Глава IV. Некоторые вопросы практического построения регрессионных моделей
- •5.1.Проблема спецификации переменных. Мультиколлинеарность
- •5.2.Способы устранения мультиколлинеарности
- •5.3. Метод пошаговой регрессии (конструктивный метод)
- •5.4. Деструктивный подход (“расщепления”) мультиколлинеарных пар
- •5.5.Случай нелинейных координатных функций
- •5.5.1.Формальная замена переменных
- •5.5.2. Специальное преобразование
- •5.6. Линейные уравнения регрессии с переменной структурой Фиктивные переменные
- •5.7. Способ устранения коррелированности регрессоров с остатками с помощью инструментальных переменных
- •5.8. Двух шаговый метод наименьших квадратов
- •5.9. Обобщенный метод наименьших квадратов
- •5.10. Трех шаговый метод наименьших квадратов
- •Глава VI. Практическое применение (на примере разбора лабораторной и курсовой работы) Литература
5.7. Способ устранения коррелированности регрессоров с остатками с помощью инструментальных переменных
Пусть имеется база
данных
.
Здесь Z
– вектор инструментальных переменных.
Пусть выявлена коррелированность
с остатками е.
Уравнение регрессии дает несостоятельные
оценки параметров
.
Причем
– это регрессоры, не коррелированные
с остатками (инструментальные переменные).
Идея метода
инструментальных переменных: подобрать
новые инструменты переменные
,
которые бы имели сильную корреляцию с
и не коррелировали с остатками е.
При этом в качестве
{
}
могут выступать те регрессоры из числа
{
},
которые не коррелируют с E,
а также другие величины.
Обычно e > m, т.е. число компонент вектора больше , чем . Например, в тесте Уайта при этих переменных коэффициент незначимы.
Далее, исходные регрессоры аппроксимируются через инструментальные независимые переменные и тем самым “очищаются” от коррелированности с E . здесь применяется метод наименьших квадратов (первый шаг). Оценки получаются состоятельными.
Переменные
,
аппроксимированные линейными функциями
от инструментальных переменных Zk
называется очищенными (от коррелированности
с остатками E)
или новыми инструментальными переменными.
В силу линейности всех связей можно связать полученные в итоге состоятельные оценки с Y через исходные регрессоры . Так мы приходим к алгоритму метода наименьших квадратов.
5.8. Двух шаговый метод наименьших квадратов
1. Исходные
(неочищенные) регрессоры xj
аппроксимируются методом линейных
уравнений регрессии от выбранных
инструментальных переменных {Zk},
.
(
)
Получаем m
ЛУМР, причем, независимых друг от друга
(метод наименьших квадратов применяется
m
- раз). Для этого используется классический
метод наименьших квадратов. Здесь {
}
- матрица искомых коэффициентов; j
- номер строки этой матрицы, равный
номеру исходного регрессора xj;
k
– номер члена в ЛУМР, равный номеру
инструментальной переменной Zk.
Классический метод наименьших квадратов
используется поочередно для каждого
xj
.
Замечание. В силу некоррелированности инструмент. переменная Zk с остатками E эти оценки получаются состоятельными метода наименьших квадратов.
()
()
N – число опытов; i – номер опыта;
Z – матрица планирования эксперимента, где базисные функции – линейные функции от Zk.
Замечание:
переменные
не коррелируют с ошибками регрессии
,
поскольку они выражаются в виде линейной
комбинации некоррелирующих с E
переменных {Zk}.
2. Будем рассматривать { } как новые инструментальные переменные для Y и аппроксимируем Y через них.
(
)
Вектор коэффициентов
для каждой фиксированной компоненты
оцениваем снова с помощью классического
метода наименьших квадратов:
Всего получается
таких l
формул метода наименьших квадратов
вида ( ); т.е.
;
где q
- число исходных результативных
переменных.
3. Поскольку все преобразования линейны, то подставляя ( ) в ( ) получим выражение оценки двухшагового метода наименьших квадратов через исходные (а значит экономически интерпретируемые) инструменты переменной Zj
(
)
Оценки [bjq]состоятельные
Замечание:
Для нелинейного МУР применимость 2х –
шаговой процедуры сохраняется, однако
связь
с
получается уже
численная.
Вывод: Нужно сделать преобразования переменных перед применением 2х шагов метода наименьших квадратов
Пример:
Вводим
Далее 2х –шаговую процедуру можно применять по стандартной схеме к ( )
Второй способ для систем одновременных уравнений (СОУ). Построить НСМ с числом нейронов в выходном слое, равном числу компонентов вектора