Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЭКОНОМЕТРИКА(Горбатков).doc
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
1.15 Mб
Скачать

5.7. Способ устранения коррелированности регрессоров с остатками с помощью инструментальных переменных

Пусть имеется база данных . Здесь – вектор инструментальных переменных. Пусть выявлена коррелированность с остатками е. Уравнение регрессии дает несостоятельные оценки параметров . Причем – это регрессоры, не коррелированные с остатками (инструментальные переменные) [5].

Идея метода инструментальных переменных: следует подобрать новые инструментальные переменные , которые бы имели сильную корреляцию с и не коррелировали с остатками е.

При этом в качестве { } могут выступать те регрессоры из числа { }, которые не коррелируют с E, а также другие величины.

Обычно число компонент вектора больше , чем . Например, в тесте Уайта при этих переменных коэффициенты незначимы.

Далее, исходные регрессоры аппроксимируются через инструментальные независимые переменные и тем самым “очищаются” от коррелированности с остатками E. Здесь применяется метод наименьших квадратов (первый шаг). Оценки получаются состоятельными.

Переменные , аппроксимированные линейными функциями от инструментальных переменных Zk, называется очищенными (от коррелированности с остатками E) или новыми инструментальными переменными.

В силу линейности всех связей можно связать полученные в итоге состоятельные оценки с Y через исходные регрессоры . Так мы приходим к алгоритму метода наименьших квадратов.

5.8. Двухшаговый метод наименьших квадратов

1. Исходные (неочищенные) регрессоры Хj аппроксимируются с помощью линейных уравнений регрессии в функции от выбранных инструментальных переменных {Zk}, .

(5.6)

Получаем m линейных уравнений, причем, независимых друг от друга (метод наименьших квадратов применяется m - раз). Используется классический метод наименьших квадратов. Здесь { } - матрица искомых коэффициентов; j - номер строки этой матрицы, равный номеру исходного регрессора xj; k – номер члена в (5.6), равный номеру инструментальной переменной Zk. Другими словами классический метод наименьших квадратов используется поочередно для каждого xj .

Замечание. В силу некоррелированности инструментальных переменных Zk с остатками E эти оценки получаются состоятельными:

(5.7)

(5.8)

N – число опытов; i – номер опыта;

Z – матрица планирования эксперимента, где базисные функции – линейные функции от Zk.

Замечание: переменные не коррелируют с ошибками регрессии , поскольку они выражаются в виде линейной комбинации некоррелирующих с E переменных {Zk}.

2. Будем рассматривать { } как новые инструментальные переменные для Y и аппроксимируем Y через них.

(5.9)

; где q - число исходных результативных переменных.

Вектор коэффициентов для каждой фиксированной компоненты оцениваем снова с помощью классического метода наименьших квадратов:

Всего получается таких l формул метода наименьших квадратов вида (5.9).

3. Поскольку все преобразования линейны, то подставляя (5.9) в (5.8) сучетом (5.6) получим выражение оценки двухшагового метода наименьших квадратов через исходные (а значит экономически интерпретируемые) инструментальные переменные Zj

(5.10)

Оценки [bjq] – состоятельные

Замечание: Для нелинейного МУР применимость 2х – шаговой процедуры сохраняется, однако связь с получается уже численная. Следовательно, нужно сделать преобразование переменных перед применением 2х шагового метода наименьших квадратов

Пример:

Вводим

Далее 2х –шаговую процедуру можно применять по стандартной схеме к (5.6) – (5.10).