Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпоры эконометрика.docx
Скачиваний:
3
Добавлен:
01.04.2025
Размер:
3.79 Mб
Скачать
  1. Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов Делить большие остатки

Гетероскедастичность приводит к неэффективности оценок несмотря на их несмещенность. Это может привести к необоснованным выводам по качеству модели. Поэтому при установлении гетеро-сти возникает необходимость преобразования модели с целью устранения данного недостатка. Вид преобразования зависит от того, известны или нет дисперсии отклонений случайных возмущений. Если такие дисперсии известны, применяется метод взвешенных наименьших квадратов (ВНК).

Опишем метод ВНК на примере парной регрессии:

Разделим обе части на известное СКО

Перейдем к новым переменным:

При этом для vi выполняется условие гомоскедастичности

Так как по первой предпосылки МНК ,то

(только помоему вместо уi^2 должно быть дисперсия на которую делили? Не уверена)

То есть выполняются все предпосылки МНК, то есть все полученные оценки будут наилучшими линейными несмещенными оценками.

Для определения дисперсии остатков на которую делим все уравнение изначально:. Суть методов коррекции гетероскедастичности состоит в определении оценки ковариационной матрицы случайных ошибок модели регрессии:

Для определения оценок используется метод Бреуше-Пайана, который реализуется в несколько этапов:

1) после получения оценок неизвестных коэффициентов модели регрессии рассчитывают остатки ei и показатель суммы квадратов остатков 2) рассчитывают оценку дисперсии остатков модели регрессии по формуле: 3) строят взвешенную модель регрессия, где весами являются оценка дисперсии остатков модели регрессии 4) если при проверке гипотез взвешенная модель регрессии является незначимой, то можно сделать вывод, что оценки матрицы ковариаций Ω являются неточными. Если вычислены оценки дисперсий остатков модели регрессии, то в этом случае можно использовать доступный обобщённый или взвешенный методы наименьших квадратов для вычисления оценок коэффициентов модели регрессии, которые отличаются только оценкой

(моно не писать второй способ )Если гетероскедастичность остатков не поддаётся корректировке, то можно рассчитать оценки неизвестных коэффициентов модели регрессии с помощью классического метода наименьших квадратов, но затем подвергнуть корректировке ковариационную матрицу оценок коэффициентов т. к. условие гетероскедастичности приводит к увеличению данной матрицы.

Ковариационная матрица оценок коэффициентов может быть скорректирована методом Уайта:

где N – количество наблюдений;X – матрица независимых переменных; – квадрат остатков модели регрессии; – транспонированная i-тая строка матрицы данных Х.

Корректировка ковариационной матрицы оценок коэффициентов методом Уайта приводит к изменению t-статистики и доверительных интервалов для коэффициентов регрессии.

Модели с бинарными фиктивными переменными

Термин “фиктивные переменные” используется как противоположность “значащим” переменным, показывающим уровень количественного показателя, принимающего значения из непрерывного интервала. Как правило, фиктивная переменная — это индикаторная переменная, отражающая качественную характеристику. Чаще всего применяются бинарные фиктивные переменные, принимающие два значения, 0 и 1, в зависимости от определенного условия. Например, в результате опроса группы людей 0 может означать, что опрашиваемый - мужчина, а 1 - женщина.

К фиктивным переменным иногда относят регрессор, состоящий из одних единиц (т.е. константу, свободный член), а также временной тренд.

Фиктивные переменные, будучи экзогенными, не создают каких-либо трудностей при применении ОМНК. Фиктивные переменные являются эффективным инструментом построения регрессионных моделей и проверки гипотез.

Иногда возникает необходимость включения в модель фактор, имеющий два или более качественных уровней. Это могут быть разного рода атрибутивные признаки, такие, например, как профессия, пол, образование, климатические условия, принадлежность к определенному региону. Для того чтобы ввести такие переменные в регрессионную модель, им должны быть присвоены те или иные цифровые метки, т. е. качественные переменные необходимо преобразовать в количественные. Такого вида сконструированные переменные в эконометрике принято называть фиктивными переменными.

Моделью бинарного выбора называется модель регрессии, в которой результативная переменная может принимать только узкий круг заранее заданных значений

В качестве примеров бинарных результативных переменных можно привести:

Приведенные в качестве примеров бинарные переменные являются дискретными величинами. Бинарная непрерывная величина задаётся следующим образом:

Если стоит задача построения модели регрессии, включающей результативную бинарную переменную, то прогнозные значения yiпрогноз, полученные с помощью данной модели, будут выходить за пределы интервала [0;+1] и не будут поддаваться интерпретации. В этом случае задача построения модели регрессии формулируется не как предсказание конкретных значений бинарной переменной, а как предсказание непрерывной переменной, значения которой заключаются в интервале [0;+1].

Решением данной задачи будет являться кривая, удовлетворяющая следующим трём свойствам:

1) 1)    F(–∞)=0; 2) F(+∞)=1; 3) F(x1)>F(x2) при условии, чтоx1> x2.

Данным трём свойствам удовлетворяет функция распределения вероятности.

Модель парной регрессии с результативной бинарной переменной с помощью функции распределения вероятности можно представить в следующем виде:

prob(yi=1)=F(β0+β1xi), где prob(yi=1) – это вероятность того, что результативная переменная yi примет значение, равное единице.

В этом случае прогнозные значения yiпрогноз, полученные с помощью данной модели, будут лежать в пределах интервала [0;+1].

Модель бинарного выбора может быть представлена с помощью скрытой или латентной переменной следующим образом:

Векторная форма модели бинарного выбора с латентной переменной:

В данном случае результативная бинарная переменная yi принимает значения в зависимости от латентной переменной yi*:

Модель бинарного выбора называется пробит-моделью или пробит-регрессией (probit regression), если она удовлетворяет двум условиям:

1) остатки модели бинарного выбора εi являются случайными нормально распределёнными величинами; 2) функция распределения вероятностей является нормальной вероятностной функцией.

Пробит-регрессия может быть представлена с помощью выражения:

NP(yi)=NP(β0+β1x1i+…+βkxki),

где NP – это нормальная вероятность (normal probability).

Модель бинарного выбора называется логит-моделью или логит-регрессией (logit regression), если случайные остатки εi подчиняются логистическому закону распределения.

Логит-регрессия может быть представлена с помощью выражения:

Данная модель логит-регрессии характеризуется тем, что при любых значениях факторных переменных и коэффициентов регрессии, значения результативной переменной yi будут всегда лежать в интервале [0;+1].

Обобщённый вид модели логит-регрессии:

Достоинством данной модели является то, что результативная переменная yi может произвольно меняться внутри заданного числового интервала (не только от нуля до плюс единицы).

Логит-регрессия относится к классу функций, которые можно привести к линейному виду. Это осуществляется с помощью преобразования, носящего название логистического или логит преобразования, которое можно проиллюстрировать на примере преобразования обычной вероятности р:

Качество построенной логит-регрессии или пробит-регрессии характеризуется с помощью псевдо коэффициента детерминации, который рассчитывается по формуле:

Если значение данного коэффициента близко к единице, то модель регрессии считается адекватной реальным данным.

28) Теорема Гаусса – Маркова К.73 Функция регрессии как оптимальный прогноз

Пусть матрица X уравнений наблюдений имеет размер n*(k+1), где n>k+1 , n – число уравнений наблюдений, k+1 – количество неизвестных коэффициентов;

функции регрессии моделии обладает линейно-независимыми столбцами, а случайные возмущения удовлетворяют четырем условиям:

Cov(ui,uj)=0, i≠j

Cov(xmi,uj)=0 при всех значениях m,i,j

Тогда:

а) наилучшая линейная процедура (13), приводящая к несмещенной и эффективной оценке (11), имеет вид:

(22)

б) линейная несмещенная эффективная оценка (22) обладает св-вом наименьших квадратов: (23)

в) ковариационная матрица оценки (22) вычисляется по правилу:

(24)

г) несмещенная оценка параметра σ2 модели нах-ся по формуле:

(25)

Функция регрессии как оптимальный прогноз

Имеем оценку линейной модели множественной регрессии

Параметры модели получены по выборке {y,X} и предполагаем, что все предпосылки теоремы Гаусса-Маркова выполнены

Обозначим символом z0 «точку», в котрой необходтмо вычислить прогнозное значение эндогенной переменной

Это значение обозначим y(z0)=y0

При этом:

Точечный прогноз

Согласно теореме Гаусса – Маркова наилучший точечный прогноз эндогенной переменной вычисляется по формуле:

Стандартная ошибка прогноза (СКО) есть

Интервальное прогнозирование

В отличие от точечного метода прогнозирования интервальный позволяет в качестве прогноза получить числовой интервал, внутри которого может лежать прогнозное значение эндогенной переменной

Для построения такого прогноза образуется дробь Стьюдента в виде:

Знаем, что в схеме Гаусса-Маркова дробь имеет закон распределения Стьюдента с числом степеней свободы η=n-к-1 где к – количество регрессоров в модели.

З адав уровень доверительной вероятности Рдов (α=1-Рдов), легко оценить границы интервала (y-0:y+0), внутри которого с вероятностью Рдов лежат значения прогноза

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]