Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЭКОНОМЕТРИКА. Готовые билеты.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
4.2 Mб
Скачать
  1. Линейно-вероятностная модель (lpm-Linear Probability Model)

Вектор бинарных (индикаторных) переменных: Y = (y1, y2, y3,… yi, … yn)

i-я строка матрицы регрессоров: xi = (xi1, xi2, …, xij, …, xik)

Вектор столбец случайных возмущений: ε = (ε1, …, εi, …, εn)T

Вектор столбец параметров модели: β = (β1, β2, …, βk)T

n – объём выборки, k – число параметров

yi=xi* β + εi

i = 1, ..., n

Первая предпосылка Гаусса-Маркова:

E{ εi } = 0

Самым серьезным недостатком линейной модели вероятности является факт, что прогнозные значения могут лежать вне отрезка [0,1] что не поддается разумной интерпретации. Это обстоятельств существенно ограничивает область применения линейной модели вероятности. Ее целесообразно использовать при большом числе наблюдений и при достаточно точной спецификации модели, а также как инструмент первичной обработки данных для сравнения с результатами, получаемыми более тонким методами.

  1. Пробит- модель. В пробит-модели в качестве F используется интегральная функция стандартного нормального распределения:

P(yt = l) = F(x'tβ)

  1. Логит- модель. В пробит-модели в качестве F используется функция логистического распределения:

P(yt = l) = eu/ (1+ eu)

Оценка обычно производится методом максимального правдоподобия.

Матричная форма: Y = Xβ + ε

Условия Гаусса-Маркова: E{ εit} = 0 Сεε = σ2 * In

Алгоритм ММП

1. Формируются: функция максимального правдоподобия L, логарифмическая функция максимального правдоподобия Ln L

2. Составляются уравнения правдоподобия

3. Анализируется знак второй производной

Логарифмическая функция правдоподобия (ЛФП)

Частные производные первого порядка от ЛФП

ММП-оценки параметров

Уравнение правдоподобия является системой нелинейных (относительно β) уравнений, в общем случае нельзя найти аналитического решения и приходится прибегать к численным методам.

27. Мультиколлинеарность и методы ее устранения

Мультиколлинеарность – это коррелированность двух или нескольких объясняющих переменных в уравнении регрессии. Оценка коэффициента уравнения регрессии может оказаться незначимой не только из-за несущественности данного фактора, но и из-за того, что трудно разграничить воздействие на завершающую переменную 2-х или нескольких факторов.

МЕТОДЫ УСТРАНЕНИЯ:

Исключение переменной(ых) из модели

Например, при исследовании спроса на некоторое благо в качестве объясняющих переменных можно использовать цену данного блага и цены заменителей данного блага, которые зачастую коррелируют друг с другом. Исключив из модели цены заменителей, мы, скорее всего, допустим ошибку спецификации. Вследствие этого возможно получение смещенных оценок и осуществление необоснованных выводов. В прикладных эконометрических моделях желательно не исключать объясняющие переменные до тех пор, пока коллинеарность не станет серьезной проблемой.

Получение дополнительных данных или новой выборки

Иногда достаточно увеличить объем выборки. Например, при использовании ежегодных данных можно перейти к поквартальным данным. Увеличение количества данных сокращает дисперсии коэффициентов регрессии и тем самым увеличивает их статистическую значимость. Однако получение новой выборки или расширение старой не всегда возможно или связано с серьезными издержками. Кроме того, данный подход может усилить автокорреляцию. Эти проблемы ограничивают возможность использования данного метода.

Изменение спецификации модели

В ряде случаев проблема мультиколлинеарности может быть решена изменением спецификации модели: либо изменением формы модели, либо добавлением объясняющих переменных, которые не учтены в первоначальной модели, но существенно влияющие на зависимую переменную.

Использование предварительной информации о некоторых параметрах

Иногда при построении модели множественной регрессии можно воспользоваться некоторой предварительной информацией, в частности, известными значениями некоторых коэффициентов регрессии. Вполне вероятно, что значения коэффициентов, полученные для каких-либо предварительных (обычно более простых) моделей, либо для аналогичной модели по ранее полученной выборке, могут быть использованы для разрабатываемой в данный момент модели.

Для иллюстрации приведем следующий пример. Строится регрессия. Предположим, что переменные х1 и х2 коррелированы. Для ранее построенной модели парной регрессии Y = γ0 + γ1х1+υ был определен статистически значимый коэффициент γ1 (для определенности пусть γ1 = 0.8), связывающий Y с х1. Если есть основания думать, что связь между Y и х1 останется неизменной, то можно положить γ1 = β1 = 0.8. Тогда:

Y = β0 + 0.8х1 + β2х2 + ε. ⇒ Y – 0.8х1 = β0 + β2х2 + ε.

Уравнение фактически является уравнением парной регрессии, для которого проблема мультиколлинеарности не существует.

Ограниченность использования данного метода обусловлена:

  • получение предварительной информации зачастую затруднительно,

  • вероятность того, что выделенный коэффициент регрессии будет одним и тем же для различных моделей, не высока.

Преобразование переменных

В ряде случаев минимизировать либо вообще устранить проблему мультиколлинеарности можно с помощью преобразования переменных.

Например, пусть эмпирическое уравнение регрессии имеет вид Y = b0 + b1х1 + b2х2

причем X1 и X2 − коррелированные переменные. В этой ситуации можно попытаться определять регрессионные зависимости относительных величин. Вполне вероятно, что в аналогичных моделях, проблема мультиколлинеарности будет отсутствовать.