Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Shpory_EM_polnaya.doc
Скачиваний:
1
Добавлен:
01.03.2025
Размер:
7.83 Mб
Скачать
  1. Оценивание линейной модели с автокоррелированным остатком ar(1) алгоритмом Хильдретта – Лу.

Запишем функцию регрессии в компактном виде:

(1)

При значении переменно времени t-1 это уравнение выглядит так:

(2)

Умножим (2) на и вычтем (1), получим трансформированную модель:

(3)

Если бы константа была известна, то эта модель была бы линейной моделью множественной регрессии, в рамках которой все предпосылки теоремы Гаусса-Маркова справедливы.

Однако неизвестная константа, значение которой принадлежит промежутку .

Алгоритм определения параметров модели ( ) нелинейным методом наименьших квадратов:

  1. Задаться в промежутке набором пробных значений по правилу , где N – некоторое натуральное число.

  2. При каждом значении составить в рамках модели (3) систему уравнений наблюдений:

и вычислить на основании этой системы МНК-оценки:

  1. Выбрать из множества пробных значений такую величину при которой имеет место экстремум

Выбранные величины и будут искомыми оценками параметров .

  1. Проблема, симптомы мультиколлинеарности. Методика отбора регрессоров в линейной модели в ситуации мультиколлинеарности.

Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью. Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полностью независимой, и нельзя оценить воздействие каждого фактора в отдельности.

Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов (МНК).

Включение в модель мультиколлинеарных факторов нежелательно по следующим причинам:

  • затрудняется интерпретация параметров множественной регрессии;

  • параметры линейной регрессии теряют экономический смысл;

  • оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюде­ний, что делает модель непригодной для анализа и прогнозирования

Симптомы:

  1. резкое изменение значений оценок модели при незначительной вариации состава обучающей выборки;

  2. наличие в оцененной модели небольших по модулю значений при достаточно высоком значении коэф-та детерминации;

  3. большое значение коэф-та детерминации между каждой объясняющей пер-ой линейной модели и ее остальными объясняющими пер-ми.

Поэтому, если в модели возникла ситуация мултиколлинеарности, то из состава объясняющих пер-х модели следует вывести дублирующие друг друга пер-е.

Решению проблемы устранения мультиколлинеарности факторов может помочь и переход к уравнениям приведенной формы. С этой целью в уравнение регрессии производится подстановка рассматриваемого фактора через выражение его из другого уравнения.

Метод главных компонент применяется для исключения или уменьшения мультиколлинеарности объясняющих переменных регрессии. Основная идея заключается в сокращении числа объясняющих переменных до наиболее существенно влияющих факторов. Это достигается путем линейного преобразования всех объясняющих переменных xi (i=0,..,n) в новые переменные, так называемые главные компоненты. При этом требуется, чтобы выделению первой главной компоненты соответствовал максимум общей дисперсии всех объясняющих переменных xi (i=0,..,n). Второй компоненте — максимум оставшейся дисперсии, после того как влияние первой главной компоненты исключается и т. д.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]