
- •12. Линейная модель множественной регрессии
- •13.Экономический смысл коэффициентов линейного и степенного уравнений регрессии
- •14.Нелинейная регрессия. Нелинейные модели и их линеаризация
- •15.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам
- •16.Предпосылки применения метода наименьших квадратов (мнк)
- •17.Оценка параметров парной регрессионной модели методом наименьших квадратов
- •18.Оценка параметров парной регрессионной модели методом наименьших квадратов. Система нормальных уравнений
- •19.Теорема Гаусса - Маркова
- •20.Метод наименьших квадратов (мнк) и смысл выходной статистической информации сервиса Регрессия
- •21.Свойства оценок метода наименьших квадратов (мнк)
- •22.Метод наименьших квадратов (мнк) и его реализация с использованием сервиса “Поиск решения”
- •22.Мнк и его реализация с использованием сервиса «Поиск решений»
- •23.Понятие и причины автокорреляции остатков. Последствия автокорреляции остатков. Обнаружение автокорреляции остатков.
- •24.Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений
- •25.Анализ экономических объектов и прогнозирование с помощью модели множественной регрессии
- •26. Алгоритм теста Дарбина-Уотсона на наличие (отсутствие) автокорреляции случайных возмущений
- •27.Отражение в модели влияния неучтённых факторов. Предпосылки теоремы Гаусса-Маркова.
- •28.Проверка выполнения предпосылок мнк
- •29.Что такое стационарный процесс
- •30.Оценка качества моделей прогнозирования. Оценка точности
- •1) Проверка равенства мат ожидания нулю
- •2)Проверка условий случайности возникновения отдельных отклонений от тренда:
- •3)Проверка независимости(отсутствие автокорреляции)
- •31. Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений
- •32. Проблема мультиколлинеарности в моделях множественной регрессии. Признаки и последствия мультиколлинеарности
- •34. Фиктивные переменные: определение, назначение, типы
- •35. Оценивание линейной модели множественной регрессии (мнк) в Excel.
- •36. Отбор факторов при построении множественной регрессии. Процедура пошагового отбора переменных
- •37. Регрессионные модели с фиктивными переменными
- •38. Порядок оценивания линейной модели множественной регрессии методом наименьших квадратов (мнк) в Excel.
- •39. Фиктивная переменная сдвига: назначение; спецификация
- •40. Принципы спецификации эконометрических моделей
- •41. Основные числовые хар-ки вектора остатков в классической множественной регрессионной модели
- •42. Этапы построения эконометрических моделей
- •43. Применение теста Стьюдента в процедуре подбора переменных в модели множественной регрессии
- •44. Нелинейная модель множественной регрессии Кобба-Дугласа.
- •45. Модели с бинарными фиктивными переменными
- •46.Метод наименьших квадратов: алгоритм метода; условия применения
- •47. Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности.
- •48. Прогноз по временному ряду с сезонными колебаниями
- •50. Модели временных рядов. Свойства рядов цен на бирже
- •51.Матричная форма метода наименьших квадратов.
- •52.Условия идентификации структурной формы системы одновременных уравнений
- •Нелинейная регрессия
- •54. Оценка влияния отдельных факторов на зависимую переменную на основе модели (коэффициенты эластичности, - коэффициенты).
- •55. Оценивание линейной модели множественной регрессии в Excel
- •56. Системы эконометрических уравнений
32. Проблема мультиколлинеарности в моделях множественной регрессии. Признаки и последствия мультиколлинеарности
Множественная регрессия позволяет построить и проверить модель линейной связи между зависимой (эндогенной) и несколькими независимыми (экзогенными) переменными: y = f(x1,...,xр ), где у - зависимая переменная (результативный признак); х1,...,хр - независимые переменные (факторы).
Множественная линейная регрессионная модель имеет вид:
y=a+b1x1+b2x2+…+bpxp+ε
Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям:
1. быть количественно измеримы. При включении качественного фактора нужно придать ему количественную определенность
2. не должны быть коррелированы между собой и тем более и годиться в точной функциональной связи.
Включение в модель факторов с высокой интеркорреляцией, когда ryx1 < rx1x2 может повлечь за собой неустойчивость и ненадежность оценок коэффициентов регрессии.
Поскольку одним из условий построения уравнения множественной регрессии является независимость действия факторов, коллинеарность факторов нарушает это условие. Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами.
Признаки мультиколлинеарности.
1.В модели с двумя переменными одним из признаков мультиколлинеарности является близкое к единице значение коэффициента парной корреляции. Если значение хотя бы одного из коэффициентов парной корреляции больше, чем 0,8, то мультиколлинеарность представляет собой серьезную проблему.
Однако в модели с числом независимых переменных больше двух, парный коэффициент корреляции может принимать небольшое значение даже в случае наличия мультиколлинеарности. В этом случае лучше рассматривать частные коэффициенты корреляции.
2. Для проверки мультиколлинеарности можно рассмотреть детерминант матрицы коэффициентов парной корреляции |r|. Этот детерминант называется детерминантом корреляции |r| ∈(0; 1). Если |r| = 0, то существует полнаямультиколлинеарность. Если |r|=1, то мультиколлинеарность отсутствует. Чем ближе |r| к нулю, тем более вероятно наличие мультиколлинеарности.
3. Если оценки имеют большие стандартные ошибки, невысокую значимость, но модель в целом значима (имеет высокий коэффициент детерминации), то это свидетельствует о наличие мультиколлинеарности.
4. Если введение в модель новой независимой переменной приводит к существенному изменению оценок параметров и небольшому изменению коэффициента детерминации, то новая переменная находится в линейной зависимости от остальных переменных. При построении уравнения множественной регрессии может возникнуть проблема мультиколлинеарности факторов. Мультикол – это явление связано с наличием линейной зависимости между факторами Хj регрессионной модели. Одно из негативных последствий мульти заключается в том, что невозможно определить силу изолированного влияния факторов на объясняемую переменную. При построении множественной регрессии необходимо соблюдение следующего правила: факторы, включаемые в модель, должны быть сильно связаны с зависимой переменной и не должны быть связаны между собой. Мульти присутствует во всех экономических моделях, где все переменные экономических объектов должны быть взаимосвязаны между собой. Иначе экономическая система не будет существовать. Поэтому мульти была, есть и будет, бороться с ней бесполезно, но учитывать ее при построении множественных регрессионных моделей необходимо.
Признаки:
1) Коэффициент детерминации R2 достаточно высок, но все или некоторые коэффициенты уравнения регрессии статистически не значимы (низкие t-статистики);
2) Высокие парные коэффициенты корреляции.
Для проверки этого признака формируется определитель матрицы парных коэффициентов между объясняющими переменными:
R=
, где
Матрица
R – симметричная,
причем на главной диагонали стоят
единицы, т.е.
=1.
Приполном отсутствии корреляции между
факторами
=0,
при
,
и определитель R равен
1. Если же между факторами существует
полная линейная зависимость, т.е.
=1,
то detR = 0.
Таким образом, чем ближе к нулю detR, тем сильнее мульти. Вывод о наличии мульти делается по результатам проверки нулевой гипотезы Н0 :detR = 1, при альтернативной гипотезе Н1 : detR = 0.
Статистическая проверка гипотез:
Н0 :detR = 1;
Н1 :detR = 0
осуществляется
с помощью
-
распределения.
Величина
сравнивается с критическим значением
(
),
где n – объем выборки,
m – количество
объясняющих переменных.
Если
>
,
то Н0 отклоняется и делается вывод
о наличии мульти.
Высокие частные коэффициенты корреляции.
Частные коэффициенты корреляции – это коэффициенты корреляции между двумя факторами, «очищенные» от влияния других факторов. Например для трех факторов Х1, Х2, Х3 частный коэффициент корреляции для Х1, Х2 будет:
где
- парный коэффициент корреляции между
Х1 и Х2 ;
- частный коэффициент корреляции между
Х1 и Х2.
Последствия частичной мульти: · увеличение дисперсий оценок параметров расширяет интервальные оценки и ухудшает их точность; · уменьшение t-статистик коэффициентов приводит к неверным выводам о значимости факторов; · неустойчивость МНК-оценок и их дисперсий.
33. F-тест качества спецификации множественной регрессионной модели.
Статистикой
обсуждаемого ниже критерия гипотезы
H0:
R2=0
(гипотеза о том что модель абсолютно
плохая) против альтернативы H1:
служит случайная переменная:
(1)
Здесь k— количество регрессоров в модели множественной регрессии, п— объем обучающей выборки (у,X),по которой оценена МНК-модель. В ситуации, когда гипотеза H0 справедлива, а случайный остаток и в модели обладает нормальным законом распределения, случайная переменная Fтест имеет распределение Фишера с количествами степеней свободы ν1 и ν2, где ν1=kи ν2=n-(k+1) (2)
Данное утверждение положено в основу F-теста. Вот этапы выполнения этой процедуры.
1) вычислить величину (1);
2) задаться уровнем значимости а € (0, 0,05] и при помощи функции FPACПOБPExcel при количествах степеней свободы (2) отыскать (1-α)-квантиль распределения Фишера Fкрит
3) проверить справедливость неравенства F<Fкрит(3)
Если оно справедливо, то принять гипотезу H0 и сделать вывод о неудовлетворительном качестве регрессии, т.е. об отсутствии какой-либо объясняющей способности регрессоров в рамках линейной модели.
Напротив, когда неравенство (3) несправедливо —следует отклонить гипотезу H0 в пользу альтернативыH1.Другими словами, сделать вывод о том, что качество регрессии удовлетворительно, т.е. регрессоры в рамках линейной модели обладают способностью объяснять значения эндогенной переменной у.