- •Запорожский институт экономики и
- •Тема № 1. Предмет, методы и задачи курса “эконометрия”.
- •Задачи курса –
- •2. Обобщенной эконометрической модели.
- •Этапы эконометрического анализа:
- •Тема №3. Простая эконометрическая модель.
- •3.2.1 Определение параметров при степенной зависимости
- •3.2..2 Определение параметров гиперболы
- •3.2.3. Определение параметров показательной регрессии
- •3.2.4. Определение параметров параболы
- •Решение:
- •Алгоритм фаррара –глоберАсостоит из следующих шагов:
- •Пространственная корреляция возмущений (Гетероскедастичность остатков).
- •Автокорреляция остатков
- •Области принятия решений при d-тесте нулевой гипотезы с тремя альтернативными гипотезами.
- •При подозрении на автокорреляцию оценка по методу Эйткена может быть проведена только с использованием вспомогательной модели следую- щим образом:
- •Точечные и интервальные прогнозы регрессанда
Алгоритм фаррара –глоберАсостоит из следующих шагов:
ШАГ 1. НОРМАЛИЗОВАТЬ ПЕРЕМЕННЫЕ ИСПОЛЬЗУЯ ФОРМУЛУ:
Х* = (Х – Х )/ σк
ШАГ 2. НАЙТИ КОРРЕЛЯЦИОННУЮ МАТРИЦУ R:
R = X* ′ ● X*
ШАГ 3. ОПРЕДЕЛИТЬ КРИТЕРИЙ χ² = - [ n – 1 – 1/6(2m+5)] · ln |R|,
ГДЕ |R| -ОПРЕДЕЛИТЕЛЬ КОРРЕЛЯЦИОННОЙ МАТРИЦЫ.
ЗНАЧЕНИЕ ЭТОГО КРИТЕРИЯ СРАВНИВАЕТСЯ С χ²табл. ПРИ ½(р-1)(р-2) СТЕПЕНИ СВОБОДЫ И УРОВНЮ ЗНАЧИМОСТИ α. ЕСЛИ χ²факт.<χ²табл. , ТО В МАССИВЕ НЕЗАВИСИМЫХ ПЕРЕМЕННЫХ МУЛЬТИКОЛЛИНЕАРНО
СТЬ ОТСУТСТВУЕТ.
ШАГ 4. ОПРЕДЕЛИТЬ МАТРИЦУ С ОБРАТНУЮ К R.
C = R ¯ ¹ = ( X*´X*)¯ ¹
ШАГ 5. РАССЧИТАТЬ F-КРИТЕРИИ:
Fk = ( Ckk - 1) (( n - р ) / ( р- 1)),
ГДЕ Ckk – ДИАГОНАЛЬНЫЕ ЭЛЕМЕНТЫ МАТРИЦЫ С.
ФАКТИЧЕСКИЕ ЗНАЧЕНИЯ КРИТЕРИЕВ Fk СРАВНИВАЮТСЯ С ТАБЛИЧНЫМИ ПРИ р-1 И n-р СТЕПЕНЕЙ СВОБОДЫ И УРОВНЮ ЗНАЧИМОСТИ α.
ЕСЛИ Fk факт. > Fтабл. , ТО СООТВЕТСТВУЮЩАЯ k-Я ОБЪЯСНЯЮЩАЯ ПЕРЕМЕННАЯ МУЛЬТИКОЛЛИНЕАРНА С ДРУГИМИ.
КОЭФФИЦИЕНТ ДЕТЕРМИНАЦИИ ДЛЯ k–ОЙ ПЕРЕМЕННОЙ ВЫЧИСЛЯЕТСЯ ПО ФОРМУЛЕ:
R²k = 1 – 1/Сkk.
ШАГ 6. НАЙТИ ЧАСТНЫЕ КОЭФФИЦИЕНТЫ КОРРЕЛЯЦИИ:
rki = - Скj / √ Скк· Cjj,
ГДЕ Скj -ЭЛЕМЕНТ МАТРИЦЫ С РАСПОЛОЖЕННЫЙ В к – ОЙ СТРОКЕ И j –ОМ СТОЛБЦЕ, Скк И С jj – ДИАГОНАЛЬНЫЕ ЭЛЕМЕНТЫ МАТРИЦЫ С.
ШАГ 7. РАССЧИТАТЬ t – КРИТЕРИИ:
tkj = ( rki *√ n – р )/√1-r²ki .
ФАКТИЧЕСКИЕ ЗНАЧЕНИЯ tkj СРАВНИВАЮТСЯ С ТАБЛИЧНЫМИ ПРИ n-р СТЕПЕНЕЙ СВОБОДЫ И УРОВНЕ ЗНАЧИМОСТИ α .ЕСЛИ tkjфакт. > tтабл. , ТО МЕЖДУ ПЕРЕМЕННЫМИ Хк И Хj СУЩЕСТВУЕТ МУЛЬТИКОЛЛИНЕАРНОСТЬ.
Для устранения или уменьшения мультиколлинеарности используется ряд методов.Самый простой из них состоит в том, что из двух объясняющих переменных, имеющих высокий коэффициент корреляции( больше 0,8 ),
одну из переменных исключают из рассмотрения.При этом, какую переменную оставить,а какую удалить из анализа, решают в первую очередь на основании экономических соображений.Если с экономической точки зрения ни одной из переменных нельзя отдать предпочтение, то оставляют ту из двух переменных, которая имеет больший коэффициент корреляции с зависимой переменной.
Другой метод устранения или уменьшения мультиколлинеарности заключается в переходе от несмещенных оценок, определяемых по методу 1-МНК, к смещенным оценкам, обладающим, однако, меньшим рассеянием относительно оцениваемого параметра.Так, например, при использовании “ридж-регрессии” или “ гребневой регрессии “вместо несмещенных оценок рассматривают смещенные оценки задаваемые вектором
β=(ХтХ+τEp+1)¯¹ X т У,
где τ– некоторое положительное число, называемое “ гребнем “ или “ хребтом “ , Ep+1- единичная матрица p+1 – го порядка.Добавление τ к диагональным элементам матрицы ХтХ делает оценки параметров модели смещенными, но при этом увеличивается определитель матрицы системы нормальных уравнений.Вместо ХтХ он будет равенХтХ+τEp+1 Таким образом, становится возможным исключение мультиколлинеарности в случае, когда определитель ХтХ близок к нулю.
Возможен, также, переход к новым переменным, представляющим линейные комбинации исходных.В качестве таких переменных берут, например главные компоненты вектора исходных объясняющих переменных и рассматривают регрессию на главных компонентах.
Еще одним из возможных методов устранения или уменьшения мультиколлинеарности является использование пошаговых процедур отбора наиболее информативных переменных.Например,на первом шаге рассматривается лишь одна переменная , имеющая с переменной У наибольший коэффициент детерминации.На втором шаге включается в регрессию новая переменная, которая вместе с первоначально отобранной образует пару переменных, имеющую с У наиболее высокий ( скорректированный ) коэффициент детерминации, и т. д. Процедура введения новых переменных продолжается до тех пор, пока будет увеличиваться соответствующий (скорректированный) коэффициент корреляции.
На основе коэффициентов регрессии невозможно указать какой из фактор-ных признаков оказывает наибольшее влияние на результативный признак у, так как они не сопоставимы между собой, поскольку измеряются разными единицами.На их основе невозможно также установить в развитии каких фак-
торных признаков заложены наиболее крупные резервы изменения регрессан
да у , потому что в них не учтена вариация факторных признаков.
Для ответа на выше перечисленные вопросы построим уравнение множественной регрессии в стандартизированном виде:
ty = βıtx ı + β2t x 2 + … + βptx p
где
ty = у – у /σу , tхi = ( xi – xi) /σxi - стандартизованные переменные, βi –
стандартизованные коэффициенты.
Стандартизованные коэффициенты регрессии (β - коэффициенты ) опре-
деляются из следующей системы:
β1 + β2 rx1x2 + β3 rx1x3 + … + βp rx1xp = ryx1
β1 rx2x1 + β2 + β3 rx2x3 + … + βprx2xp = ryx2
…………………………………………………..
β1 rxpx1 + β2 rxpx2 +β3 rxpx3 + … + βp = ryxp
и показывают на какую часть среднего квадратичного отклонения изменяется регрессанд у ( результативный признак у ) с изменением соответствующего факторного признака на величину его среднего квадратичного отклонения. С помощью β – коэффициентов определяют факторы в развитии которых заложены наиболее крупные резервы изучаемого показателя.
Так как связь коэффициентов множественной регрессии ai со стандартными коэффициентами βi (β – коэффициентами) описывается соотношениями:
ai = βiσу / σxi ; a0 = y - b1 x1 - b2 x2 - … - bp xp ,
то β - коэффициенты можно также найти по формулам:
βi = ai σxi / σу,
Средние коэффициенты эластичности для линейной регрессии расчитываются по формуле:
Э yxj = аj xj /y
Частные коэффициенты эластичности вычисляются по формуле:
Э yxj = аj xj /ŷxi (x1,x2,xi-1, xi+1,…,xm)
и показывают на сколько процентов в среднем изменяется анализируемый показатель с изменением на 1% сответствующего фактора при фиксированном положении других факторов.
С помощью частных коэффициентов эластичности можно определить фак-
тор оказывающий наибольшее влияние на регрессанд у ( без учета различия в степени варьирования входящих в уравнение факторов, что, в отличие от β – коэффициентов не дает возможности определить факторы в развитии которых заложены наиболее крупные резервы улучшения изучаемого показателя).
Для определения доли вклада анализируемого фактора в суммарное влияние всех факторов вычисляют ∆і - коэффициент по формуле:
∆і = βіrі/R²
С помощью ∆і – коэффициентов можно определиться фактор, развитием которого можно обеспечить наибольшую долю прироста регрессанда у.
Таким образом на основании частных коэффициентов эластичности Э yxj ,βi - , ∆і - коэффициентов можно судить о резервах роста исследуемого показателя у (регрессанда у ) которые заложены в том или ином факторе xi.