- •1. Предмет и задачи эконометрики. Примеры моделей.
- •2.Статистические данные и способы их представления.
- •4.Общая схема проверки гипотез. Ошибки I, II рода.
- •5.Интервальные оценки для нормального распределения при неизвестной дисперсии.
- •6. Модель парной линейной регрессии. Предположения.
- •7.Оценка коэффициентов парной регрессии методом наименьших квадратов
- •8. Статистические свойтва мнк для модели парной линейной регрессии.
- •9. Проверка стат значимости коэфф-ов парной линейной регрессии.
- •10. Прогнозирование значений зависимой переменной
- •14.Метод наименьших квадратов для модели множественной линейной регрессии.
- •16.С мысл теоремы Гаусса-Маркова.
- •17. Несмещенная оценка дисперсии случайного члена множественной линей ной регрессии.
- •18.Проверка значимости коэффициентов регрессии
- •19. Качество оцененного уравнения: коэффициент детерминации. Его связь с коэффициентом корреляции.
- •20. Скорректированный коэффициент детерминации. Статистика Фишера.
- •21)Спецификация переменных модели линейной регрессии.
- •22)Нелинейные модели. Логарифмические, полулогарифмические модели.
- •23)Явление мультиколлинеарности. Ее последствия и способы устранения.
- •24.Фиктивные переменные. Примеры.
- •Прогнозирование значений зависимой переменной для парной регрессии.
- •26. Гетероскедастичность. Последствия гетероскедастичности
- •27. Обобщенный метод наименьших квадратов.
- •28. Выявление гетероскедастичности
- •29. Способы корректировки гетероскедастичности.
- •30. Автокорреляция. Положительная и отрицательная. Последствия автокорреляции.
- •31.Использования статистики Дарбина-Уотсона для выявления автокорреляции.
- •32.Способы устранения автокорреляции в модели множественной регрессии.
- •33. Системы одновременных уравнений. Примеры.
- •34. Структурная и приведенная формы системы одновременных уравнений. Косвенный мнк.
17. Несмещенная оценка дисперсии случайного члена множественной линей ной регрессии.
Матрицы M,N симметричные и квадрат матрицы равен самой матрице N=X(X’X)^-1X’ ,M=I_n – X(X’X)^-1 X’
причем N - матрица оператора проектирования на подпространство натянутое на столбцы матрицы X,a M- матрица оператора проектирования на подпространство ортогональное столбцам матрицыX .в частности NX=X, MX=0
Непосредственно
проверяется,что
Следом tr(A) квадратной матрицы А наз-ся сумма её диогональных элементов.Пользуясь тем что след произведеня матриц не меняется при их циклической перестановке получим
E(e’e)=E(tr(e’e))=E(tr(
))=tr(E(M
=tr(M*E(
Значит
несмещенной оценкой
дисперсии
ошибок
яв-ся величина
,
ili
18.Проверка значимости коэффициентов регрессии
При практическом построении модели линейной регресии существенен вопрос о значимости ее к-в вычисляемых по конкретной выборке.для заданного числа формулируем 2 гипотезы:
Нулевая
Альтернативная
Пусть bi оценка коэф-та βi, asbi- стандартная ошибка оценки b. Оказыается, величина
[(bi -βi0 )/ sbi ]~t(n-k)
t-распределение Стьюдента с n-k степенями свободы
Находим ковариационную матрицу оценки вектора к-вβ:
V(β^)=V((X`X)-1X`y)=V((X`X)-1X`ε)=(X`X)-1X`V(ε)X(X`X)-1=
(X`X)-1X`ϭ^2InX(X`X)-1= ϭ^2(X`X)-1
Неизвестная дисперсия заменяется на ее несмещенную оценку
Стандартная ошибка оцененного к-та bi вычисляется по формуле
Sbi=
snizu ii piwem.
Где s - стандартная ошибка регресии
S^2=
Для выбранного числа ᵟ по таблице t- распределинея определяется критическое значение tc=tᵟ/2,n-k)для которого вероятность реализации t~ᵟ такого, что, -tc≤t≤tc, равна 1-ᵟзатем проверяется условие
-tc≤
Еслии оно не выполняется,гипотеза H0 отвергается ,а при его выполнении принимается
Обычно коэф-т сравнивают с .
В случае ,если,например при гипотеза отвергается ,то говорят,что коэф-т значимый при 5-%уровне
Значения стандартной ошибки коэф-та и соответствующая статистика вычисляются в эконометрических пакетах
19. Качество оцененного уравнения: коэффициент детерминации. Его связь с коэффициентом корреляции.
Суммарной
мерой общего качества уравнения регрессии
является коэффициент детерминации,
который в общем случае рассчитывается
по формуле:
. Значение
коэффициента детерминации показывает
степень выраженности линейной связи
между переменными и насколько подобранная
модель объясняет изменения переменной
у.
МНК
дает нам оценки α, β :
, b=
.
следствие
из МНК.
,
- остаток
Var(y)=var(
+
var(e) +2cov(
cov(
Var(y)=var( + var(e) | var(y)
1=
– показывает
долю разброса зависимой переменной,
объясненную при помощи данного уравнения
регрессии, в общем разбросе зависимой
переменной.
При
(МНК), коэффициент детерминации
R2
..Минимальное
значение коэффициента детерминации
равно 0 достигается при RSS=TSS.
В этом случае связи между переменными
нет. Подобранная модель не объясняет
изменчивость переменной у.
Максимальное значение коэффициента детерминации равно 1, достигается при RSS=1. Подобранная модель в полной мере объясняет изменчивость переменной у.
Для парной регрессии R2=r2xy.
