- •1. Предмет и задачи эконометрики. Примеры моделей.
- •2.Статистические данные и способы их представления.
- •4.Общая схема проверки гипотез. Ошибки I, II рода.
- •5.Интервальные оценки для нормального распределения при неизвестной дисперсии.
- •6. Модель парной линейной регрессии. Предположения.
- •7.Оценка коэффициентов парной регрессии методом наименьших квадратов
- •8. Статистические свойтва мнк для модели парной линейной регрессии.
- •9. Проверка стат значимости коэфф-ов парной линейной регрессии.
- •10. Прогнозирование значений зависимой переменной
- •14.Метод наименьших квадратов для модели множественной линейной регрессии.
- •16.С мысл теоремы Гаусса-Маркова.
- •17. Несмещенная оценка дисперсии случайного члена множественной линей ной регрессии.
- •18.Проверка значимости коэффициентов регрессии
- •19. Качество оцененного уравнения: коэффициент детерминации. Его связь с коэффициентом корреляции.
- •20. Скорректированный коэффициент детерминации. Статистика Фишера.
- •21)Спецификация переменных модели линейной регрессии.
- •22)Нелинейные модели. Логарифмические, полулогарифмические модели.
- •23)Явление мультиколлинеарности. Ее последствия и способы устранения.
- •24.Фиктивные переменные. Примеры.
- •Прогнозирование значений зависимой переменной для парной регрессии.
- •26. Гетероскедастичность. Последствия гетероскедастичности
- •27. Обобщенный метод наименьших квадратов.
- •28. Выявление гетероскедастичности
- •29. Способы корректировки гетероскедастичности.
- •30. Автокорреляция. Положительная и отрицательная. Последствия автокорреляции.
- •31.Использования статистики Дарбина-Уотсона для выявления автокорреляции.
- •32.Способы устранения автокорреляции в модели множественной регрессии.
- •33. Системы одновременных уравнений. Примеры.
- •34. Структурная и приведенная формы системы одновременных уравнений. Косвенный мнк.
20. Скорректированный коэффициент детерминации. Статистика Фишера.
Для оценки значимости коэффициента детерминации используется F-статистика Фишера. Оказывается случайная величина,
F=
~
F(k-1),
(n-k),
где к-число коэф-ов в уравнении регрессии,
n-число
наблюдений в выборке. Разделив в этих
двух последних выражениях числитель и
знаменатель на TSS,
получим для множественной регрессии
F=
=
Для распределения Фишера также имеются таблицы критических значений Fc(m,l) для 5-проц и 1-проц уровня значимости.
Формируются 2 альтернативные гипотезы:
Н0:β2= β3=…= βk=0
Н1: хотя бы один из коэфф-ов отличен от нуля.
Если вычисленное F-статистики оказывается больше Fc(m,l), то гипотеза Н0 отвергается, коэффициент значим при выбранном уровне.
Обычный коэффициент детерминации R2 обладает тем недостатком, что при включение в модель новых переменных, R2 сразу увеличивается. Поэтому, при большом количестве факторов, лучше использовать скорректированный коэффициент множественной детерминации R2:
где
k
– число факторов в уравнении регрессии,
n – число наблюдений. Чем больше величина
k,
тем сильнее различия между
R2
и
.
При использовании
надо учитывать, что увеличение его
величины, при включении нового фактора,
не обязательно говорит о его значимости,
так как значение увеличивается всегда,
когда t-статистика больше единицы
(|t|>1). При небольшом числе наблюдений
может переоценивать долю вариации
результативного признака, связанную с
влиянием факторов, включенных в
регрессионную модель.
21)Спецификация переменных модели линейной регрессии.
Спецификация переменных модели множественной линейной регрессии – определение состава переменных, которые должны быть включены в модель. Отобранные факторы должны быть количественно измеримы. Неправильная спецификация переменных может произойти из-за не включения в уравнения переменной, которая должна быть в составе объясняющих переменных. Ошибки имеют следующие спецификации.
1) Невключение в модель существенных переменных. Допустим вместо истинной модели y=Xβ+Zɣ+ɛ , взята модель y=Xβ+ɛ.
В
модели 2 опущены объясняющие переменные
z1.z2…zm.
для нее оценка вектора коэффициентов
β
по методу мнк дается формулой
.
Представим
эту в формулу значение у из истенной
модели и найдем мат ожидание:
.
Последнее
выражение равно β
лишь в двух случаях. Первый
если ɣ=0, т.е на самом деле в истинной
модели на зависимую переменную не влияют
регрессоры z1,z2,…,zm.
Второй если X’Z-нулевая
матрица, что означает ортогональность
регрессоров x1,x2,…,xk
z1,z2,…,zm.
Во всех остальных случаях
,т.е
оценка
оказывается
смещенной.
2) Включение в модель несущественных переменных. В этом случае истинная модель y=Xβ+ɛ,а модель y=Xβ+Zɣ+ɛ содержит избыточные переменные z1,z2,…,zm. Оценка вектора коэффициентов модели с избыточными переменными по мнк:
,
=>
=>
Столбцы
матрицы Я линейно независимы. Существует
обратная матрица
.
.
Перегруппировываем
,
где матрица
и найдем оценку
.
Теперь определим ожидаемое значение
.
Следовательно оценка
несмещенная. Ее ковариационная матрица
.
