
- •1. Определение эконометрики. Предмет и метод эконометрики.
- •2.Классификация моделей и типы данных.
- •3.Этапы построения эконометрической модели:
- •4. Модель парной регрессии.
- •5. Случайный член. Причины его существования.
- •6. Условия нормальной линейной регрессии (Гаусса-Маркова).
- •7. Метод наименьших квадратов.
- •8. Свойства коэффициентов регрессии.
- •9. Нелинейная регрессия. Методы линеаризации.
- •11. Интерпретация линейного уравнения регрессии.
- •12. Определение тесноты связи между факторами: линейный коэффициент корреляции, коэффициент детерминации.
- •13. Оценка тесноты связи в нелинейной регрессионной модели.
- •15. Взаимосвязь t-статистики и f-статистики для парной регрессии.
- •16. Коэффициент эластичности.
- •17. Оценка статистической значимости уравнения в целом. F-критерий Фишера
- •18. Модель множественной регрессии.
- •19. Ограничения модели множественной регрессии.
- •20. Идентификация параметров множественной регрессии мнк.
- •21. Интерпретация параметров уравнения множественной регрессии
- •22. Показатели тесноты связи во множественном регрессионном анализе – парные и частные коэффициенты корреляции.
- •23. Стандартизированное уравнение множественной регрессии.
- •24. Коэффициент множественной корреляции, скорректированный коэффициент множественной корреляции, множественный коэффициент детерминации.
- •25. Оценка статистической значимости множественных коэффициентов регрессии, t-критерий Стьюдента.
- •26. Модели с переменной структурой (фиктивные переменные).
- •27. Оценка статистической значимости множественного уравнения регрессии, f-критерий Фишера.
- •28. Спецификация модели множественной регрессии. Свойства множественных коэффициентов регрессии.
- •29. Решение проблемы выбора модели (с ограничением и без ограничений).
- •30.Методы отбора факторов: априорный и апостериорный.
- •31. Гетероскедостичность и автокорреляция случайного члена.
- •32. Автокорреляция первого порядка и критерий Дарбина – Уотсона.
- •33. Тест серий (критерий Бреуша – Годфри)
- •34. Тест на гетероскедостичность: Голдфелда – Квандта, тест Уайта.
- •36. Структурная и приведенная формы модели.
- •37. Эндогенные и экзогенные переменные. Проблема идентифицируемости систем уравнений.
- •38. Оценивание параметров в системах одновременных уравнений: косвенный и двухшаговый мнк.
15. Взаимосвязь t-статистики и f-статистики для парной регрессии.
Связь между критерием Фишера и статистикой Стьюдента выражается равенством:
tr2=tb2=F
tr=(r/(√(1-r2)) *b√(n-2) – статистика для коэффициента r
16. Коэффициент эластичности.
Эj = bj*(xсрj/(a+Σbjxсрj))
Коэффициент эластичности показывает, на сколько процентов изменится результирующий признак у, если j-й регрессор возрастет на один процент от своего среднего уровня и при фиксированном значении остальных регрессоров.
17. Оценка статистической значимости уравнения в целом. F-критерий Фишера
Оценка статистической значимости коэффициента r2:
Находим значение r2, далее выдвигаем гипотезы
Н0: r2 = 0
Н1: r2 ≠ 0
Fф = (r2*(n-2))/(1- r2)
Находим значение Fкр(1;n-2) по таблице.
Если Fф<Fкр , то нет оснований отвергать Н0 и мы ее принимаем на уровне значимости 5%, следовательно уравнение регрессии в целом статистически не значимо, в обратном случае мы отвергаем гипотезу Н0 и на уровне значимости 95% принимаем гипотезу Н1, значит, уравнение регрессии в целом статистически значимо.
18. Модель множественной регрессии.
Yt= B1 + B2xt2 + B3xt3 +…+ Bnxtn + Ut
Где t=1,…n (номер регрессора(строки))
xt1 = 1, при всех t =1,…n
Y = (y1, y2,…yn)T (nx1)
B = (B1, B2…Bn)T (kx1)
U = (U1, U2,…Un)T (nx1)
x11 x12 x13….x1k
X= x21 x22 x23….x2k (nxk)
………………..
xn1 xn2 xn3….xnk
Спецификация модели: y = xB + U
X – детерменированная матрица с максимальным рангом k
E(U) = 0, E(U*UT) = б2*In. Где In – единичная матрица
U~N(0, б2*In)
B^-вектор оценок неизвестных параметров
B^ = (xT*x)-1*xT*y
Коэффициент регрессии во множественной модели – это показатели силы связи, характеризующие абсолютное изменение результирующего признака при изменении факторного признака на одну единицу своего измерения, при фиксированном влиянии остальных факторов, включенных в модель.
Например. y^ = 116,7 + 0,112x1 – 0,739x2
у- расходы на питание (руб.)
x1- доход (руб.)
x2- ср цена (руб.)
19. Ограничения модели множественной регрессии.
В качестве ограничений к модели множественной регрессии можно использовать условия теоремы Гаусса - Маркова для модели множественной регрессии:
Спецификация модели: наша объясняемая переменная у должна быть связана с объясняющей переменной х след образом: Уt = β1хt1 +… + βkхtk +ξt
Х(вектор) – детерминированная величина
Мат ожидание случайной компоненты равно 0, дисперсия случайной компоненты в квадрате = σ2 для любого t
Должна выполняться некоррелированность (отсутствие автокорреляции): E(ξt;ξs)=0
ξt принадлежит N(0; σ2)
20. Идентификация параметров множественной регрессии мнк.
Уравнение множественной регрессии выглядит следующим образом:
y=f(x1,…xk)= a + b1x1 +b2x2 +…+bkxk
На первом шаге идентификации параметров множественной регрессии мы находим их с помощью МНК по следующим формулам:
bi=βi*(σy/σxi)
a=yср-b1*x1ср-…- bk*xkср
После их нахождения, мы оцениваем их статистическую значимость. Для этого мы сначала определяем наши гипотезы H1 и H0, а потом с помощью t- статистики проверяем их на статистическую значимость