- •Как выглядит линейная модель парной регрессии? Как называют переменные, участвующие в модели?
- •2. Поясните смысл коэффициентов уравнения регрессии.
- •4. В чем состоят ошибки спецификации модели?
- •6. Перечислите виды моделей, нелинейных относительно а) включаемых переменных; б) оцениваемых параметров.
- •7. Чем отличается применение мнк к моделям, нелинейным относительно включаемых переменных, от применения к моделям, нелинейным по оцениваемым параметрам?
- •8. Как определяются и что показывают коэффициенты эластичности по разным видам регрессионных моделей?
- •Коэффициент эластичности для степенной модели
- •Коэффициент эластичности для линейной модели
- •10. Как проводится линеаризация нелинейных моделей?
- •11. Приведите формулы для расчета коэффициентов прямой парной регрессии по мнк.
- •Сущность мнк
- •Мнк в случае линейной модели
- •Пример: простейшая (парная) регрессия
- •12. Сформулируйте условия Гаусса-Маркова в методе наименьших квадратов (мнк).
- •13. Что представляет собой нуль-гипотеза и в каких ситуациях она отвергается?
- •14. В чём состоит ошибка (риск) 1 рода при тестировании гипотез?
- •О смысле ошибок первого и второго рода
- •Вероятности ошибок (уровень значимости и мощность)
- •16. Приведите формулу расчета коэффициента детерминации r2 и объясните его роль при определении качества построенного уравнения регрессии.
- •Интерпретация
- •Недостаток и альтернативные показатели
- •Скорректированный (adjusted)
- •Информационные критерии
- •-Обобщённый (extended)
- •17. Как производится проверка значимости уравнения регрессии по f-критерию Фишера?
- •19. Приведите формулы для дисперсий и стандартных отклонений мнк-оценок.
- •23. Каково условие однородности (гомоскедастичности) наблюдений?
- •28. Дайте определение коэффициента детерминации.
- •33. Дайте определение частного коэффициента корреляции. Какова его роль в процедуре шаговой регрессии последовательного включения (исключения) переменных?
- •35. В чем заключается проблема мультиколлинеарности факторов?
- •36. Опишите способы устранения мультиколлинеарности
- •39. Дайте определение гетероскедастичности наблюдений.
- •40. В чем заключается тестирование гетероскедастичности на основе теста Голдфелда – Квандта?
- •43. Сформулируйте теорему Айткена о коэффициентах обобщенного мнк.
- •45. Каковы основные принципы прогнозирования экономических процессов?
- •53. Какие проблемы возникают при наличии автокорреляции остатков временного ряда?
- •55. Перечислите основные элементы временного ряда.
- •54. Как используются критерии Дарбина-Ватсона для обнаружения автокорреляции остатков
Сущность мнк
Пусть задана некоторая (параметрическая) модель вероятностной (регрессионной) зависимости между (объясняемой) переменной y и множеством факторов (объясняющих переменных) x
где
—
вектор неизвестных параметров модели
—
случайная ошибка
модели.
Пусть также имеются
выборочные наблюдения значений указанных
переменных. Пусть
—
номер наблюдения (
).
Тогда
—
значения переменных в
-м
наблюдении. Тогда при заданных значениях
параметров b можно рассчитать теоретические
(модельные) значения объясняемой
переменной y:
Тогда можно рассчитать остатки регрессионной модели — разницу между наблюдаемыми значениями объясняемой переменной и теоретическими (модельными, оцененными):
Величина остатков зависит от значений параметров b.
Сущность МНК
(обычного, классического) заключается
в том, чтобы найти такие параметры b, при
которых сумма квадратов остатков
(англ. Residual
Sum of Squares)
будет минимальной:
где:
В общем случае решение этой задачи может осуществляться численными методами оптимизации (минимизации). В этом случае говорят о нелинейном МНК (NLS или NLLS — англ. Non-Linear Least Squares). Во многих случаях можно получить аналитическое решение. Для решения задачи минимизации необходимо найти стационарные точки функции , продифференцировав её по неизвестным параметрам b, приравняв производные к нулю и решив полученную систему уравнений:
Если случайные ошибки модели имеют нормальное распределение, имеют одинаковую дисперсию и некоррелированы между собой, МНК-оценки параметров совпадают с оценками метода максимального правдоподобия (ММП).
Мнк в случае линейной модели
Пусть регрессионная зависимость является линейной:
Пусть y —
вектор-столбец наблюдений объясняемой
переменной, а
—
матрица наблюдений факторов (строки
матрицы — векторы значений факторов
в данном наблюдении, по столбцам —
вектор значений данного фактора во всех
наблюдениях). Матричное
представление
линейной модели имеет вид:
Тогда вектор оценок объясняемой переменной и вектор остатков регрессии будут равны
соответственно сумма квадратов остатков регрессии будет равна
Дифференцируя эту функцию по вектору параметров и приравняв производные к нулю, получим систему уравнений (в матричной форме):
.
Решение этой системы уравнений и дает общую формулу МНК-оценок для линейной модели:
Для аналитических целей оказывается полезным последнее представление этой формулы. Если в регрессионной модели данные центрированы, то в этом представлении первая матрица имеет смысл выборочной ковариационной матрицы факторов, а вторая — вектор ковариаций факторов с зависимой переменной. Если кроме того данные ещё и нормированы на СКО (то есть в конечном итоге стандартизированы), то первая матрица имеет смысл выборочной корреляционной матрицы факторов, второй вектор — вектора выборочных корреляций факторов с зависимой переменной.
Немаловажное свойство МНК-оценок для моделей с константой — линия построенной регрессии проходит через центр тяжести выборочных данных, то есть выполняется равенство:
В частности, в крайнем случае, когда единственным регрессором является константа, получаем, что МНК-оценка единственного параметра (собственно константы) равна среднему значению объясняемой переменной. То есть среднее арифметическое, известное своими хорошими свойствами из законов больших чисел, также является МНК-оценкой — удовлетворяет критерию минимума суммы квадратов отклонений от неё.
