- •1.Метод наименьших квадратов: алгоритм метода; условия применения.
- •2.Типы переменных в эконометрических моделях. Структурная и приведённая формы спецификации эконометрических моделей.
- •3. Статистические свойства оценок параметров парной регрессионной модели
- •4. Этапы построения эконометрических моделей.
- •5.Порядок оценивания линейной эконометрической модели из изолированного уравнения в Excel. Смысл выходной статистической информации сервиса Регрессия. (10) стр 41
- •6.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам. (30) стр.24-25,
- •7. Классическая парная регресионная модель. Спецификация модели. Теорема Гаусса-Маркова.
- •8. Метод наименьших квадратов: алгоритм метода, условия применения.
- •9.Идентификация отдельных уравнений системы одновременных уравнений: порядковое условие. (30)
- •Необходимое условие идентифицируемости
- •10.Оценка параметров парной регрессионной модели методом наименьших квадратов. (10)
- •11.Фиктивные переменные: определение, назначение, типы.
- •12.Автокорреляция случайного возмущения. Причины. Последствия.
- •13.Алгоритм проверки значимости регрессора в парной регрессионной модели.
- •14.Интервальная оценка ожидаемого значения зависимой переменной в парной регрессионной модели.
- •15. Тест Чоу на наличие структурных изменений в регрессионной модели. (20) стр. 59,60
- •16. Алгоритм проверки адекватности парной регрессионной модели. (20) стр. 37, 79
- •17. Коэффициент детерминации в парной регрессионной модели.
- •18. Оценка параметров множественной регрессионной модели методом наименьших квадратов.
- •20. Гетероскедастичность случайного возмущения. Причины. Последствия. Тест gq(20)
- •21.Фиктивная переменная наклона: назначение; спецификация регрессионной модели с фиктивной переменной наклона; значение параметра при фиктивной переменной. (20) стр.65
- •22..Алгоритм теста Дарбина-Уотсона на наличие (отсутствие) автокорреляции случайных возмущений. (20) стр 33
- •23. Структурная и приведённая формы спецификации эконометрических моделей.
- •24. Гетероскедастичность случайного возмущения. Причины. Последствия. Алгоритм теста Голдфельда-Квандта на наличие или отсутствие гетероскедастичности случайных возмущений.
- •Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений.
- •25. Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам.
- •26. Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов
- •27.Проблема мультиколлинеарности в моделях множественной регрессии.Признаки мультиколлениарности.
- •28.Что такое логит,тобит,пробит.
- •29. Что такое Метод наибольшего правдоподобия стр. 62.
- •30. Что такое стационарный процесс?
- •31.Свойства временных рядов.
- •32.Модели ar и var .
- •33. Идентифицируемость системы.
- •34. Настройка модели с системой одновременных уравнений.
- •35.Что такое метод Монте-Карло стр 53
- •36.Оценить качество модели по f, gq, dw (линейнные).Стр.33, 28-29
- •37. Оценка погрешностей параметров эконометрической модели методом Монте-Карло .
- •38. Отражение в модели влияния неучтённых факторов. Предпосылки теоремы Гаусса-Маркова.
- •39.Модели временных рядов. Свойства рядов цен акций на бирже (20) с.93.
- •40. Ожидаемое значение случайной переменной, её дисперсия и среднее квадратическое отклонение. (20) с.12-21
- •41. Оценка параметров парной регрессионной модели методом наименьших квадратов с использованием сервиса Поиск решения.
- •42. Проверка статистических гипотез, t-статистика Стьюдента, доверительная вероятность и доверительный интервал, критические значения статистики Стьюдента. Что такое “толстые хвосты”?
- •43.Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности
- •44. Частные коэффициенты детерминации.
- •46. Экономический смысл коэффициентов линейного и степенного уравнений регрессии.
- •47.Оценка коэффициентов модели Самуэльсона-Хикса
- •48. Ошибки от включения в модель незначимых переменных или исключения значимых.С.80
- •49. Исследование множественной регрессионной модели с.74-79.
- •50. Мультиколлинеарность: чем плоха, как обнаружить и как бороться.
- •51. Признаки стационарности стохастического процесса. Что такое «Белый шум»? с.100
- •52. Структурная и приведённая формы спецификации эконометрических моделей.
- •53. Алгоритм проверки значимости регрессора в парной регрессионной модели. По t-статистике, по f-статистике.
- •54.Свойства рядов цен на фондовом рынке. Принципы построения портфеля Марковица с.93,102
- •55.Динамическая модель из одновременных линейных уравнений (привести пример) с.105.
- •56. Метод наибольшего правдоподобия: принципы и целесообразность использования
- •57. Этапы исследования модели множественной регрессии с.74-79.
26. Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов
Понятия “гетероскедастичность” и “автокорреляция” актуальны, если массивы данных упорядочены, что имеет место для временных рядов. “Пространственные” данные можно искусственно упорядочить, например, отсортировав их по возрастанию какой-либо переменной; при этом можно выявить кластеры с аномальной дисперсией остатков, что может означать неоднородность выборки или неадекватность модели.
Считается, что гетероскедастичность может привести к снижению эффективности оценок коэффициентов, и надо её искусственно подавлять. Эта технология называется Взвешенный метод наименьших квадратов (ВМНК) и обычно используется в матричном варианте МНК. При обнаружении автокорреляции остатков применяется Обобщённый метод наименьших квадратов ОМНК, основанный на преобразовании матриц, но с учётом корреляций остатков.
ВМНК- математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от искомых переменных. Он может использоваться для «решения» переопределенных систем уравнений (когда количество уравнений превышает количество неизвестных), для поиска решения в случае обычных (не переопределенных) нелинейных систем уравнений, для аппроксимации точечных значений некоторой функцией. МНК является одним из базовых методов регрессионного анализа для оценки неизвестных параметров регрессионных моделей по выборочным данным.
27.Проблема мультиколлинеарности в моделях множественной регрессии.Признаки мультиколлениарности.
Множественная регрессия позволяет построить и проверить модель линейной связи между зависимой (эндогенной) и несколькими независимыми (экзогенными) переменными: y = f(x1,...,xр ), где у - зависимая переменная (результативный признак); х1,...,хр - независимые переменные (факторы). Множественная линейная регрессионная модель имеет вид: y=a+b1x1+b2x2+…+bpxp+ε Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям:
1. быть количественно измеримы. При включении качественного фактора нужно придать ему количественную определенность
2. не должны быть коррелированы между собой и тем более и годиться в точной функциональной связи.
Включение в модель факторов с высокой интеркорреляцией, когда ryx1 < rx1x2 может повлечь за собой неустойчивость и ненадежность оценок коэффициентов регрессии. Поскольку одним из условий построения уравнения множественной регрессии является независимость действия факторов, коллинеарность факторов нарушает это условие. Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами.
Признаки мультиколлинеарности.
1.В модели с двумя переменными одним из признаков мультиколлинеарности является близкое к единице значение коэффициента парной корреляции. Если значение хотя бы одного из коэффициентов парной корреляции больше, чем 0,8, то мультиколлинеарность представляет собой серьезную проблему. Однако в модели с числом независимых переменных больше двух, парный коэффициент корреляции может принимать небольшое значение даже в случае наличия мультиколлинеарности. В этом случае лучше рассматривать частные коэффициенты корреляции. 2. Для проверки мультиколлинеарности можно рассмотреть детерминант матрицы коэффициентов парной корреляции |r|. Этот детерминант называется детерминантом корреляции |r| ∈(0; 1). Если |r| = 0, то существует полная мультиколлинеарность. Если |r|=1, то мультиколлинеарность отсутствует. Чем ближе |r| к нулю, тем более вероятно наличие мультиколлинеарности. 3. Если оценки имеют большие стандартные ошибки, невысокую значимость, но модель в целом значима (имеет высокий коэффициент детерминации), то это свидетельствует о наличие мультиколлинеарности. 4. Если введение в модель новой независимой переменной приводит к существенному изменению.