- •2.Автокорреляция случайного возмущения. Причины. Последствия.
- •4.Автокорреляция. Методы устранения автокорреляции
- •5.Алгоритм проверки адекватности парной регрессионной модели
- •6.Алгоритм проверки значимости регрессора в парной регрессионной модели
- •7.Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений.
- •8.Выбор типа математической функции при построении уравнения регрессии
- •9.Выведите формулы вычисления параметров модели парной регрессии
- •10.Гетероскедастичность - понятие, проявление и меры устранения.
- •11.Гетероскедастичность случайного возмущения. Причины. Последствия. Тест gq.
- •12.Двухшаговый метод наименьших квадратов для оценки параметров структурной формы модели
- •15.Индивидуальная и интервальная оценка индивидуального значения зависимой переменной
- •16.Интервальная оценка параметров уравнения парной регрессии
- •17.Классическая парная регрессионная модель. Спецификация модели. Теорема Гаусса – Маркова.
- •18.Ковариация, коэффициент корреляции и индекс детерминации
- •19.Количественные характеристики взаимосвязи пары случайных переменных.
- •20. Косвенный метод наименьших квадратов для оценки параметров структурной формы модели
- •21. Коэффициент корреляции и индекс детерминации в регрессионной модели.
- •22. Линейная модель множественной регрессии
- •23. Метод Монте-Карло, его применение в эконометрике
- •24. Метод наименьших квадратов: алгоритм метода; условия применения. Обобщённый метод наименьших квадратов
- •25. Модели с бинарными (фиктивными) переменными.
- •26. Моделирование тенденции временных рядов (аналитическое выравнивание)
- •27. Мультиколлинеарность факторов – понятие, проявление и меры устранения
- •28. Назначение теста Голдфелда-Квандта, этапы его проведения.
- •Нелинейная модель множественной регрессии Кобба-Дугласа. Оценка её коэффициентов.
- •30.Нелинейная регрессия (линеаризация, оценка параметров)
- •31.Ожидаемое значение случайной переменной, её дисперсия и среднее квадратическое отклонение.
- •32.Основные числовые характеристики вектора остатков в классической множественной регрессионной модели
- •33.Отражение в модели влияния неучтённых факторов и времени.
- •35.Оценка адекватности полученной эконометрической модели (см. 5)
- •36.Оценка коэффициентов модели Самуэльсона-Хикса
- •37.Оценка параметров множественной регрессионной модели методом наименьших квадратов.
- •38. Оценка параметров парной регрессионной модели методом наименьших квадратов.
- •39.Оценка параметров эконометрической модели
- •40.Оценка статистической значимости коэффициентов модели множественной регрессии. (см. 6)
- •41.Подбор объясняющих переменных множественной линейной модели. Алгоритм исключения квазинеизменных переменных
- •42.Подбор объясняющих переменных множественной линейной модели. Метод анализа матрицы коэффициентов корреляции.
- •43.Подбор переменных в модели множественной регрессии на основе метода оценки информационной ёмкости.
- •44.Понятие гомоскедастичности и гетероскедастичности случайных возмущений, их графическая интерпретация.
- •45.Порядок оценивания линейной модели множественной регрессии методом наименьших квадратов (мнк) в Excel
- •46.Последствия гетероскедастичности. Тест Голдфелда-Квандта.
- •47.Предпосылки метода наименьших квадратов
- •48.Применение обобщенного метода наименьших квадратов (омнк) для случая гетероскедастичности остатков.
- •49.Применение теста Стьюдента в процедуре подбора переменных в модели множественной регрессии.
- •50.Применение фиктивных переменных при исследовании сезонных колебаний: спецификация модели, экономический смысл параметров при фиктивных переменных.
- •52.Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности.
- •53.Проверка качества эконометрической модели См.5
- •54.Прогнозирование экономических переменных. Проверка адекватности модели. См.5
- •56.Регрессионные модели с фиктивными переменными.
- •57.Роль вектора и матрицы корреляции множественной линейной модели при подборе объясняющих переменных.
- •58.Свойства дисперсии случайной переменной
- •59.Случайные переменные и их характеристики.
- •60.Смысл и значение множественной регрессии в эконометрических исследованиях. Выбор формы уравнения множественной регрессии.
- •62.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам
- •64.Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов.
- •65.Статистические свойства оценок параметров парной регрессионной модели.
- •66.Статистические характеристики выборки и генеральной совокупности статистических данных. Их соотношения.
- •67.Суть метода наименьших квадратов. Его графическое пояснение
- •68.Схема Гаусса – Маркова.
- •69.Схема построения эконометрической модели.
- •70.Теорема Гаусса – Маркова.
- •71.Тест Дарбина – Уотсона, последовательность его выполнения.
- •72.Тест Стьюдента.
- •73. Типы переменных в эконометрических моделях. Структурная и приведённая формы спецификации эконометрических моделей.
- •74. Устранение автокорреляции в парной регрессии. (см. 4)
- •75. Функция регрессии как оптимальный прогноз.
- •76. Цели и задачи эконометрики. Этапы процесса эконометрического моделирования. Классификация эконометрических моделей.
- •77. Эконометрика, её задача и метод.
- •78. Эконометрическая инвестиционная модель Самуэльсона-Хикса.
- •80. Этапы исследования зависимостей между экономическими явлениями при помощи эконометрической модели. Принципы спецификации модели. Формы эконометрических моделей.
- •81. Этапы построения эконометрических моделей
62.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам
В моделях, нелинейных по параметрам, например степенных или показательных, непосредственное применение МНК для их оценки невозможно, так как необходимым условием применимости МНК является линейность по коэффициентам уравнения регрессии. В данном случае преобразованием, которое приводит уравнение регрессии к линейному виду, является логарифмирование.
Логарифмические модели. Степенные зависимости между переменными широко распространены в практике эконометрического моделирования социально-экономических процессов. Рассмотрим уравнение парной регрессии вида
Y = AXb где А и b— параметры модели.
Линеаризуем:
прологарифмируем обе части данного уравнения: ln(Y)=ln(A) + b*ln(X) = a+ b*ln(X), где а= ln(A) (*)
Спецификация, соответствующая (*) называется двойной логарифмической моделью:
ln(Y)= a+ b*ln(X)+u,
поскольку и эндогенная переменная, и регрессор используются в логарифмической форме.
Введем обозначения: Y*=ln(Y), X*=ln(X)
Y*=a+b*X+u
Получаем спецификацию линейной модели, к которой при соответствующем включении случайного возмущения применим МНК.
В моделях, нелинейных по оцениваемым параметрам, но приводимых к линейному виду, МНК применяется к преобразованным уравнениям. Если в линейной модели и моделях, нелинейных по переменным, при оценке параметров исходят из критерия min, то в моделях, нелинейных по оцениваемым параметрам, требование МНК применяется не к исходным данным результативного признака, а к их преобразованным величинам, т. е.ln y, 1/y. Так, в степенной функции МНК применяется к преобразованному уравнению lny = lnα + β ln x ln ε. Это значит, что оценка параметров основывается на минимизации суммы квадратов отклонений в логарифмах. Соответственно если в линейных моделях то в моделях, нелинейных по оцениваемым параметрам, . Вследствие этого оценка параметров оказываются несколько смещенной.
Пусть получена МНК-оценка моделиY*=a+b*X+u:
y*=ā + bx+u
(Sā) (Sb) (Su)
Коэффициенты исходной модели и их стандартные ошибки вычисляются с учетом замены по формулам:
А^=exp(ā)
SĀ= А^*Sā
Se, Sb̄, b̄ - такие же
Нелинейный МНК:
В общем случае оценка нелинейных по параметрам уравнений выполняется с помощью так называемого нелинейного метода наименьших квадратов (НМНК).
Обозначим нелинейное по параметрам уравнение регрессии f(X, ß) (X— матрица рсгрсссоров,ß — вектор параметров). Параметры уравнений в данном методе подбираются таким образом, чтобы максимально приблизить кривую f(X, ß) к результатам
наблюдений эндогенной переменной Y. Таким образом, здесь, как и в обычном
МНК, минимизируется сумма квадратов отклонений:
F=2 (**)
Если продифференцировать F по параметрам и приравнять производные нулю, то получим нелинейную систему нормальных уравнений. В случае линейного уравнения регрессии нормальные уравнения представляли собой систему линейных уравнений, решение которой не составляло труда.
Нелинейный метод наименьших квадратов сводится к задаче минимизации функции (**) нескольких переменных ß=(ß1,…,ßn)