- •2.Автокорреляция случайного возмущения. Причины. Последствия.
- •4.Автокорреляция. Методы устранения автокорреляции
- •5.Алгоритм проверки адекватности парной регрессионной модели
- •6.Алгоритм проверки значимости регрессора в парной регрессионной модели
- •7.Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений.
- •8.Выбор типа математической функции при построении уравнения регрессии
- •9.Выведите формулы вычисления параметров модели парной регрессии
- •10.Гетероскедастичность - понятие, проявление и меры устранения.
- •11.Гетероскедастичность случайного возмущения. Причины. Последствия. Тест gq.
- •12.Двухшаговый метод наименьших квадратов для оценки параметров структурной формы модели
- •15.Индивидуальная и интервальная оценка индивидуального значения зависимой переменной
- •16.Интервальная оценка параметров уравнения парной регрессии
- •17.Классическая парная регрессионная модель. Спецификация модели. Теорема Гаусса – Маркова.
- •18.Ковариация, коэффициент корреляции и индекс детерминации
- •19.Количественные характеристики взаимосвязи пары случайных переменных.
- •20. Косвенный метод наименьших квадратов для оценки параметров структурной формы модели
- •21. Коэффициент корреляции и индекс детерминации в регрессионной модели.
- •22. Линейная модель множественной регрессии
- •23. Метод Монте-Карло, его применение в эконометрике
- •24. Метод наименьших квадратов: алгоритм метода; условия применения. Обобщённый метод наименьших квадратов
- •25. Модели с бинарными (фиктивными) переменными.
- •26. Моделирование тенденции временных рядов (аналитическое выравнивание)
- •27. Мультиколлинеарность факторов – понятие, проявление и меры устранения
- •28. Назначение теста Голдфелда-Квандта, этапы его проведения.
- •Нелинейная модель множественной регрессии Кобба-Дугласа. Оценка её коэффициентов.
- •30.Нелинейная регрессия (линеаризация, оценка параметров)
- •31.Ожидаемое значение случайной переменной, её дисперсия и среднее квадратическое отклонение.
- •32.Основные числовые характеристики вектора остатков в классической множественной регрессионной модели
- •33.Отражение в модели влияния неучтённых факторов и времени.
- •35.Оценка адекватности полученной эконометрической модели (см. 5)
- •36.Оценка коэффициентов модели Самуэльсона-Хикса
- •37.Оценка параметров множественной регрессионной модели методом наименьших квадратов.
- •38. Оценка параметров парной регрессионной модели методом наименьших квадратов.
- •39.Оценка параметров эконометрической модели
- •40.Оценка статистической значимости коэффициентов модели множественной регрессии. (см. 6)
- •41.Подбор объясняющих переменных множественной линейной модели. Алгоритм исключения квазинеизменных переменных
- •42.Подбор объясняющих переменных множественной линейной модели. Метод анализа матрицы коэффициентов корреляции.
- •43.Подбор переменных в модели множественной регрессии на основе метода оценки информационной ёмкости.
- •44.Понятие гомоскедастичности и гетероскедастичности случайных возмущений, их графическая интерпретация.
- •45.Порядок оценивания линейной модели множественной регрессии методом наименьших квадратов (мнк) в Excel
- •46.Последствия гетероскедастичности. Тест Голдфелда-Квандта.
- •47.Предпосылки метода наименьших квадратов
- •48.Применение обобщенного метода наименьших квадратов (омнк) для случая гетероскедастичности остатков.
- •49.Применение теста Стьюдента в процедуре подбора переменных в модели множественной регрессии.
- •50.Применение фиктивных переменных при исследовании сезонных колебаний: спецификация модели, экономический смысл параметров при фиктивных переменных.
- •52.Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности.
- •53.Проверка качества эконометрической модели См.5
- •54.Прогнозирование экономических переменных. Проверка адекватности модели. См.5
- •56.Регрессионные модели с фиктивными переменными.
- •57.Роль вектора и матрицы корреляции множественной линейной модели при подборе объясняющих переменных.
- •58.Свойства дисперсии случайной переменной
- •59.Случайные переменные и их характеристики.
- •60.Смысл и значение множественной регрессии в эконометрических исследованиях. Выбор формы уравнения множественной регрессии.
- •62.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам
- •64.Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов.
- •65.Статистические свойства оценок параметров парной регрессионной модели.
- •66.Статистические характеристики выборки и генеральной совокупности статистических данных. Их соотношения.
- •67.Суть метода наименьших квадратов. Его графическое пояснение
- •68.Схема Гаусса – Маркова.
- •69.Схема построения эконометрической модели.
- •70.Теорема Гаусса – Маркова.
- •71.Тест Дарбина – Уотсона, последовательность его выполнения.
- •72.Тест Стьюдента.
- •73. Типы переменных в эконометрических моделях. Структурная и приведённая формы спецификации эконометрических моделей.
- •74. Устранение автокорреляции в парной регрессии. (см. 4)
- •75. Функция регрессии как оптимальный прогноз.
- •76. Цели и задачи эконометрики. Этапы процесса эконометрического моделирования. Классификация эконометрических моделей.
- •77. Эконометрика, её задача и метод.
- •78. Эконометрическая инвестиционная модель Самуэльсона-Хикса.
- •80. Этапы исследования зависимостей между экономическими явлениями при помощи эконометрической модели. Принципы спецификации модели. Формы эконометрических моделей.
- •81. Этапы построения эконометрических моделей
70.Теорема Гаусса – Маркова.
Пусть матрица Х уравнений наблюдений имеет размер nx(k+1), где n>k+1, и обладает линейно-независимыми столбцами, а случайные возмущения( = ) удовлетворяют четырем условиям:
E(u1)=…=E(un)=0
Var(u1)=…=Var(un)=
Cov(ui,uj)=0 , i≠j
Cov(xmi,uj)=0 при всех значениях m,i,j.
Тогда:
а) наилучшая линейная процедура имеет вид:
б) эффективная линейная несмещенная оценка обладает свойством наименьших квадратов: ESS=
в) ковариационная матрица оценки вычисляется по правилу: Cov(
г) несмещенная оценка параметра , где n –число уравнений наблюдений, k+1 – количество неизвестных коэффициентов функции регрессии модели.
Следствие. Оценка , доставляемая процедурой : метода наименьших квадратов, может быть вычислена в процессе решения системы двух линейных алгебраических уравнений:
именуемой системой нормальных уравнений. Ее коэф-ты и свободные члены вычисляются по правилам:
[x] = x1 + x2 +…+ xn,
[y] = y1 + y2 +…+ yn,
[x2] = x12 + x22 +…+ xn2,
[xy] = x1*y1 + x2*y2 + … + xn*yn .
Вот явный вид решения системы:
71.Тест Дарбина – Уотсона, последовательность его выполнения.
В классической регрессионной модели выполнение третьего условия Гаусса-Маркова (Соv(εt εS) = 0,при t ≠ s) гарантирует некоррелированность значений случайных членов в различные моменты наблюдений и это позволяет получить несмещенные МНК-оценки с минимальной дисперсией. Зависимость значений случайных членов в различные моменты времени называется автокорреляцией (сериальной корреляцией).
Формальной причиной автокорреляции в регрессионных моделях является нарушение третьего условия теоремы Гаусса-Маркова, действительной же причиной может быть: неправильная спецификация переменных (пропуск важной объясняющей переменной); использование ошибочной функциональной зависимости, а иногда и характер наблюдений (например, временные ряды).
Для проверки на автокорреляцию используется ряд критериев, из которых наиболее широкое применение получил тест Дарбина-Уотсона.
Последовательность его выполнения:
1.оценка модели и вычисление остатков;
2. вычисление статистики DW:
3.выбор табличных значений границ критического значения статистики: du, dL ( по параметрам n, k, α);
4.определение интервала, в который попадает вычисленное значение статистики DW.
При этом возможны следующие случаи:
Наличие положительной автокорреляции: DW<dL.
Наличие отрицательной автокорреляции: DW >4-dL.
Автокорреляция отсутствует: dU ≤ DW≤ 4-dU.
Зоны неопределенности: dL<DW< dU или 4- dU <DW<4-dL.
72.Тест Стьюдента.
Для оценки статистической значимости коэффициентов регрессии и корреляции рассчитываются t-критерий Стьюдента и доверительные интервалы каждого из показателей.
Для оценки значимости коэффициента регрессии его величину сравнивают с его стандартной ошибкой, т.е. определяют фактическое значение t-критерия Стьюдента
где mb – стандартная ошибка параметра ,
где S остаточная дисперсия на одну степень свободы
Данный критерий затем сравнивается с табличным значением при определенном уровне значимости α и числе степеней свободы (n-2). Этот же результат можно получить после извлечения корня из F-критерия, т.е. tb=. Аналогично для параметра а.
Фактическое значение t-критерия Стьюдента определяется как
Данная формула свидетельствует о том, что в парной линейной регрессии t2r=F. Кроме того t2b=F, следовательно, t2r= t2b. Таким образом проверка гипотез о значимости коэффициентов регрессии и корреляции равносильна проверке гипотезы о значимости линейного уравнения регрессии.
Сравнивая фактическое и критическое (табличное) значения t-статистики – tтабл и tфакт - принимаем или отвергаем гипотезу H0.
Если tтабл < tфакт, то H0 отклоняется, т.е. a и b не случайно отличаются от нуля и сформировались под влиянием систематически действующего фактора х. Если tтабл > tфакт, то гипотеза Но не отклоняется и признается случайная природа формирования a и b.