
- •Автокорреляция случайного возмущения. Причины. Последствия.
- •Автокорреляция уровней временного ряда и ее последствия.
- •Автокорреляция. Методы устранения автокорреляции.
- •Алгоритм проверки адекватности парной регрессионной модели.
- •Алгоритм проверки значимости регрессора в парной регрессионной модели.
- •Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений.
- •Выбор типа математической функции при построении уравнения регрессии
- •Выведите формулы вычисления параметров модели парной регрессии
- •Гетероскедастичность - понятие, проявление и меры устранения
- •Гетероск-сть случайного возмущения. Причины. Последствия. Тест gq.
- •Двухшаговый метод наименьших квадратов для оценки параметров структурной формы модели
- •Индивидуальная и интервальная оценка индивидуального значения зависимой переменной
- •Интервальная оценка параметров уравнения парной регрессии
- •Классическая парная регрессионная модель. Спецификация модели. Теорема Гаусса – Маркова.
- •Ковариация, коэффициент корреляции и индекс детерминации
- •Количественные характеристики взаимосвязи пары случайных переменных.
- •Косвенный метод наименьших квадратов для оценки параметров структурной формы модели
- •Линейная модель множественной регрессии.
- •Метод Монте-Карло, его применение в эконометрике
- •Метод наименьших квадратов: алгоритм метода; условия применения. Обобщённый метод наименьших квадратов
- •Модели с бинарными фиктивными переменными.
- •Мультиколлинеарность факторов – понятие, проявление и меры устранения.
- •Методы устранения мультиколлинеарности
- •Назначение теста Голдфелда-Квандта, этапы его проведения
- •Нелинейная модель множественной регрессии Кобба-Дугласа. Оценка её коэффициентов.
- •Нелинейная регрессия (линеаризация, оценка параметров)
- •Ожидаемое значение случайной переменной, её дисперсия и среднее квадратическое отклонение.
- •Основные числовые характеристики вектора остатков в классической множественной регрессионной модели
- •Отражение в модели влияния неучтённых факторов и времени.
- •Оценивание параметров в ур-ниях тренда.
- •Оценка адекват-ти полученной эк модeли
- •Оценка коэффициентов модели Самуэльсона-Хикса
- •Оценка параметров множественной регрессионной модели методом наименьших квадратов.
- •Оценка параметров парной регрессионной модели методом наименьших квадратов.
- •Оценка параметров эконометрической модели
- •Оценка статистической значимости коэффициентов модели множественной регрессии
- •Подбор объясняющих переменных множественной линейной модели. Алгоритм исключения квазинеизменных переменных.
- •Подбор объясняющих переменных множественной линейной модели. Метод анализа матрицы коэффициентов корреляции.
- •Подбор переменных в модели множественной регрессии на основе метода оценки информационной ёмкости.
- •Понятие гомоск-сти и гетероск-сти случ-х возмущений, их графич интерпретация.
- •Порядок оценивания линейной модели множественной регрессии методом наименьших квадратов (мнк) в Excel
- •Последствия гетероскедастичности. Тест Голдфелда-Квандта.
- •Предпосылки метода наименьших квадратов
- •Применение обобщенного метода наименьших квадратов (омнк) для случая гетероскедастичности остатков.
- •Применение теста Стьюдента в процедуре подбора переменных в модели множественной регрессии.
- •Применение фиктивных переменных при исследовании сезонных колебаний: спецификация модели, экономический смысл параметров при фиктивных переменных.
- •Принципы спецификации эконометрических моделей и их формы.
- •Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности
- •Проверка качества эконометрической модели
- •Прогнозирование экономических переменных. Проверка адекватности модели.
- •Простейшие модели временных рядов. Их свойства.
- •Регрессионные модели с фиктивными переменными.
- •Роль вектора и матрицы корреляции множественной линейной модели при подборе объясняющих переменных.
- •Свойства дисперсии случайной переменной
- •Случайные переменные и их характеристики.
- •Смысл и значение множественной регрессии в эконометрических исследованиях. Выбор формы уравнения множественной регрессии.
- •Составление спецификации модели временного ряда
- •Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам
- •Спецификация моделей со случайными возмущениями и преобразование их к системе нормальных уравнений.
- •Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов.
- •Статистические свойства оценок параметров парной регрессионной модели.
- •Статистические характеристики выборки и генеральной совокупности статистических данных. Их соотношения.
- •Суть метода наименьших квадратов. Его графическое пояснение
- •Теорема Гаусса – Маркова.
- •Тест Дарбина – Уотсона, последовательность его выполнения.
- •Тест Стьюдента.
- •Типы переменных в эконометрических моделях. Структурная и приведённая формы спецификации эконометрических моделей.
- •Устранение автокорреляции в парной регрессии
- •Функция регрессии как оптимальный прогноз.
- •Цели и задачи эконометрики. Этапы процесса эконометрического моделирования. Классификация эконометрических моделей.
- •Эконометрика, её задача и метод
- •Эконометрическая инвестиционная модель Самуэльсона-Хикса.
- •Экспоненциальное сглаживание временного ряда.
- •Этапы исследования зависимостей между экономическими явлениями при помощи эконометрической модели. Принципы спецификации модели. Формы эконометрических моделей.
- •Структурная и приведенная формы модели системы эконометрических уравнений
- •Этапы построения эконометрических моделей.
Классическая парная регрессионная модель. Спецификация модели. Теорема Гаусса – Маркова.
Зависимость между экономическими переменными типа Y=f(X)+ε (где f(X) – часть эндогенной (зависимой) переменной, полностью объясняемая значением экзогенной (независимой) переменной Х и называемая уравнением регрессии; ε – случайное возмущение – часть зависимой переменной, которая не может быть объяснена значением Х) называется регрессионной зависимостью, эконометрические модели со спецификацией вида: Y=f(X)+ε - регрессионноыми моделями. Регрессионная зависимость является обобщением функциональной зависимости между переменными и при ε=0 сводится к ней.
Независимые переменные в регрессионных моделях называются регрессорами. В зависимости от типа уравнения регрессии регрессионные модели подразделяются на линейные и нелинейные. В зависимости от количества регрессоров, входящих в спецификацию, регрессионные модели подразделяются на модели парной (простой, двумерной) регрессии и модели множественной (многомерной) регрессии. В парной регрессионной модели эндогенная переменная зависит только от одного регрессора.
Спецификация парной линейной регрессионной модели имеет вид Y=a+bX+ε, где а и b – параметры модели, Х – экзогенная переменная (независимая) – регрессор, У – эндогенная переменная (зависимая) – отклик (случайная величина), ε – случайное возмущение (случайная величина), характеризующее отклонение от уравнения регрессии f(X)=a+bX.
Уравнения для отдельных наблюдений зависимой переменной У записываются в виде (схема Гаусса-Маркова) Yt=a+bXt+εt , где Yt, Xt, t=1,..,n – выборочные данные (наблюдения), n – объем выборки (количество наблюдений).
Относительно возмущений εt, t=1,…,n, в регрессионных моделях принимаются следующие предположения (условия Гаусса-Маркова):
математическое ожидание случайных возмущений равно нулю (Е{εt}=0, t=1,…,n)
дисперсия возмущений постоянна и не зависит от номера (момента) наблюдений t:Var{ εt}=constt=сигма2
возмущения для различных наблюдений некоррелированы: Cov{ εt, εs}=0 при t неравно s
Регрессионная модель Y=a+bX+ε с учетом условий Гаусса-Маркова называется классической регрессионной моделью.
Ковариация, коэффициент корреляции и индекс детерминации
Ковариация
в теории
вероятностей
и математической
статистике мера
линейной зависимости
двух случайных
величин.
Корреляция - статистическая взаимосвязь двух или нескольких случайных величин.
Коэффициент
детерминации (R2)—
это доля дисперсии
отклонений зависимой переменной от её
среднего
значения, объясняемая рассматриваемой
моделью
связи.
Модель связи обычно задается как явная
функция от объясняющих переменных.
Общая формула для вычисления коэффициента
детерминации:
где
yi — наблюдаемое значение зависимой
переменной, а fi — значение зависимой
переменной предсказанное по уравнению
регрессии
-среднее
арифметическое зависимой переменной.
Коэффициент детерминации является случайной переменной.
Количественные характеристики взаимосвязи пары случайных переменных.
Переменная величина x с множеством возможных значений Ax называется случайной, если ее возможные значения ti появляются в некотором опыте со случайными элементарными исходами ui вида: ui: x= ti, где ti.
Для описания случайных величин часто используются их числовые характеристики – числа, в сжатой форме выражающие наиболее существенные черты распределения СВ. Наиболее важными из них являются математическое ожидание, дисперсия, среднее квадратическое отклонение и др.
Математическим ожиданием, или средним значением, М(Х) дискретной случайной величины Х называется сумма произведений всех её значений на соответствующие им вероятности:
Для
мат. ожидания используют также обозначения:
E(X),
При
n→∞ мат. ожидание представляет сумму
ряда
,
если он абсолютно сходится.
Свойства мат. ожидания:
1) M(C)=C, где C – постоянная величина;
2) M(kX)=kM(X);
3)M(X±Y)=M(X)±M(Y);
4) M(XY)=M(X)•M(Y), где X,Y – независимые случайные величины;
5) M(X±C)=M(X)±C
6) M(X-a)=0, где a=M(X).
Дисперсией D(X) случайной величины Х называется математическое ожидание квадрата её отклонения от математического ожидания: D(X)=M[X-M(X)]2 или D(X)=M(X-a)2 (3), где a=M(X).
(Для дисперсии СВ Х используется также обозначение Var(X).)
Дисперсия характеризует отклонение (разброс, рассеяние, вариацию) значений СВ относительно среднего значения.
Если
СВ Х – дискретная с конечным числом
значений, то
.
(4)
Дисперсия
D(X) имеет размерность квадрата СВ, что
не всегда удобно. Поэтому в качестве
показателя рассеяния используют также
величину
.
Средним квадратическим отклонением (стандартным отклонением или стандартом) σх случайной величины Х называется арифметическое значение корня квадратного из её дисперсии:
. (5)
Свойства дисперсии СВ:
1) D(C)=0, где C – постоянная величина;
2) D(kX)=k2D(X);
3) D(X)=M(X2)-a2 где a=M(X);
4)D(X+Y)=D(X-Y)=D(X)+D(Y), где X и Y – независимые случайные величины.
ковариация двух случайных переменных
По определению ковариацией двух случайных переменных X и Yесть:
COV(x,y)=M((x-M(x))(y-M(y))) (4.6)
Значение ковариации отражает наличие связи между двумя случайными переменными
Если COV(x,y)>0, связь между X и Y полож-ая
Если COV(x,y)<0, связь между X и Y отриц-ная
Если COV(x,y)=0, X и Y независ переменные
Обл-ть возмож знач-й ков-ции – вся числ-ая ось
Свойства ковариаций
Cov(x,y) = Cov(y,x)
Cov(c1x1 + c2x2)=c1c2Cov(x1,x2)
Cov(cx) 0
Cov(x+c,y) = Cov(x,y)
Cov(x+y,z) = Cov(x,z) + Cov(y,z)
Cov(x,x) = σ2(x)
коэффициент корреляции 2х случ переменных
Недостатки ковариации в том, что ее значения зависят от масштаба измерения переменных и наличии размерности
Недостатки устраняется путем деления значения ковариации на значения стандартных отклонений переменных:
(4.7)
Выражение (4.7) называют коэффициентом корреляции двух случайных переменных
Коэффициент корреляции изменяется в пределах [-1;1] и является безразмерной величиной