- •2.Автокорреляция случайного возмущения. Причины. Последствия.
- •4.Автокорреляция. Методы устранения автокорреляции
- •5.Алгоритм проверки адекватности парной регрессионной модели
- •6.Алгоритм проверки значимости регрессора в парной регрессионной модели
- •7.Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений.
- •8.Выбор типа математической функции при построении уравнения регрессии
- •9.Выведите формулы вычисления параметров модели парной регрессии
- •10.Гетероскедастичность - понятие, проявление и меры устранения.
- •11.Гетероскедастичность случайного возмущения. Причины. Последствия. Тест gq.
- •12.Двухшаговый метод наименьших квадратов для оценки параметров структурной формы модели
- •15.Индивидуальная и интервальная оценка индивидуального значения зависимой переменной
- •16.Интервальная оценка параметров уравнения парной регрессии
- •17.Классическая парная регрессионная модель. Спецификация модели. Теорема Гаусса – Маркова.
- •18.Ковариация, коэффициент корреляции и индекс детерминации
- •19.Количественные характеристики взаимосвязи пары случайных переменных.
- •20. Косвенный метод наименьших квадратов для оценки параметров структурной формы модели
- •21. Коэффициент корреляции и индекс детерминации в регрессионной модели.
- •22. Линейная модель множественной регрессии
- •23. Метод Монте-Карло, его применение в эконометрике
- •24. Метод наименьших квадратов: алгоритм метода; условия применения. Обобщённый метод наименьших квадратов
- •25. Модели с бинарными (фиктивными) переменными.
- •26. Моделирование тенденции временных рядов (аналитическое выравнивание)
- •27. Мультиколлинеарность факторов – понятие, проявление и меры устранения
- •28. Назначение теста Голдфелда-Квандта, этапы его проведения.
- •Нелинейная модель множественной регрессии Кобба-Дугласа. Оценка её коэффициентов.
- •30.Нелинейная регрессия (линеаризация, оценка параметров)
- •31.Ожидаемое значение случайной переменной, её дисперсия и среднее квадратическое отклонение.
- •32.Основные числовые характеристики вектора остатков в классической множественной регрессионной модели
- •33.Отражение в модели влияния неучтённых факторов и времени.
- •35.Оценка адекватности полученной эконометрической модели (см. 5)
- •36.Оценка коэффициентов модели Самуэльсона-Хикса
- •37.Оценка параметров множественной регрессионной модели методом наименьших квадратов.
- •38. Оценка параметров парной регрессионной модели методом наименьших квадратов.
- •39.Оценка параметров эконометрической модели
- •40.Оценка статистической значимости коэффициентов модели множественной регрессии. (см. 6)
- •41.Подбор объясняющих переменных множественной линейной модели. Алгоритм исключения квазинеизменных переменных
- •42.Подбор объясняющих переменных множественной линейной модели. Метод анализа матрицы коэффициентов корреляции.
- •43.Подбор переменных в модели множественной регрессии на основе метода оценки информационной ёмкости.
- •44.Понятие гомоскедастичности и гетероскедастичности случайных возмущений, их графическая интерпретация.
- •45.Порядок оценивания линейной модели множественной регрессии методом наименьших квадратов (мнк) в Excel
- •46.Последствия гетероскедастичности. Тест Голдфелда-Квандта.
- •47.Предпосылки метода наименьших квадратов
- •48.Применение обобщенного метода наименьших квадратов (омнк) для случая гетероскедастичности остатков.
- •49.Применение теста Стьюдента в процедуре подбора переменных в модели множественной регрессии.
- •50.Применение фиктивных переменных при исследовании сезонных колебаний: спецификация модели, экономический смысл параметров при фиктивных переменных.
- •52.Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности.
- •53.Проверка качества эконометрической модели См.5
- •54.Прогнозирование экономических переменных. Проверка адекватности модели. См.5
- •56.Регрессионные модели с фиктивными переменными.
- •57.Роль вектора и матрицы корреляции множественной линейной модели при подборе объясняющих переменных.
- •58.Свойства дисперсии случайной переменной
- •59.Случайные переменные и их характеристики.
- •60.Смысл и значение множественной регрессии в эконометрических исследованиях. Выбор формы уравнения множественной регрессии.
- •62.Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам
- •64.Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов.
- •65.Статистические свойства оценок параметров парной регрессионной модели.
- •66.Статистические характеристики выборки и генеральной совокупности статистических данных. Их соотношения.
- •67.Суть метода наименьших квадратов. Его графическое пояснение
- •68.Схема Гаусса – Маркова.
- •69.Схема построения эконометрической модели.
- •70.Теорема Гаусса – Маркова.
- •71.Тест Дарбина – Уотсона, последовательность его выполнения.
- •72.Тест Стьюдента.
- •73. Типы переменных в эконометрических моделях. Структурная и приведённая формы спецификации эконометрических моделей.
- •74. Устранение автокорреляции в парной регрессии. (см. 4)
- •75. Функция регрессии как оптимальный прогноз.
- •76. Цели и задачи эконометрики. Этапы процесса эконометрического моделирования. Классификация эконометрических моделей.
- •77. Эконометрика, её задача и метод.
- •78. Эконометрическая инвестиционная модель Самуэльсона-Хикса.
- •80. Этапы исследования зависимостей между экономическими явлениями при помощи эконометрической модели. Принципы спецификации модели. Формы эконометрических моделей.
- •81. Этапы построения эконометрических моделей
57.Роль вектора и матрицы корреляции множественной линейной модели при подборе объясняющих переменных.
Объясняющие переменные в линейной эконометрической модели должны обладать следующими свойствами:
• иметь высокую вариабельность;
• быть сильно коррелированными с объясняемой переменной;
• быть слабо коррелированными между собой;
• быть сильно коррелированными с представляемыми ими другими переменными, не используемыми в качестве объясняющих*.
Объясняющие переменные подбираются с помощью статистических методов.
Процедура подбора переменных состоит из следующих этапов:
-
На основе накопленных знаний составляется множество так называемых потенциальных объясняющих переменных (первичных переменных), в которое включаются все важнейшие величины, влияющие на объясняемую переменную. Такие переменные будем обозначать Х1 Х2,.., Хт.
-
Собирается статистическая информация о реализациях как объясняемой переменной, так и потенциальных объясняющих переменных. Формируется вектор у наблюдаемых значений переменной Y и матрица X наблюдаемых значений переменных Х1, Х2, ..., Хт в виде
3. Исключаются потенциальные объясняющие переменные, характеризующиеся слишком низким уровнем вариабельности.
-
Рассчитываются коэффициенты корреляции между всеми рассматриваемыми переменными.
-
Множество потенциальных объясняющих переменных редуцируется с помощью выбранной статистической процедуры
Вектор и матрица коэффициентов корреляции
Для оценивания силы линейной зависимости объясняемой переменной Y от потенциальных объясняющих переменных Х1, Х2, .., Хт рассчитываются коэффициенты корреляции
Эти коэффициенты представляются в виде вектора корреляции:
Коэффициенты корреляции между потенциальными объясняющими переменными Х1, Х2, ..., Хт рассчитываются по формуле
образуют матрицу корреляции R:
Матрица R симметрична, т. е. rij= rji
58.Свойства дисперсии случайной переменной
Дисперсией D(X) случайной величины Х называется математическое ожидание квадрата её отклонения от математического ожидания: D(X)=M[X-M(X)]2 или D(X)=M(X-a)2 где a=M(X).
(Для дисперсии СВ Х используется также обозначение Var(X).)
Дисперсия характеризует отклонение (разброс, рассеяние, вариацию) значений СВ относительно среднего значения.
Если СВ Х – дискретная с конечным числом значений, то
.
Дисперсия D(X) имеет размерность квадрата СВ, что не всегда удобно. Поэтому в качестве показателя рассеяния используют также величину .
Свойства дисперсии СВ:
1) D(C)=0, где C – постоянная величина;
2) D(kX)=k2D(X);
3) D(X)=M(X2)-a2 где a=M(X);
4)D(X+Y)=D(X-Y)=D(X)+D(Y), где X и Y – независимые случайные величины.
59.Случайные переменные и их характеристики.
Переменная величина х с областью изменения Х называется случайной, если свои возможные значения q из множества Х переменная х принимает в результате некоторого опыта со случайными элементарными исходами вида w:х=q. Это элементарное событие означает, что переменная величина х в опыте приняла значение q.
Случайная переменная именуется дискретной случайной величиной, если множество Х состоит из конечного или счетного количества констант qi . Случайная переменная х именуется непрерывной случайной переменной, если множество Х является промежутком числовой прямой и вероятность каждого элементарного исхода равна 0.
Полной характеристикой случайной переменной х служит ее дифференциальный закон распределения. Так называется функция Px(q) скалярного аргумента q, определенная на всей числовой прямой, характеризующая объективную возможность появления в опыте значений q случайной переменной х. Если х – дискретная случайная переменная, то
Cледовательно Рх (qi) –это вероятность появления в опыте значения qi случайной переменной х. Функция именуется вероятностной функцией дискретной случайной переменной х.
Так же важную роль имеют две количественные характеристики случайной переменной х: математическое ожидание (или среднее значение) и дисперсия.
Мат.ожидание:
- Определение взвешенного среднего E(X) для ожидаемого значения X:
E(X) – это константа, вокруг которой рассеяны возможные значения q случайной переменной х.
Математическое ожидание функции дискретных случайных величин:
Определение E[g(X)], ожидаемого значения функции от X:
Пример:
Дисперсия и стандартное отклонение:
Дисперсия – это средний квадрат разброса возможных значений случайной переменной х относительно ее ожидаемого значения. Положительный квадратный корень из дисперсии называется средним квадратическим отклонением.
sх2 = E [(X - m)2] - дисперсия или sх2 = E(X2) - m2
sх – стандартное отклонение