
- •Автокорреляция случайного возмущения. Причины. Последствия.
- •Автокорреляция уровней временного ряда и ее последствия.
- •Автокорреляция. Методы устранения автокорреляции.
- •Алгоритм проверки адекватности парной регрессионной модели.
- •Алгоритм проверки значимости регрессора в парной регрессионной модели.
- •Алгоритм теста Голдфелда-Квандта на наличие (отсутствие) гетероскедастичности случайных возмущений.
- •Выбор типа математической функции при построении уравнения регрессии
- •Выведите формулы вычисления параметров модели парной регрессии
- •Гетероскедастичность - понятие, проявление и меры устранения
- •Гетероск-сть случайного возмущения. Причины. Последствия. Тест gq.
- •Двухшаговый метод наименьших квадратов для оценки параметров структурной формы модели
- •Индивидуальная и интервальная оценка индивидуального значения зависимой переменной
- •Интервальная оценка параметров уравнения парной регрессии
- •Классическая парная регрессионная модель. Спецификация модели. Теорема Гаусса – Маркова.
- •Ковариация, коэффициент корреляции и индекс детерминации
- •Количественные характеристики взаимосвязи пары случайных переменных.
- •Косвенный метод наименьших квадратов для оценки параметров структурной формы модели
- •Линейная модель множественной регрессии.
- •Метод Монте-Карло, его применение в эконометрике
- •Метод наименьших квадратов: алгоритм метода; условия применения. Обобщённый метод наименьших квадратов
- •Модели с бинарными фиктивными переменными.
- •Мультиколлинеарность факторов – понятие, проявление и меры устранения.
- •Методы устранения мультиколлинеарности
- •Назначение теста Голдфелда-Квандта, этапы его проведения
- •Нелинейная модель множественной регрессии Кобба-Дугласа. Оценка её коэффициентов.
- •Нелинейная регрессия (линеаризация, оценка параметров)
- •Ожидаемое значение случайной переменной, её дисперсия и среднее квадратическое отклонение.
- •Основные числовые характеристики вектора остатков в классической множественной регрессионной модели
- •Отражение в модели влияния неучтённых факторов и времени.
- •Оценивание параметров в ур-ниях тренда.
- •Оценка адекват-ти полученной эк модeли
- •Оценка коэффициентов модели Самуэльсона-Хикса
- •Оценка параметров множественной регрессионной модели методом наименьших квадратов.
- •Оценка параметров парной регрессионной модели методом наименьших квадратов.
- •Оценка параметров эконометрической модели
- •Оценка статистической значимости коэффициентов модели множественной регрессии
- •Подбор объясняющих переменных множественной линейной модели. Алгоритм исключения квазинеизменных переменных.
- •Подбор объясняющих переменных множественной линейной модели. Метод анализа матрицы коэффициентов корреляции.
- •Подбор переменных в модели множественной регрессии на основе метода оценки информационной ёмкости.
- •Понятие гомоск-сти и гетероск-сти случ-х возмущений, их графич интерпретация.
- •Порядок оценивания линейной модели множественной регрессии методом наименьших квадратов (мнк) в Excel
- •Последствия гетероскедастичности. Тест Голдфелда-Квандта.
- •Предпосылки метода наименьших квадратов
- •Применение обобщенного метода наименьших квадратов (омнк) для случая гетероскедастичности остатков.
- •Применение теста Стьюдента в процедуре подбора переменных в модели множественной регрессии.
- •Применение фиктивных переменных при исследовании сезонных колебаний: спецификация модели, экономический смысл параметров при фиктивных переменных.
- •Принципы спецификации эконометрических моделей и их формы.
- •Проблема мультиколлинеарности в моделях множественной регрессии. Признаки мультиколлинеарности
- •Проверка качества эконометрической модели
- •Прогнозирование экономических переменных. Проверка адекватности модели.
- •Простейшие модели временных рядов. Их свойства.
- •Регрессионные модели с фиктивными переменными.
- •Роль вектора и матрицы корреляции множественной линейной модели при подборе объясняющих переменных.
- •Свойства дисперсии случайной переменной
- •Случайные переменные и их характеристики.
- •Смысл и значение множественной регрессии в эконометрических исследованиях. Выбор формы уравнения множественной регрессии.
- •Составление спецификации модели временного ряда
- •Спецификация и оценивание мнк эконометрических моделей нелинейных по параметрам
- •Спецификация моделей со случайными возмущениями и преобразование их к системе нормальных уравнений.
- •Способы корректировки гетероскедастичности. Метод взвешенных наименьших квадратов.
- •Статистические свойства оценок параметров парной регрессионной модели.
- •Статистические характеристики выборки и генеральной совокупности статистических данных. Их соотношения.
- •Суть метода наименьших квадратов. Его графическое пояснение
- •Теорема Гаусса – Маркова.
- •Тест Дарбина – Уотсона, последовательность его выполнения.
- •Тест Стьюдента.
- •Типы переменных в эконометрических моделях. Структурная и приведённая формы спецификации эконометрических моделей.
- •Устранение автокорреляции в парной регрессии
- •Функция регрессии как оптимальный прогноз.
- •Цели и задачи эконометрики. Этапы процесса эконометрического моделирования. Классификация эконометрических моделей.
- •Эконометрика, её задача и метод
- •Эконометрическая инвестиционная модель Самуэльсона-Хикса.
- •Экспоненциальное сглаживание временного ряда.
- •Этапы исследования зависимостей между экономическими явлениями при помощи эконометрической модели. Принципы спецификации модели. Формы эконометрических моделей.
- •Структурная и приведенная формы модели системы эконометрических уравнений
- •Этапы построения эконометрических моделей.
Роль вектора и матрицы корреляции множественной линейной модели при подборе объясняющих переменных.
Объясняющие переменные в линейной эконометрической модели должны обладать следующими свойствами:
• иметь высокую вариабельность;
• быть сильно коррелированными с объясняемой переменной;
• быть слабо коррелированными между собой;
• быть сильно коррелированными с представляемыми ими другими переменными, не используемыми в качестве объясняющих*.
Объясняющие переменные подбираются с помощью статистических методов.
Процедура подбора переменных состоит из следующих этапов:
На основе накопленных знаний составляется множество так называемых потенциальных объясняющих переменных (первичных переменных), в которое включаются все важнейшие величины, влияющие на объясняемую переменную. Такие переменные будем обозначать Х1 Х2,.., Хт.
Собирается статистическая информация о реализациях как объясняемой переменной, так и потенциальных объясняющих переменных. Формируется вектор у наблюдаемых значений переменной Y и матрица X наблюдаемых значений переменных Х1, Х2, ..., Хт в виде
3. Исключаются потенциальные объясняющие переменные, характеризующиеся слишком низким уровнем вариабельности.
Рассчитываются коэффициенты корреляции между всеми рассматриваемыми переменными.
Множество потенциальных объясняющих переменных редуцируется с помощью выбранной статистической процедуры
Вектор и матрица коэффициентов корреляции
Для оценивания силы линейной зависимости объясняемой переменной Y от потенциальных объясняющих переменных Х1, Х2, .., Хт рассчитываются коэффициенты корреляции
Эти коэффициенты представляются в виде вектора корреляции:
Коэффициенты корреляции между потенциальными объясняющими переменными Х1, Х2, ..., Хт рассчитываются по формуле
образуют матрицу корреляции R:
Матрица R симметрична, т. е. rij= rji
Свойства дисперсии случайной переменной
Дисперсией D(X) случайной величины Х называется математическое ожидание квадрата её отклонения от математического ожидания: D(X)=M[X-M(X)]2 или D(X)=M(X-a)2 где a=M(X).
(Для дисперсии СВ Х используется также обозначение Var(X).)
Дисперсия характеризует отклонение (разброс, рассеяние, вариацию) значений СВ относительно среднего значения.
Если СВ Х – дискретная с конечным числом значений, то
.
Дисперсия D(X) имеет размерность квадрата СВ, что не всегда удобно. Поэтому в качестве показателя рассеяния используют также величину .
Свойства дисперсии СВ:
1) D(C)=0, где C – постоянная величина;
2) D(kX)=k2D(X);
3) D(X)=M(X2)-a2 где a=M(X);
4)D(X+Y)=D(X-Y)=D(X)+D(Y), где X и Y – независимые случайные величины.
Случайные переменные и их характеристики.
Переменная величина х с областью изменения Х называется случайной, если свои возможные значения q из множества Х переменная х принимает в результате некоторого опыта со случайными элементарными исходами вида w:х=q. Это элементарное событие означает, что переменная величина х в опыте приняла значение q.
Случайная переменная именуется дискретной случайной величиной, если множество Х состоит из конечного или счетного количества констант qi . Случайная переменная х именуется непрерывной случайной переменной, если множество Х является промежутком числовой прямой и вероятность каждого элементарного исхода равна 0.
Полной характеристикой случайной переменной х служит ее дифференциальный закон распределения. Так называется функция Px(q) скалярного аргумента q, определенная на всей числовой прямой, характеризующая объективную возможность появления в опыте значений q случайной переменной х. Если х – дискретная случайная переменная, то
Cледовательно Рх (qi) –это вероятность появления в опыте значения qi случайной переменной х. Функция именуется вероятностной функцией дискретной случайной переменной х.
Так же важную роль имеют две количественные характеристики случайной переменной х: математическое ожидание (или среднее значение) и дисперсия.
Мат.ожидание:
- Определение взвешенного среднего E(X) для ожидаемого значения X:
E(X) – это константа, вокруг которой рассеяны возможные значения q случайной переменной х.
Математическое ожидание функции дискретных случайных величин:
О
пределение
E[g(X)],
ожидаемого значения функции от X:
Пример:
Дисперсия и стандартное отклонение:
Дисперсия – это средний квадрат разброса возможных значений случайной переменной х относительно ее ожидаемого значения. Положительный квадратный корень из дисперсии называется средним квадратическим отклонением.
sх2 = E [(X - m)2] - дисперсия или sх2 = E(X2) - m2
sх – стандартное отклонение