- •2. Автокорреляция случайных возмущений: определение, причины, последствия, количественные характеристики вектора случайных возмущений в условиях автокорреляции
- •3.Алгоритм проверки адекватности множественной регрессионной модели
- •4. Алгоритм проверки значимости регрессоров в множественной регрессионной модели: выдвигаемая статистическая гипотеза, процедура ее проверки, формулы для расчета статистики
- •5. Анализ влияния факторов на зависимую переменную по модели регрессии
- •6. Анализ матрицы коэффициентов парной корреляции. Проверка значимости коэффициентов корреляции
- •7. Способы включения случайного возмущения в спецификацию нелинейной модели
- •8. Гетероскедастичность случайного возмущения: определение, причины, последствия, количественные характеристики вектора случайных возмущений в условиях гетероскедастичности
- •9. Диагностика эконометрических моделей: тестирование гетероскедастичности случайного возмущения (тест Голдфельда-Квандта)
- •10. Диагностика эконометрических моделей: тестирование гетероскедастичности случайного возмущения (тест Уайта)
- •11. Диагностика эконометрических моделей: тестирование значимости структурных изменений в экономике (тест Чоу)
- •12. Диагностика эконометрических моделей: тестирование функциональной формы (тест Рэмси reset)
- •13. Классификация эконометрических моделей для панельных данных
- •14. Классическая множественная регрессионная модель: спецификация, предпосылки
- •15. Классическая множественная регрессионная модель: числовые характеристики вектора мнк-оценок параметров.
- •16. Классическая множественная регрессионная модель: числовые характеристики вектора оценок эндогенной переменной
- •17. Классическая множественная регрессионная модель: числовые характеристики вектора ошибок прогнозов
- •19. Линейно-вероятностная модель с дискретной зависимой переменной. Спецификация модели
- •20. Матричная форма метода наименьших квадратов: спецификация множественной регрессионной модели в матричной форме, вывод оценки вектора параметров модели
- •21. Методы обнаружения мультиколлинеарности
- •22. Модели бинарного выбора. Логит и пробит модели
- •23. Модель панельных данных со случайными эффектами
- •24. Объединённая модель панельных данных
- •25. Модели для панельных данных: типы моделей
- •26. Модель бинарного выбора: Спецификация модели. Оценка параметров модели методом максимального правдоподобия
- •Линейно-вероятностная модель (lpm-Linear Probability Model)
- •27. Мультиколлинеарность и методы ее устранения
- •28. Обобщенный метод наименьших квадратов
- •29. Обобщенный метод наименьших квадратов структурных изменений в экономике: использование фиктивных переменных, тест Чоу
- •30. Определение структурных изменений в экономике: использование фиктивных переменных, тест Чоу
- •31. Основные числовые характеристики вектора остатков в классической множественной регрессионной модели. Оценка дисперсии возмущений модели множественной регрессии
- •32. Основные этапы эконометрического моделирования
- •Сбор статистической информации об объекте исследования
- •Оценка параметров модели (параметризация, настройка)
- •Проверка адекватности модели (верификация)
- •33. Оценка параметров парной регрессионной модели методом наименьших квадратов (суть метода, вывод формул для нахождения оценок коэффициентов через систему нормальных уравнений)
- •35. Показатели качества модели: коэффициент детерминации (обычный, скорректированный)
- •36. Пошаговые процедуры отбора факторов в модель регрессии
- •38. Проблема мультиколлинеарности в моделях множественной регрессии. Виды мультиколлинеарности, признаки, последствия
- •39. Проблема мультиколлинеарности в моделях множественной регрессии: полная мультиколлинеарность (определение, последствия, пример способа устранения)
- •40. Последствия и признаки частичной мультиколлинеарности
- •41. Прогнозирование на основе модели множественной регрессии
- •42. Свойства оценок мнк (определения и смысл)
- •43. Структурная и приведённая формы спецификации эконометрических моделей
- •44. Схема проведения эконометрических исследований (краткая характеристика каждого этапа)
- •46. Тест Бреуша-Годфри на наличие (отсутствие) автокорреляции случайных возмущений: предпосылки, нулевая гипотеза, тестовая статистика, алгоритм
- •47. Тест Дарбина-Уотсона на наличие (отсутствие) автокорреляции случайных возмущений: предпосылки, нулевая гипотеза, тестовая статистика, алгоритм
- •48. Тестирование мультиколлинеарности. Метод Фаррара-Глоубера
- •49. Типы нелинейности эконометрических моделей. Оценивание эконометрических моделей нелинейных по переменным
- •51. Модель Кобба-Дугласа. Оценка линеаризуемой нелинейной модели и проверка ее адекватности.
- •52. Типы переменных в эконометрических моделях. Типы экономических моделей (примеры)
- •Модели временных рядов;
- •Регрессионные модели с одним уравнением;
- •Системы одновременных уравнений
- •53. Фиктивные переменные наклона. Спецификация моделей. Примеры
- •54. Фиктивные переменные: определение, назначение, типы (спецификация, смысл параметра при фиктивной переменной)
- •55. Эконометрическое исследование: определение, задача, цель, метод. Назначение эконометрических моделей
- •56. Доступный метод взвешенных наименьших квадратов: способ корректировки переменных; числовые характеристики возмущений в преобразованной модели
- •57. Способы корректировки автокорреляции: алгоритм метода Кохрейна-Оркатта.
- •58. Способы корректировки автокорреляции: алгоритм метода Хилдрета-Лу
- •59. Способы корректировки автокорреляции: поправка Прайса-Уинстона в авторегрессионной схеме первого порядка
- •60. Методы обнаружения мультиколлинеарности. Метод дополнительных регрессий
14. Классическая множественная регрессионная модель: спецификация, предпосылки
Изучение связи между 3-мя и более связанными между собой признаками - множественная регрессия. При исследовании зависимостей методами множественной регрессии ставятся задачи:
1) Определить аналитическое выражение связи между показателями;
2) Оценить построенную модель.
3) Оценить параметры уравнения.
Основная цель множественной регрессии - построить уравнение с большим количеством факторов, определить влияние каждого фактора в отдельности, а также оценить совокупное влияние факторов на моделируемый показатель.
Построение модели множественной регрессии включает следующие этапы:
Выбор формы связи: выбор типа уравнения осложняется тем, что для любой формы зависимости выбирается целый ряд уравнений, которые в определенной степени будут описывать связь между показателями. Наиболее приемлемым способом является способ перебора различных уравнений. Сущность данного способа заключается в решении большого числа уравнений регрессий, отобранных для описания связи какого-либо экономического явления.
Статистическая проверка значимости уравнения и параметров с помощью F и t критериев. Способ перебора является достаточно трудоемким и связан с большим количеством вычислительных работ. Практика построения многофакторных моделей показывает, что все реально существующие зависимости между экономическими явлениями, можно описать, используй 5 типов моделей: линейная ф-я, парабола, гипербола, степенная ф-я, показательная ф-я. Основное значение имеют линейные модели в силу простоты и логичности их эконометрической интерпретации. Нелинейные модели приводят в линейному виду путем линеаризации (приведение уравнения к линейному виду).
Отбор факторных показ-лей;
Оценка факторов построенной модели.
Принципы спецификации эконометрических моделей:
Экономико-математическая модель строится по результатам математической формализации закономерностей общей экономической теории;
Количество уравнений в спецификации должно соответствовать количеству эндогенных переменных в модели;
В эконометрических моделях учитывается фактор времени;
В эконометрическую модель должны быть включены случайные возмущения (влияние не учтенных в модели факторов).
15. Классическая множественная регрессионная модель: числовые характеристики вектора мнк-оценок параметров.
16. Классическая множественная регрессионная модель: числовые характеристики вектора оценок эндогенной переменной
17. Классическая множественная регрессионная модель: числовые характеристики вектора ошибок прогнозов
Множественная регрессия позволяет построить и проверить модель линейной связи между зависимой (эндогенной) и несколькими независимыми (экзогенными) переменными: y = f(x1,...,xр ), где у - зависимая переменная (результативный признак); х1,...,хр - независимые переменные (факторы).
ε=(ε1,...,εn)T- вектор-столбец случ.возмущений. Относительно него принимаются следующие предпосылки - условия Гаусса:
E(ε)=0;
Cεε=E(εεT)=σ2In - автоковар. матрица вектора возмущений, In - единич. матрица n*n;
ε~N(0,σ2In) - норм. распределенный случ.вектор с нулевым мат.ожиданием и автоковар.матрицейCεε.
Как и в случае парной модели, оценка дисперсии возмущений выражается так:
σ2 = ∑e2t=eTe, где
e = Y-Ŷ = Y - Xb~ =Y - XAY = Y-NY = (I-N)Y = MY = М(Xb+ε) = Мε - n-мерный вектор-столбец остатков регрессии - случайный вектор. Матрицы M и N - идемпотентны.
Несмещенной оценкой дисперсии возмущений является оценка вида s2= σ~2=∑e2t/(n-k)=eTe/(n-k), где k - число параметров модели.
18. Коэффициент детерминации в парной регрессионной модели: определение, расчетная формула, смысл компонентов формулы, смысл коэффициента детерминации. Скорректированный коэффициент детерминации во множественной регрессионной модели
Линейная парная регрессионная модель используется для описания взаимосвязи двух переменных Y и X, если имеется предположения, что между ними существует линейная стохастическая зависимость: y=a+bx+ε, где а и b – параметры модели (постоянные неизвестные коэффициенты); Х- независимая переменная; Y— зависимая переменная; ε - случайная переменная (возмущение, ошибка), возникающая из-за влияния различных неучтенных факторов.
Уравнение для отдельных наблюдений зависимой переменной Y записывается в виде: yt=a+bxt+εt
где ХtYt, - набор данных (наблюдений), t = 1, 2,..., n;
Xt – экзогенная переменная модели); εt - случайная ошибка в наблюдении t.
Если отклонение зависимой переменной Yt, от ее выборочного среднего значения представить в виде суммы двух отклонений:
и выборочную дисперсию var(Y) можно представить в виде двух частей:
Часто это уравнение записывают так:
TSS = ESS + RSS,
где TSS = var(Y) – полная дисперсия (общая сумма квадратов отклонений зависимой переменной от ее выборочного значения);
ESS = Σ(Yt-Ŷt)2 – часть дисперсии, необъясненная регрессией (т.к. она содержит ошибки регрессии εt);
-
часть дисперсии, объясненная регрессией
(объясненная сумма квадратов отклонений).
Качество подгонки регрессионной модели к наблюденным значениям Yt оценивается при помощи статистики R2 (коэффициента детерминации).
Коэффициент детерминации определяется по формуле:
R2 = 1-ESS / TSS = RSS / TSS; 0≤R2≤1
Чем ближе значение коэффициента детерминации к 1, тем лучше качество подгонки и прогноз Ŷ более точно аппроксимирует Y.
Для проверки значимости коэффициента детерминации используется F-статистика:
где k - число независимых переменных.
Связь между статистиками F и R2 для случая парной регрессии (k = 1) имеет вид
