- •1. Эконометрическое исследование: определение, задача, цель. Назначение эконометрических моделей.
- •2. Схема проведения эконометрических исследований (краткая характеристика каждого этапа).
- •3. Принципы спецификации эконометрических моделей.
- •4. Типы переменных в эконометрических моделях. Типы экономических моделей (примеры).
- •5. Структурная и приведённая формы спецификации эконометрических моделей (на примере макромодели).
- •6. Классическая парная регрессионная модель (определение и спецификация модели).
- •7. Оценка параметров парной регрессионной модели методом наименьших квадратов (суть метода, вывод формул для нахождения оценок коэффициентов через систему нормальных уравнений).
- •8. Матричная форма метода наименьших квадратов: спецификация парной регрессионной модели в матричной форме, необходимые условия экстремума в матричном виде, вывод оценки вектора параметров модели.
- •9. Теорема Гаусса-Маркова (формулировка, смысл условий и вывода).
- •10. Линейная модель множественной регрессии. Порядок её оценивания методом наименьших квадратов в Excel. Смысл выходной статистической информации функции линейн.
- •11. Алгоритм проверки значимости регрессоров во множественной регрессионной модели: выдвигаемая статистическая гипотеза, процедура ее проверки.
- •14. Алгоритм проверки адекватности множественной регрессионной модели.
- •15. Гетероскедастичность случайного возмущения: определение, причины, последствия, количественные характеристики вектора случайных возмущений в условиях гетероскедастичности.
- •16. Автокорреляция случайного возмущения: определение, причины, последствия, количественные характеристики вектора случайных возмущений в условиях автокорреляции.
- •18. Проблема мультиколлинеарности в моделях множественной регрессии. Виды мультиколлинеарности, признаки, последствия. Методы устранения мультиколлинеарности.
- •20. В чем состоит задача эконометрики?
- •21. Принципы спецификации модели.
- •22. Эндогенные переменные модели конкурентного равновесного рынка
- •23. Экзогенные переменные модели конкурентного равновесного рынка
- •24. Группа предопределённых переменных
- •25. Структурная и приведённая форма модели
- •26. Структурная форма спецификации модели конкурентного рынка
- •27. Оценка ковариации случайных переменных
- •28. Оценка дисперсии случайных переменных
- •29. В чем состоит мнк?
- •30. Эконометрика как наука, определение, основные цели и задачи.
- •31. Этапы построения моделей, их практическое содержание и особенности.
- •32. Базовые понятия эконометрики: экономический объект, переменные объекта, параметры и их взаимосвязи. Примеры экономических моделей.
- •33. Принципы спецификации эконометрических моделей и их содержание.
- •34. Классификация переменных эконометрических моделей.
- •35. Классификация моделей и их формы.
- •36. Формы эконометрических моделей. Переход от структурной к приведенной форме модели.
- •37. Учет случайности характера взаимодействия переменных в экономических объектах. Общий вид эконометрической модели.
- •38. Модели временных рядов, их спецификация.
- •39. Понятие оценки и требования, предъявляемые к оценкам параметров моделей.
- •40. Метод наименьших квадратов, основные понятия и определения.
- •41. Расчет оценок параметров уравнения парной регрессии методом наименьших квадратов.
- •42. Линейный множественный регрессионный анализ
- •43. Проверка значимости множественного уравнения регрессии
- •44. Множественный корреляционный анализ.
- •45. Парные коэффициенты корреляции
- •46. Значимость парных коэффициентов корреляции
- •47. Множественный нелинейный регрессионный анализ
- •48. Линеаризация внутреyнелинейных форм уравнений
- •49. Отличия между регрессионным и корреляционным анализом.
- •50. Задача множественного регрессионного анализа.
- •51. Интерполяция и экстраполяция
- •5 2. Проверка значимости множественного уравнения регрессии.
27. Оценка ковариации случайных переменных
Под случайной величиной понимается переменная, которая в результате испытания в зависимости от случая принимает одно из возможного множества своих значений (какое именно – заранее не известно).
Ковариация служит для характеристики тесноты связи между случайными величинами. Если (x,y) — пара случайных переменных, то их ковариацией называется константа Сху=Cov(x,y)=E(x·y)-E(x)·E(y)
Свойства математического ожидания позволяют представить Сху и так: Сху=E((x-mx)·(y-my)), где mx=E(x), my=E(y)
Для вычисления Сху нужно знать закон распределения Pxy(q, r) пары (x,y). Если он неизвестен, то ковариацию можно оценить по выборке из генеральной совокупности Ω(x,y): {(x1, y1), (x2, y2),…,(xn, yn)}
Оценкой ковариации служит величина именуемая выборочной ковариацией.
Также тесноту связи определяют при помощи коэффициента корреляции. Существует разные модификации формула данного показателя:
,
причем -1≤rxy≤1
Если |rxy|=1, то y=a0+a1x. Так что при |rxy|=1 между переменными (x,y) существует жесткая (функциональная) линейная связь.
28. Оценка дисперсии случайных переменных
Оценку дисперсии случайных возмущений можно получить, используя МНК. Для этого должны выполняться предпосылки теоремы Гаусса-Маркова:
ü математическое ожидание случайного возмущения при фиксированном значении предопределенной переменной равно 0
ü дисперсия случайных возмущений во всех наблюдениях одинакова и равна константе (условие гомоскедастичности)
ü ковариация между парами случайных возмущений в наблюдениях =0
ü ковариация между вектором регрессоров и вектором случайных возмущений =0, то есть регрессоры и случайные возмущения независимы.
Оценка ошибки случайных возмущений ищется через дисперсию (согласно теореме Гаусса-Маркова)
=
=
|
|
На практике применяется не оценка дисперсии, а оценка СКО, как мера адекватности.
В эконометрике важную роль играют две количественные характеристики случайной переменной х: математическое ожидание и дисперсия.
Дисперсия Var(x) – это средний квадрат разброса возможных значений случайной переменной x относительно ее ожидаемого значения:
Var
(x) =
=E
=
Var(x) – тоже константа, физическая размерность которой равна квадрату физической размерности значений х. Положительный квадратный корень из дисперсии именуется средним квадратическим отклонением (СКО).
Второй предпосылкой теоремы Гаусса-Маркова – дисперсия случайных возмущений во всех наблюдениях одинакова и равна константе.
E
(
Если,
мы имеем одно наблюдение i=1, то
получим
и
-это
первая выборка. Сделав m выборок, получим
набор значений переменной u, которая в
каждом наблюдении представляет собой
условное распределение. Гомоскедастичность
– это ситуация, в которой случайной
возмущение подчиняется одному закону
распределения.
29. В чем состоит мнк?
Метод наименьших квадратов (МНК, англ. OrdinaryLeastSquares, OLS) — математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от искомых переменных. Он может использоваться для «решения» переопределенных систем уравнений (когда количество уравнений превышает количество неизвестных), для поиска решения в случае обычных (не переопределенных) нелинейных систем уравнений, для аппроксимации точечных значений некоторой функции. МНК является одним из базовых методов регрессионного анализа для оценки неизвестных параметров регрессионных моделей по выборочным данным.
Пусть
—
набор
неизвестных
переменных (параметров),
,
,
—
совокупность функций от этого набора
переменных. Задача заключается в подборе
таких значений x, чтобы значения этих
функций были максимально близки к
некоторым значениям
.
По существу речь идет о «решении»
переопределенной системы уравнений
,
в
указанном смысле максимальной близости
левой и правой частей системы. Сущность
МНК заключается в выборе в качестве
«меры близости» суммы квадратов
отклонений левых и правых частей
.
Таким образом, сущность МНК может быть
выражена следующим образом:
.
В
случае, если система уравнений имеет
решение, то минимум суммы квадратов
будет равен нулю и могут быть найдены
точные решения системы уравнений
аналитически или, например, различными
численными методами оптимизации. Если
система переопределена, то есть, говоря
нестрого, количество независимых
уравнений больше количества искомых
переменных, то система не имеет точного
решения и метод наименьших квадратов
позволяет найти некоторый «оптимальный»
вектор
в
смысле максимальной близости
векторов
и
или
максимальной близости вектора
отклонений
к
нулю (близость понимается в смысле
евклидова расстояния).
