- •Понятие и задачи эконометрики, как науки. Эконометрическая модель и ее составляющие.
- •Характеристики случайных величин: поле корреляции, математическое ожидание, среднее значение, выборочная дисперсия, стандартное отклонение.
- •Выборочный корреляционный момент (выборочная ковариация), коэффициент корреляции (r) и его свойства при большом объеме выборки.
- •Виды эконометрических моделей.
- •Понятие регрессионной модели.
- •Системы одновременных уравнений
- •Типы данных при эконометрическом моделировании Пространственные данные
- •Временные ряды
- •Стандартные предположения регрессионного анализа. Понятия гомоскедастичности и гетероскедастичности дисперсии ошибок
- •Модель парной линейной регрессии
- •Метод наименьших квадратов оценки параметров парной регрессионной модели
- •Статистические свойства мнк-оценок параметров уравнения регрессии
- •Использование модели парной линейной регрессии для прогноза
- •Геометрический смысл регрессионной модели, составляющие дисперсии.
- •Доверительный интервал для функции регрессии (для Мx (y)).
- •Доверительный интервал для индивидуальных значений зависимой переменной
- •Доверительный интервал для параметра β регрессионной модели.
- •Доверительный интервал для параметра σ2 регрессионной модели.
- •Основная идея дисперсионного анализа
- •Процедура проверки значимости линейной связи между переменными, использование f-критерия (критерия Фишера-Снедекора)
- •Коэффициент детерминации (r2) и его свойства.
- •Оценка статистической значимости коэффициентов парной линейной регрессии и корреляции.
- •Графический метод проверки стандартных предположений регрессионного анализа.
- •Понятие предельной склонности потребления в модели доход-потребление
- •Приведение степенной модели к линейной форме модели, оценка параметров модели и ее качества
- •Понятие предельной склонности и эластичности функции. Условия постоянства предельной склонности и эластичности функции.
- •Обратно пропорциональная зависимость, Линеаризация этой модели и ее эластичность
- •Модели с убывающей эластичностью, их линеаризация
- •Итерационные методы подбора нелинейных моделей
- •Нелинейные модели множественной регрессии
- •Проверка статистических гипотез о значениях отдельных коэффициентов
- •Отбор факторов в модель линейной множественной регрессии
- •Методы построения уравнения множественной регрессии
- •Метод наименьших квадратов оценивания параметров множественной линейной регрессии
- •Уравнение множественной регрессии в стандартизированном масштабе
- •Понятие частных и средних коэффициентов эластичности
- •Коэффициенты множественной корреляции и детерминации
- •Частные и общий коэффициенты корреляции
- •Проверка значимости уравнения линейной множественной регрессии с помощью критериев Фишера и Стьюдента
- •Метод взвешенных наименьших квадратов (обобщенный мнк)
- •Понятие и примеры фиктивных переменных
- •Модели, содержащие только качественные объясняющие переменные
- •Модели, в которых объясняющие переменные носят как количественный, так и качественный характер
- •Виды моделей временных рядов, составляющие временного ряда
- •Стационарные и нестационарные временные ряды
- •Аддитивная и мультипликативная модели временных рядов
- •Коэффициент автокорреляции, его свойства. Автокорреляционная функция, коррелограмма, их анализ
- •Моделирование тенденции временного ряда
- •Моделирование сезонных колебаний
- •. Автокорреляция в остатках. Критерий Дарбина-Уотсона
- •Алгоритм выявления автокорреляции остатков на основе критерия Дарбина-Уотсона
- •Классификация систем регрессионных уравнений
- •Оценка параметров систем одновременных уравнений
- •Проблема идентификации структурных моделей. Необходимое и достаточные условия идентифицируемости.
- •Методы оценки параметров структурной модели
Модель парной линейной регрессии
Мы уже отмечали ранее, что если между переменными х и у существует теоретическая линейная связь в виде
y = α + βx, (2.1)
то наблюдаемые значения xi, yi, i =1, 2, …, n этих переменных связаны линейной моделью наблюдений
(2.2)
Если α и β – истинные значения параметров линейной модели связи, то величина εi = yi - (α +βxi) представляет собой ошибку в i-м наблюдении.
Поиск коэффициентов α и β осуществляется таким образом, чтобы величина ε стремилась к минимуму (в идеале к нулю). Если εi = 0, то все точки лежат на одной прямой. В результате получают подобранную модель линейной связи
.
В подобранной модели наблюдаемому значению x переменной х сопоставляется значение переменной у. Значения подобранное и реальное наблюдаемое у обычно отличаются. Разность
называется остатком в i-м наблюдении.
Метод наименьших квадратов оценки параметров парной регрессионной модели
Для реальных данных, как правило, все остатки отличны от нуля, так что часть из них имеет положительный знак, а остальные – отрицательный. При этом необходимо соблюдение принципа наименьших квадратов
(2.5)
Получаемые при этом оценки а и b называются оценками наименьших квадратов. Свойством оценок наименьших квадратов является то, что соответствующая им прямая проходит через точку . Поиск пары чисел а и b с помощью метода наименьших квадратов (МНК) сводятся к математической задаче поиска точки минимума функции двух переменных. В результате получаем коэффициенты в подобранной модели
, (2.6) , (2.7)
где
При подстановке в формулу (2.3) выражения (2.7) получаем оценку уравнения парной линейной регрессии (функция регрессии)
.
Статистические свойства мнк-оценок параметров уравнения регрессии
При выполнении стандартных предположений регрессионного анализа, МНК-оценки параметров уравнения регрессии будут обладать следующими статистическими свойствами:
Несмещенность.
Статистическая оценка некоторого параметра называется несмещенной, если ее математическое ожидание равно истинному значению этого параметра. В случае парной линейной регрессии: М(a)=α, М(b)=ß.
Состоятельность.
При неограниченном возрастании объема выборки значение оценки должно стремиться по вероятности к истинному значению параметра, а дисперсии оценок параметров должны уменьшаться и в пределе стремиться к 0: , при .
Эффективность.
Оценка называется эффективной, если она имеет минимальную дисперсию по сравнению с другими оценками заданного класса.
Использование модели парной линейной регрессии для прогноза
Пусть мы имеем модель наблюдений в виде
(2.9)
и хотим дать прогноз, каким будет значение объясняемой переменной y при некотором выбранном (фиксированном) значении x объясняющей переменной x если мы будем продолжать наблюдения.
Мы умеем оценивать коэффициенты α и β методом наименьших квадратов и получать подобранную модель
(2.10)
где – прогнозируемое значение объясняемой переменной.
Вопрос: насколько надежным является выбор такого значения в качестве прогнозируемого?
Выбирая в качестве прогноза в (n+1)-м наблюдении для y0 значение мы тем самым допускаем ошибку прогноза
. (2.11)
Эта ошибка является следствием:
- неопределенности, связанной с отклонением вычисленных значений случайных величин а и b от истинных значений параметров α и β ;
- неопределенности, связанной со случайной ошибкой ε0 в (n+1)-м наблюдении.
При наших стандартных предположениях о линейной модели ошибка прогноза является случайной величиной с математическим ожиданием
(2.12)
[ M(a) = α; M(b) = β; M(ε0) = 0 ].
Теоретическая точность такого прогноза характеризуется дисперсией ошибки прогноза
. (2.13)
Далее мы будем рассматривать оценку этой дисперсии S , то есть оценку дисперсии ошибки прогноза (дисперсию остатков)
, (2.14)
где n – количество наблюдений;
m – количество параметров уравнения регрессии.