
- •1. Предмет и задачи эконометрики. Примеры моделей.
- •2.Статистические данные и способы их представления.
- •4.Общая схема проверки гипотез. Ошибки I, II рода.
- •5.Интервальные оценки для нормального распределения при неизвестной дисперсии.
- •6. Модель парной линейной регрессии. Предположения.
- •7.Оценка коэффициентов парной регрессии методом наименьших квадратов
- •8. Статистические свойтва мнк для модели парной линейной регрессии.
- •9. Проверка стат значимости коэфф-ов парной линейной регрессии.
- •10. Прогнозирование значений зависимой переменной
- •14.Метод наименьших квадратов для модели множественной линейной регрессии.
- •16.С мысл теоремы Гаусса-Маркова.
- •17. Несмещенная оценка дисперсии случайного члена множественной линей ной регрессии.
- •18.Проверка значимости коэффициентов регрессии
- •19. Качество оцененного уравнения: коэффициент детерминации. Его связь с коэффициентом корреляции.
- •20. Скорректированный коэффициент детерминации. Статистика Фишера.
- •21)Спецификация переменных модели линейной регрессии.
- •22)Нелинейные модели. Логарифмические, полулогарифмические модели.
- •23)Явление мультиколлинеарности. Ее последствия и способы устранения.
- •24.Фиктивные переменные. Примеры.
- •Прогнозирование значений зависимой переменной для парной регрессии.
- •26. Гетероскедастичность. Последствия гетероскедастичности
- •27. Обобщенный метод наименьших квадратов.
- •28. Выявление гетероскедастичности
- •29. Способы корректировки гетероскедастичности.
- •30. Автокорреляция. Положительная и отрицательная. Последствия автокорреляции.
- •31.Использования статистики Дарбина-Уотсона для выявления автокорреляции.
- •32.Способы устранения автокорреляции в модели множественной регрессии.
- •33. Системы одновременных уравнений. Примеры.
- •34. Структурная и приведенная формы системы одновременных уравнений. Косвенный мнк.
6. Модель парной линейной регрессии. Предположения.
В парной регрессии усть только две переменные: зависимая y и объясняющая переменная x, в отличие от естественных наук в экономике задание объясняющей переменной не определяет однозначно значение зависимой переменной, а определяет лишь некоторой ее вероятностное распределение. Можно говорить в частности, о зависимости математического ожидания E(y|x) переменной у от объясняющей переменной х. А отклонение значения зависимой переменной у от своего мат ожидания есть случайная величина ε, что можно представить в след-ем виде: y=E(y|x)+ε .
Модель парной линейной регрессии предполагает линейную зависимость: E(y|x)=α+βx, ili y=α+βx+ε. Gde ющая переменная, регрессор, у-зависимая переменная, е-случайный член.
Если на диаграмме рассеяния точки наблюдений M(xi,yi), i=1n, распределяются случайным образом примерно вблизи некоторой прямой линии, то можно предполагать, что между переменными х и у существует линейная статистическая связь.
Mi
ε E(y|x)=
α+βx
Включение случайного члена в уравнение связано с возмущениями, которые не учтены в данной модели. Ими могут быть невключение др-их объясняющихся переменных, возможная нелинейность модели, неправильный выбор объясняющей переменно, ошибки измерений, агрегирование переменных и другие факторы. Допустим, имеется выборка xi,yi, i=1n. dlya i-go nablyudeniya E(y|x)=α+βx, ili y=α+βx+ε
На рисунке показано, как значение е, которое принял случайный член, определяет отклонение значения зависимой переменной y, от теоретического ожидаемого значения α+βx. Точка M na risunke imeet koordinaty (xi, yi), случайный член равен ее отклонению по вертикали от прямой E(y|x)=α+βx.
7.Оценка коэффициентов парной регрессии методом наименьших квадратов
Параметры альфа и бета, которые определяют модель парной линейной регрессии, на практике не известны, и их можно оценивать по мат данным, опираясь на различные принципы.
Пусть y^=a+bx- оцененное уравнение регрессии, где а,в-некоторые коэфф-ты. Обозначим через ei=yi-y^I остатки, где y^=a+bx, i=1n.
Для оценки коэфф-ов модели наиболее широко использ МНК. Как оказалось, оценки коэффициентов, получаемые по принципу МНК, обладают хорошими стат св-ми. Согласно этому принципу значения коэф-ов а, в оцененного уравнения регрессии определяются из условия минимума суммы квадратов остатков:
=
min.
Необходимое условие минимума ф-ии двух переменных заключается в обращении в нуль частных производных по а и b:
2an-2
(1)
2b
(2)
Это система двух алгебраических уравнений относитеьно 2х неизвестных a, b. Решим ее, разделив обе части уравнения на 2n и перепишем его в виде
a=yср-bxср (3). Найденное значение а подставим в уравнение (2) разделим его на 2n и, группируя слогаемые, приведем уравнение к виду
bVar(x)=Cov (x,y)
Таким образом, решение системы линейных уравнений находится по формулам: b=Cov(x,y)/var(x), a= Yср-bxср. Отметим, что уравнение y^=a+bx является лишь оценкой для истинной модели. Т.к величина ε не наблюдаема, то для получения различных оценок будет использоваться замена ее на остаток еi, который вычисляется по стат данным.
Mi y^=a+bx
εi еi E(y|x)=α+βx
Из равенства (3) следует, что оцененная линия регрессии проходит через точку с координатами xср,уср. Увеличение х на единицу приведет к увеличению у на b единиц. И это утверждение верно настолько, насколько b близок к β.