Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпорки_рындина.doc
Скачиваний:
14
Добавлен:
23.09.2019
Размер:
302.59 Кб
Скачать

17. Предпосылки применения мнк

Предпосылки

Для того чтобы оценки параметров регрессии обладали лучшими свойствами необходимо чтобы случ. Откл. E удовлетвор. Некоторым условиям: нулевая предпосылка => ур-е нелин., уравнение дБ корректно специфицировано y = альфа + бета *X + У

  1. Мат ожид случ отклонения дБ = 0, M(E) = 0

Систематическое влияние неучтенных факторов учтено в свободном члене.

Случ откл Е в отдельном наблюдении мб положительным и отрицательным, как большим по модулю так и маленьким.

Но не дБ причины по которой она смещается в одном из двух возможных направлений

  1. Дисперсия слу откл дБ постоянной

D(E) = D(Ei) = сигма^2

Разброс слу откл постоянен.

Выполнение 2ой предпосылки наз гомоскедастичностью, а ее нарушение – гетероскедастичностью

3) Случ откл дБ распределены независимо друг от друга. Описывается с помощью ковариации

Cov (Ei,Ej) = 0, i != j

Независимость – это отсутствие автокорреляции

Автокорреляция - это связь между последовательными наблюдениями одного и того же экономич показателя.

Автокорреляция бывает положит , если 2 последовательных отклон будут одного знака

И отриц – если разных

  1. Случ откл распределены независимо от объясняющих переменных

Cov (Ei,xi) = 0

Предпосылка мб сильной и слабой. Сильная форма означает, что переменная Х рассматрив как неслучайная. Слабая – Х случайная величина, но независима от Е.

  1. Случ откл Е должно быть нормально распределено.

18. Нелинейная регрессия. Нелинейная модель и их линеаризация.

Различают 2 класса нелинейных регрессий:

-регрессии нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам;

-регрессии, нелинейные по включенным параметрам.

Примером нелинейной регрессии по включаемым в нее объясняющим переменным могут слуюить следующие функции:

Полиномы разных степеней: y=a+bx+cx^2+E, y=a+bx+cx^2+dx^3+E;

Равносторонняя гипербола: y= a + b/x + E

К нелинейным регрессиям по оцениваемым параметрам относятся функции:

Степенная y=a*x^b * E

Показательная y = a*b^x * E

Экспоненциальная у= y^a+bx * E

Линеаризация нелинейной модели представляет собой преобразование используемой модели в линейную путем замены переменных на нестепенные.

Так, в параболе второй степени у=а01х+а2х2+ ε заменяя переменные х=х1, х22, получим двухфакторное уравнение линейной регрессии: у=а01х12х2+ ε, для оценки параметров  используется МНК.

Соответственно для полинома третьего порядка y=a+bx+cx^2+dx^3+E при замене х=х, х^2=х2, х33,, получим трехфакторную модель линейной регрессии: у=а01х12х2+ а3х3 + E

Название ф-ии Вид модели Заменяемые переменные Вид линеаризированной модели

Показательная Ln y = Ln a+ х ln b Ln y = Y, Ln a = α, Ln b =β Y = a + xb

Степенная Ln y = Ln a+ b ln x Ln y = Y, Ln a = α, Ln x =x Y = a + bx

гиперболическая Y = a + b/x 1/x=X Y = a +b X

19. Преобразование случайного отклонения в моделях нелин регрессии

Если линеаризующее преобразование замены переменной, то случайного отклонения входят в модель аддитивно как слагаемое

«Эбсилон» в этом случае имеет нормально распределение.

Если линеаризующее преобразование логарифмирования, то случайное отклонение входит в модель мультипликативно и имеет логарифмически нормальное распределение

(Процедура оценивания регрессии будет следующей.

С начала вычислим y’ и z для каждого наблюдения с помощью логарифмов от исходных значений.

Затем оценим регрессионную зависимость y’ от z.

Коэффициент при z будет представлять собой непосредственно оценку β. Постоянный член является оценкой ά.

Для получения оценки необходимо взять антилогарифм, т.е., вычислить.)

Случайный член

Основное требование состоит в том, чтобы случайный член в преобразованном уравнении присутствовал в виде слагаемого и удовлетворял условиям Гаусса-Маркова.

В противном случает коэффициенты регрессии, полученные по методу наименьших квадратов, не будут обладать обычными свойствами и проводимые для них тесы окажутся недостоверными.

Желательно, если мы учитываем случайное воздействие, чтобы уравнение имело следующий вид:

Если это так, то исходное уравнение имеет, например, такой вид

В данном случае, если в исходном уравнении случайный член является аддитивным и условие Гаусса-Маркова выполнены, то это также будет верно для преобразованного уравнения. В этом случае проблем нет.

Если используется модель вида: y=αx^β и мы собираемся преобразовать его к линейному путем логарифмирования, то случайный член должен быть мультипликативным y=αx^β * v.

В этом случае мы получаем соотношение:

Следовательно, для получения аддитивного случайного члена в уравнении регрессии мы должны начинать с мультипликативного случайного члена в исходном уравнении.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]