- •Введение
- •Основные этапы эконометрического исследования:
- •Основные типы моделей:
- •Тема 1. Основные понятия теории вероятностей
- •1.1. Вероятностный эксперимент, событие, вероятность.
- •1.2. Случайные величины
- •1.3. Числовые характеристики св
- •Свойства математического ожидания:
- •Свойства дисперсии:
- •1.4. Законы распределений св
- •1. Закон равномерного распределения вероятностей
- •2. Нормальный закон распределения
- •3. Распределение
- •4. Распределение Стьюдента(t – распределение)
- •5. Распределение Фишера (f – распределение)
- •( Число степеней свободы)
- •Тема 2. Базовые понятия статистики.
- •2.1. Выборка и генеральная совокупность
- •2.2. Способы представления и обработки экономических данных
- •2.3. Статистические оценки параметров распределения
- •2.4. Статистическая проверка гипотез
- •Тема 3. Соотношения между экономическими переменными. Линейная связь. Корреляция
- •3.1. Коэффициент линейной корреляции
- •3.2. Оценка значимости (достоверности) коэффициента корреляции
- •Тема 4. Парная линейная регрессия. Метод наименьших квадратов
- •Тема 5. Оценка качества полученного уравнения (верификация)
- •5.1. Оценка общего качества уравнения регрессии
- •5.2. Оценка существенности параметров линейной регрессии и всего уравнения в целом
- •5.2.1. Анализ статистической значимости коэффициентов линейной регрессии
- •5.2.2. Анализ статистической значимости уравнения в целом. Распределение Фишера в регрессионном анализе
- •5.3. Проверка предпосылок, лежащих в основе мнк
- •5.3.1. Проверка первой предпосылки мнк
- •5.3.2. Проверка второй предпосылки мнк
- •5.3.3. Автокорреляция ошибок. Статистика Дарбина-Уотсона
- •Методы устранения автокорреляции. Авторегрессионное преобразование
- •5.3.4. Проверка гомоскедастичности дисперсии ошибок
- •Обобщенный метод наименьших квадратов (омнк)
- •Тема 6. Множественная корреляция и линейная регрессия
- •6.1. Спецификация модели. Отбор факторов при построении уравнения множественной регрессии
- •6.2. Метод наименьших квадратов (мнк)
- •6.3. Анализ качества эмпирического уравнения множественной линейной регрессии
- •Тема 7. Прогнозирование
- •7.1. Оценка прогнозных качеств модели
- •7.2. Интервалы прогноза по линейному уравнению регрессии
- •Тема 8. Нелинейные модели регрессии. Простейшие методы линеаризации
- •Тема 9. Фиктивные переменные в регрессионных моделях
- •Тема 10. Системы эконометрических уравнений
- •10.1. Общее понятие о системах уравнений, используемых в эконометрике
- •10.2. Структурная и приведенная формы модели
- •10.3. Проблема идентификации
- •Косвенный метод наименьших квадратов (кмнк);
- •Двухшаговый метод наименьших квадратов (дмнк);
- •Тема 11. Временные ряды в эконометрических исследованиях в.1. Выявление структуры временного ряда
Тема 8. Нелинейные модели регрессии. Простейшие методы линеаризации
Если между экономическими явлениями существуют нелинейные соотношения, то они выражаются с помощью соответствующих нелинейных функций.
Различают два класса нелинейных регрессий:
1. Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам.
Например,
– полиномы различных степеней – ,,;
– равносторонняя гипербола – ;
– полулогарифмическая функция – .
2. Регрессии, нелинейные по оцениваемым параметрам.
Например,
– степенная – ;
– показательная – ;
– экспоненциальная – .
1. Регрессии нелинейные по включенным переменным сводятся к линейному виду с помощью методов линеаризации простой заменой переменных, а дальнейшая оценка параметров производится с помощью метода наименьших квадратов. Рассмотрим некоторые функции.
Полином второй степени приводится к линейному виду с помощью замены:. В результате приходим к двухфакторному уравнению, оценка параметров которого при помощи МНК, приводит к системе следующих нормальных уравнений:
А после обратной замены переменных получим
Полином второй степени обычно применяется в случаях, когда для определенного интервала значений фактора меняется характер связи рассматриваемых признаков: прямая связь меняется на обратную или обратная на прямую.
Аналогично, для полинома третьего порядка получим трёхфакторную модель.
Для полинома степени m, получим множественную регрессию с m объясняющими переменными
.
Среди нелинейной полиномиальной модели чаще всего используется полином второй степени, реже – третьей.
Для равносторонней гиперболы заменаприводит к уравнению парной линейной регрессии, для оценки параметров которого используется МНК. Система линейных уравнений при применении МНК будет выглядеть следующим образом:
Такая модель может быть использована для характеристики связи удельных расходов сырья, материалов, топлива от объема выпускаемой продукции, времени обращения товаров от величины товарооборота, процента прироста заработной платы от уровня безработицы (например, кривая А.В. Филлипса), расходов на непродовольственные товары от доходов или общей суммы расходов (например, кривые Э. Энгеля) и в других случаях.
Аналогичным образом приводятся к линейному виду зависимости ,и другие.
2. Регрессии, нелинейными по оцениваемым параметрам, делятся на два типа: нелинейные модели внутренне линейные (приводятся к линейному виду с помощью соответствующих преобразований, например, логарифмированием) и нелинейные модели внутренне нелинейные (к линейному виду не приводятся).
К внутренне линейным моделям относятся, например, степенная функция – , показательная –, экспоненциальная –, логистическая –, обратная –.
Среди нелинейных моделей наиболее часто используется степенная функция , которая приводится к линейному виду логарифмированием:
;
;
,
где . Т.е. МНК мы применяем для преобразованных данных:
а затем потенцированием находим искомое уравнение.
Широкое использование степенной функции связано с тем, что параметр в ней имеет четкое экономическое истолкование – он является коэффициентом эластичности. (Коэффициент эластичности показывает, на сколько процентов измениться в среднем результат, если фактор изменится на 1%.) Формула для расчета коэффициента эластичности имеет вид:.
Так как для остальных функций коэффициент эластичности не является постоянной величиной, а зависит от соответствующего значения фактора , то обычно рассчитывается средний коэффициент эластичности:.
Наконец, следует отметить зависимость логистического типа: . Графиком функции является так называемая «кривая насыщения», которая имеет две горизонтальные асимптотыи точку перегиба, а также точку пересечения с осью ординат:
Уравнение приводится к линейному виду заменами переменных .
К внутренне нелинейным моделям можно, например, отнести следующие модели: ,,.
В случае, когда функция не поддаётся непосредственной линейной линеаризации, можно разложить её в функциональный ряд и затем оценить регрессию с членами этого ряда.
При линеаризации функции или разложении её в ряд возникают и другие проблемы: искажение отклонений и нарушение их первоначальных свойств, статистическая зависимость членов ряда между собой.
Например, если оценивается формула , полученная путём линеаризации или разложения в ряд, то независимые переменныесвязаны между собой функционально.
Поэтому во многих случаях актуальна непосредственная оценка нелинейной формулы регрессии. Для этого используется нелинейный МНК, идея которого основана на минимизации суммы квадратов отклонений расчётных значений от эмпирических, т.е. нужно оценить параметры вектора а функции , так чтобы ошибкипо совокупности были минимальны:.
Для решения этой задачи существуют два пути:
1) непосредственная минимизация функции F с помощью методов нелинейной оптимизации, позволяющих находить экстремум выпуклых линий (метод наискорейшего спуска).
2) решение системы нелинейных уравнений, которая получается из необходимого условия экстремума функции – равенство нулю частных производных по каждому из параметров:
система уравнений:
.
Эта система может быть решена итерационными методами. Однако в общем случае решение такой системы не является более простым способом нахождения вектора а.
Существуют методы оценивания нелинейной регрессии, сочетающие непосредственную оптимизацию, использующую нахождение градиента, с разложением в ряд Тейлора для последующей оценки линейной регрессии (метод Марквардта).
При построении нелинейной регрессии более остро, чем в линейном случае, стоит проблема правильной оценки формы зависимости между переменными.
Неточности при выборе формы функции существенно сказываются на качестве отдельных параметров уравнения и соответственно, на адекватности всей модели в целом.
Любое уравнение нелинейной регрессии, как и линейной зависимости, дополняется показателем корреляции, который в данном случае называется индексом корреляции:
Здесь - общая дисперсия результативного признакаy, - остаточная дисперсия, определяемая по уравнению нелинейной регрессии. Следует обратить внимание на то, чторазности в соответствующих суммах и берутся не в преобразованных, а в исходных значениях результативного признака. Иначе говоря, при вычислении этих сумм следует использовать не преобразованные (линеаризованные) зависимости, а именно исходные нелинейные уравнения регрессии. По-другому можно записать так:
Величина R находится в границах , и чем ближе она к единице, тем теснее связь рассматриваемых признаков, тем более надежно найденное уравнение регрессии. При этом индекс корреляции совпадает с линейным коэффициентом корреляции в случае, когда преобразование переменных с целью линеаризации уравнения регрессии не проводится с величинами результативного признака. Так обстоит дело с полулогарифмической и полиномиальной регрессией, а также с равносторонней гиперболой. Определив линейный коэффициент корреляции для линеаризованных уравнений, например, в пакетеExcel с помощью функции ЛИНЕЙН, можно использовать его и для нелинейной зависимости.
Иначе обстоит дело в случае, когда преобразование проводится также с величиной y, например, взятие обратной величины или логарифмирование. Тогда значение R, вычисленное той же функцией ЛИНЕЙН, будет относиться к линеаризованному уравнению регрессии, а не к исходному нелинейному уравнению, и величины разностей под суммами будут относиться к преобразованным величинам, а не к исходным, что не одно и то же. При этом, как было сказано выше, для расчета R следует воспользоваться выражением, вычисленным по исходному нелинейному уравнению.
Поскольку в расчете индекса корреляции используется соотношение факторной и общей СКО, то R2 имеет тот же смысл, что и коэффициент детерминации. В специальных исследованиях величину R2 для нелинейных связей называют индексом детерминации.
Оценка существенности индекса корреляции проводится так же, как и оценка надежности коэффициента корреляции.
Индекс детерминации используется для проверки существенности в целом уравнения нелинейной регрессии по F-критерию Фишера: ,
где n-число наблюдений, m-число параметров при переменных х. Во всех рассмотренных нами случаях, кроме полиномиальной регрессии, m=1, для полиномов число параметров равно m, т.е. степени полинома. Величина m характеризует число степеней свободы для факторной СКО, а (n-m-1) – число степеней свободы для остаточной СКО.
Индекс детерминации R2 можно сравнивать с коэффициентом детерминации r2 для обоснования возможности применения линейной функции. Чем больше кривизна линии регрессии, тем больше разница между R2 и r2. Близость этих показателей означает, что усложнять форму уравнения регрессии не следует и можно использовать линейную функцию. Практически, если величина (R2-r2) не превышает 0,1, то линейная зависимость считается оправданной. В противном случае проводится оценка существенности различия показателей детерминации, вычисленных по одним и тем же данным, через t-критерий Стьюдента: .
Здесь в знаменателе находится ошибка разности (R2-r2), определяемая по формуле:
Если , то различия между показателями корреляции существенны и замена нелинейной регрессии линейной нецелесообразна.
В заключение приведем формулы расчета коэффициентов эластичности для наиболее распространенных уравнений регрессии:
Вид уравнения регрессии |
Коэффициент эластичности |