- •Оглавление
- •Тема 0. Введение (группа 3.3б) 4
- •Тема 1. Парная регрессия (группа 3.5а) 23
- •Тема 2. Множественная регрессия (группа 3.5б) 51
- •Тема 3. Нелинейная регрессия (группа 3.3а) 70
- •Тема 4. Системы регрессионных уравнений (группа 3.3б) 91
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ) 102 Тема 0. Введение (группа 3.3б)
- •0.1. Эконометрика как наука.
- •0.2. История возникновения эконометрики
- •0.3.Элементы теории вероятности.
- •0.3.1. Вероятностные характеристики случайных переменных
- •0.3.2.Законы распределения:
- •0.3.3 Условное математическое ожидание
- •0.4. Элементы математической статистики
- •0.4.1.Оценивание «хороших» свойств оценок
- •1) Состоятельность оценок
- •2) Несмещенность оценок
- •3) Эффективность оценок
- •0.4.2. Проверка гипотез и интервальное оценивание
- •Тема 1. Парная регрессия (группа 3.5а)
- •1.1 Определение линейной однофакторной регрессии.
- •1.1.1.Основные понятия регрессионного анализа
- •1.1.2. Линейная однофакторная регрессия
- •1.1.3. Матричная запись линейной регрессии
- •1.1.4 Оценки параметров регрессии
- •1.1.5 Смысл коэффициента регрессии
- •1.2 Проверка адекватности ру
- •1.2.1 Показатели качества подгонки
- •1.2.2.Проверка гипотез относительно параметров ру
- •1.3 Предпосылки мнк (ls)
- •1.3.1. Общие положения мнк
- •1.3.2. Выполнение первой предпосылки мнк (случайный характер остатков)
- •1.3.4. Выполнение третьей предпосылки мнк (гомоскедастичность остатков)
- •1.3.5 Выполнение 4-го условия мнк (отсутствие автокорреляции остатков)
- •1.3.6 Выполнение 5-го условия мнк (нормальность остатков)
- •1.4. Устранение нарушения предпосылок мнк для оценки парной регрессии
- •1.4.1. Автокорреляция остатков
- •1.4.2.Гетероскедастичность остатков и избавление от нее
- •1 Подход: преобразование исходных данных
- •2 Подход: применение другого метода оценивания коэф-ов регрессии.
- •3 Подход) включение дисперсии в модель
- •1.4.3. Метод максимального правдоподобия.
- •Тема 2. Множественная регрессия (группа 3.5б)
- •2.1 Множественная линейная регрессия
- •2.1.1. Основные понятия
- •2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
- •2.2.Проверка адекватности уравнений линейной множественной регрессии
- •2.2.1. Проверка качества подборки мнк.
- •3) Коэффициент эластичности
- •2.2.2.Проверка гипотез для млр
- •2.2.3. Допущение выполнения мнк или получение «хороших» оценок
- •2.3. Мультиколлинеарность факторов
- •2.3.1. Обнаружение мультиколлинеарности
- •2.3.2 Избавление от мультиколлинеарности. Метод главных компонент
- •2.4.Учет качественных факторов
- •2.4.1.Множественные переменные
- •2.4.2. Фиктивные переменные
- •2.4.3. Структурные изменения тенденций. Тест Чоу.
- •2.4.4. Модели бинарного выбора
- •Тема 3. Нелинейная регрессия (группа 3.3а)
- •3.1.Виды нелинейной зависимости
- •3.1.1.Основные понятия
- •3.1.2. Методы оценивания линеаризуемых функций:
- •3.1.3. Нелинеаризуемые функции и методы их оценки
- •1.Квазиньютоновский
- •2.Симплекс-метод
- •3.Метод Хука-Дживса
- •3.2.Проверка адекватности нелинейной регрессии
- •3.2.1. Показатели качества подгонки
- •3.2.2. Проверка гипотезы о значимости нелинейных моделей
- •3.2.3. Проверка выполнения условий для получения «хороших» оценок методом оценивания
- •3.3.Выбор типа зависимости
- •3.3.1. Теоретические предпосылки
- •3.3.2. Процедура Бокса – Кокса и тест Зарембеки
- •Тест Зарембеки
- •3.3.3.Производственные функции (пф)
- •3.3.4. Коэффициент эластичности
- •3.4.Спецификация и прогноз регрессионных уравнений
- •3.4.1. Информационные критерии (критерий Акайке, Шварца)
- •3.4.2. Ложная регрессия
- •3.4.3. Прогноз по регрессионным моделям. Доверительный интервал.
- •3.4.4. Применение регрессионного анализа в хеджировании
- •Тема 4. Системы регрессионных уравнений (группа 3.3б)
- •4.1.Понятие и виды сру
- •4.1.1. Система независимых уравнений
- •4.1.2. Системы рекурсивных уравнений
- •4.2. Структурный и приведенный виды сру
- •4.3 Идентификация модели
- •4.4 Оценка параметров сру
- •4.4.1.Кмнк.
- •4.4.2.Дмнк.
- •4.4.3.Тмнк.
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ)
1.1.1.Основные понятия регрессионного анализа
Термин "регрессия" (лат. - "regression" - отступление, возврат к чему-либо) введен английским психологом и антропологом Ф.Гальтпном и связан только со спецификой одного из первых конкретных примеров, в котором это понятие было использовано.
Обрабатывая статистические данные в связи с вопросом о наследственности роста, Ф.Гальтон нашел, что если отцы отклоняются от среднего роста всех отцов на x дюймов, то их сыновья отклоняются от среднего роста всех сыновей меньше, чем на x дюймов. Выявленная тенденция была названа «регрессией к среднему состоянию».
Рассмотрим основные понятия регрессионного анализа
1.Результирующая (зависимая, эндогенная) переменная у, которая выступает в роли функции, значения которой определяются значениями аргументов. Переменная у всегда случайна.
2. Объясняющие (предиктивные, экзогенные) переменные Х =(х1, х2,…,хp)^T, которые поддаются регистрации, описывают условия функционирования изучаемой реальной экономической системы и в существенной мере определяющие процесс формирования значений результирующих признаков.
3. Функция регрессии у по Х =(х1, х2,…,хp)^T , математически записывается в виде
f(X*)=E(y|X=X*) или f(X)=E(y|X)
4. Уравнение регрессионной связи.
Математически записывается в виде.
5. Измеритель степени тесноты статической связи между у и Х
Универсальной характеристикой степени тесноты статической связи между у и Х является коэффициент детерминации К(у, Х), который совпадает с квадратом множественного коэффициента корреляции R^2y.X при исследовании линейных моделей.
6. Исходные статистические данные, математически записывается в виде
X=
матрица размера n*(p+1),составленная из наблюдаемых значений объясняющих переменных, и Y=(y1,y2,…,yn)^T, матрица размером n*1
1.1.2. Линейная однофакторная регрессия
Определение. Частный случай однофакторного регрессионного уравнения линейная модель зависимости, которая записывается в виде:
Наличие случайной компоненты i обусловлено:
Модель упрощенная и на самом деле есть другие факторы влияющие на yi
Возможно наличие ошибок измерений.
1.1.3. Матричная запись линейной регрессии
В матричной форме уравнение линейной регрессии может быть записано так:
Y=X*b+ ,
где
Y - случайный вектор - столбец размерностью n*1 значимой зависимой переменной (n – кол-во наблюдений в выборке);
X (х0, х1) – матрица размерностью n*2 независимой переменной, где х0 – дополнительный фактор, связанный с наличием в уравнении свободного члена b0 (обычно его значение принимают равное 1);
b – вектор-столбец размерностью 2*1 неизвестных подлежащих оценке коэффициентов регрессии.
- случайный вектор-столбец разностью n*1 ошибок наблюдений.
,
1.1.4 Оценки параметров регрессии
Для статистической проверки взаимосвязи между зависимой и независимой переменной необходимо найти значения а, в, Еi т.е найти оценку .
Классический подход оцененного параметра линейной регрессии – Метод наименьших квадратов (МНК). Он называется так потому, что при расчете параметров прямой линии, который наиболее соответствует фактическим данным, минимизирует Е квадратов расхождений между расчётными значениями и фактическим значением у.
yi – фактическое значение;
- расчетное значение.
Необходимо оценить неизвестные коэффициенты модели регрессии β0…βn. Для определения оптимальных коэффициентов модели регрессии возможно применение следующих критериев:
1) критерий суммы квадратов отклонений наблюдаемых значений результативной переменной у от теоретических значений β (рассчитанных на основе функции регрессии f(x)):
Данный критерий определения оптимальных коэффициентов модели регрессии получил название метода наименьших квадратов или МНК. К основным преимуществам данного метода относятся:
а) все расчёты сводятся к механической процедуре нахождения коэффициентов;
б) доступность полученных математических выводов.
Недостаток метода наименьших квадратов заключается в излишней чувствительности оценок к резким выбросам, встречающимся в исходных данных.
2) критерий суммы модулей отклонений наблюдаемых значений результативной переменной у от теоретических значений β (рассчитанных на основе функции регрессии f(x)):
Главное преимущество данного критерия заключается в устойчивости полученных оценок к резким выбросам в исходных данных, в отличие от метода наименьших квадратов.
К недостаткам данного критерия относятся:
а) сложности, возникающие в процессе вычислений;
б) зачастую большим отклонениям в исходных данных следует придавать больший вес для уравновешивания их в общей сумме наблюдений;
в) разным значениям оцениваемых коэффициентов β0…βn могут соответствовать одинаковые суммы модулей отклонений.
3) критерий, имеющий вид:
где g – это мера или вес, с которой отклонение (yi-f|xi,β|) входит в функционал F. В качестве примера веса g можно привести функцию Хубера, которая при малых значениях переменной х является квадратичной, а при больших значениях х – линейной:
где с – ограничения функции.
Данный критерий определения наилучших оценок коэффициентов модели регрессии β0…βn является попыткой объединения достоинств двух предыдущих критериев. Основное преимущество данного критерия заключается в том, что оценки неизвестных коэффициентов, найденные с его помощью, являются более устойчивыми к случайным выбросам в исходных данных, чем оценки, полученные методом наименьших квадратов.