- •Оглавление
- •Тема 0. Введение (группа 3.3б) 4
- •Тема 1. Парная регрессия (группа 3.5а) 23
- •Тема 2. Множественная регрессия (группа 3.5б) 51
- •Тема 3. Нелинейная регрессия (группа 3.3а) 70
- •Тема 4. Системы регрессионных уравнений (группа 3.3б) 91
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ) 102 Тема 0. Введение (группа 3.3б)
- •0.1. Эконометрика как наука.
- •0.2. История возникновения эконометрики
- •0.3.Элементы теории вероятности.
- •0.3.1. Вероятностные характеристики случайных переменных
- •0.3.2.Законы распределения:
- •0.3.3 Условное математическое ожидание
- •0.4. Элементы математической статистики
- •0.4.1.Оценивание «хороших» свойств оценок
- •1) Состоятельность оценок
- •2) Несмещенность оценок
- •3) Эффективность оценок
- •0.4.2. Проверка гипотез и интервальное оценивание
- •Тема 1. Парная регрессия (группа 3.5а)
- •1.1 Определение линейной однофакторной регрессии.
- •1.1.1.Основные понятия регрессионного анализа
- •1.1.2. Линейная однофакторная регрессия
- •1.1.3. Матричная запись линейной регрессии
- •1.1.4 Оценки параметров регрессии
- •1.1.5 Смысл коэффициента регрессии
- •1.2 Проверка адекватности ру
- •1.2.1 Показатели качества подгонки
- •1.2.2.Проверка гипотез относительно параметров ру
- •1.3 Предпосылки мнк (ls)
- •1.3.1. Общие положения мнк
- •1.3.2. Выполнение первой предпосылки мнк (случайный характер остатков)
- •1.3.4. Выполнение третьей предпосылки мнк (гомоскедастичность остатков)
- •1.3.5 Выполнение 4-го условия мнк (отсутствие автокорреляции остатков)
- •1.3.6 Выполнение 5-го условия мнк (нормальность остатков)
- •1.4. Устранение нарушения предпосылок мнк для оценки парной регрессии
- •1.4.1. Автокорреляция остатков
- •1.4.2.Гетероскедастичность остатков и избавление от нее
- •1 Подход: преобразование исходных данных
- •2 Подход: применение другого метода оценивания коэф-ов регрессии.
- •3 Подход) включение дисперсии в модель
- •1.4.3. Метод максимального правдоподобия.
- •Тема 2. Множественная регрессия (группа 3.5б)
- •2.1 Множественная линейная регрессия
- •2.1.1. Основные понятия
- •2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
- •2.2.Проверка адекватности уравнений линейной множественной регрессии
- •2.2.1. Проверка качества подборки мнк.
- •3) Коэффициент эластичности
- •2.2.2.Проверка гипотез для млр
- •2.2.3. Допущение выполнения мнк или получение «хороших» оценок
- •2.3. Мультиколлинеарность факторов
- •2.3.1. Обнаружение мультиколлинеарности
- •2.3.2 Избавление от мультиколлинеарности. Метод главных компонент
- •2.4.Учет качественных факторов
- •2.4.1.Множественные переменные
- •2.4.2. Фиктивные переменные
- •2.4.3. Структурные изменения тенденций. Тест Чоу.
- •2.4.4. Модели бинарного выбора
- •Тема 3. Нелинейная регрессия (группа 3.3а)
- •3.1.Виды нелинейной зависимости
- •3.1.1.Основные понятия
- •3.1.2. Методы оценивания линеаризуемых функций:
- •3.1.3. Нелинеаризуемые функции и методы их оценки
- •1.Квазиньютоновский
- •2.Симплекс-метод
- •3.Метод Хука-Дживса
- •3.2.Проверка адекватности нелинейной регрессии
- •3.2.1. Показатели качества подгонки
- •3.2.2. Проверка гипотезы о значимости нелинейных моделей
- •3.2.3. Проверка выполнения условий для получения «хороших» оценок методом оценивания
- •3.3.Выбор типа зависимости
- •3.3.1. Теоретические предпосылки
- •3.3.2. Процедура Бокса – Кокса и тест Зарембеки
- •Тест Зарембеки
- •3.3.3.Производственные функции (пф)
- •3.3.4. Коэффициент эластичности
- •3.4.Спецификация и прогноз регрессионных уравнений
- •3.4.1. Информационные критерии (критерий Акайке, Шварца)
- •3.4.2. Ложная регрессия
- •3.4.3. Прогноз по регрессионным моделям. Доверительный интервал.
- •3.4.4. Применение регрессионного анализа в хеджировании
- •Тема 4. Системы регрессионных уравнений (группа 3.3б)
- •4.1.Понятие и виды сру
- •4.1.1. Система независимых уравнений
- •4.1.2. Системы рекурсивных уравнений
- •4.2. Структурный и приведенный виды сру
- •4.3 Идентификация модели
- •4.4 Оценка параметров сру
- •4.4.1.Кмнк.
- •4.4.2.Дмнк.
- •4.4.3.Тмнк.
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ)
0.3.1. Вероятностные характеристики случайных переменных
Определение функции плотности вероятности – Функция, которая для любого интервала [x1, x2] на 0х позволяет определить вероятность того, что случайная переменная х находится в этом интервале.
Р(х1 х2)=
Матожидание случайной величины - средневзвешенного значение данной случайной величины:
Для Д. с/в – М (х) (в зап.уч.- Е (х) ):
М(х)=
Для Н. с/в:
М (х)= - не собственный интеграл.
Свойства:
М(const)= const
M(aX+b)=aM(X)+b, a,b- const;
M(X+Y)= M(X)+M(Y), X,Y- независимые случайные переменные;
M(X*Y) = M(X)*M(Y), X,Y- независимые случайные переменные.
Дисперсия - отражает относительно, разброса случайной величины относительно среднего значения (рассеяние около среднего значения)
Для Д. с/в:
Д(х)= (х – М(х))2= 2pi;
Для Н. свойств:
Д(х)= 2
Свойства Д (Х):
Д (а)=0;
Д (Х+У) =Д (Х)+Д (У);
Д (аХ) =а2Д (Х)
Д(Х) = М(Х2) – [М(Х)]2
Момент первого порядка есть среднее значение (математическое ожидание) случайной величины Момент второго порядка есть средний квадрат случайной величины.
Часто используется так называемое среднеквадратичное значение случайной величины, представляющее собой корень квадратный из среднего квадрата случайной величины:
Иногда рассматривается центрированное значение случайной величины x0=х-х~, где х~ —среднее значение.
Если х — случайная величина, а х~ — среднее значение этой величины, то величина х-х~ есть отклонение случайной величины от ее среднего значения. Это отклонение является случайной величиной, как и сама величина х.
Средним отклонением А называется среднее значение (математическое ожидание) абсолютной величины отклонения.
Среднее отклонение случайной величины является уже не случайной величиной, а обычным числом.
Укажем простейшие свойства среднеквадратичных отклонений.
1. При сложении независимых случайных величин дисперсии складываются:
Поэтому среднеквадратичное отклонение суммы независимых случайных величин
Эта формула часто применяется в измерительной технике и в автоматике для вычисления среднеквадратичных ошибок.
2. Пусть имеется п случайных величин с одинаковыми средними значениями а; и с одинаковыми законами распределения. Тогда их среднее арифметическое тоже будет случайной величиной с тем же самым средним значением но среднеквадратичное отклонение его будет в раз меньше, чем для каждой из составляющих (в случае независимых случайных величин):
Например, если производится п измерений одной и той же физической величины, то их среднее арифметическое, хотя тоже является случайной величиной, но всегда надежнее (имеет меньшее среднеквадратичное отклонение), чем каждое измерение в отдельности. Здесь случайные ошибки измерения в известной мере компенсируются. Но надо помнить, что систематические ошибки приборов при этом остаются в полной мере в составе среднего арифметического и никакой массовостью измерений скомпенсированы быть не могут.
3. Для п случайных величин, независимых и имеющих одно и то же среднее значение х~, среднее арифметическое будет при достаточно большом п как угодно мало отличаться от среднего значения х~ (с вероятностью, как угодно близкой к единице). Замечание в скобках означает, что это практически достоверно, но не абсолютно, потому что среднее арифметическое есть все же случайная величина. Таким образом, при большом п и указанных условиях
Этот закон больших чисел, доказанный П. Л. Чебышевым, имеет первостепенное значение для обработки экспериментальных данных и для учетной статистики.
Введем теперь понятие интегрального закона распределения. Интегральным законом распределения или функцией распределения называется вероятность того, что случайная величина примет значение, меньшее некоторого значения х.