- •Оглавление
- •Тема 0. Введение (группа 3.3б) 4
- •Тема 1. Парная регрессия (группа 3.5а) 23
- •Тема 2. Множественная регрессия (группа 3.5б) 51
- •Тема 3. Нелинейная регрессия (группа 3.3а) 70
- •Тема 4. Системы регрессионных уравнений (группа 3.3б) 91
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ) 102 Тема 0. Введение (группа 3.3б)
- •0.1. Эконометрика как наука.
- •0.2. История возникновения эконометрики
- •0.3.Элементы теории вероятности.
- •0.3.1. Вероятностные характеристики случайных переменных
- •0.3.2.Законы распределения:
- •0.3.3 Условное математическое ожидание
- •0.4. Элементы математической статистики
- •0.4.1.Оценивание «хороших» свойств оценок
- •1) Состоятельность оценок
- •2) Несмещенность оценок
- •3) Эффективность оценок
- •0.4.2. Проверка гипотез и интервальное оценивание
- •Тема 1. Парная регрессия (группа 3.5а)
- •1.1 Определение линейной однофакторной регрессии.
- •1.1.1.Основные понятия регрессионного анализа
- •1.1.2. Линейная однофакторная регрессия
- •1.1.3. Матричная запись линейной регрессии
- •1.1.4 Оценки параметров регрессии
- •1.1.5 Смысл коэффициента регрессии
- •1.2 Проверка адекватности ру
- •1.2.1 Показатели качества подгонки
- •1.2.2.Проверка гипотез относительно параметров ру
- •1.3 Предпосылки мнк (ls)
- •1.3.1. Общие положения мнк
- •1.3.2. Выполнение первой предпосылки мнк (случайный характер остатков)
- •1.3.4. Выполнение третьей предпосылки мнк (гомоскедастичность остатков)
- •1.3.5 Выполнение 4-го условия мнк (отсутствие автокорреляции остатков)
- •1.3.6 Выполнение 5-го условия мнк (нормальность остатков)
- •1.4. Устранение нарушения предпосылок мнк для оценки парной регрессии
- •1.4.1. Автокорреляция остатков
- •1.4.2.Гетероскедастичность остатков и избавление от нее
- •1 Подход: преобразование исходных данных
- •2 Подход: применение другого метода оценивания коэф-ов регрессии.
- •3 Подход) включение дисперсии в модель
- •1.4.3. Метод максимального правдоподобия.
- •Тема 2. Множественная регрессия (группа 3.5б)
- •2.1 Множественная линейная регрессия
- •2.1.1. Основные понятия
- •2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
- •2.2.Проверка адекватности уравнений линейной множественной регрессии
- •2.2.1. Проверка качества подборки мнк.
- •3) Коэффициент эластичности
- •2.2.2.Проверка гипотез для млр
- •2.2.3. Допущение выполнения мнк или получение «хороших» оценок
- •2.3. Мультиколлинеарность факторов
- •2.3.1. Обнаружение мультиколлинеарности
- •2.3.2 Избавление от мультиколлинеарности. Метод главных компонент
- •2.4.Учет качественных факторов
- •2.4.1.Множественные переменные
- •2.4.2. Фиктивные переменные
- •2.4.3. Структурные изменения тенденций. Тест Чоу.
- •2.4.4. Модели бинарного выбора
- •Тема 3. Нелинейная регрессия (группа 3.3а)
- •3.1.Виды нелинейной зависимости
- •3.1.1.Основные понятия
- •3.1.2. Методы оценивания линеаризуемых функций:
- •3.1.3. Нелинеаризуемые функции и методы их оценки
- •1.Квазиньютоновский
- •2.Симплекс-метод
- •3.Метод Хука-Дживса
- •3.2.Проверка адекватности нелинейной регрессии
- •3.2.1. Показатели качества подгонки
- •3.2.2. Проверка гипотезы о значимости нелинейных моделей
- •3.2.3. Проверка выполнения условий для получения «хороших» оценок методом оценивания
- •3.3.Выбор типа зависимости
- •3.3.1. Теоретические предпосылки
- •3.3.2. Процедура Бокса – Кокса и тест Зарембеки
- •Тест Зарембеки
- •3.3.3.Производственные функции (пф)
- •3.3.4. Коэффициент эластичности
- •3.4.Спецификация и прогноз регрессионных уравнений
- •3.4.1. Информационные критерии (критерий Акайке, Шварца)
- •3.4.2. Ложная регрессия
- •3.4.3. Прогноз по регрессионным моделям. Доверительный интервал.
- •3.4.4. Применение регрессионного анализа в хеджировании
- •Тема 4. Системы регрессионных уравнений (группа 3.3б)
- •4.1.Понятие и виды сру
- •4.1.1. Система независимых уравнений
- •4.1.2. Системы рекурсивных уравнений
- •4.2. Структурный и приведенный виды сру
- •4.3 Идентификация модели
- •4.4 Оценка параметров сру
- •4.4.1.Кмнк.
- •4.4.2.Дмнк.
- •4.4.3.Тмнк.
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ)
0.3.Элементы теории вероятности.
Испытание – любое действие, которое приводит к определенному результату, события - результат исследования.
Пространства элементных событий - множество всех возможных результатов исследования.
Вероятность - мера того, что каждое случайное событие А произойдет Р(А)
Р (А)= ; Р(А) .
Вероятность , что событие А не произойдет:
Р ( )=1- Р(А).
Статистическое определение вероятности;
Вероятность результата Р(Z) рассчитывается предельное отношения числа ( количества раз) наступление событий Z к числу всех событий , т.е к числу раз проведенных испытаний:
Р(Z) = , где Т – количество испытаний, n(Z) – количество появления события Z .
Этот подход анализирует историческую информацию с целью определения вероятности наступления события в будущем. Именно на это определение опирается при рассмотрении эконометрических моделей.
Второе событие А и В независимые, если вероятность появления которого из них не зависит от того, появилось другое событие или нет; в противном случае ни зависимы.
Пусть А и В - зависимые. Условной вероятностью РА(В) события В называются вероятностью наступления события В при условии, что событие А произошло.
Случайная переменная Х, принимающее действительное значения на множестве событий, с помощью, которой мы ставим в однозначное соответствие, которому событию некоторое ---- хi , т.е некоторою
Следовательно, случайная переменная некоторое преобразование, которое конкретному событию в пространстве S ставит в соответствие единое алгебраическое значение хi .
Случайная переменная – переменная, которой не определённо, т.е с какой вероятностью переменная принимается те или иные численные значения, не известно.
Случайная переменная бывает дискретные и непрерывные.
Закон распределения вероятности - соответствие между возможностями значения случайной величины и вероятностями их появления.
Для дискретной случайной величины значения распределения вероятности часто задается таблицей:
Х=хi |
1 |
2 |
3 |
4 |
5 |
6 |
P(x) |
1/6 |
1/6 |
1/6 |
1/6 |
1/6 |
1/6 |
(x)=1
Про непрерывные случайные величины можно сказать, что возможные значения заключены в некоторый интервал: а или а <x<в.
Поэтому сводится переменные функции плотности вероятности непрерывная случайная величина х ---- которая и является ---
Вероятность — это мера того, что какое-либо случайное событие произойдет. Принимает значение (0,1) Существ. несколько осн. Понятий: испытание - это любое действие, которое приводит к определенному набору результатов. События — это конкретные результаты испытаний или их сочетание. Пространством элементарных событий называется множество всех возможных результатов. Существует три основных подхода к опр. вероятности: 1.Классический (возможные неопределенные результаты известны и равновероятны. При помощи простой логики можно определить вероятность каждого исхода. P(A)= число равновер. р-в/число возможных) .
2.Эмпиричский подход (повторение испытания множество раз, основан на проведении опытов Р(Z)=lim n(Z)/T)
3.Субъективистский подход (вероятность определяется как степень уверенности в наступлении того или иного события)
Свойства Р:-Р достоверного=1;-Р невозможного=0;-Рвероятного(0,1). 2 события несовместим, если появл. одного искл. появл. другого в испытании;Теор.:1.Р(А+В)=Р(А)+Р(В)-вероятность сумм двух несов. событий. Если А и В - зависимые события. Условной вероятностью РА(В) события В называют вероятность события В, найденной в предположении, что событие А уже наступило.2. Вероятность произведения двух зависимых событий А и В равна произведению вероятности одного из них на условную вероятность др., найденную в предположении, что первое событие уже наступило: Р(АВ)=Р(А)РА(В) 3. Вероятность произведения двух независимых событий А и В равна произведению вероятностей этих событий: Р(АВ)=Р(А)Р(В). 4.Вероятность суммы двух совместимых событий А и В равна сумме вероятностей этих событий без вероятности их произведения: Р(А+В)=Р(А)+Р(В)-Р(АВ).