- •Загальні поняття економетричних моделей. Задачі економетрії.
- •Кореляційно-регресійний аналіз в економіці. Функціональний та кореляційний зв’язки.
- •2) Визначення тісноти зв'язку (задача кореляційного аналізу).
- •Функція регресії. Регресор. Регресат. Причини обов'язкової присутності в регресійних моделях випадкового фактора.
- •Просторові дані. Часові ряди. Особливості часових рядів. Кореляційне поле.
- •Застосування методу Фостера-Стюарта з метою виявлення закономірного зв’язку між змінними
- •Методи вибору найкращої функції регресії
- •Економетрична модель. Специфікація моделі регресії.
- •Економетрична модель. Параметризація рівняння регресії.
- •Моделі часових рядів. Регресійні моделі з одним рівнянням.
- •Моделі часових рядів. Системи незалежних, рекурсивних, взаємозалежних рівнянь.
- •Порівнянність та однорідність даних. Повнота даних та стійкість.
- •Сутність методу найменших квадратів
- •Застосування методу максимальної правдоподібності з метою оцінювання параметрів економетричної моделі
- •Поняття кореляція. Кореляційний момент або коваріація. Коефіцієнт кореляції. Вибірковий кореляційний момент. Стандартна похибка.
- •Якісна оцінка коефіцієнтів кореляції за шкалою Чеддока. Розподіл Фішера-Іейтса.
- •Поняття кореляції. Оцінка значимості коефіцієнта кореляції з використанням t-критерію Стьюдента.
- •Матриця коефіцієнтів парної кореляції. Вибірковий коефіцієнт множинної кореляції та коефіцієнт детермінації. Вибірковий частинний коефіцієнт кореляції.
- •Проблема мультиколінеарності. Застосування алгоритму Фаррера-Глобера.
- •Індекс кореляції. Методика розрахунку кореляційного відношення.
- •Побудова економетричної моделі на основі покрокової регресії.
- •«Істинне» рівняння регресії. Парна регресія. Систематична та випадкова складові.
- •Умови Гаусса-Маркова.
- •Властивості оцінок параметрів регресійного рівняння: незміщеність, обґрунтованість, ефективність та інваріантність.
- •Оцінки найменших квадратів. Верифікація моделі. Стандартна похибка рівняння. Оцінений коефіцієнт детермінації.
- •Оцінки найменших квадратів. Перевірка значущості та довірчі інтервали. Прогнозування за лінійною моделлю.
- •Множинна регресія. Специфікація багатофакторної моделі. Помилки специфікації множинної регресії.
- •Мультиколінеарність. Практичні наслідки мультиколінеарності та методи її усунення.
- •Оцінка якості моделі множинної регресії. Перевірка виконання передумов мнк. Перевірка гіпотези про нормальний розподіл залишків регресії
- •Етапи побудови економетричної моделі.
- •Оцінка якості прогнозів за регресійними моделями
- •Нелінійна регресія відносно пояснюючих змінних. Нелінійна регресія по параметрам, що оцінюються. Внутрішньо лінійна та нелінійна функції.
- •Особливості параметризації нелінійної регресії. Вибір аналітичної форми дослідження.
- •Фіктивні змінні. Ілюстрація використання фіктивної змінної. Множинні сукупності фіктивних змінних.
- •Оцінка якості моделі. Дослідження відповідності моделі емпіричним даним. Оцінка точності моделі.
- •Поняття гомоскедастичності та гетероскедастичності залишків. Наслідки порушень припущення про гомоскедастичність.
- •Методи виявлення гетероскедастичності. Тест Голдфельда-Квандта. Тест рангової кореляції Спірмена.
- •Трансформування початкової моделі з гетероскедастичністю.
- •Зважений метод найменших квадратів.
- •Оцінювання параметрів регресії за допомогою узагальненого методу найменших квадратів (методу Ейткена).
- •Поняття автокореляції. Автокореляція залишків. Лагові затримки.
- •Природа автокореляції та її наслідки. Методи усунення автокореляції.
- •Тестування наявності автокореляції. Критерій Дарбіна-Уотсона. Критерій фон Неймана.
- •Коефіцієнти автокореляції та їх застосування. Автокореляційна функція та корелограма.
- •Оцінка параметрів моделі з автокорельованими залишками. Метод Ейткена.
- •Оцінка параметрів моделі з автокорельованими залишками. Метод Кочрена-Оркатта.
- •Прогноз на основі моделі з автокорельованими залишками.
- •Узагальнені економетричні моделі.
- •Поняття лагу і лагових змінних.
- •Дистрибутивно-лагові моделі. Авторегресійні моделі.
- •Моделі розподіленого лагу. Узагальнена модель розподіленого лагу.
- •Оцінка параметрів лагових моделей. Метод послідовного збільшення кількості лагів.
- •Перетворення Койка (метод геометричної прогресії).
- •Модель адаптивних сподівань. Модель часткового коригування.
- •Оцінювання параметрів методом Ейткена.
- •Динамічний та часовий ряди. Систематичні та випадкові компоненти часового ряду. Стаціонарність часового ряду.
- •Фільтрація компонент часового ряду. Ts, ds, тренд-сезонні, нелінійні часові ряди.
- •Дослідження автокореляційної функції часового ряду.
- •Методи фільтрації сезонної компоненти.
- •Прогнозування тенденції часового ряду за механічними методами та аналітичними методами.
- •Адаптивні методи прогнозування.
- •Метод декомпозиції часового ряду. Розрахунок сезонної хвилі.
- •Системи одночасних економетричних рівнянь. Ендогенні та екзогенні змінні.
- •Структурна та зведена форми економетричної моделі. Повна економетрична модель.
- •Ідентифікованість моделі. Необхідна та достатня умови ідентифікованості системи.
- •Непрямий метод найменших квадратів.
- •Двокроковий та трикроковий методи найменших квадратів.
- •Прогноз ендогенних змінних і загальні довірчі інтервали.
Оцінка якості моделі множинної регресії. Перевірка виконання передумов мнк. Перевірка гіпотези про нормальний розподіл залишків регресії
Якість моделі регресії перевіряється на основі аналізу залишків регресії . Аналіз залишків дозволяє отримати уявлення про те, наскільки добре підібрана модель і наскільки правильно вибраний метод оцінки коефіцієнтів. Згідно загальним припущенням регресійного аналізу, залишки повинні вести себе як незалежні однаково розподілені випадкові величини. Дослідження доцільно починати з вивчення графіку залишків. Він може показати наявність якої-небудь залежності, що не врахована в моделі. Графік добре показує і викиди, яких потрібно позбавлятися.
Якість моделі оцінюється за наступними напрямками (аналогічно до парної регресії):
перевірка якості рівняння регресії (індекс кореляції та коефіцієнт детермінації);
перевірка значимості рівняння регресії (критерій Фішера);
аналіз статистичної значущості параметрів моделі (t-критерій);
перевірка виконання передумов МНК.
Умови, що необхідні для отримання незміщених, спроможних та ефективних оцінок, представляють собою передумови МНК. Виконання умови рівності нулеві математичного очікування залишків забезпечується завжди при використанні МНК для лінійних моделей. Передумова про нормальний розподіл залишків дозволяє проводити перевірку параметрів регресії за допомогою критеріїв t та F. разом з тим оцінки регресії, отримані методом МНК, мають добрі властивості навіть при відсутності нормального розподілу залишків. Таким чином, найважливішими є виконання умови незалежності та умови гомоскедастичності.
Етапи побудови економетричної моделі.
Припустимо, що між ціною та означеними технічними характеристиками існує лінійна залежність:
Необхідно:
обчислити статистичну оцінку вектора , тобто визначити для залежності між досліджуваним фактором Y (ціною автомобіля) та пояснюючими змінними X1 (вік автомобіля) і X2 (об’єм двигуна);
проаналізувати ступінь адекватності побудованої моделі та вибіркових даних;
виконати дисперсійний аналіз моделі та обчислити коефіцієнт множинної детермінації ;
перевірити статистичну значущість коефіцієнта детермінації на основі критерію Фішера;
визначити виправлені дисперсії та виправлені середньоквадратичні відхилення для статистичних оцінок ;
із заданою надійністю побудувати довірчі інтервали для параметрів ;
одержати прогнозне значення та побудувати для нього із заданою надійністю довірчі інтервали;
визначити часткові коефіцієнти еластичності
Оцінка якості прогнозів за регресійними моделями
Довірчі інтервали прогнозу визначаються як:
,
де – стандартна похибка прогнозу
Визначимо за формулою стандартну похибку прогнозного значення :
Нелінійна регресія відносно пояснюючих змінних. Нелінійна регресія по параметрам, що оцінюються. Внутрішньо лінійна та нелінійна функції.
Розрізняють два класи нелінійних регресій:
1) нелінійні відносно пояснюючих змінних, однак лінійні по параметрам, що оцінюються;
2) нелінійні по параметрам, що оцінюються.
Клас регресій нелінійних відносно пояснюючих змінних, однак лінійних по параметрам, що оцінюються, включає рівняння, в яких залежна змінна лінійно пов’язана з параметрами. Приклад таких регресій можуть слугувати:
поліноми різних ступенів
; (5.1)
рівностороння гіпербола
. (5.2)
При оцінці параметрів регресії, нелінійних по пояснюючим змінним, використовується метод заміни змінних. Суть його полягає в заміні нелінійних пояснюючих змінних новими лінійними змінними, в результаті чого нелінійна регресія зводиться до лінійної. До нової, перетвореної регресії може бути застосований звичайний МНК.
Наприклад, у випадку поліноміальної моделі з декількома пояснюючими змінними
(5.3)
заміна , , , ... призводить до лінійної регресійної моделі.
До класу регресій, нелінійних по параметрам, що оцінюються, відносяться рівняння, в яких залежна змінна нелінійно пов’язана з параметрами. Прикладом таких регресій є функції:
степенева: ;
показникові: ;
експоненціальні: .
Якщо нелінійна модель внутрішньо лінійна, то вона за допомогою відповідних перетворень може бути приведена до лінійного виду (наприклад, логарифмуванням). Якщо ж нелінійна функція внутрішньо нелінійна, то вона не може бути зведена до лінійної функції і для оцінки її параметрів використовують ітеративні процедури, успішність яких залежить від виду рівняння та особливостей ітеративного підходу, що застосовується.
Прикладом регресії, що є внутрішньо лінійної є регресія попиту (Y) від загального доходу (z) та ціни цього товару (p):
.