
- •Лекція 1.Предмет, методи і завдання дисципліни
- •1.1 Природа економетрії. Роль економетричних досліджень в економіці
- •1.2 Предмет, цілі, завдання та структура курсу. Місце і значення курсу серед дисциплін фундаментальної підготовки фахівців з економіки. Взаємозв’язки курсу із суміжними дисциплінами
- •1.3 Особливості економетричних моделей
- •1.4 Вибір змінних і структура зв’язків.
- •1.5 Роль і місце економетричних моделей в математичному моделюванні
- •Лекція 2.Методи побудови загальної лінійної моделі
- •2.1 Загальний вигляд лінійної економетричної моделі, її структура та етапи побудови. Лінійна модель з двома змінними.
- •2.2 Передумови застосування методу найменших квадратів (1мнк)
- •2.3 Оператор оцінювання 1мнк
- •2.4 Верифікація моделі
- •2.5 Перевірка значущості та довірчі інтервали
- •2.6 Прогнозування за лінійною моделлю
- •2.7 Методи побудови багатофакторної регресійної моделі
- •2.8 Етапи дослідження загальної лінійної моделі множинної регресії. Визначення параметрів рівняння регресії.
- •2.9 Розрахунок коефіцієнтів множинної лінійної регресії
- •Лекція 3.Мультиколінеарність та її вплив на оцінки параметрів моделі
- •3.1 Поняття мультиколінеарності. Її вплив на оцінки параметрів моделі
- •3.2 Ознаки мультиколінеарності
- •3.3 Алгоритм Фаррара-Глобера
- •3.4 Методи усунення мультиколінеарності
- •Лекція 4.Емпіричні методи кількісного аналізу на основі статистичних рівнянь
- •4.1 Виміри і нечислові ознаки
- •4.2 Непараметричні (емпіричні) методи та доцільність їх застосування
- •4.3 Критерії відмінності між групами (незалежні вибірки)
- •4.4 Критерії відмінності між групами (залежні вибірки)
- •4.5 Критерії залежності між змінними
- •Лекція 5.Узагальнений метод найменших квадратів
- •4.1 Поняття гомо- і гетероскедастичності. Вплив гетероскедастичності на властивості оцінок параметрів
- •4.2 Методи визначення гетероскедастичності
- •5.3 Усунення гетероскедастичності трансформуванням початкової моделі
- •4.4 Узагальнений метод найменших квадратів (метод Ейткена) оцінок параметрів лінійної економетричної моделі з гетероскедастичними залишками. Прогноз за моделлю.
- •Лекція 6.Побудова економетричної моделі з автокорельованими залишками Анотація
- •6.1 Природа і наслідки автокореляції
- •6.2 Методи визначення автокореляції. Критерій Дарбіна-Уотсона. Критерій фон Неймана
- •6.3 Коефіцієнти автокореляції та їх застосування
- •6.4 Моделі з автокорельованими залишками
- •Лекція 7.Економетричні моделі на основі системи структурних рівнянь
- •7.1 Системи одночасних структурних рівнянь
- •7.2 Структурна і зведена форми моделі
- •7.3 Проблеми ідентифікації. Строго ідентифікована, неідентифікована і надідентифікована системи рівнянь
- •7.4 Проблема оцінювання параметрів системи, загальна характеристика методів. Непрямий метод оцінювання параметрів строго ідентифікованої системи рівнянь
- •7.5 Двокроковий метод найменших квадратів оцінювання параметрів надідентифікованих систем одночасних рівнянь (2мнк-оцінка)
- •7.6 Трикроковий метод найменших квадратів
- •7.7 Рекурсивні системи одночасних рівнянь, їх характеристика, можливість застосування мнк-оцінки для розрахунку параметрів рекурсивних систем
- •7.8 Прогноз і загальні довірчі інтервали
- •Лекція 8.Методи ІнструментальнИх зміннИх
- •8.1 Сутність методу інструментальних змінних
- •8.2 Оператор оцінювання Вальда
- •8.3 Особливості оцінювання методом Бартлета
- •8.4 Оператор оцінювання Дарбіна
- •8.5 Помилки вимірювання змінних
- •Лекція 9.Економетричні моделі динаміки
- •9.1 Методи моделювання часових рядів
- •9.2 Перевірка гіпотези про існування тренда
- •9.3 Моделювання тенденції часового ряду: згладжування та аналітичне вирівнювання
- •9.4 Моделювання сезонних та циклічних коливань
- •Лекція 10.Моделі розподіленого лагу
- •10.1 Поняття лагу і лагових змінних
- •10.2 Моделі розподіленого лагу
- •10.3 Оцінка параметрів моделей з лагами в незалежних змінних: метод послідовного збільшення кількості лагів, перетворення Койка (метод геометричної прогресії)
- •10.4 Оцінювання параметрів авторегресійних моделей
- •10.5 Виявлення автокореляції залишків в авторегресійних моделях
- •10.6 Авторегресійне перетворення
- •У всіх цих перетвореннях поточне значення yt змінної y виражається тільки через її попередні значення і випадкову складову (білий шум) ut.
- •10.7 Перетворення методом ковзного середнього
- •10.8 Перетворення arma і arima
3.4 Методи усунення мультиколінеарності
Відмітимо, що в ряді випадків мулько лінеарність не являється таким вже серйозним «злом», щоб докладати суттєві зусилля по її виявленню і усуненню. в основному все залежить від цілей дослідження.
Якщо основна
задача моделі – прогноз майбутніх
значень залежної змінної, то при
достатньо великому коефіцієнті
детермінації
,
наявність мультиколінеарності зазвичай
не впливає на прогнозні якості моделі
(якщо в майбутньому між корельованими
змінними будуть зберігатися ті ж
відношення, що і раніше).
Якщо необхідно визначити ступінь впливу кожної з пояснюючих змінних на залежну змінну, то мультиколінеарність, що призводить до збільшення стандартних похибок, скоріше за все, викривить істинні залежності між змінними. В цій ситуації мультиколінеарність являється серйозною проблемою.
Единого методу усунення мультиколінеарності не існує. Це пов’язано з тим, що причини і наслідки мультиколінеарності неоднозначні і багато в чому залежать від результатів вибірки.
Звичайно, все залежить від ступеня мультиколінеарності, однак у будь-якому разі можна запропонувати кілька простих методів усунення мультиколінеарності:
отримання додаткових даних чи нової вибірки;
зміна специфікації моделі;
виключення змінної з моделі;
використання попередньої інформації про деякі параметри;
перетворення змінних;
метод покрокового включення;
гребенева регресія (ridge).
Виключення змінної з моделі
Найпростішим методом усунення мультиколінеарності являється виключення з моделі однієї чи ряду корельованих змінних. При застосуванні даного методу необхідна певна обачливість. В даній ситуації можливі помилки специфікації, тому в прикладних економетричних моделях бажано не виключати пояснюючі змінні до тих пір, доки мультиколінеарність не стане серйозною проблемою.
Отримання додаткових даних чи нової вибірки
Оскільки мультиколінеарність прямо залежить від вибірки, то, можливо, при іншій вибірці мультиколінеарності не буде чи вона не буде такою серйозною. Іноді для зменшення мультиколінеарності достатньо збільшити об’єм вибірки. Наприклад, при використанні щорічних даних можна перейти до щоквартальних даних. Збільшення кількості даних скорочує дисперсії коефіцієнтів регресії і тим самим збільшує їх статистичну значимість. Однак отримання нової вибірки чи розширення старої не завжди можливе чи пов’язане з серйозними витратами. Крім того, такий підхід може посилити автокореляцію. Ці проблеми обмежують можливість використання даного методу.
Зміна специфікації моделі
В ряді випадків проблема мультиколінеарності може бути вирішена шляхом зміни специфікації моделі: або змінюється форма моделі, або додаються пояснюючі змінні, не враховані в початковій моделі, але суттєво впливаючі на залежну змінну. Якщо даний метод має основу, то його використання зменшує суму квадратів відхилень, тим самим, скорочуючи стандартну похибку регресії. Це призводить до зменшення стандартних похибок коефіцієнтів.
Використання попередньої інформації про деякі параметри
Іноді при побудові моделі множинної регресії можна скористатися попередньою інформацією, зокрема відомими значеннями деяких коефіцієнтів регресії. Цілком ймовірно, що значення коефіцієнтів, розрахованих для яких-небуть попередніх (зазвичай простих) моделей чи для аналогічної моделі по раніше отримані вибірці, можуть бути використані для створюваної моделі в даний момент.
Перетворення змінних
Одним із способів усунення мутиколінеарності є перетворення змінних, наприклад замість значення всіх змінних, що включені в модель (і результуючої в тому числі), можна взяти їх логарифми:
(3.10)
Але і це не гарантує позбавлення від мультиколінеарності.
Якщо ні один з наведених методів не дав бажаних результатів, то необхідно використати зміщені методи оцінки невідомих параметрів моделі.
До зміщених методів оцінки коефіцієнтів регресії можна віднести гребеневу регресію чи рідж (ridge). Її використовують в тому випадку, коли ні одну із змінних, що включені в модель, видалити не можна.
Суть гребеневої
регресії полягає в тому, що до всіх
діагональних елементів матриці (ХТХ)
додається невелике число τ
(тау):
.
Невідомі параметри множинного рівняння
регресії в данному випадку визначаються
по формулі:
, (3.11)
де Е – одинична матриця.
В результаті застосування ріджа оцінки коефіцієнтів рівняння множинної регресії стабілізуються до певного значення, і їх стандартні похибки зменшуються.
Метод покрокового включення
Метод покрокового включення змінних в модель дозволяє обрати із можливого набору змінних саме ті, які підсилюють якість моделі регресії.
Алгоритм методу покрокового включення:
із числа всіх змінних в модель регресії включають ті, котрі мають найбільший модуль парного лінійного коефіцієнта кореляції з результативною змінною;
при додаванні в модель нових факторів необхідно перевіряти їх значимість за допомогою F-критерію Фішера.
Основна гіпотеза формулюється як недоцільність включення фактору хk в модель множинної регресії. Альтернативна гіпотеза виходить із оберненого твердження.
(3.12)
де q – число вже включених в модель змінних.
Критичне значення
F-критерію визначається
по таблиці розподілу Фішера-Снедекора
з рівнем значимості α і числом
ступенів свободи: k1=1
і k2=n-1:
.
Якщо
,
то включення змінної в модель множинної
регресії являється обґрунтованим.
Перевірка факторів
на значимість здійснюється до тих пір,
доки не знайдеться хоча б одна змінна,
для якої не виконується умова
.
Самостійна робота № 3 – Метод головних компонентів.
Метод головних компонентів [1, c. 163-172].