
- •Орієнтовний перелік питань для підсумкового контролю знань
- •Тема 1. Математичне моделювання як метод наукового пізнання економічних явищ і процесів
- •1.1 Економетрика як наука, об’єкт, предмет, мета та задачі. Основні характеристики економічної системи як об’єкта моделювання
- •1.2 Поняття моделі. Математична модель, основні етапи процесу моделювання, класифікація моделей
- •Етапи проведення економетричних досліджень
- •Тема 2. Моделі парної регресії та їх дослідження
- •2.1 Приклади парних зв’язків в економіці
- •Модель споживання
- •Модель пропозиції та попиту
- •Найпростіша кон'юнктурна модель (модель Кейнса)
- •Виробнича функція Кобба-Дугласа
- •2.2 Парна регресія
- •2.2.1 Специфікація моделі
- •2.2.2 Визначення параметрів рівняння регресії за допомогою методу найменших квадратів
- •Тема 3. Загальна лінійна економетрична модель
- •3.1 Загальний вид лінійної економетричної моделі, її структура та етапи побудови
- •3.2 Деяка інформація про випадкові збудники
- •3.3 Умови Гауса-Маркова. Гомоскедастичні та гетероскедастичні моделі
- •Тема 4. Лінійна парна регресія
- •4.1 Загальний вид лінійної парної моделі
- •4.2 Визначення оцінок параметрів парної лінійної регресії за допомогою мнк
- •4.3 Властивості оцінок, а також залишків мнк, їх характеристика
- •4.4 Аналіз рівнянь лінійної регресії і властивості вибіркового коефіцієнту кореляції
- •4.5 Дисперсійний аналіз та поняття коефіцієнта детермінації, його властивості
- •Властивості коефіцієнта детермінації
- •4.6 Перевірка лінійної моделі на адекватність. Поняття -критерію Фішера
- •4.7 Перевірка значимості параметрів регресійної моделі та коефіцієнту кореляції
- •4.8 Побудова інтервалів довіри для параметрів регресійної моделі
- •4.9 Зона довіри для лінії регресії
- •4.10 Прогноз і інтервал довіри для прогнозу
- •4.11 Коефіцієнт еластичності
- •Тема 5. Нелінійна парна регресія
- •5.1 Загальні відомості
- •5.2 Метод лінеаризації
- •5.3 Методи обчислення невідомих параметрів нелінійних моделей
- •5.4 Перевірка адекватності квадратичного рівняння регресії
- •5.5 Довірчий інтервал і прогноз для нелінійної моделі
- •5.6 Коефіцієнти еластичності для нелінійних моделей
- •5.7 Аналіз монопольного ринку
- •Коефіцієнт еластичності попиту
- •Тема 6. Множинна регресія
- •6.1 Загальні відомості
- •6.2 Вибір та аналіз усіх можливих факторів, які впливають на процес або показник, що досліджується
- •6.2.1 Поняття про мультиколінеарність та її вплив на оцінки параметрів моделі
- •6.2.2 Порядок виявлення та усунення мультиколінеарності
- •6.2.3 Виявлення мультиколінеарності в масиві факторів за допомогою алгоритму Фаррара-Глобера
- •6.2.4 Алгоритм усунення мультиколінеарності
- •6.3 Вибір виду рівняння регресії
- •6.4 Загальна модель множинної лінійної регресії
- •6.5 Емпірична модель множинної лінійної регресії
- •6.6 Визначення коефіцієнтів рівняння множинної лінійної регресії
- •6.7 Перевірка адекватності множинної регресійної моделі
- •6.8 Прогноз і довірчий інтервал для прогнозу множинної регресії
- •Тема 7. Економетричні моделі динаміки
- •7.1 Методи моделювання часових рядів
- •7.2 Автокореляція часового ряду
- •Властивості коефіцієнта автокореляції
- •7.3 Моделювання тенденції часового ряду: згладжування та аналітичне вирівнювання
- •7.4 Автокореляція залишків в множинній регресії
- •7.4.1 Поняття про автокореляцію залишків, її природа, причини виникнення і наслідки
- •7.4.2 Визначення наявності автокореляції залишків
- •Алгоритм тесту Дарбіна-Уотсона
- •Обмеження на застосування критерія Дарбіна-Уотсона
- •Словник
- •Рекомендована література Основна:
- •Додаткова:
6.2.2 Порядок виявлення та усунення мультиколінеарності
Найбільш поширеним
способом виявлення мультиколінеарності
є побудова кореляційної матриці (6.2), в
якій відображені коефіцієнти кореляції.
Незалежні показники, між якими коефіцієнт
кореляції становить або перевищує 0,8
або 80% (
)
розглядають на наявність мультиколінеарності.
Вважається, якщо
дві змінні є лінійно залежними, якщо
.
А якщо в початкових статистичних даних
пара стовпчиків є пропорційними або
майже пропорційними, то це приведе до
того, що визначник кореляційної матриці
буде дорівнювати нулю або мати дуже
близьке до нуля значення і нормальну
систему рівнянь розв’язати неможливо.
Коли в кореляційній матриці більш, ніж два фактори пов’язані між собою лінійною залежністю, в даній моделі має місце мультиколінеарність.
Якщо явище мультиколінеарності буде виявлено, то перш ніж будувати рівняння регресії один із колінеарних факторів (той який менше корельований з ) необхідно виключити із моделі (так як вони дублюють один одного і не дають можливості визначити коефіцієнти регресії).
Існують різні методи для зменшення мультиколінеарності. Вони діляться на дві категорії: до першої категорії відносяться методи, спрямовані на виконання умов, що забезпечують надійність оцінок регресії; до другої – відносяться використання зовнішньої інформації. Якщо з початку використовувати можливі значення показників, то, звичайно, було б важливим збільшити кількість спостережень. Якщо, наприклад, використовуються часові ряди, то це можна зробити шляхом скорочення терміну кожного періоду часу.
Якщо використовуються дані перехресної вибірки і дослідник знаходиться на стадії планування дослідження, то можна збільшити точність оцінок регресії і послабити проблему мультиколінеарності за рахунок більших витрат коштів на збільшення розміру вибірки та інші методи.
У випадку виявлення наявності мультиколінеарності існує декілька простих шляхів її усунення. Основними серед них є наступні.
1. Вилучення змінної (або змінних) з моделі. При цьому з моделі вилучається одна із змінних колінеарної пари. Слід зазначити, що таке вилучення змінних можливе тільки у випадку, коли це не суперечить логіці економічних зв’язків. У протилежному випадку це може призвести до помилки специфікації.
2. Зміна аналітичної форми економетричної моделі. Іноді заміна однієї функції регресії іншою (наприклад, лінійної нелінійною) , якщо це не суперечить апріорній інформації, дає змогу уникнути явища мультиколінеарності.
3. Збільшення спостережень. З точки зору теорії, мультиколінеарність та невелика кількість спостережень у вибірці – це одна і та ж проблема. Тому збільшення спостережень у статистичній вибірці або використання іншої статистичної вибірки може усунути, або принаймні зменшити вплив мультиколінеарності.
4. Перетворення статистичних даних. Позбутися мультиколінеарності можна і шляхом наступних перетворень вихідних даних стосовно пояснюючих змінних :
а) замість самих даних узяти їхні відхилення від середніх;
б) замість абсолютних значень даних взяти відносні значення ;
в) стандартизувати змінні.
5. Використання додаткової первинної інформації. Аналіз і використання первинної додаткової інформації інколи дозволяє зняти проблему мультиколінеарності.