- •1. Оцінка параметрів лінійної регресії методом найменших квадратів
- •2. Коефіцієнт кореляції та детермінації
- •3. Властивості оцінок параметрів лінійної регресії
- •4. Перевірка лінійної регресії на адекватність (значимість) за допомогою f-критерію Фішера.
- •5. Перевірка значимості параметрів регресійної моделі за допомогою t-критерію Ст’юдента
- •6. Коефіцієнт еластичності. Довірчі інтервали (інтервали довіри). Прогнозування за допомогою моделі парної лінійної регресії
- •7.Нелінійна регресія
- •8. Поняття мультиколінеарності, основні її ознаки та наслідки
- •9. Методи усунення мультиколінеарності
- •10. Алгоритм Фарара-Глобера
- •11. Поняття гетероскедастичності та її наслідки
- •12. Тест Голдфельда-Квандта
- •13. Знаходження оцінок параметрів моделі за допомогою узагальненого методу найменших квадратів (метод Ейткена)
- •14. Поняття автокореляції та її наслідки
- •15. Критерій Дарбіна-Уотсона
- •16. Оцінювання параметрів економетричної моделі узагальненим методом найменших квадратів при наявності автокореляції
10. Алгоритм Фарара-Глобера
Для встановлення наявності мультиколінеарності розроблені різні типи та алгоритми. Одним з них є алгоритм Фарара-Глобера – ций алгоритм дає змогу встановлювати наявність мультиколінеарності між всіма незалежними змінними, кожної незалежної змінної з рештою змінних і кожної пари незалежних змінних.
Цей алгоритм використовує три типи параметрів:
Нехай перевірка наявності мультиколінеарності між всіма змінними здійснюється ступним чином:
Нормалізують (стандартизують) змінні згідно формули:
Знаходять кореляційну матрицю нормалізованих змінних за формулою:
, де
– матриця нормалізованих значень вибірки.
Обчислюється визначник матриці R.
Вибирають критерій
Вважають, що цей критерій має розподіл з ступенями вільності.
Формулюють статистичні гіпотези:
Н0 – мультиколінеарність між змінними відсутня;
Н1– мультиколінеарність між змінними присутня;
За формулою знаходять фактичне значення критерію .
За таблицями знаходять теоретичне значення при ступенях вільності і задану у вигляді значимості .
Якщо , то приймається нульова гіпотеза і вважається, що мультиколінеарність між змінними відсутня.
Якщо , то приймається альтернативна гіпотеза і вважається, що мультиколінеарність між змінними присутня.
Перевірка наявності мультиколінеарності деякої змінної з іншими змінними здійснюється за допомогою F-критерію наступним чином:
Знаходять обернену матрицю до мтариці
Вибирають для кожної змінної F-критерій вигляд:
– це діагональні елементи матриці С вважають, що цей критерій Фішера з ступенями вільності.
Формулюють гіпотези
Н0 – змінна – не мультиколінеарна з іншими змінними;
Н1– змінна – мультиколінеарна з іншими змінними;
Знаходять фактичне значення критерію
За таблицею розподілу Фішера знаходять теоретичне знчення критерію , для ступенями вільності при рівні значимості .
Якщо , то вважають, що змінна – не мультиколінеарна з іншими змінними, тобто приймається нульова гіпотеза;
Якщо , то приймається альтернативна гіпотеза та вважають, що змінна мультиколінеарна з іншими змінними.
Для перевірки наявності колінеарності між кожною парою незалежних змінних використовують t-критерій наступним чином:
Для довільних змінних знаходять частинні коефіцієнти кореляції за формулою:
Частинні коефіцієнти кореляції - характеризують тісноту зв’язку між змінними за умови, що інші змінні не впливають на цей зв'язок, вони в основному менші за відповідні парні коефіцієнти кореляції, тому за значеннями парних коефіцієнтів кореляції не можна робити висновків про наявність мультиколінеарності між парними змінними .
Вибирають критерій , вважають, що він має t-розподіл з ступенями вільності.
Формулюють статистичні гіпотези:
Нульова гіпотеза:
Альтернативна гіпотеза:
Знаходять фактичне значення критерію
За таблицями t-розподілу знаходять теоретичне значення критерію , для і вибираємо .
Якщо , то змінні не мультиколінеарні між собою.
Якщо , то приймається альтернативна гіпотеза і змінні мультиколінеарні між собою.