4.2. Хід роботи
1. Занести вхідні дані до листа Excel. Таблицю назвати “Вхідні дані для проведення регресійного аналізу”. У першому стовпчику головки таблиці за-значається показник залежної змінної, в інші заносяться заголовки незалежних змінних. Значення вхідних даних заноситься в порядку зростання років для всіх факторних ознак. Вхідні дані для проведення лабораторної роботи обираються згідно отриманого варіанта (додаток А).
2. З допомогою пакета Анализ данных, з меню Сервис застосувати інструмент Регрессия. У діалоговому вікні поля Входной интервал Y вставити інтервал залежних змінних. У діалоговому вікні поля Входной интервал Х вставити значення інтервалу однієї з незалежних змінних. У полі Оглавление по-ставити мітку. У полі Выходной интервал занести значення клітинки, розміщеної на кілька рядків нижче попереднього запису використовуваного листа. Поставити мітки у полях Остатки та Стандартные остатки.
3. Зробити висновки на основі отриманих результатів із застосуванням критеріїв, наведених у п. “Основні поняття та терміни лабораторної роботи”.
Лабораторна робота 5. Дослідження мультиколінеарності
5.1. Основні поняття та терміни
Мультиколінеарність характеризується існуванням тісної лінійної за-лежності, або сильної кореляції, між двома чи більше пояснювальними змін-ними. Вона негативно впливає на кількісні характеристики моделі або робить її побудову взагалі неможливою.
Мультиколінеарність пояснювальних змінних призводить до зміщен-ня оцінок параметрів моделі, через що з їх допомогою не можна зробити коректні висновки про результати взаємозв’язку залежної та пояснювальних змінних. У крайньому випадку, коли між пояснювальними змінними існує функ-ціональний зв’язок, оцінити вплив цих змінних на залежну взагалі неможливо. Тоді для оцінювання параметрів моделі метод найменших квадратів не придатний, оскільки матриця буде виродженою. Якщо зв’язок між пояснювальними змінними не функціональний, проте статистично істотний, тоді попри те, що оцінити параметри методом найменших квадратів теоретично можливо, знайдена оцінка може призвести до помилкових значень параметрів, і сама модель стане беззмістовною.
Основні наслідки мультиколінеарності.
1. Падає точність оцінювання, яка виявляється так:
а) помилки деяких конкретних оцінок стають занадто великими;
б) ці помилки досить корельовані одна з одною;
в) дисперсії оцінок параметрів різко збільшуються.
2. Оцінки параметрів деяких змінних моделі можуть бути незначущими через наявність їх взаємозв’язку з іншими змінними, а не тому, що во-ни не впливають на залежну змінну. У такому випадку множина вибіркових даних не дає змоги цей вплив виявити.
3. Оцінки параметрів стають досить чутливими до обсягів сукупності спостережень. Збільшення сукупності спостережень іноді може призвести до істотних змін в оцінках параметрів.
З огляду на перелічені наслідки мультиколінеарності при побудові моделі потрібно мати інформацію про те, що між пояснювальними змінними не існує мультиколінеарністі.
Перевірка на мультиколінеарність передбачає оцінювання взаємозв’язку між окремими факторами-ознаками. За наявності лінійної залежності між факторами система нормальних рівнянь не матиме однозначного роз-в’язку, внаслідок чого коефіцієнти регресії та інші оцінки будуть нестійкими. Крім того, наявність взаємозв’язку факторів утруднює економічну інтерпретацію рівняння зв’язку, оскільки зміна одного фактора спричиняє, як правило, зміну іншого, який з ним пов’язаний.
Існує кілька методів виключення мультиколінеарності, проте найчастіше застосовується метод оцінювання парних коефіцієнтів кореляції. Критерієм мультиколінеарності вважається виконання двох нерівностей:
rxjy > rxjxk; rxky > rxjxk. (2.15)
Якщо ці нерівності або хоча б одна з них не виконуються, то ви-ключається той фактор х, зв’язок якого з результативним показником у буде менш тісним.
