Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Bashirov_I.H.,Uzbek__K.M.,SHCHetinina_O.K.Marke...doc
Скачиваний:
44
Добавлен:
15.11.2019
Размер:
5.81 Mб
Скачать

5.3. Мультиколінеарність факторів

На практиці при оцінці параметрів економетрічної моделі досить часто зустрічаються з проблемою взаємозв'язку між пояснюючими змінними. Якщо взаємозв'язок досить тісний, то оцінка параметрів моделі може мати велику похибку.

Мультиколінеарність – це корельованість двох або декількох факторних змінних між собою, що входять до рівняння регресії.

Проблема мультиколінеарності є звичайною для множинної регресії ча­сових рядів, коли дві чи більше змінних мають тренд, тобто корельовані.

Мультиколінеарність між пояснюючими змінни­ми викликає труднощі, зв'язані зі зменшенням точності оцінювання тих чи ін­ших змінних. Причина полягає в тому, що варіації у вихідних даних перестають бути незалежними і тому неможливо виділити вплив кожної пояснюючої змін­ної окремо на залежну змінну. Мультиколінеарність змінних приводить до зміщення оцінок параметрів моделі. На основі цих оцінок неможливо зробити конкретні висновки про результати взаємозв'язку між пояснюваною і поясню­ючими змінними. Причини виникнення мультиколінеарності в економічних явищах – різноманіття об'єктивно існуючих співвідношень між пояснюючими змінними.

Найповніше визначення наявності суттєвої мультиколінеарності факторів можна здійснити на основі алгоритму метода Феррара–Глаубера.

Для дослідження загальної мультиколінеарності використовують величину критерію статистику за формулою

, (5.13)

де – кількість спостережень, – число досліджуваних факторних змінних, – визначник кореляційної матриці факторів , елементами якої є парні коефіцієнти кореляції для кожної пари факторів і . Слід зауважити, що значення належить відрізку . За таблицями критичних точок Пірсона знаходять критичне значення .

Якщо , то між пояснюючими змінними існує загальна мультиколінеарність.

Приклад 5.3. Дослідити за алгоритмом Феррара–Глаубера наявність суттєвої мультиколінеарності п’яти узагальнених економічних факторів за даними спостережень по десяти торговельним підприємствам (табл. 5.5).

Таблиця 5.5 – Вихідні дані підприємств

5,2

5,3

5,2

5,1

5,4

5,5

5,3

6,1

6,4

6,7

2,6

2,2

2,3

2,5

2,2

2,5

2,8

2,3

2,6

2,7

3,4

3,1

3,2

3,5

3,1

3,7

4,1

3,1

3,4

3,9

1,8

1,5

1,6

1,7

1,5

1,7

1,9

1,6

1,8

1,9

2,4

2,2

2,2

2,4

2,2

2,6

2,8

2,2

2,4

2,7

Розв'язок: Всі подальші розрахунки проводиться, використовуючи формули пакету EXCEL. Опція «Кореляція» обчислює кореляційну матрицю факторів . Ця матриця є симетричною відносно головної діагоналі. У нашому випадку вона має розмір (табл. 5.6).

Таблиця 5.6 – Кореляційна матриця факторних змінних

X1

X2

X3

X4

X5

X1

1

X2

0,283955288

1

X3

0,182826186

0,900755509

1

X4

0,38105154

0,988714372

0,864355894

1

X5

0,235024071

0,902616809

0,99194978

0,86763124

1

Визначник кореляційної матриці . Знайдемо статистику за формулою (5.13):

.

Критичне значення дорівнює . Оскільки , то існує суттєва мультиколінеарність факторів.

Одна з задач економетричного аналізу полягає у зменшенні мультиколінеарності до допустимого рівня. Серед методів зменшення мультиколінеарності можна назвати:

  1. Метод виключення змінних полягає в тому, що сильно корельовані пояснюючі змінні усуваються з регресії, і вона заново оцінюється. Вибір змінних, які підлягають виключенню, здійснюється за допомогою величин парних коефіцієнтів кореляції. Якщо , то одну зі змінних чи можна виключити з подальшого розгляду. Яку змінну виключити з аналізу, вирішують, виходячи з економічних розумінь. Цей підхід є достатньо наближеним.

  2. Метод лінійного перетворення змінних полягає в переході до регресії приведеної форми шляхом заміни змінних, яким властива кореляція, їх лінійною комбінацією.

  3. Метод покрокової регресії: процедура застосування покрокової регресії починається з побудови простої однофакторної моделі. До аналізу послідовно додають одну змінну. На кожному кроці перевіряється значущість коефіцієнтів регресії й оцінюється мультиколінеарність змінних. Якщо оцінка параметру моделі є незначущою, то змінна виключається і розглядається інша факторна змінна. Таким чином, поступово визначаються всі складові регресії.

  4. Метод головних компонент: основна ідея полягає в зменшенні числа пояснюючих змінних до факторів, які найбільш істотно впливають на процес. Це досягається шляхом лінійного перетворення всіх пояснюючих змінних у нові змінні, так звані головні компоненти. При цьому потрібно, щоб виділенню першої головної компоненти відповідав максимум загальної дисперсії всіх пояснюючих змінних, другій компоненті – максимум дисперсії, що залишилася, після того як вплив першої головної компоненти виключається, і т.і.

Повертаючись до прикладу 5.3, можна помітити, що парні коефіцієнти кореляції згідно таблиці 5.6 вказують дуже високу ступінь лінійної кореляційної залежності між певними факторами. Наприклад, фактор не корелює з рештою факторів:

;

;

;

а фактори , , , навпаки корелюють кожен з кожним, оскільки

;

;

;

;

;

.