Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Економетрія шпори 2010.docx
Скачиваний:
11
Добавлен:
30.08.2019
Размер:
2.22 Mб
Скачать

6.5. Методи звільнення від мультиколінеарності

Найпростіше позбутися мультиколінеарності в економетричній моделі можна, відкинувши одну зі змінних мультиколінеарної пари. Однак на практиці вилучення якогось чинника часто суперечить логіці економічних зв’язків.

Позитивно впливає на звільнення від мультиколінеарності суттєве збільшення сукупності спостережень, але цей підхід не завжди можна реалізувати на практиці. Можна також перетворити певним чином пояснювальні змінні моделі:

а) знайти відхилення від середньої;

б) замість абсолютних значень змінних обчислити відносні (темпи зростання, приросту);

в) нормалізувати пояснювальні змінні;

г) використати «рідж-регресію».

Розглянемо сутність «рідж-регресії» як одного з ефективних способів усунення мультиколінеарності.

Згідно з теоремою Гаусса—Маркова оцінки — 1МНК є оцінками з найменшою середньоквадратичною похибкою серед усіх незміщених і лінійних щодо до Y оцінок. Але в економетрії доведено, що може існувати зміщена оцінка невідомих параметрів A, яка є точнішою з погляду середнього квадрата похибки ніж найкраща серед незміщених оцінок.

Доведено існування таких незміщених оцінок, для яких можна, змінюючи розмір сукупності спостережень, діставати багато значень зміщених лінійних оцінок — 1МНК ( ) для кожної вибірки і для них будувати щільність розподілу — . Аналогіч­но можна дістати множину незміщених оцінок і для них знайти щільність закону розподілу — .

Нехай надалі Δ визначає допустиму граничну похибку в оцінці істинного значення вектора А, тобто якщо , то оцінка вважається незміщеною (якісною), а при — навпаки.

Розглянемо щільності розподілу незміщених та зміщених оцінок параметрів моделі (рис. 6.1).

Рис. 6.1. Щільність розподілу незміщеної та зміщеної оцінок істинного значення А

Згідно з рис. 6.1 можна зробити такі висновки:

Частка зміщених оцінок вектора (область цієї частки заштриховано горизонтальними лініями) під кривою розподілу в кілька разів менша за частку незміщених оцінок (область цієї частки заштриховано вертикальними лініями );

Середній квадрат похибок під час оцінювання вектора буде більшим за середній квадрат похибок, здобутих під час оцінювання зміщеної оцінки . Таким чином, враховуючи, що в умовах мультиколінеарності дисперсії навіть найкращих незміщених оцінок можуть бути досить великими, доцільно спробувати відмовитися від вимоги незміщеності, щоб у ширшому класі оцінок знайти ті, які матимуть вищу точність.

Одним із підходів до побудови таких оцінок є «рідж-регресія», або «гребнева регресія». Цей підхід певною мірою коригує 1МНК-оцінки, тобто використовується такий оператор оцінювання параметрів моделі:

, (6.16)

де  — невелике додатне число; Е — одинична матриця.

Це означає, що в матриці ХХ до кожного діагонального елемента потрібно додати («гребінь», «хребет»). Така процедура, з одного боку, перетворює матрицю (ХХ) з «погано обумовленої» на «добре обумовлену», а з другого — робить здобуті при цьому оцінки зміщеними. Обчислюючи визначник матриці ХХ + + Е замість визначника матриці ХХ, дістаємо такі його значення, які будуть набагато відрізнятись від нуля. Доцільність використання оцінок виду (6.16) ґрунтується на відповідній теоремі*.

Доведено, що в разі мультиколінеарності знайдеться таке значення , для якого середні квадрати похибок оцінок будуть менші за відповідні характеристики для 1МНК-оцінок . Універсальних рекомендацій щодо конкретного вибору значення  не існує, але, як правило, його значення міститься в діапазоні від 0,1 до 0,4.

За наявності мультиколінеарності змінних потрібно звертати увагу й на специфікацію моделі. Іноді заміна однієї функції іншою, якщо це не суперечить апріорній інформації, дає змогу уникнути явища мультиколінеарності.

Коли жодний із розглянутих способів не дає змоги позбутися мультиколінеарності, параметри моделі належить оцінювати за методом головних компонентів.

Розглянемо ще один приклад виявлення мультиколінеарності та застосуємо прості способи звільнення від неї.

9. Способи звільнення від мультиколінеарності. Звільнитися від мультиколінеарності можна за допомогою розглянутих далі методів перетворення вихідної інформації.

1. Взяти не абсолютні значення змінних, а їхні відхилення від свого середнього. Цей спосіб підвищує рівень незалежності інформації, в часі необхідної в даному випадку.

2. Узяти перші різниці, тобто не абсолютні показники, a їхній абсолютний приріст:

; ; .

3. Використати темпи зміни показників:

; .

4. Використати темпи приросту показників:

; .

5. Узяти другі різниці показників:

; .

Виконаємо зазначені кроки.

1. Візьмемо відхилення значень змінних від середнього.

2. Визначимо перші різниці пояснювальних змінних із-прикладу 6.2 (табл. 6.4).

Таблиця 6.4

Міс

1

2

3

3

5

3

–8

–8

–10

4

9

10

15

5

3

1

2

6

–11

–8

–6

7

14

12

9

8

–2

–2

–3

9

5

4

–2

10

4

1

6

Побудуємо матрицю коефіцієнтів кореляції для цих пояснювальних змінних:

Стовпець

Стовпець

1

2

3

1

1

0,856747

0,544655

2

0,856747

1

0,593578

3

0,544658

0,593578

1

Обчислені коефіцієнти парної кореляції дещо зменшились порівняно з попередньо розрахованими. Але фактичне значення критерію  = 28,555 більше від критичного (2крит = 7,8147 при  = 0,05, n – = 17). Це означає, що ми не звільнились від мультиколінеарності.

3. Визначимо темпи зміни пояснювальних змінних (табл. 6.5).

Таблиця 6.5

Побудуємо матрицю коефіцієнтів кореляції для індексів пояснювальних змінних.

Стовпець

Стовпець

1

2

3

1

1

0,880709

0,608988

2

0,880709

1

0,695659

3

0,608988

0,695659

1

Розраховані коефіцієнти парної кореляції не змінились порівняно з попередніми (див. п. 2).

Визначимо критерій 2: 2 = 34,858;

2крит = 7,8147 при  = 0,05, n – m = 17.

У даному випадку ми не звільнились від мультиколінеарності, оскільки 2ф > 2крит.

4. Визначимо темпи приросту Txj пояснювальних змінних (табл. 6.6).

Таблиця 6.6

Побудуємо матрицю коефіцієнтів кореляції для темпів приросту:

Обчислені коефіцієнти парної кореляції залишились на рівні попередніх (див п. 3), а це означає, що застосований спосіб перетворення інформації також не дає змогу звільнитись від мультиколінеарності.

5. Визначимо другі різниці пояснювальних змінних (табл. 6.7).

Таблиця 6.7

Побудуємо матрицю коефіцієнтів кореляції:

Стовпець

Стовпець

1

2

3

1

1

0,884655

0,589099

2

0,884655

1

0,608179

3

0,589099

0,608179

1

Обчислені коефіцієнти парної кореляції практично не змінились порівняно з попередніми.

У цьому разі ми не звільнились від мультиколінеарності, оскільки 2ф > 2крит.

Отже, ці прості способи, що базуються на перетворенні вихідної інформації, не дають змоги звільнитися від мультиколінеарності.

*