Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ekonometrika.doc
Скачиваний:
113
Добавлен:
22.03.2015
Размер:
1.97 Mб
Скачать
  1. Суть та наслідки мультиколінеарності.

Мультиколінеарність — це існування тісної лінійної залежності, або сильної кореляції, між двома чи більше пояснювальними змінними.

Вона негативно впливає на кількісні характеристики економет­ричної моделі або робить її побудову взагалі неможливою.

Так, мультиколінеарність пояснювальних змінних призводить до зміщення оцінок параметрів моделі, а це означає, що за їх допомогою не можна зробити коректні висновки про результати взаємозв’язку залежної та пояснювальних змінних. А якщо між пояснювальними змінними існує функціональний зв’язок, оцінити їхній вплив на залежну змінну взагалі неможливо.

1. Дисперсія і коваріація оцінок параметрів моделі різко збільшуються.

2. Похибки оцінок параметрів значно збільшуються, відповідно збільшуються їхні інтервали довіри.

3. Оцінки параметрів моделі можуть бути статистично незначущими.

  1. Тестування наявності мультиколінеарності в моделі. Алгоритм Фаррара-Глобера.

Найповніше дослідити мультиколінеарність можна застосувавши алгоритм Фаррара—Глобера.

Усі ці критерії при порівнянні з їхніми критичними значеннями дають змогу робити конкретні висновки щодо наявності чи відсутності мультиколінеарності пояснювальних змінних.

Опишемо алгоритм Фаррара—Глобера.

Крок 1. Нормалізація змінних.

Позначимо вектори пояснювальних змінних економетричної моделі через . Елементи нормалізованих векторів обчислимо за формулами:

1) ; 2) ,

де — кількість спостережень; — кількість пояснювальних змінних; — середнє арифметичне k-ї пояснювальної змінної; — дисперсія k-ї пояснювальної змінної.

Крок 2. Знаходження кореляційної матриці згідно з двома методами нормалізації змінних:

1) ; 2) ,

де — матриця нормалізованих незалежних (пояснювальних) змінних, — матриця, транспонована до матриці .

Крок 3. Визначення критерію («хі»-квадрат):

,

де — визначник кореляційної матриці rxx.

Значення цього критерію порівнюється з табличним при ступенях свободи і рівні значущості . Якщо , то в масиві пояснювальних змінних існує мультиколінеарність.

Крок 4. Визначення оберненої матриці:

.

Крок 5. Обчислення F-критеріїв:

,

де — діагональні елементи матриці C. Фактичні значення критеріїв порівнюються з табличними при m – 1 і n – m ступенях свободи і рівні значущості . Якщо Fk факт > Fтабл, то відповідна k-та пояснювальна змінна мультиколінеарна з іншими.

Коефіцієнт детермінації для кожної змінної

.

Якщо коефіцієнт детермінації наближається до одиниці, то пояснювальна змінна мультиколінеарна з іншими.

Крок 6. Знаходження частинних коефіцієнтів кореляції:

де — елемент матриці C, що міститься в k-му рядку і j-му стовпці; i — діагональні елементи матриці C.

Крок 7. Обчислення t-критеріїв:

.

Фактичні значення критеріїв порівнюються з табличними при ступенях свободи і рівні значущості . Якщо tkj > tтабл, то між пояснювальними змінними і існує мультиколінеарність.

  1. Методи усунення мультиколінеарності.

Можна запропонувати кілька простих методів усунення мультиколінеарності:

1) використання додаткової або первинної інформації;

2) об’єднання інформації;

3) відкидання змінної з високою кореляцією;

4) перетворення даних (використання перших різниць);

5) збільшення кількості спостережень.

Алгоритм методу головних компонентів включає дев’ять кроків.

1-й крок: нормалізувати змінні x1 x2, ... хт регресійної моделі, обчисливши де п кількість спостережень (і= 1, «);

т - кількість пояснюючих змінних у моделі (/= 1, т); х. - середня арифметична ;-ї незалежної змінної;

σ - середньоквадратичне відхилення ;-ї незалежної змінної.

2-й крок: побудувати нову матрицю Ґ, елементами якої є нормалізовані незалежні змінні.

3-й крок: обчислити кореляційну матрицю (матрицю моментів нормалізованої системи нормальних рівнянь) за формулою

де X** - транспонована матриця Ґ:

(недіагональні елементи матриці R характеризують щільність зв’яз-ку однієї незалежної змінної з іншою (rij = rxixj ), тобто є парними ко-ефіцієнтами кореляції).

4-й крок: знайти характеристичні числа матриці r, тобто визначити корені

X1,X2,..., Хm рівняння m-то порядку:

де E - одинична матриця розмірності mxm; Хj, j = 1, 2,..., m - харак-теристичні числа матриці r.

5-й крок: ранжувати власні значення Я , i = 1, 2, ..., m, за абсолютним рівнем внеску кожного головного компонента в загальну дисперсію.

6-й крок: розв’язати систему рівнянь

і обчислити власні вектори ai , і = 1, 2, ..., m, за умови, що вони відповідають таким співвідношенням:

7-й крок:

знайти головні компоненти векторів zi=xai, і= 1, 2, ..., m, які задо-вольняють умови

8-й крок: визначити параметри моделі Y = ZP :

9-й крок: знайти параметри моделі Y = XА:

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]