Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Otvety_po_ekonometrii (1).doc
Скачиваний:
22
Добавлен:
22.09.2019
Размер:
2.4 Mб
Скачать

18) Проблема мультиколінеарності. Застосування алгоритму Фаррера-Глобера.

Суть мультиколінеарності полягає в тому, що в багатофакторній регресійній моделі дві або більше незалежних змінних пов’язані між собою лінійною залежністю або, іншими словами, мають високий ступінь кореляції:

Наявність мультиколінеарності створює певні проблеми при розробці моделей. Насамперед, визначник матриці спостережень наближається до нуля, і оператор оцінювання за звичайним МНК стає надзвичайно чутливий до похибок вимірювань і похибок обчислень. При цьому МНК-оцінки можуть мати значне зміщення відносно дійсних оцінок узагальненої моделі, а в деяких випадках можуть стати взагалі беззмістовними.

Практичні наслідки мультиколінеарності:

мультиколінеарність незалежних змінних (факторів) призводить до зміщення оцінок параметрів моделі, які розраховуються за МНК. На основі цих оцінок неможливо зробити конкретні висновки про результати взаємозв’язку між показником і факторами;

збільшення дисперсії та коваріації оцінок параметрів, обчислених за методом найменших квадратів;

збільшення довірчого інтервалу (оскільки збільшується середній квадрат відхилення параметрів);

незначущість t-статистик.

Для визначення мультиколінеарності здебільшого застосовують такі тести:

F-тecт, запропонований Глобером і Фарраром (ЛР.01);

характеристичні значення та умовний індекс.

Перший із них базується на тому що за наявності мультиколінеарності один чи більше факторів пов’язані між собою лінійною або приблизно лінійною залежністю. Одним із способів визначення щільності регресійного зв’язку є побудова регресійної залежності кожного фактора хi з усіма іншими факторами. Тому F-тест має іншу назву: побудова допоміжної регресії. Обчислення відповідного коефіцієнта детермінації для цього допоміжного регресійного рівняння та його перевірка за допомогою F-критерію дають змогу виявити лінійні зв’язки між незалежними змінними.

19) Індекс кореляції. Методика розрахунку кореляційного відношення.

При відхиленні парної статистичної залежності від лінійної коефіцієнт кореляції втрачає свій сенс як характеристика тісноти зв’язку. В такому випадку можна використати такий вимірник зв’язку як індекс кореляції (кореляційне відношення). Кореляційне відношення визначається через відношення між групової дисперсії до загальної дисперсії.

Для визначення емпіричного кореляційного відношення сукупність значень результативної ознаки Y розбивають на окремі групи. В основу групування кладеться фактор Х, що досліджується.

Коли сукупність, що досліджується, розбивається на групи по одній (факторній) ознаці Х, то для кожної з цих груп можна розрахувати відповідні групові середні результативної ознаки. Зміна групових середніх від групи до групи говорить про наявність зв’язку результативної ознаки з факторною однакою, а наближена рівність групових середніх – про відсутність зв’язку.

Методика розрахунку кореляційного відношення.

Нехай групування даних зроблено, при цьому k – число інтервалів групування по вісі х;  – кількість елементів вибірки в j-тому інтервалі групування; n – обсяг сукупності ( );  – загальне середнє.

1. Розрахуємо середнє значення Y в j-й групі:

.

2. Розрахуємо загальну середню Y, використовуючи середні значення в кожній групі:

.

3. Знайдемо міжгрупову дисперсію та загальну дисперсію

; .

Кореляційне відношення залежної змінної Y по незалежній змінній Х може бути отримано з відношення між групової дисперсії до загальної дисперсії

.

Величина кореляційного відношення змінюється від 0 до 1. Близькість його до нуля говорить про відсутність зв’язку, а близькість до одиниці – про тісний зв'язок.