Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекція 7.doc
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
281.6 Кб
Скачать

7.7. Частинні коефіцієнти кореляції

Для багатовимірної моделі при вивченні зв’язку факторів недостатньо знайти кореляційну матрицю. Необхідно також визначити частинні коефіцієнти кореляції.

Припустимо, що сукупність складається з m факторів. Частинною кореляцією між ознаками xi та xj називається кореляційна залежність між цими ознаками при фіксованих значеннях інших ознак, тобто частинні коефіцієнти кореляції характеризують тісноту зв’язку між двома змінними за умови, що інші змінні не впливають на цей зв'язок.

Формула для визначення частинного коефіцієнта має вигляд:

(7.16)

де Rij, Rii, Rjj – алгебраїчні доповнення, відповідно до елементів , , кореляційної матриці.

Після визначення частинних коефіцієнтів кореляції необхідно перевірити, чи є значущим кореляційний зв'язок між певними ознаками. Для цих частинних коефіцієнтів знаходиться t – статистика

. (7.17)

яка має розподіл Стьюдента з n-m-1 ступенями вільності (n – кількість спостережень, m – кількість незалежних змінних).

За статистичними таблицями з n-m-1 ступенями вільності та заданою ймовірністю p знаходять tтаб. Якщо |tij| > tтаб, то із заданою ймовірністю можна вважати, що кореляційний зв'язок між ознаками xi та xj існує.

Частинний коефіцієнт кореляції можна також виразити через елементи матриці, оберненої до кореляційної матриці. Якщо чисельник і знаменник (3.15) поділити на визначник кореляційної матриці, то частинний коефіцієнт кореляції набуде вигляду:

(7.18)

де zij, zii, zjj – елементи матриці Z, оберненої до матриці R.

(7.19)

де Rij/|R| = zij

Для симетричної матриці zij = zji.

7.8. Надійні інтервали базисних даних та прогнозу

Після оцінки параметрів лінійної множинної регресії та точкової оцінки прогнозу виникає питання про визначення надійної зони для базисних значень і надійного інтервалу для прогнозу.

Припустимо, що рівняння регресії з оціненими параметрами має вигляд

Надійні інтервали для базисних значень визначимо за формулою

(7.20)

Припустимо, що прогноз міститься у точці

Надійний інтервал для прогнозу знайдемо за формулою

(7.21)

де t – значення t-статистики при заданому рівні ймовірності і n-m-1 ступенях вільності;

- вектор базисних значень;

- матриця статистичних даних;

- дисперсія помилки.

7.9. Мультиколінеарність. Визначення та усунення мультиколінеарності

Однією з чотирьох умов, які необхідні для оцінювання факторів загальної лінійної моделі МНК, є умова лінійної незалежності факторів моделі.

Проте, економічні показники, які входять до економетричної моделі, як фактори, на практиці дуже часто пов’язані між собою. Це може стати перешкодою для оцінювання параметрів моделі МНК та істотно вплинути на якість економетричного моделювання. Тому в економетричних дослідженнях важливо з’ясувати, чи існують між факторами взаємозв’язки, які називають мультиколінеарністю.

Мультиколінеарність означає існування тісної лінійної залежності або сильної кореляції між двома чи більше факторами. Вона негативно впливає на кількісні характеристики економетричної моделі або робить її побудову взагалі неможливою. Якщо між факторами xi та xj існує лінійна залежність xi = axj, то говорять, що між цими факторами існує строга мультиколінеарність. При строгій мультиколінеарності неможливо отримати оцінки параметрів МНК. Якщо мультиколінеарність нестрога, то отримані оцінки параметрів будуть мало надійні.

Взагалі, при визначенні лінійної структури корисно будувати кореляційну матрицю Ry, в яку включені і фактори, і показник. У регресію потрібно в першу чергу включати фактори, які корелюють з показником і не корелюють між собою.

Основні наслідки мультиколінеарності:

1) падає точність оцінювання;

2) оцінки параметрів деяких змінних моделі можуть бути незначущими через наявність їх взаємозв’язку з іншими змінними, а не тому, що вони не впливають на залежну змінну;

3) оцінки параметрів стають досить чутливими до обсягів сукупності спостережень. Збільшення сукупності спостережень інколи може призвести до істотних змін в оцінках параметрів.

Отже, з огляду на перелічені наслідки мультиколінеарності при побудові економетричної моделі потрібно мати інформацію про наявність чи відсутність мультиколінеарності між факторами.

Ознаки мультиколінеарності:

1. Коли серед парних коефіцієнтів кореляції пояснювальних змінних є такі, рівень яких наближається або дорівнює множинному коефіцієнту кореляції, то це означає можливість існування мультиколінеарності. Інформацію про парну залежність може дати кореляційна матриця

Більш загальна перевірка передбачає знаходження визначника (детермінанта) матриці R.

det R є [0, 1]

Якщо det R = 0, то існує повна мультиколінеарність. Якщо det R = 1, то мультиколінеарність відсутня. Чим ближче det R до 0, то можна стверджувати про можливість мультиколінеарності.

2. Якщо в економетричній моделі знайдено мале значення параметра aj при високому рівні частинного коефіцієнта детермінації і при цьому F-критерій істотно відрізняється від 0, то це також свідчить про наявність мультиколінеарності.

Коефіцієнт детермінації для кожного фактора визначається за формулою:

(7.22)

3. Коли коефіцієнт частинної детермінації має значення близьке до 1, то можна говорити про наявність мультиколінеарності.

4. Якщо при побудові економетричної моделі на основі покрокової регресії введення нової пояснювальної змінної істотно замінює оцінку параметрів моделі при незначному підвищенні (або зменшенні) коефіцієнтів кореляції чи детермінації, то ця змінна перебуває у лінійній залежності від інших, які було введено до моделі раніше.

Всі ці ознаки мультиколінеарності мають недолік: ні одна з них не розмежовує випадки, коли мультиколінеарність істотна і коли нею можна знехтувати.

Алгоритм Фаррара-Глобера

Дослідити мультиколінеарність можна з допомогою алгоритму Фаррара-Глобера. Цей алгоритм має три види статистичних критеріїв, згідно з якими перевіряється: мультиколінеарність усього масиву факторів ( ); кожної незалежної змінної з рештою змінних (F-критерій); кожної пари незалежних змінних (t-критерій).

Усі ці критерії дають змогу робити конкретні висновки щодо наявності чи відсутності мультиколінеарності незалежних змінних.

Наведемо алгоритм Фарарра-Глобера

  1. Визначення загальної мультиколінеарності

Для цього знаходиться визначник кореляційної матриці R і обчислюється розрахункове значення .

(7.23)

Значення цього критерію порівнюється з табличним при ступенях вільності і заданому рівні ймовірності.

Якщо , то із заданою надійністю можна вважати, що загальна мультиколінеарність відсутня і на цьому закінчується дослідження мультиколінеарності. Якщо , то з прийнятою надійністю можна вважати, що між факторами існує мультиколінеарність.

Для з’ясування питання, між якими факторами існує мультиколінеарність, використовується F- або t-статистика.

  1. Обчислення матриці Z

Знайдемо матрицю, обернену до матриці R

.

3. Обчислення F-критеріїв

F-критерії для кожної пояснювальної змінної обчислимо за формулою

(7.24)

zjj – діагональні елементи матриці Z.

Фактичні значення критеріїв порівнюють з табличними при n-m-1 і m ступенях вільності і заданому рівні ймовірності p.

Якщо Fj>Fтаб, то відповідна j-та пояснювальна змінна мультиколінеарна з іншими.

4. Знаходження частинних коефіцієнтів кореляції

(7.25)

5. Обчислення t-критеріїв

(7.26)

Фактичні значення критеріїв tij порівнюють з табличними при n-m-1 ступенях вільності і рівні ймовірності p. Якщо , то між факторами xi та xj існує мультиколінеарність.

Усунення мультиколінеарності

Для усунення мультиколінеарності існує декілька способів:

  1. якщо між двома факторами xi та xj існує мультиколінеарність, то один із факторів виключається з розгляду;

  2. необхідно перетворити певним чином пояснювальні змінні:

а) і перевіряють на мультиколінеарність xi і . При відсутності її, розглядають фактор замість xj.

б) взяти відхилення від середньої;

в) замість абсолютних значень взяти відносні;

г) стандартизувати пояснювальні змінні.

За обчисленими F- та t-критеріями можна зробити такі висновки:

1. Якщо F-критерій більший за Fтаб, тобто коли і-та змінна залежить від усіх інших, то необхідно вирішувати питання про її вилучення з переліку змінних.

2. Якщо |tij |> tтаб, то xi та xj тісно пов’язані між собою. Звідси, аналізуючи рівень обох видів критеріїв, можна зробити обґрунтований висновок про те, яку із змінних необхідно вилучити чи замінити іншою.

Заміна чи вилучення факторів завжди має узгоджуватися з економічною доцільністю, що випливає з мети дослідження.

У випадку, коли жоден з розглянутих способів не дає змоги позбутися мультиколінеарності, то параметри моделі слід оцінювати іншим методом, наприклад методом головних компонентів.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]