Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
U10_1_Econometrics.docx
Скачиваний:
11
Добавлен:
21.09.2019
Размер:
1.77 Mб
Скачать
  1. Матриця коефіцієнтів парної кореляції. Вибірковий коефіцієнт множинної кореляції та коефіцієнт детермінації. Вибірковий частинний коефіцієнт кореляції.

Коефіцієнти парної кореляції використовуються для виміру сили лінійних зв’язків різних пар ознак з їх множини. Для множини ознак отримують матрицю коефіцієнтів парної кореляції.

Нехай вся сукупність даних складається зі змінної та m змінних (факторів) Х, кожна з яких містить n спостережень. Тоді можна розрахувати матрицю коефіцієнтів парної кореляції R, вона симетрична відносно гловної діагоналі

. (2.13)

Аналіз матриці коефіцієнтів парної кореляції використовується при побудові моделей множинної регресії.

Вибірковий коефіцієнт множинної кореляції визначається за формулою

, (2.14)

де  – визначник кореляційної матриці ;

– алгебраїчне доповнення елемента тієї ж матриці.

Квадрат коефіцієнта множинної кореляції прийнято називати вибірковим множинним коефіцієнтом детермінації. Він показує яку частку варіації (випадкового розкиду) досліджуємої величини пояснює варіація інших випадкових величин .

Якщо випадкові величини, що розглядаються, корелюють один з одним, то на величину парної кореляції частково мають вплив інші величини. У зв’язку з цим виникає необхідність дослідження частинної кореляції між величинами при виключенні впливу інших випадкових величин (однієї чи декількох).

Вибірковий частинний коефіцієнт кореляції визначається за формулою

, (2.16)

де  – алгебраїчні доповнення до відповідних елементів матриці .

За умови, що m=3, вираз (2.16) буде мати вигляд

, (2.17)

Коефіцієнт називається коефіцієнтом кореляції між та при фіксованому .

  1. Проблема мультиколінеарності. Застосування алгоритму Фаррера-Глобера.

Одна з передумов застосування методу найменших квадратів до оцінювання параметрів лінійних багатофакторних моделей – відсутність лінійних зв’язків між незалежними змінними моделі. Якщо такі зв’язки існують, то це явище називають мультиколінеарністю.

Суть мультиколінеарності полягає в тому, що в багатофакторній регресійній моделі дві або більше незалежних змінних пов’язані між собою лінійною залежністю або, іншими словами, мають високий ступінь кореляції:

(4.6)

Наявність мультиколінеарності створює певні проблеми при розробці моделей. Насамперед, визначник матриці спостережень наближається до нуля, і оператор оцінювання за звичайним МНК стає надзвичайно чутливий до похибок вимірювань і похибок обчислень.

Практичні наслідки мультиколінеарності:

  • мультиколінеарність незалежних змінних (факторів) призводить до зміщення оцінок параметрів моделі, які розраховуються за МНК. На основі цих оцінок неможливо зробити конкретні висновки про результати взаємозв’язку між показником і факторами;

  • збільшення дисперсії та коваріації оцінок параметрів, обчислених за методом найменших квадратів;

  • збільшення довірчого інтервалу (оскільки збільшується середній квадрат відхилення параметрів);

  • незначущість t-статистик.

Зовнішні ознаки наявності мультиколінеарності такі:

  • велике значення R2 і незначущість t-статистики.

  • велике значення парних коефіцієнтів кореляції.

Ф-Глобер – л.р 1