
- •2.4. Курсове проектування
- •1. Динамічні ряди та їхні властивості
- •Системи економетричних рівнянь для прогнозу, прийняття рішень та імітації
- •Проста вибіркова лінійна регресія
- •Оцінка параметрів лінійної регресії за допомогою методу найменших квадратів
- •Імовірнісний зміст простої регресії Узагальнена регресійна модель
- •1. Математичне сподівання параметра
- •Коефіцієнти кореляції та детермінації
- •Поняття про ступені вільності
- •Простий anova-аналіз. Аніліз дисперсій.
- •1. Класична лінійна багатофакторна модель
- •1.1 Основні припущення у багатофакторному регресійному аналізі
- •1.2.Етапи побудови багатофакторної регресійної моделі
- •1.3 Розрахунок невідомих параметрів багатофакторної регресії за мнк
- •1.3.2 Коефіцієнт множинної кореляції та детермінації
- •1.3.3 Anova–дисперсійний аналіз
- •1.4 Перевірка моделі на адекватність
- •2. Матричний підхід до лінійної багатофакторної регресії
- •2.1 Запис ублрм у матричному вигляді
- •2.2 Припущення класичної лінійної багатофакторної регресії
- •2.3 Оцінювання невідомих параметрів у багатофакторній регресії
- •2.4 Дисперсійно-коваріаційна матриця параметрів регресії
- •2.6 Прогнозування за багатофакторною рекгресійною моделлю
- •1. Мультиколінеарність
- •1.1 Теоретичні наслідки мульттиколінеарності
- •1.2. Практичні наслідки мультиколінеарності
- •1.3 Тестування наявності мультиколінеарності
- •2.5. Індивідуальна робота студентів
- •7 Навчально-методичні матеріали та технічні засоби
- •7.1 Основні джерела інформації
- •7.2 Додаткові джерела інформації
- •Основы системного анализа и проектирования асу: Уч. Пособие Павлов, с.Н . Гриша а.А. И др – к.: Выща шк.; 1991. – 367с.
- •2.12.6. T-тест для оцінки значимості коефіцієнта кореляції
- •7.8 Основні поняття теорії ймовірностей
- •7.8.1 Інтегральна функція розподілу ймовірностей випадкової величини
- •7.8.4. Закон рівномірного розподілу ймовірностей
- •7.8.5. Нормальний закон розподілу
- •7.8.5.1. Вплив параметрів нормального розподілу на форму нормальної кривої
- •7.8.6. Розподіл
- •Графік і таблиця нормального закону розподілу
- •Графік і таблиця f-розподілу Фішера
- •Графік і таблиця t-розподілу Ст’юдента
- •5.3. Автокореляція
- •5.3.1. Природа автокореляції. Основні поняття та означення
- •5.3.2. Тестування автокореляції
- •5.3.3. Оцінка параметрів регресійної моделі при наявності автокореляції
- •5.4. Авторегресивні і дистрибутивно-лагові моделі
- •5.4.1.Природа авторегресивних моделей. Приклади практичного застосування авторегресивних моделей
- •5.4.1.1. Приклади використання лагових моделей в економіці. Роль "часу" або "часового лагу" в економіці
- •5.4.1.2. Причини лагів
- •5.4.2. Оцінка параметрів дистрибутивно-лагових моделей
- •5.4.2.1. Послідовна оцінка дистрибутивно-лагових моделей
- •5.4.2.2. Підхід Койка до дистрибутивно-лагових моделей
- •5.4.3. Перша модифікація моделі Койка: модель адаптивнихочікувань
- •5.4.4. Друга модифікація моделі Койка: модель часткових пристосувань
- •Комбінація моделей адаптивних очікувань і частковихпристосувань
- •Оцінювання параметрів авторегресивних моделей
- •Метод допоміжних змінних
- •Виявлення автокореляції в авторегресивних моделях: h-тест Дарбіна
1. Мультиколінеарність
Термін мультиколінеарність означає, що в багатофакторній регресійній моделі дві або більше незалежних змінних (факторів) пов`язані між собою лінійною залежністю, тобто мають високий ступінь колінеарності (rxi, xj).
Наприклад, мультиколінеарність може виникнути, коли ми вивчаємо залежність між ціною акції, дівідендами на акцію та заробленим прибутком на акцію, оскільки дівіденди і зароблений прибуток мають високий ступінь кореляції.
Крім того, якщо два фактори змінюються в одному напрямі, то майже неможливо оцінити окремий вплив кожного з них на досліджуваний показник.
Розрізняють досконалу кореляці. факторів (rxi, xj =1) і недосконалу.
Досконалий лінійний зв`язок між факторами має місце, якщо виконується умова
b1x1+b2x2+...+bpxp=0, (5.1)
де не всі bi (i=1,..., p)одночасно дорівнюють нулю.
Мультиколінеарність відрізняється від досконалої кореляції тим, що до неї відносяться як випадки досконалої кореляції, так і випадки недосконалої кореляції факторів xi (i=1,..., p) між собою. Тобто має місце залежність
b1x1+b2x2+...+bpxp+e=0, (5.2)
Якщо з (5.1) виразити фактор х2і, то він буде лінійною комбінацією інших факторів, а з (5.2) - залежатиме й від випадкової величини.
У класичній регресійній моделі одним з припущень є відсутність мультиколінеарності, бо у випадку досконалої мультиколінеарності параметри регресії b2, b1 стають невизначеними, а їхні середні квадратичні відхилення прямують до нескінченності var(b1), var(b2) .
Досконала мультитколінеарність є дуже рідкісним явищем, недосконала мультиколінеарність зустрічається значно частіше.
1.1 Теоретичні наслідки мульттиколінеарності
Якщо умови класичної моделі задовольняються, то оцінки, обчислені за МНК є BLUE-оцінками. Навіть при високій, але недосконалій мультиколінеарності МНК-оцінки зберігають властивість BLUE-оцінок.
Ефект мультиколінеарності виявляється в тому, що складно отримати значення параметрів з малою стандартною помилкою. Такий самий ефект спостерігається при невеликій кількості спостережень або при невеликій зміні значень. З точки зору теорії, мультиколінеарність та невелика кількість значень - це одна і та сама проблема. Але мультиколінеарність не можна розглядати лише як порушення припущення моделі класичної лінійної регресії.
По-перше, навіть у разі високої мультиколінеарності МНК-оцінки є незміщеними. Але незміщеність - це властивість часто повторюваної вибірки, тобто при постійних значеннях змінних х, якщо оцінювати за МНК кожну з них, то середнє значення змінних у цих вибірках прямує до правильних параметрів у будь-якій з них.
По-друге, колінеарність не порушує властивості мінімуму дисперсій, однак це не означає, що дисперсія МНК-оцінки буде неминуче малою (відносно значення параметра) у будь-якій з наведених вибірок.
По-третє, мультиколінеарність - явище виключно регресійного аналізу вибірки, бо навіть, якщо змінні х пов`язані у генеральній сукупності нелінійно, то вони можуть мати лінійний зв`язок у вибірці, до того ж він може бути такий сильний, що стане неможливим виявити індивідуальний вплив факторів на залежну змінну.
У зв`язку з вищезгаданим, той факт, що МНК-оцінки є -оцінками, не означає, що мультиколінеарністю можна нехтувати.