- •МаркетингОві дослідження ринку
- •Передмова
- •1. Маркетинг як об'єкт застосуВання методів економіко-МатематиЧного моделювання
- •2. Балансові моделі в маркетингу
- •2.1. Загальне поняття балансового методу і принципова схема міжгалузевого балансу
- •2.2. Застосування моделі міжпродуктового балансу у маркетингу
- •3. Методи і моделі управління товарними запасами у маркетингу
- •3.1. Класична задача управління запасами
- •3.2. Принципові системи регулювання товарних запасів
- •3.3. Модель економічно вигідних розмірів партій заказу
- •4. Регресійні однофакторні моделі
- •4.1. Лінійне рівняння регресії. Метод найменших квадратів
- •4.2. Нелінійні однофакторні моделі регресії
- •Параболічне рівняння регресії
- •5. Багатофакторні регресійні моделі, їх специфікація та аналіз
- •5.1. Лінійні багатофакторні моделі
- •5.2. Нелінійна багатофакторна модель
- •5.3. Мультиколінеарність факторів
- •6. Моделювання попиту в задачах маркетингу
- •7. Методи експертних оцінок в маркетингових дослідженнях
- •7.1. Основні ідеї методів експертних оцінок
- •7.2. Кореляція рангів та її вимірювання
- •7.3. Випадок двох експертів
- •7.4. Випадок багатьох експертів. Методи визначення середніх рангів
- •8. Комп'ютерна підтримка розрахунків в пакеті excel
- •Література
- •Предметний покажчик
- •Розподіл Фішера при
- •Продовження значень розподілу Фішера при
- •Квантілі розподілу Стьюдента
- •Продовження квантілей розподілу Стьюдента
- •Значення критерію Пірсона
5.3. Мультиколінеарність факторів
На практиці при оцінці параметрів економетрічної моделі досить часто зустрічаються з проблемою взаємозв'язку між пояснюючими змінними. Якщо взаємозв'язок досить тісний, то оцінка параметрів моделі може мати велику похибку.
Мультиколінеарність – це корельованість двох або декількох факторних змінних між собою, що входять до рівняння регресії.
Проблема мультиколінеарності є звичайною для множинної регресії часових рядів, коли дві чи більше змінних мають тренд, тобто корельовані.
Мультиколінеарність між пояснюючими змінними викликає труднощі, зв'язані зі зменшенням точності оцінювання тих чи інших змінних. Причина полягає в тому, що варіації у вихідних даних перестають бути незалежними і тому неможливо виділити вплив кожної пояснюючої змінної окремо на залежну змінну. Мультиколінеарність змінних приводить до зміщення оцінок параметрів моделі. На основі цих оцінок неможливо зробити конкретні висновки про результати взаємозв'язку між пояснюваною і пояснюючими змінними. Причини виникнення мультиколінеарності в економічних явищах – різноманіття об'єктивно існуючих співвідношень між пояснюючими змінними.
Найповніше визначення наявності суттєвої мультиколінеарності факторів можна здійснити на основі алгоритму метода Феррара–Глаубера.
Для дослідження загальної мультиколінеарності використовують величину критерію статистику за формулою
, (5.13)
де – кількість спостережень, – число досліджуваних факторних змінних, – визначник кореляційної матриці факторів , елементами якої є парні коефіцієнти кореляції для кожної пари факторів і . Слід зауважити, що значення належить відрізку . За таблицями критичних точок Пірсона знаходять критичне значення .
Якщо , то між пояснюючими змінними існує загальна мультиколінеарність.
Приклад 5.3. Дослідити за алгоритмом Феррара–Глаубера наявність суттєвої мультиколінеарності п’яти узагальнених економічних факторів за даними спостережень по десяти торговельним підприємствам (табл. 5.5).
Таблиця 5.5 – Вихідні дані підприємств
|
5,2 |
5,3 |
5,2 |
5,1 |
5,4 |
5,5 |
5,3 |
6,1 |
6,4 |
6,7 |
|
2,6 |
2,2 |
2,3 |
2,5 |
2,2 |
2,5 |
2,8 |
2,3 |
2,6 |
2,7 |
|
3,4 |
3,1 |
3,2 |
3,5 |
3,1 |
3,7 |
4,1 |
3,1 |
3,4 |
3,9 |
|
1,8 |
1,5 |
1,6 |
1,7 |
1,5 |
1,7 |
1,9 |
1,6 |
1,8 |
1,9 |
|
2,4 |
2,2 |
2,2 |
2,4 |
2,2 |
2,6 |
2,8 |
2,2 |
2,4 |
2,7 |
Розв'язок: Всі подальші розрахунки проводиться, використовуючи формули пакету EXCEL. Опція «Кореляція» обчислює кореляційну матрицю факторів . Ця матриця є симетричною відносно головної діагоналі. У нашому випадку вона має розмір (табл. 5.6).
Таблиця 5.6 – Кореляційна матриця факторних змінних
|
X1 |
X2 |
X3 |
X4 |
X5 |
X1 |
1 |
|
|
|
|
X2 |
0,283955288 |
1 |
|
|
|
X3 |
0,182826186 |
0,900755509 |
1 |
|
|
X4 |
0,38105154 |
0,988714372 |
0,864355894 |
1 |
|
X5 |
0,235024071 |
0,902616809 |
0,99194978 |
0,86763124 |
1 |
Визначник кореляційної матриці . Знайдемо статистику за формулою (5.13):
.
Критичне значення дорівнює . Оскільки , то існує суттєва мультиколінеарність факторів.
Одна з задач економетричного аналізу полягає у зменшенні мультиколінеарності до допустимого рівня. Серед методів зменшення мультиколінеарності можна назвати:
Метод виключення змінних полягає в тому, що сильно корельовані пояснюючі змінні усуваються з регресії, і вона заново оцінюється. Вибір змінних, які підлягають виключенню, здійснюється за допомогою величин парних коефіцієнтів кореляції. Якщо , то одну зі змінних чи можна виключити з подальшого розгляду. Яку змінну виключити з аналізу, вирішують, виходячи з економічних розумінь. Цей підхід є достатньо наближеним.
Метод лінійного перетворення змінних полягає в переході до регресії приведеної форми шляхом заміни змінних, яким властива кореляція, їх лінійною комбінацією.
Метод покрокової регресії: процедура застосування покрокової регресії починається з побудови простої однофакторної моделі. До аналізу послідовно додають одну змінну. На кожному кроці перевіряється значущість коефіцієнтів регресії й оцінюється мультиколінеарність змінних. Якщо оцінка параметру моделі є незначущою, то змінна виключається і розглядається інша факторна змінна. Таким чином, поступово визначаються всі складові регресії.
Метод головних компонент: основна ідея полягає в зменшенні числа пояснюючих змінних до факторів, які найбільш істотно впливають на процес. Це досягається шляхом лінійного перетворення всіх пояснюючих змінних у нові змінні, так звані головні компоненти. При цьому потрібно, щоб виділенню першої головної компоненти відповідав максимум загальної дисперсії всіх пояснюючих змінних, другій компоненті – максимум дисперсії, що залишилася, після того як вплив першої головної компоненти виключається, і т.і.
Повертаючись до прикладу 5.3, можна помітити, що парні коефіцієнти кореляції згідно таблиці 5.6 вказують дуже високу ступінь лінійної кореляційної залежності між певними факторами. Наприклад, фактор не корелює з рештою факторів:
; |
; |
; |
|
а фактори , , , навпаки корелюють кожен з кожним, оскільки
; |
; |
; |
; |
; |
. |