Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ІАД / Лекція9

.doc
Скачиваний:
12
Добавлен:
05.02.2016
Размер:
195.07 Кб
Скачать

6

Для оцінки мультиколінеарності факторів може використовуватися визначник матриці парних коефіцієнтів кореляції між факторами.

Якби фактори не корелювали між собою, то матриця парних коефіцієнтів кореляції між факторами була б одиничною матрицею, оскільки всі недіагональні елементи були б рівні нулю.

Так, для рівняння, що включає три пояснюючих змінних

матриця коефіцієнтів кореляції між факторами мала б визначник, рівний одиниці:

Якщо ж, навпаки, між факторами існує повна лінійна залежність і всі коефіцієнти кореляції дорівнюють одиниці, то визначник такої матриці дорівнює нулю: .

Чим ближче до нуля визначник матриці межфакторной кореляції, тим сильніше мультиколінеарність факторів і ненадійніше результати множинної регресії. І, навпаки, чим ближче до одиниці визначник матриці межфакторної кореляції, тим менше мультиколінеарності факторів.

Існує ряд підходів подолання сильної межфакторной кореляції. Найпростіший шлях усунення мультиколінеарності полягає у виключенні з моделі одного або декількох факторів. Інший підхід пов'язаний з перетворенням факторів, при якому зменшується кореляція між ними.

Найбільш широке застосування отримали наступні методи побудови рівняння множинної регресії:

1. Метод виключення - відсів факторів з повного його набору.

2. Метод включення - додаткове введення фактора.

3. Кроковий регресійний аналіз - виключення раніше введеного фактора.

При відборі факторів також рекомендується користуватися таким правилом: число включаємих факторів зазвичай в 6-7 разів менше обсягу сукупності, за якою будується регресія. Якщо це співвідношення порушено, то число ступенів свободи залишкової дисперсії дуже мале. Це призводить до того, що параметри рівняння регресії виявляються статистично незначущими, а-t критерій менше табличного значення.

Побудова множинної лінійної регресії в Ex

Виконується як у випадку парної регресії 2 способами: функція ЛИНЕЙН() та через Аналіз данних, Регресія.

В першому випадку ми виділяємо 5 рядків і 2 стовбчика, для того, щоб розмістити туди вихідні параметри (масиви) регресії. Якщо для множинної регресії кількість факторів = m, то для множинної регресії необхідно виділяти 5 рядків і () стовбців. Відмітимо, що в першому рядку коефіцієнти регресії стоять в наступній послідовності:.

Для другого способу все робиться як і у випадку парної регресії : Сервіс, аналіз данних, регресія, вхідний интервал – ряд , вихідний інтервал – небхідно виділити весь масив факторів ..

Матричне представлення методу найменших квадратів

В рівняннях множинної регресії найчастіше використовується лінійна функція.

Розглянемо лінійну модель множинної регресії:

Класичний підхід до оцінювання параметрів лінійної моделі множинної регресії заснований на методі найменших квадратів (МНК). МНК дозволяє одержати такі оцінки параметрів, при яких сума квадратів відхилень фактичних значень результативної ознаки від розрахункових мінімальна: .

Як відомо з курсу математичного аналізу, для того щоб знайти екстремум функції кількох змінних, треба обчислити часткові похідні першого порядку по кожному з параметрів і прирівняти їх до нуля.

Маємо функцію аргументу:

.

Знаходимо часткові похідні першого порядку:

Після елементарних перетворень приходимо до системи лінійних нормальних рівнянь для знаходження параметрів лінійного рівняння множинної регресії

ЇЇ розв’язок може бути отриманий наприклад, методом оберненої матриці.

Матричне представлення методу найменших квадратів при оцінці параметрів

Позначимо -те спостереження залежної змінної як , а пояснюючих змінних , де - кількість елементів у факторі (факторних ознак), - кількість факторів.

Тоді модель множинної регресії можна представити у вигляді:

(1)

Матричний опис регресії полегшує як теоретичні концепції аналізу, так і необхідні розрахункові процедури.

Введемо позначення:

- матриця-стовбчик, або вектор значень залежної змінної розміру .

-матриця значень поясняючих змінних, або матриця плану.

(В матрицю додатково введено стовбчик, який відповідає вільному члену , який помножується на фіктивну змінну ).

матриця стовбчик, або вектор параметрів розміру

=> матриця стовбчик або вектов залишків (випадкових помилок) розміру .

Тоді в матричній формі модель регресії по генеральній сукупності приймає вигляд:

Помилкою, наближенням цієї моделі по вибірці є рівняння:

.

Для оцінки вектора невідомих параметрів застосовується МНК.

, тоді умова мінімізації суми квадратів запишеться у вигляді:

Оскільки, то після розкриття дужок отримаємо

Добуток це матриця, тобто величина скалярна, не змінюється при транспонуванні, тобто . Тому умова мінімізації приймає вигляд:

На основі необхідної умови ектремуму функції декілької змінних необхідно прирівняти до нуля часткові похідні по цим змінним, або в матричній формі Для вектора часткових похідних , де і вектори-стовбці, А- симетрична матриця, в якій елементи, розташовані симетрично головної діагоналі рівні.

Тому, оскільки а матриця , знайдемо .

Отже, отримуємо систему нормальнихь рівнянь в матричній формі для визначення вектора :

Знайдемо матриці, які входять в це рівняння:

Маємо таблицю, яка складається з наступних стовбців:

Y

X1

X2

Xm

1). Знаходження - це матриця плана, першим стовбцем якої є одиниці, а далі кількість стобвців відповідає кількості факторних ознак (стовбці ). Розмір матриці

2). Знаходження – застосовуємо функцію ТРАНСП().

3). Потім знаходимо Застосовуємо функцію МУМНОЖ(). Ця матриця має розмір

4). Знаходимо обернену матриці до матриці А - (). Застосовуємо функцію МОБР(). Розмір матриці

5). Знаходимо вектор Застосовуємо функцію МУМНОЖ().

Вектор має розмірність рядків (вектор стовбець).

6). Знаходимо вектор , помноживши обернену матрицю на вектор . Знаходимо коефіцієнти регресії. Для цього застосовуємо функцію МУМНОЖ(), в результаті отримуємо вектор стовбець розмірністю рядків.

Соседние файлы в папке ІАД