Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
EMM_1.doc
Скачиваний:
12
Добавлен:
13.11.2019
Размер:
157.18 Кб
Скачать

37. Сутність та наслідки автокореляції

Автокореляція – це явище взіємозвязку (кореляції) послідовних елементів просторового або часового ряду даних .

Найчастіше виникає автокореляція залишків кореляція сусідніх відхилень Еі-1 та Еі

Додатня автокореляція це явище при якому cov(Ei-1,E1)>0

Відємна автокореляція це явище при якому cov(Ei-1,E1)<0.

Якщо побудовано графік рівняння регресії то ознакою автокореляції є чергування інтервалів де спостережуванні значення залежної зміної У знаходится вище та нижче лінії регресії

Відємна автокореляція має місце якщо спостережуванні значення У майже послідовно змінюють розміщення відносно графіка лінії регресії .

Причини виникнення автокореляції

1) Помилка специфікації

2) Інерція зміни економічних показників

3) Ефект паутини

4) Апроксимація даних

Наслідки автокореляції

1) Оцінки коефіцієнтів регресії перестають бути ефективними

2) Оцінки S2 буде замінено оцінкою сигма2, це означає що зміниться будуть Д(а) Д(в)

3) Статистичні t I Fкритерії приводять до неправдивих висновків

Виявлення автокореляції

єдиного методу виявлення автокореляції немає. Найчастіше використовують графічний аналіз залишків та критерії Дарбіна-Уотсона

1) Згідно критерію шукається статистика DW

d=Ʃ(δi-δi-1)2/Ʃδi2

2) значення d-статистики знаходиться в межах від 0 до 4. За таблицями Дарбіна Уотсона при заданому рівні значущості тета, кількість факторів m, кількість спостережень n знаходять значення dн і dв

3) малюнок

Висновки:

Якщо d: 0≤ d˂ dн – існує додатня автокореляція

Якщо dн≤ d˂ dв або 4- dв≤ d˂4- dн – висновок про наявність чи відсутність автокореляції зробити не можна

Якщо dв≤ d˂4- dв – відсутня

Якщо 4- dн≤ d˂4 – існує від’ємна автокореляція.

Методи усунення автокореляції

Параметри моделі з автокореляцією можна оцінити на основі таких методів

1) Ейткіна(УМНК)

2) Перетворення вихідної інформації

3) Метод Кохрейна-Оркатта

4) Дарбіна-Уотсона

Метод 1і2 застосовують коли залишки описуються моделю першого порядку.

Метод 3 і 4 використовується для оцінки параметрів економічної моделі і тоді коли залишки описуються автокореляційних залишків визначеного порядків

38. Сутність та наслідки мультиколінеарності

Мультиколінеарність зустрічається лише у випадку множинної регресії. Мультиколінеарність — це явище лінійної або сильної кореляційної залежності двох чи більше пояснюючих (незалежних) змінних.

Наслідки:

1. Оцінки параметрів регресії, знайдені за МНК, стають зміщеними. їх дисперсії різко зростають, що призводить до розширення довірчих інтервалів і погіршення точності оцінювання в цілому.

2. Зменшуються г-статистики коефіцієнтів регресії, що породжує неправильні висновки про існування впливу відповідної пояснюючої змінної на залежну змінну.

3. Оцінки параметрів регресії та їх стандартні помилки стають дуже чутливими до зміни обсягу вибірки, тобто вони стають нестійкими.

Виявлення мультиколінеарності

Наперед зауважимо, що якогось єдиного (універсального) методу виявлення мультиколінеарності немає. Спочатку зупинимося на найбільш характерних ознаках мультиколінеарності.

1. Велике значення коефіцієнта детермінації R2 та незначущість t- статистик для деяких коефіцієнтів регресії.

2. Велике значення парних коефіцієнтів кореляції.

3. Велике значення частинних коефіцієнтів кореляції. /

Найбільш повне дослідження мультиколінеарності здійснюється за домогою алгоритму (тесту) Фаррара-Глобера. У ньому використовується три види статистичних критеріїв:

• х2 („хі-квадрат") - для виявлення мультиколінеарності усіх пояснюючих змінних,

F-критерій - для виявлення мультиколінеарності кожного фактора з усіма іншими змінними,

t -критерій - для виявлення мультиколінеарності кожної пари факторів.

алгоритм Фаррара-Глобера

1) Стандартизація (нормалізація) змінних

2) Знаходження кореляційної матриці

3) Обчислення фактичного значення ХІ –критерію

4) Визначення оберненої матриці

5) Обчислення фактичних значень F-критеріїв

6) Знаходження частинних коефіцієнтів кореляції

7) Обчислення фактичних значень t-критеріїв

Усунення мультиколінеарності. Метод головних компонентів

Єдиного методу усунення мультиколінеарності немає, оскільки причини і наслідки мультиколінеарності неоднозначні та суттєво залежать від результатів вибірки.

1) Найпростіший метод усунення мультиколінеарності - це виключення з оделі однієї або кількох корельованих змінних

2) Метод заміни змінних, який часто дозволяє мінімізувати або усунути роблему мультиколінеарності.

3) Оскільки мультиколінеарність залежить від вибірки, то інколи позбутися мультиколінеарності можна за рахунок збільшення обсягу вибірки.

4) Зміна специфікації моделі, тобто зміна форми моделі або включення в модель нових пояснюючих змінних, неврахованих у початковій моделі, але які суттєво впливають на залежну змінну. У ряді випадків проблема мультиколінеарності може бути розв'язана цим методом.

5) Метод головних компонентів, який використовується, як правило, тоді, коли жодний з розглянутих вище методів не дає змоги позбутися мультиколі неарності.

Метод головних компонентів призначений для оцінювання параметрів моделей великої розмірності, а також моделей, у яких виявлені мультиколінеарні змінні. Ідея методу полягає у тому, щоб від початкової матриці вихідних значень пояснюючих змінних перейти до нової матриці значень хв.., тобто від векторів-стовпців Хх,..,Хт хвилькою- до векторів-стовпців zх,...,zт,хв які називаються головними компонентами, попарно не корелюють і впорядковані за величиною дисперсій так, що перша головна компонента матиме найбільшу дисперсію, друга - трохи меншу і т.д., а остання компонента - найменшу дисперсію.

39. Моделі лінійної множиної регресії з незалежними фіктивними зміними.

У регресійних моделях часто у ролі пояснюючих зміних слугують не лише кількісні а й якісні змінні, які формалізуються за допомогою так званих фіктивних зміних.

Фіктивність змінних полягає в тому, що вони кількісно описують якісну змінну.

Припустимо що визначається залежність заробітної плати У від стажу роботи Х та сттаті Z працівника даного підприємства. 1- жінка, 0- чоловік.

Цю залежність можна описати такими р-нями:

Y=α+Jz

Y=α+Βx+jZ

Загальне правило введення фіктивних змінних:

Якщо змінна має k типів, то при побудові регресійної моделі використовується тільки k-1 фіктивна змінна. Обов’язково вибирається базова змінна і для неї фіктивна змінна не вводиться.

Регресійні моделі у яких усі регресори є якісними зміними називаються моделями дисперсійного аналізу ANOVA, а моделі у яких регресорами є як і кількісні так і якісні змінні називаються моделями коваріаційного зв’язку ANCOVA.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]