Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
(65-101).docx
Скачиваний:
2
Добавлен:
17.09.2019
Размер:
325.53 Кб
Скачать

82.Ознака мультиколінеарності в множинній економетричній моделі.

На практиці при кількісній оцінці параметрів економетричної моделі досить часто зустрічаються з проблемою взаємозв’язку між предетермінованими (пояснюючими змінними). Якщо взаємозв’язок досить тісний, то оцінка параметрів моделі може мати велику похибку. Такий взаємозв’язок між пояснюючими змінними називається мультиколінеарністю. Мультиколінеарність незалежних змінних приво-дить до зміщення оцінок параметрів моделі, які розраховуються за методом 1МНК. На основі цих оцінок неможливо зробити конкретні висновки про результати взаємозв’язку між пояснюваною і пояснюючими змінними.

Мультиколінеарність моделі означає існування лінійної залежності або сильної кореляції між двома чи більше факторами. Мультиколінеарність між факторами Хі та Хj ( і = j) називається строгою, якщо існує лінійна залежність Xj = сХi.

В практиці економічні фактори часто пов'язані між собою і це істотно впливає на якість економетричного моделювання.

Ознаки мультиколінеарності: 1. Якщо серед парних коефіцієнтів кореляції незалежних змінних є такі, рівень яких наближається або дорівнює множинному коефіцієнту кореляції, то це свідчить про можливість існування мультиколінеарності. Інформацію про парну залежність може дати симетрична матриця коефіцієнтів парної кореляції, або кореляції нульового порядку.Але якщо в моделі фігурує більше двох незалежних змінних, вивчення питання про мультиколінеарність не може обмежуватись інформацією, що дає ця матриця. Явище мультиколінеарності ні в якому разі не зводиться тільки до існування парної кореляції між незалежними змінними. Більш загальна перевірка передбачає визначення визначника (детермінанта) матриці r, який називається детермінантом кореляції і позначається |r|. Числові значення детермінанта кореляції знаходяться на множині: |r|ϵ [0;1].

2. Якщо|r|=0, то існує повна мультиколінеарність, якщо|r|=1— мультиколінеарність відсутня, чим ближче |r| до нуля, тим певніше можна стверджувати, що між незалежними змінними існує мультиколінеарність. Незважаючи на те, що на числове значення |r| впливає дисперсія незалежних змінних, цей показник можна вважати точковою мірою тісноти мультиколінеарності.

3. Якщо в економетричній моделі одержано мале значення параметра β при високому рівні коефіцієнта детермінації і при цьому F-критерій суттєво відрізняється від нуля, то це також свідчить про наявність мультиколінеарності.

4. Якщо коефіцієнт детермінації R2, що розрахований для регресійних залежностей між однією незалежною змінною та іншими, має значення, яке близьке до одиниці, то можна говорити про наявність мультиколінеарності.

5. Якщо при побудові економетричної моделі на основі покрокової регресії включення нової незалежної змінної суттєво змінює оцінку параметрів моделі при незначному підвищенні (або зниженні) коефіцієнтів кореляції чи детермінації, то ця змінна, очевидно, знаходиться в лінійній залежності від інших, які введені в модель раніше.

Всі ці методи виявлення мультиколінеарності мають один загальний недолік: жоден із них не проводить чіткої межі між тим, що треба вважати «суттєвою» мультиколінеарністю, яку треба враховувати, і тим, коли мультиколінеарністю можна знехтувати.

Основні наслідки мультиколінеарності:

1. падає точність оцінок параметрів, яка виявляється в зростанні помилок деяких оцінок, в значному збільшені дисперсії оцінок параметрів;

2. оцінки деяких параметрів стають незначущими;

3. оцінки деяких параметрів стають чутливими до обсягів сукупності спостережень.

Тому при побудові економетричної моделі потрібно визначити існування мультиколінеарності та усунути її.

83,84.Описати алгоритм побудови довірчих інтервалів для теоретичних параметрів βі (і=1,2,…,m) множинної лінійної регресії із заданою надійністю γ

Довірчі інтервали для кожного окремого параметра βі будуються на основі його стандартної похибки та критерію Стьюдента. Для його побудови використовується наступна формула: βі*-t(γ,k)σβi*βiβі*+t(γ,k)σβi*,де t(γ,k) – табличне значення відхилення для вибірки (γ-рівень довіри до інтервалу; k=n-m-1 – число ступенів свободи); σβi* - сер.-квадр. відхилення, похибка для параметру βі*. Похибка для параметрів βі* знаходиться в коваріаційній матриці: cov(βі*) = σε2(xtx)‑1=

σε2= – сер.-квадр. відхилення по моделі

85.Описати при заданому λ: Н0: rij=0; Hλ: rij≠0

Коефіцієнт кореляції, як вибіркова характеристика, перевіряється на значущість за допомогою t-критерію Стьюдента. Значення r лежить в діапазоні від -1 до +1. При r=0 зв'язок між незалежними регресорами не може бути лінійним. Ступінь тісноти їх лінійної залежності зростає при наближенні r до ±1. Коли r>0, то зв'язок між показниками прямий, якщо r<0 – обернений. Фактичне значення t-статистики обчислюється за формулою t_факт=(rxixj√(n-m-1))/√(1-rxixj) і порівнюється з табличним значенням t-розподілу з n-m-1ступенями свободи та при заданому рівні значущості λ/2 (такий рівень значущості зумовлений тим, що критична область складається з двох проміжків). Якщо абсолютна величина експериментального значення t-статистики перевищує табличне, тобто |t|>tтабл, можна зробити висновок, що коефіцієнт кореляції достовірний(значущий), а зв'язок між незалежними факторами суттєвий. Дослідження тісноти зв’язку між незалежними регресорами є одним з методів дослідження моделі на мультиколінеарність. В тому випадку, якщо окремі коефіцієнти тісноти зв’язку між ознаками є значущими, то в моделі присутня мультиколінеарність між тими двома змінними, коефіцієнт яких є значущим. Середня та сильна тіснота зв’язку лежить в проміжку [0,5;1].

86.Описати при заданому λ: Н0:R2=0; Hλ: R2>0

Якщо значення R2 «близьке» до 1,вважається, що регресійне рівняння досить правильно відбиває наявний зв'язок між залежною та незалежними змінними моделі. Якщо значення R2 «близьке» до 0, регресійна модель неправильна. Для перевірки статистичної значущості коефіцієнта детермінації R2 висувається нульова гіпотеза Н0: R2=0. Це означає, що досліджуване рівняння не пояснює змінювання регресанта під впливом відповідних регресорів. У такому разі всі коефіцієнти при незалежних змінних мають дорівнювати нулю. Альтернативною до неї є Нλ: значення хоча б одного параметра моделі відмінне від нуля, тобто хоча б один із факторів впливає на змінювання залежної змінної. Для перевірки цих гіпотез застосовують F-критерій Фішера з m i n-m-1ступенями свободи. За отриманими в моделі значеннями коефіцієнта детермінації R2 обчислюють фактичне значення: , яке порівнюють з табличним значенням розподілу Фішера при заданому рівні значущості λ. Якщо Fтабл<Fфакт, нульова гіпотеза відхиляється, тобто існує такий коефіцієнт у регресійному рівнянні, який суттєво відрізняється від нуля,а відповідний фактор впливає на досліджувану змінну. Відхилення гіпотези Н0 свідчить про адекватність побудованої моделі. У протилежному випадку модель вважається неадекватною.

87.Описати при заданому λ: Н0: |r|=0; Hλ: |r|<1

Коефіцієнт кореляції, як вибіркова характеристика, перевіряється на значущість за допомогою t-критерію Стьюдента. Фактичне значення t-статистики обчислюється за формулою і порівнюється з табличним значенням t-розподілу з n-m-1ступенями свободи та при заданому рівні значущості λ/2 (такий рівень значущості зумовлений тим, що критична область складається з двох проміжків). Якщо абсолютна величина експериментального значення t-статистики перевищує табличне, тобто |t|>tтабл, можна зробити висновок, що коефіцієнт кореляції достовірний(значущий), а зв'язок між залежною змінною та всіма незалежними факторами суттєвий.

88.Описати при заданому λ: Н0: r=0; Hλ: r≠0 для парної лінійної регресії

Коефіцієнт кореляції, як вибіркова характеристика, перевіряється на значущість за допомогою t-критерію Стьюдента.Значення r лежить в діапазоні від -1 до +1. При r=0 змінні не можуть мати лінійного кореляційного зв’язку. Ступінь тісноти їх лінійної залежності зростає при наближенні r до ±1. Коли r>0, то зв'язок між показниками прямий, якщо r<0 – обернений. Фактичне значення t-статистики обчислюється за формулою tфакт=(R√(n-m-1))/√(1-R^2 ) і порівнюється з табличним значенням t-розподілу з n-m-1ступенями свободи та при заданому рівні значущості λ/2 (такий рівень значущості зумовлений тим, що критична область складається з двох проміжків). Якщо абсолютна величина експериментального значення t-статистики перевищує табличне, тобто |t|>tтабл, можна зробити висновок, що коефіцієнт кореляції достовірний(значущий), а зв'язок між залежною змінною та всіма незалежними факторами суттєвий.

89.Описати при заданому λ: Н0: βi=0; : βi≠0 для парної лінійної регресії

Статистичну значущість кожного параметра моделі можна перевірити за допомогою t-критерію. Перевірка на значущість полягає у порівнянні знайдених параметрів β0*та β1* з табличними.

Висуваємо дві гіпотези: нульову – Н0 (про рівність нулю певного параметра) та альтернативну до неї - Нλ (про її суттєву відмінність від нуля). За заданим рівнем значущості множина допустимих значень розбивається на дві неперетинні множини:одна містить значення, за яких справджується нульова гіпотеза, інша – за яких справджується альтернативна. Залежно від альтернативної гіпотези критична область може складатися з одного чи двох проміжків на числовій осі. Це буде один проміжок (правий чи лівий «хвіст» розподілу), якщо зазначається напрямок нерівності (більше або менше деякої величини), і два проміжки (обидва «хвости» розподілу), якщо встановлюється нерівність (не дорівнює певній величині). Експериментальне значення t-статистики для кожного параметра моделі обчислюється за формулою похибка оцінки параметра моделі.Експериментальне значення tj-критерію порівнюється з табличним значенням tтабл з n-m-1 ступенями свободи при заданому рівні значущості λ/2 (критична область розбивається на два фрагменти, межі яких задаються значенням tтабл . Якщо значення tj-статистики потрапляє до критичної області (за абсолютним значенням перевищує tтабл), приймається альтернативна гіпотеза про значущість відповідного параметра βі,а це означає, що відповідна незалежна змінна не впливає суттєво на змінювання регресанда.