Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
1-105 емм Теория(не качал.позаимствовал)(милост....doc
Скачиваний:
17
Добавлен:
23.04.2019
Размер:
1.94 Mб
Скачать
  1. Умови Гаусса-Маркова для парної та множинної лінійної регресії.

Умови Гаусса—Маркова є такими:

1)Математичне сподівання випадкових відхилень є, має дорів­нювати нулеві:

Ця умова вимагає, щоб випадкові відхилення в середньому не впливали на залежну змінну У. Тоді для рівняння матимемо:

2) Дисперсія випадкових відхилень є,, має бути сталою вели­чиною:

3)Випадкові відхилення та , i не = j у мають бути незалеж­ними один від одного

4) Випадкові відхилення мають бути незалежними від пояснювальних змінних Х: cov(εi, xi)=0, оскільки xi – не випадкова величина.

5) εi являє собою суму всіх можливих випадкових чинників, які впливають на значення залежної змінної yt в моделі, при цьо­му дія кожного окремо взятого випадкового чинника на yi вважається несуттєвою.

6) Економетричні моделі мають бути лінійними відносно своїх параметрів.

Економетричні моделі, для яких виконуються умови (1)—(5), називають класичними моделями.

Економетричні моделі, для яких виконуються умови (1)—(6) називають класичними лінійними моделями.

Для множинної регресії умови Гаусса-Маркова аналогічні, як і для парної, а також включають таку умову між пояснювальними змінними моделі:

Тобто між векторами має бути відсутня лінійна (кореляційна) залежність, тобто |Хt*X|≠0. Коли |Хt*X|=0, такі моделі – мультиколінеарні.

  1. Чому дорівнює вектор в моделі множинної лінійної регресії?

Вектор бета-статистична оцінка теоретичного вектора бета лінійної множинної регресії.Для визначення компонент вектора , як статистичних оці­нок компонент вектора β, використовується МНК. Нагадаємо, що суть методу найменших квадратів — мінімізація суми квадра­тів похибок.

=(Х`*X)ֿ¹ Х`*

Отже, компоненти вектора визначаються на основі вибір­кових даних за формулою згаданою вище.

Покажемо, що вектор є випадковим, тобто його елементи змінюються зі зміною вибірки. Дістаємо:

тобто вектор лінійно залежить від випадкового вектора

65.Чому дорівнює М(вектораβ*),

cov(вектора β*(вектораβ*)’),М(ε*ε’)множинної лінійної регресії.

Оскільки вектор бетта випадковий вектор то його компоненти будуть випадковими величинами,отже,виникає потреба у визначенні їхнії основних характеристик .Враховуючи що векторβ*=векторβ+(Х’X)X’*вектор ε

Отримаємо М(вектораβ*)=

векторβ*=векторβ+(1/(Х’X))X’М(вектор ε)=вектор β

бо М(вектор ε)=0 отже маємо М(вектораβ*)=вектор β

що інформує про те.що емпіричний векторβ* є точковою незміщеною статистичною оцінкою для теоретичного вектора параметрів множинної лінійної регречії вектора бетта. Тоді з цього випливає що М(вектораβі*)=вектор бетта .де і=0,1,2,…,m

Коваріаційний момент cov(вектора β*(вектораβ*)’)=σ^2*(1/(X’X))

Де 1/(X’X)- обернена матриця.

66.Як визначається точкова незміщена статистична оцінка для σ ε ^2 в моделі множинної лінійної регресії?

σ ε ^2 повязане із еі.

S ε^2=((vector e’*vector e)/n-m-1)=Sum ei^2/n-m-1

S ε^2-точкова незміщена оцінка для σ ε ^2, а також виправлена дисперсія.

67.Як побудувати довірчий інтервал із заданою надійністю ƴ для βі та теоретичної множинної лінійної регресії?

Для побудови довірчих інтервалів для параметрів β з надійністю ƴ визначається з рівності

Р( модуль ((βі*- βі)/(корень((сумма еі^2)/(n-m-1))*cii)<t(ƴ,k))= ƴ

Отже значення параметра βі буде міститися з надійністю ƴв проміжку

βі*-t(ƴ,k)s< βi< βі*-+t(t(ƴ,k)s,для числа ступенів свободи k=n-m-1

Аналогічно побудова довірчого інтервалу для теоретичної множинної лінійної функції регресії із заданою надійністю ƴ використовується рівність

Р(модуль((yi*-yi)/Syi*)~t(ƴ,k)= ƴ

З якої одержимо yi*-t(ƴ,k)Syi*<yi<yi*+t(ƴ,k)Syi* де t(ƴ,k=n-m-i) визначається по таблицях.

68.Перевірки статистичної значущості βі та перевірка загальної якості множинної регресії.

Статистична значущість коефіцієнтів теоретичної множинної регресії із m пояснювальними змінними здійснюється на основі t-статистики.Для цього використовується статистичний критерій.

T=( βі*- βі)/S βі* ~t(ƴ,k=n-m-1),i=0,1,2…m При даному рівні значущості α перевірки правдивості статистичної гіпотези Н0: βі=0

При альтернативній гіпотезі Н α βі≠0 здійснюється за схемою як для парної регресії. Перевірка загальної якості множиноої лінійної регресії при заданому рівні значущості здійсн за такою спослідов.

1.Висувається нульова гіпотеза, при альтернативній гіпотезі

2.Для перевірки правдивості нульової гіпотези вибирається статистичний критерій.

3.Формулювання альтернативної системи гіпотези дає підстави для побудови правобічної критичної області. Критична точка до неї визначається за заданим числом α а також за числом ступенів свободиk1=m,k2=n-m-1 за таблицею.Спостережливе значення критерію обчислюється за формулою.

4.Якщо спостережливе значення Fкр то нульова гіпотеза відхиляється на користь H α/Це означає що пояснювальна дисперсія є суттєво більшою залишкової.Тобто рівняння регресії якісно моделює динаміку зміни залежної змінної Y.На практиці частіше замість розглянутої гіпотези перевіряється на справедливість тісно з нею повязана гіпотеза про статистичну значущість коефіцієнта детермінації.

70.Як виявити ознаку мультиколінеарності в лінійних моделях? В якому випадку модуль r=0, модуль XX’=0 модуль r=1?

Припустимо ,що в побудованій моделі присутня ознака мультиколінеарності,тобто det(X’X)=0.Виникає питання які регросори моделі спонукають появу цієї ознаки?

Для цього треба побудувати вектор r та матрицю r.

За елементами вектора здійснюють аналіз тісности кореляційного звязку між регресорами моделі Xj та залежною змінною Y а за елементами матриці –тісноту кореляційного звязку між регресорами моделі.Наприклад в матриці елемент Rij=1 це означає що зв'язок між I-им та j-им регресорамиблизький до функціонального тобто присутня ознака мультиколінеарності.

71.Виробнича функція Кобба-Дугласа

Виробничу функцію Кобба-Дугласа можна подати співвідношенням yi=β0*xi^ β1*zi β2*ei

Для визначення статистичних оцінок параметрів β0, β1, β2 функції шляхом логарифмування співвідношення одержимо логарифмічне рівняння.

У векторно-матричній формі запису модель співвідношення набуде вигляду vector y=X*vector β+ вектор . Де кожний елемент є матрицею.Статистичним образом цієї моделі буде

Vector y=X* вектор β*+ vector e

72.Поліноміальна та гіперболічна моделі,визначення для них βі*

Загальний запис полноміальної моделі буде таким

Yi= β0+ β1X+ β2X^2+….+ βmX^m + εi,i=1,n де εi, і=1,n задовольняють умови використання звичайного методу найменших квадратів .Використовуючи метод найменших квадратів знаходимо βі*=(1\(X’X))X’*вектор y

Гіперболічна модель в загальному випадку має такий вигляд yi= β0+ β1*(1/xi)+ εi Для всіх значені індексу і=1,n попереднє рівняння у векторно-матричній формі набере вигляду

Вектор y=X* вектор β+ εi, де кожнемзначення цього виразу буде представлене у вигляді матриць та векторів.

73.Суть гетероскедастичності.Які негативні наслідки викликає ознака гетероскедастичності в лінійних моделях?

Гетероскедастичність — властивість послідовності випадкових величин. У статистиці, послідовність випадкових величин називається гетероскедастичною, якщо випадкові величини мають різну дисперсію.Зазвичай проблема гетероскедастичності виникає при дослідженні неоднорідних об’єктів .Наприклад коли вивчається залежність прибутку підприємства від розмірів основних фондів слід очікувати,що для великих підпр колвинная прибутку буде більшим ніж для малих.Гетероскедастичність притаманна також перехресним даним часових рядів.Перехресні дані враховують економічних суб’єктів ,які мають різні прибутки та потреби.В цьому випадку можуть виникати проблеми пов’язані з ефектом масштабу.У часових рядах явище гетероскедастичності пов’язане з тим що одній й ті самі показникирозглядаються в різні моменти часу

69.Суть та наслідки мультиколінеарності. Методи усунення з моделі ознаки мультиколінеарності.

Однією з проблем,що виникає при побудові лінійних моделей множинної регресії на основі статистичних даних є наявність мультиколінеарності-лінійної залежності між регресорами моделі. Існує функціональна та стохастична форма мультиколінеарності. При функц формі в моделі має бути присутнім хоча б один регресор, який звязаний функціон залежністю з іншим регресором моделі або з рештою.

В цьому випадку матриця буде виродженою оскільки визначник її дорівнюватиме нулеві. Отже за такої ситуації неможливо буде одержати імперичний вектор βі* для параметрів моделі.

У моделіях економічного змісту мультиколінеарність зазвичай проявляється в стохастичній формі, коли між регресорами моделі існує тісний кореляційний зв'язок який проте не досягає рівня функціонального. У цьому разі матриця не буде виродженою але її визначник набуває дуже малих значень.Внаслідок цього одержимо великі значення середніх квадратичних відхилень оцінок параметрів β*0, β1*… βm/Це ускладнює знаходження справжніх значень параметрів ,розширює інтервальні оцінки,погіршуючи їхню точність.Крім того 1 -зменшується t-статистика коефіцієнтів, що може спонукати до невірного висновку про існування впливу відповідних пояснювальних змінних на залежну змінну,2-оцінки коефіцієнтів за МНК ті їх виправлені середньоквадратичні відхилення будуть проявляти високу чутливість до будь-яких малих змін даних,тобто вони стають нестійкими.

3-ускладнюється визначення внеску кожної з пояснювальних змінних у рівняння множинної регресії.

4-моде виникнути ситуація,коли знак коефіцієнта регресії виявиться неправильним.

На практиці при кількісному оцінюванні параметрів економетричної моделі часто стикаються з проблемою взаємозв'язку між пояснюючими змінними. Якщо такий взаємозв’язок досить тісний, то оцінки параметрів моделі можуть мати зміщення. Такий взаємозв’язок між пояснюючими змінними називається мультиколінеарністю. Мультиколінеарність пояснюючих змінних призводить до зміщення оцінок параметрів моделі, обчислюваних за методом 1 МНК. На підставі цих оцінок не можна дійти конкретних висновків про результати взаємозв'язку між пояснюваною і пояснюючими змінними.

Ознаки мультиколінеарності

1. Якщо серед парних коефіцієнтів кореляції пояснюючих змінних є такі, рівень яких наближається до множинного коефіцієнта кореляції або дорівнює йому, це свідчить про можливість існування мультиколінеарності. Інформацію про парну залежність може дати симетрична матриця коефіцієнтів парної кореляції, або, як її ще називають, матриця кореляції нульового порядку:

Проте якщо в моделі включено більш як дві пояснюючі змінні, вивчення питання про мультиколінеарність не може обмежуватись інформацією, яку дає ця матриця. Явище мультиколшеарності в жодному разі не зводиться лише до існування парної кореляції між пояснюючими змінними.

Загальніша перевірка передбачає застосування визначника (детермінанта) матриці г, який називається детермінантом кореляції і позначається |г|. Числові значення детермінанта кореляції містяться на інтервалі |г| є[0,1].

2. Якщо |г| = 0, то існує повна мультиколінеарність. У разі |г|=1 мультиколінеарність відсутня. Чим ближче |г| до нуля, тим певніше можна стверджувати, що між пояснюючими змінними існуе мультиколінеарність. Незважаючи на те, що числове значення |г| зазнає впливу дисперсії пояснюючих змінних, цей показник можна вважати точковою мірою рівня мультиколінеарності.

3. Якщо в економетричній моделі знайдено мале значення параметра ак в разі високого рівня коефіцієнта детермінації, це також свідчить про наявність мультиколінеарності.

4. Коли коефіцієнт детермінації R2, який обчислено для регресійних залежностей між однією пояснюючою змінною та іншими такими змінними, близький до одиниці, то можна говорити про наявність мультиколінеарності.

5. Якщо при побудові економетричної моделі на основі покрокової регресії включення нової пояснюючої змінної істотно змінює оцінку параметрів моделі при незначному підвищенні (або зниженні) коефіцієнтів кореляції чи детермінації, то ця змінна перебуває, очевидно, у лінійній залежності від інших, які було введено в модель раніше.

Усі ці методи виявлення мультиколінеарності мають один спільний недолік: жодний із них чітко не розмежовує випадок, коли мультиколінеарність, яку слід вважати «істотною» та неодмінно враховувати, і випадок, коли мультиколінеарністю можна знехтувати.

74.Які лінійні моделі з порушенням ознаки гетероскедастичності належать до 1-ої 2-ої, 3-ої групи? Что му дорівнює cov(векторε*векторε’)для лінійних моделей що належать до цих груп?

Моделі для яких не виконується передумова Гаусса-Маркова можна поділити на деякі групи, а саме-

До першої належать моделі,для яких виконуються такі умови стосовно компонент випадкового вектора ε:

-вони маються нульові математичні сподівання.

-між собою є попарно некорельовані але і^2const тобто і вцьому випадку

cov(векторε*векторε’)=М(векторε*векторε’) Такі моделі називаються економетричними моделями з ознакою гетероскедастичності залишків.

До другої групи належать моделі для яких викон такі умови:

-збурення мають нульові математичні сподівання M(εі)=0

-вони є парно корельованими

У цих моделях між випадковими відхиленнями існує кореляційний зв'язок ,хоча дисперсії їх –сталі величини .ковар матриця в цьому випадку матиме вигляд матриці з усіма елементами kij,крім діагоналі зліва направо де елементами будуть ^2 .

До третьої групи належать моделі для яких

-збурення мають нульові математичні сподівання M(εі)=0

-елементи вектора ε є попарно корельованими.

75.В чому полягає суть тесту Гельфреда-Квандта? Послідовність його виконання

Існує ряд опробованих тестів для виявлення гетероскедастичності основні з яких це- Гельдфельда-Квандта та Глейзера.Зупинимось на першому. Як на більш наочному та простому у використанні. Перевірка за тестом Г-К має здійснюватись окремо для кожного регресора,що входить у модель.Тест Г-К виконується у певній послідовності,на прикладі парної лінійн регресії.

1.всі n-спостережень упорядковують за зростанням числових значень обраної пояснювальної змінної,що викликає відповідні переміщення значень залежної змінної.

2.упорядкована вибірка поділяється на три частини кожна з яких містить кількість спостережень ln/3

3.для першої та третьої підвибірок використовуючи МНК знаходимо статистичні оцінки двох парних лінійних регресій.

4.S1^2 та S3^2 обчислюються для першої та третьої підвибірок .

5.для порівняння S1^2 та S3^2 використовують статистичний метод перевірки правдивості нульової гіпотези.

6.за заданим рівнем значущості α і числом ступеней вільності k1,k2 за таблицею знаходимо критичне значення критерію F(α,k1,k2) і будуємо правобічну критичну областью

7.обислюємо спостережливе значення критерію.F*

8 Коли F* знаходиться в діапазоні від критичного значення критерію до нескінченості дає підстави для відхилення нульової гіпотези тобто ознака гетероскедастичності в моделі присутня.Коли ж спостережливе значення від нуля до критичного значення тоді ознака гетероскедастичності в моделі відсутня.тобто і^2=const

76.Узагальнений метод найменших квадратів

Умова гомоскедастичності є головною для лінійної класичної моделі і записується як

(10.5)Для лінійних моделей з властивістю випадкового вектора , коли

(10.6)(матриця є симетричною, додатньо визначеною матрицею n-го порядку) неможливим є використання звичайного МНК з метою визначення статистичних оцінок, як це було здійснено для лінійної класичної моделі. В такому випадку використовують так званий узагальнений метод найменьших квадратів (УМНК).Нехай досліджується лінійна модель (10.7)з порушенням умови гомоскедастичності, а саме (10.8)Тоді додатньо визначена матриця допускає існування такої невиродженої матриці , що (10.9)Із (10.9) буде випливати (10.10)Таким чином, одержимо (10.11)Враховуючи (10.11) для моделі (10.7) здійснимо таке перeтворення: ліву і праву частини рівняння помножимо зліва на матрицю . (10.12)Позначивши

(10.13)Одержимо (10.14)

Здійснивши перевірку моделі на наявність гетероскедастичності, маємо:

1. ,

2.

.

Таким чином, виявилось, що перетворена модель (10.14) є гомоскедастичною, а тому для визначення статистичних оцінок цієї моделі можемо використати звичайний МНК, як для класичної лінійної моделі і одержимо

(9.15)

Враховуючи (10.13) маємо:

Коваріаційна матриця вектора буде дорівнювати:

Таким чином, одержали:

(10.16)

(10.17)

Розглянутий метод перетворення початкової моделі (10.7) із подальшим використанням звичайного МНК до моделі (10.14) для визначення , дістав назву узагальненого методу найменших квадратів (УМНК).

Але при цьому слід наголосити, що для реалізації УМНК необхідно знати елементи матриці , що на практиці є справою дуже складною. А тому цей метод, певною мірою, виконує чисто ілюстративну функцію в економетрії.

Для практичного використання цього методу необхідно накласти певні умови на структуру матриці .

77.Зважений метод найменших квадратів.

??????????????????????????????????????????????????????????????????????????????????????????????????????????????????????????????????14 страниц книги я всунуть сюда не могу!