- •Поняття економетричної моделі, її складові частини.
- •Причини, які спонукають появу випадкової складової в регресійних моделях.
- •Етапи побудови економетричної моделі.
- •Параметри моделі парної лінійної регресії, їх сутність та оцінювання.
- •Закони розподілу ймовірностей емпіричних параметрів , їх числові характерстики та статистичні властивості.
- •Обчислення значень вибіркових дисперсій , , для парної регресії.
- •Незміщені статистичні оцінки для , , в моделі парної лінійної регресії.
- •Коефіцієнт детермінації та кореляції для моделі парної регресії. Перевірка суттєвості коефіцієнта детермінації за допомогою t-критерію.
- •Коефіцієнт детермінації та кореляції для моделі парної регресії. Перевірка суттєвості коефіцієнта детермінації за допомогою f-критерію.
- •Перевірка суттєвості оцінок параметрів на основі t-критерію.
- •Точковий та інтервальний прогноз на основі побудованої моделі парної регресії.
- •Передумови застосування методу найменших квадратів.
- •Метод найменших квадратів (мнк). Система нормальних рівнянь.
- •Оператор оцінювання мнк в матричному вигляді.
- •Властивості оцінок параметрів, знайдених за мнк.
- •Дисперсійний аналіз моделі лінійної множинної регресії.
- •Коефіцієнт множинної кореляції та детермінації та перевірка їх статистичної значущості.
- •Дисперсійно-коваріаційна матриця оцінок параметрів.
- •Довірчі інтервали для оцінок параметрів.
- •Перевірка достовірності оцінок параметрів за допомогою t -критерію.
- •Точковий та інтервальний прогноз на основі побудованої моделі лінійної множинної регресії.
- •Перевірка загальної якості моделі та рівності двух коефіціентів детермінації.
- •Поліноміальна модель. Визначення вектора статистичний аналіз моделі.
- •Аналіз моделі.Показникова модель. Визначення вектора статистичний аналіз моделі.
- •Виробнича функція Кобба-Дугласа. Визначення вектора статистичний аналіз моделі.
- •Поняття фіктивних змінних.
- •Врахування якісних факторів в лінійних економетричних моделях за допомогою фіктивних змінних.
- •Моделі з фіктивними регресорами: моделі, що містять тільки фіктивні незалежні змінні та моделі, що містять як фіктивні, так і кількісні незалежні змінні.
- •Моделі з фіктивними залежними змінними.
- •Оцінювання параметрів моделі з фіктивними змінними.
- •Порівняння двох регресійних моделей. Тест Чоу.
- •Суть та наслідки мультиколінеарності.
- •Тестування наявності мультиколінеарності в моделі. Алгоритм Фаррара-Глобера.
- •Методи усунення мультиколінеарності.
- •Алгоритм покрокової регресії.
- •Поняття про гомо- та гетероскедастичність залишків.
- •Негативні наслідки наявності гетероскедастичності залишків в лінійних моделях.
- •Тест Гольдфельда-Квандта. Послідовність його виконання.
- •Алгоритм теста Глейсера.
- •Перевірка наявності гетероскедастичності залишків на основі теста коефіцієнта рангової кореляції Спірмена.
- •Узагальнений метод найменших квадратів для моделі з гетероскедастичністю залишків.
- •Зважений метод найменших квадратів.
- •Суть та наслідки автокореляції стохастичної складової.
- •Алгоритм Дарбіна-Уотсона для виявлення автокореляції залишків першого порядку.
- •Критерій фон Неймана.
- •Циклічний та нециклічний коефіцієнт автокореляції.
- •Узагальнений метод найменших квадратів для знаходження оцінок параметрів моделі з автокорельованими залишками.
- •Метод перетворення вихідної інформації.
- •Алгоритм методу Кочрена – Оркатта.
- •Оцінювання параметрів моделі з автокорельованими залишками методом Дарбіна.
- •Поняття часового лагу. Моделі з часовим лагом незалежних змінних.
- •Оцінювання авторегресійних моделей з часовим лагом незалежних змінних.
- •Часовий ряд в загальному вигляді. Поняття тренду, сезонної, циклічної та випадкової компоненти. Основні етапи аналізу числових рядів.
- •Метод ковзної середньої для згладжування часового ряду.
- •Експоненціальне згладжування.
- •Аналітичні методи згладжування часового ряду.
- •Довжина часового ряду суттєво перевищує ступінь полінома , а випадкові залишки мають властивості «білого шуму», тобто
- •Стаціонарні та нестаціонарні часові ряди. Основні характеристики часових рядів.
- •Тест Дікі-Фулера.
- •Авторегресійні моделі ( ar(p)- процеси).
- •Моделі ковзного середнього (ma(q)- процеси).
- •Авторегресійні моделі ковзного середнього ( arma(p,q)- процеси).
- •Інтегровані авторегресійні моделі ковзного середнього ( arima(p,d,q)- процеси).
- •Адаптивні моделі. Схема їх побудови.
- •Поняття про коінтеграцію часових рядів.
- •Моделі коригування помилки, етапи її побудови.
- •Поняття системи економетричних рівнянь. Приклади моделей на основі системи одночасних рівнянь.
- •Структурна та зведена форми системи рівнянь.
- •Ідентифікація. Необхідна і достатня умова ідентифікації.
- •Непрямий метод найменших квадратів оцінювання параметрів системи одночасних рівнянь.
- •Оцінювання параметрів системи одночасних рівнянь двохкроковим методом найменших квадратів.
- •Трьохкроковий метод найменших квадратів.
- •Прогноз ендогенних змінних
Коефіцієнт детермінації та кореляції для моделі парної регресії. Перевірка суттєвості коефіцієнта детермінації за допомогою f-критерію.
За допомогою цих коефіцієнтів перевіряється відповідність побудованої регресійної моделі (теоретичної) фактичним даним. У поняття “тіснота зв'язку” вкладається оцінка впливу незалежної змінної (X) на залежну змінну (Y). Після встановлення тісноти зв'язку між змінними моделі характеризують значимість зв'язку, яка в кореляційному аналізі частіше всього здійснюється за допомогою F-критерію Фішера.
Коефіцієнт детермінації показує, якою мірою варіація залежної змінної Y визначається варіацією незалежної змінної X. Він використовується як при лінійному, так і при нелінійному зв'язку між змінними та розраховується за формулою:
(2.4)
де Yрозр – теоретичні значення залежної змінної на підставі побудованої регресійної моделі; Yсер – загальна середня фактичних даних залежної змінної; Yфакт – фактичні індивідуальні значення залежної змінної.
Коефіцієнт детермінації приймає значення від 0 (відсутній лінійний зв'язок між показниками) до 1 (відсутній кореляційний зв'язок між показниками).
Найпростішим критерієм, який дає кількісну оцінку зв’язку між двома показниками, є коефіцієнт кореляції. Він розраховується за такою формулою:
(2.5)
Чим ближче коефіцієнт кореляції до одиниці, тим тісніше зв'язок між незалежною та залежною змінними.
Іноді для спрощення розрахунків тісноту кореляційного зв'язку характеризують коефіцієнтом кореляції, який розраховується за формулою:
(2.6)
Значення R лежить у діапазоні від –1 до +1. При R=0 змінні не можуть мати лінійного кореляційного зв'язку. Ступінь тісноти їх лінійної залежності зростає при наближенні R до ±1. Кореляційний зв'язок між показниками відсутній при R=±1 Коли R>0, то зв'язок між показниками прямий, якщо R<0 – обернений.
Тестування значимості змінної Х, або адекватності моделі проводиться за критерієм Фішера. Перевіряється чи справді незалежна Х впливає на значення залежної Y.
Використовуючи суми квадратів відхилень, обчислимо F-критерій Фішера за формулою:
Розрахунковий критерій Фішера з урахуванням ступенів вільності обчислюємо за формулою:
де m, (n–m–1) – число ступенів вільності відповідно чисельника та знаменника залежності;
n – кількість спостережень;
m – кількість незалежних змінних.
Перевірка суттєвості оцінок параметрів на основі t-критерію.
Окрім загальних показників адекватності моделі існують також оцінки, що дають змогу встановити якість окремих частин рівняння, зокрема одного чи кількох коефіцієнтів регресії.
Статистичну значущість кожного параметра моделі можна перевірити за допомогою t-критерію. При цьому нульова гіпотеза має вигляд
Н0 : j = 0,
альтернативна
НА : j ≠ 0.
Експериментальне значення t-статистики для кожного параметра моделі обчислюється за формулою
де Сjj – діагональний елемент матриці (Х′Х)–1 ;
– стандартна похибка оцінки параметра моделі:
Експериментальне значення tj-критерію порівнюється з табличним значенням tтабл з n–m–1 ступенями свободи при заданому рівні значущості a/2 (критична область розбивається на два фрагменти, межі яких задаються квантилем a/2). Якщо значення t-статистики потрапляє до критичної області (за абсолютним значенням перевищує tтабл), приймається альтернативна гіпотеза про значущість відповідного параметра. Інакше робиться висновок про статистичну незначущість параметра j, а це означає, що відповідна незалежна змінна не впливає суттєво на змінювання залежної змінної