
- •2.4. Курсове проектування
- •1. Динамічні ряди та їхні властивості
- •Системи економетричних рівнянь для прогнозу, прийняття рішень та імітації
- •Проста вибіркова лінійна регресія
- •Оцінка параметрів лінійної регресії за допомогою методу найменших квадратів
- •Імовірнісний зміст простої регресії Узагальнена регресійна модель
- •1. Математичне сподівання параметра
- •Коефіцієнти кореляції та детермінації
- •Поняття про ступені вільності
- •Простий anova-аналіз. Аніліз дисперсій.
- •1. Класична лінійна багатофакторна модель
- •1.1 Основні припущення у багатофакторному регресійному аналізі
- •1.2.Етапи побудови багатофакторної регресійної моделі
- •1.3 Розрахунок невідомих параметрів багатофакторної регресії за мнк
- •1.3.2 Коефіцієнт множинної кореляції та детермінації
- •1.3.3 Anova–дисперсійний аналіз
- •1.4 Перевірка моделі на адекватність
- •2. Матричний підхід до лінійної багатофакторної регресії
- •2.1 Запис ублрм у матричному вигляді
- •2.2 Припущення класичної лінійної багатофакторної регресії
- •2.3 Оцінювання невідомих параметрів у багатофакторній регресії
- •2.4 Дисперсійно-коваріаційна матриця параметрів регресії
- •2.6 Прогнозування за багатофакторною рекгресійною моделлю
- •1. Мультиколінеарність
- •1.1 Теоретичні наслідки мульттиколінеарності
- •1.2. Практичні наслідки мультиколінеарності
- •1.3 Тестування наявності мультиколінеарності
- •2.5. Індивідуальна робота студентів
- •7 Навчально-методичні матеріали та технічні засоби
- •7.1 Основні джерела інформації
- •7.2 Додаткові джерела інформації
- •Основы системного анализа и проектирования асу: Уч. Пособие Павлов, с.Н . Гриша а.А. И др – к.: Выща шк.; 1991. – 367с.
- •2.12.6. T-тест для оцінки значимості коефіцієнта кореляції
- •7.8 Основні поняття теорії ймовірностей
- •7.8.1 Інтегральна функція розподілу ймовірностей випадкової величини
- •7.8.4. Закон рівномірного розподілу ймовірностей
- •7.8.5. Нормальний закон розподілу
- •7.8.5.1. Вплив параметрів нормального розподілу на форму нормальної кривої
- •7.8.6. Розподіл
- •Графік і таблиця нормального закону розподілу
- •Графік і таблиця f-розподілу Фішера
- •Графік і таблиця t-розподілу Ст’юдента
- •5.3. Автокореляція
- •5.3.1. Природа автокореляції. Основні поняття та означення
- •5.3.2. Тестування автокореляції
- •5.3.3. Оцінка параметрів регресійної моделі при наявності автокореляції
- •5.4. Авторегресивні і дистрибутивно-лагові моделі
- •5.4.1.Природа авторегресивних моделей. Приклади практичного застосування авторегресивних моделей
- •5.4.1.1. Приклади використання лагових моделей в економіці. Роль "часу" або "часового лагу" в економіці
- •5.4.1.2. Причини лагів
- •5.4.2. Оцінка параметрів дистрибутивно-лагових моделей
- •5.4.2.1. Послідовна оцінка дистрибутивно-лагових моделей
- •5.4.2.2. Підхід Койка до дистрибутивно-лагових моделей
- •5.4.3. Перша модифікація моделі Койка: модель адаптивнихочікувань
- •5.4.4. Друга модифікація моделі Койка: модель часткових пристосувань
- •Комбінація моделей адаптивних очікувань і частковихпристосувань
- •Оцінювання параметрів авторегресивних моделей
- •Метод допоміжних змінних
- •Виявлення автокореляції в авторегресивних моделях: h-тест Дарбіна
1.3 Розрахунок невідомих параметрів багатофакторної регресії за мнк
Нехай ми маємо ряд спостережень за залежною змінною та за незалежними змінними
y={y1, y2, ..., yn}; x1=={x11, x12, ..., x1n}; x2=={x21, x22, ..., x2n}; ...; xp=={xp1, xp2, ..., xpn};
На підставі цих спостережень побудуємо лінійну багатофакторну вибіркову модель
y=b0+b1x1+b2x2+...+bpxp+e (4.5)
Знайдемо невідомі параметри за МНК, тобто мінімізуючи суму квадратів відхилень фактичних даних від теоретичних (даних, які ми оторимали з регресійної моделі)
F(b0,
b1,
..., bn)=
(4.6)
Щоб знайти мінімум функції (4.6) необхідно прирівняти нулю часткові похідні функції за аргументами b0, b1, ..., bn і отримати систему нормальних рівнянь
Перетин розраховується аналогічно до простої регресії за допомогою середніх значень
b0=y-b1x1-...bpxp (4.7)
1.3.2 Коефіцієнт множинної кореляції та детермінації
Коефіцієнт множинної кореляції
є мірою ступеня відповідності даних
{
,
i=1,n}, отриманих
з регресійної моделі, фактичним даним
{yi, i=1,n}
і визначається як коефіцієнт кореляції
між у та y^
(4.12)
Квадрат коефіцієнта множинної кореляції, як і у випадку багатофакторної регресії називають коефіцієнтом детермінації і позначають через R2. Можна показати, що вигляд у випадку багатофакторної регресії ідентичний коефіцієнту детермінації простої лінійної регресії
=SSR/SST=1-SSE/SST=1-
(4.13)
У цьому виразі знаменник не залежить від кількості факторів х, а чисельник при збільшенні факторів х спадає (або хоча б не зростає). Таким чином, якщо додати новий фактор у модель, то R2 зросте.
Якщо ми порівнюємо дві регресійні моделі з однаковою залежною змінною, але з різною кількістю факторів х, то перевагу віддаємо моделі з більшим значенням R2.
Для порівняння значень коефіцієнтів детермінації у різних моделях використовують оцінений коефіцієнт детермінації R2, у якому зменшено вплив кількості факторів на значення коефіцієнта
R2=1-
(4.20)
де k– кількість параметрів регресійної моделі, включаючи перетин;
-
оцінена дисперсія залишків;
S2y- вибіркова дисперсія незалежної змінної у.
На відміну від простого коефіцієнта детермінації оцінений коефіцієнт детермінації коригується з урахуванням ступенів вільності суми квадратів залишків та загальної суми квадратів. Як бачимо з (4.20), суми квадратів у чисельнику і знаменнику діляться на відповідні ступені вільності, в яких ураховано кількість факторів, що входять до моделі.
З (4.21) видно, що при k>1 R2<R2. Крім того, якщо зростає кількість факторів х, то R2 зростає повільніше, ніж R2, тобто зменшується вплив кількості факторів на величину коефіцієнта детермінації, тому на практиці частіше використовують R2, особливо при порівнянні різних регресійних моделей. На відміну від R2 R2 може бути й негативним. Коли R2 прямує до негативної величини, R2 прямує до нуля, а коли R2=1, то R2 теж R2 =1.
Розглянемо приклад. Маємо дві моделі
lnyi= b0+b1x1i+...+bpxpi+ei, (4.22)
yi= a0+a1x1i+...+apxpi+ei (4.23)
Розраховані коефіцієнти детермінації у цих моделях не можна порівняти між собою, тому що у (4.22) коефіцієнт детермінації вимірює частку дисперсії залежної змінної lny, яку можна пояснити факторами х1і, х2і, …, хрі, а у (4.23) вимірює частку дисперсії у. Зміна lny в у забезпечує відносну зміну у , а зміна в самому у є абсолютною зміною. Таким чином, величини var(y^i)/var(yi) var(lny^i)/var(lnyi). Коефіцієнт детермінації для (4.22)
R2==1- (4.24)
а для (4.23)
R2==1-
(4.25)
Знаменики у (4.24) і (4.25) різні, тобто порівняти іх неможливо. Щоб зробити це порівняння, потрібно знайти логарифм за моделлю (4.22), обчислити антилогарифм і розрахувати коефіцієнт детермінації між антилогарифмом та значенням yi, який можна вже порівнювати з коефіцієнтом детермінаціх регресійної моделі (4.23). Можливим є й зворотний шлях: обчислити за моделлю (4.22) lny^i, розрахувати y^i, обчислити R2 за формулою (4.13) і порівняти з R2, знайденим для моделі (4.25).