
- •2.4. Курсове проектування
- •1. Динамічні ряди та їхні властивості
- •Системи економетричних рівнянь для прогнозу, прийняття рішень та імітації
- •Проста вибіркова лінійна регресія
- •Оцінка параметрів лінійної регресії за допомогою методу найменших квадратів
- •Імовірнісний зміст простої регресії Узагальнена регресійна модель
- •1. Математичне сподівання параметра
- •Коефіцієнти кореляції та детермінації
- •Поняття про ступені вільності
- •Простий anova-аналіз. Аніліз дисперсій.
- •1. Класична лінійна багатофакторна модель
- •1.1 Основні припущення у багатофакторному регресійному аналізі
- •1.2.Етапи побудови багатофакторної регресійної моделі
- •1.3 Розрахунок невідомих параметрів багатофакторної регресії за мнк
- •1.3.2 Коефіцієнт множинної кореляції та детермінації
- •1.3.3 Anova–дисперсійний аналіз
- •1.4 Перевірка моделі на адекватність
- •2. Матричний підхід до лінійної багатофакторної регресії
- •2.1 Запис ублрм у матричному вигляді
- •2.2 Припущення класичної лінійної багатофакторної регресії
- •2.3 Оцінювання невідомих параметрів у багатофакторній регресії
- •2.4 Дисперсійно-коваріаційна матриця параметрів регресії
- •2.6 Прогнозування за багатофакторною рекгресійною моделлю
- •1. Мультиколінеарність
- •1.1 Теоретичні наслідки мульттиколінеарності
- •1.2. Практичні наслідки мультиколінеарності
- •1.3 Тестування наявності мультиколінеарності
- •2.5. Індивідуальна робота студентів
- •7 Навчально-методичні матеріали та технічні засоби
- •7.1 Основні джерела інформації
- •7.2 Додаткові джерела інформації
- •Основы системного анализа и проектирования асу: Уч. Пособие Павлов, с.Н . Гриша а.А. И др – к.: Выща шк.; 1991. – 367с.
- •2.12.6. T-тест для оцінки значимості коефіцієнта кореляції
- •7.8 Основні поняття теорії ймовірностей
- •7.8.1 Інтегральна функція розподілу ймовірностей випадкової величини
- •7.8.4. Закон рівномірного розподілу ймовірностей
- •7.8.5. Нормальний закон розподілу
- •7.8.5.1. Вплив параметрів нормального розподілу на форму нормальної кривої
- •7.8.6. Розподіл
- •Графік і таблиця нормального закону розподілу
- •Графік і таблиця f-розподілу Фішера
- •Графік і таблиця t-розподілу Ст’юдента
- •5.3. Автокореляція
- •5.3.1. Природа автокореляції. Основні поняття та означення
- •5.3.2. Тестування автокореляції
- •5.3.3. Оцінка параметрів регресійної моделі при наявності автокореляції
- •5.4. Авторегресивні і дистрибутивно-лагові моделі
- •5.4.1.Природа авторегресивних моделей. Приклади практичного застосування авторегресивних моделей
- •5.4.1.1. Приклади використання лагових моделей в економіці. Роль "часу" або "часового лагу" в економіці
- •5.4.1.2. Причини лагів
- •5.4.2. Оцінка параметрів дистрибутивно-лагових моделей
- •5.4.2.1. Послідовна оцінка дистрибутивно-лагових моделей
- •5.4.2.2. Підхід Койка до дистрибутивно-лагових моделей
- •5.4.3. Перша модифікація моделі Койка: модель адаптивнихочікувань
- •5.4.4. Друга модифікація моделі Койка: модель часткових пристосувань
- •Комбінація моделей адаптивних очікувань і частковихпристосувань
- •Оцінювання параметрів авторегресивних моделей
- •Метод допоміжних змінних
- •Виявлення автокореляції в авторегресивних моделях: h-тест Дарбіна
1.3.3 Anova–дисперсійний аналіз
Елементарна ANOVA–таблиця у випадку багатофакторної регресії має вигляд
Джерело варіації |
Суми квадратів |
Ступені вільності |
Середні квадрати |
Модель |
SSR=
|
k-1 |
MSR=SSR/(k-1) |
Помилка |
SSE=
|
n-k |
MSE=SSE/(n-k) |
Загальне |
SST=
|
n-1 |
|
З цієї таблиці легко отримати значення простого коефіцієнта детермінації за (4.19) R2 та оціненого коефіцієнта детермінації за (4.20) R2.
1.4 Перевірка моделі на адекватність
Для багатофакторної регресії нуль-гіпотеза за F–критерієм Фішера
узагальнюється і має вигляд
H0: 1=2=...p=0
проти альтернативної гіпотези Н1: хоча б одне значення i відмінне від нуля.
Для перевірки нуль-гіпотези розраховується F–статистика Фішера з р та (n-р-1) ступенями вільності
Fp,n-p-1=
(4.26)
де р – кількість факторів, що увійшли в модель; n - загальна кількість спостережень.
Якщо F>Fкр, що знаходиться за F–таблицями Фішера з р та (n-р-1) ступенями вільності для рівня помилки 100% (або рівня довіри (1-)100%), то нуль-гіпотеза відкидається , що свідчить про адекватність моделі. У протилежному випадку вона приймається і модель вважається неадекватною.
Якщо у виразі (4.26) замінити р на (k-1), а (n-р-1) на (n-k), де k – кількість параметрів, включаючи перетин, то
F=[(n-k)SSR]/[(k-1)SSE]= [(n-k)SSR]/[(k-1)(SST-SSR)]= [(n-k)SSR/SST]/[(k-1)(1-SSR/SST)]= [(n-k)R2]/[(k-1)(1-R2)]=[R2/(k-1)]/[(1- R2)/(n-k)] (4.27)
З (4.27) випливає, що F–відношення та R2 пов’язані між собою. Коли R2=0 F=0. Таким чином, F-тест що є мірою адекваності регресійної моделі, є також мірою статистичної значимості коефіцієнта детермінації R2. Використовуючи (4.33), можемо тестувати адекватність моделі, виходячи лише з одного відомого R2, що значно полегшує розрахунки.
Нехай відомо значення R2 для багатофакторної моделі
yi=0+1x1i+...+pxpi+i.
Тестуємо нуль-гіпотезу Н0: 1=2=...=p=0 проти альтернативної гіпотези Н1: не всі параметри одноразово дорівнюють нулю. Для цього за (4.27) розраховуємо F–відношення Фішера, а потім за таблицями Fкр(k-1; n-k; ). Отже тестування проводимо, використовуючи лише відомий коефіцієнт детермінації.
2. Матричний підхід до лінійної багатофакторної регресії
2.1 Запис ублрм у матричному вигляді
Запишемо модель (4.1) для кожного окремого спостереження
(4.34)
або скорочено
yi=0+1x1i+...+pxpi+i.
Маємо
y(nx1)=
–
вектор-стовпець (розмірность nx1)
спостережень за незалежною змінною у;
-
матриця nx(p+1)розмірності спостережень
за р змінними х1, х2, …, хр,
де перший стовпець вміщує значення 1
для отримання перетину. Матрицю Х ще
називають матрицею спостережень.
((p+1)x1)=
-
вектор розміру ((р+1)x1)невідомих параметрів;
(n+1)=
–-
вектор розміру (nx1) випадкових величин.
Виходячи з введених позначень для (4.35) отримаємо
=
+
(4.36)
Вираз (4.36) зручно переписати у вигляді
у=Х+ (4.37)
Вираз (4.37) є записом простої лінійної багатофакторної регресії у матричному вигляді.
2.2 Припущення класичної лінійної багатофакторної регресії
у матричному вигляді
Припущення 1. Вектор випадкових величин дорівнює нулеві E()=0
E
=
=
(4.38)
Припущення 2. Випадкові величини незалежні між собою
E(’)=E (12...n) (4.39)
де ’– транспланований вектор-стовпець випадкових величин, тобто вектор-рядок.
Розписавши (4.39) та застосовуючи оператор математичного сподівання до кожного елемента матриці, та враховуючи гомоскедастичність та відсутність зв`язку між випадковими величинами, отримаємо отримаємо
E(’)=E
(4.40)
де І – одинична матриця розмірності (n x n).
Матриця (4.40) називається дисперсійно-коваріаційною матрицею випадкових величин і. Діагональні елементи цієї матриці – дисперсії, а всі інші – коваріації. Дисперсійно-коваріаційна матриця симетрична відносно своєї діагоналі.
Припущення 3. Матриця Х розміру (n x (р+1)) не стохастична, тобто вона утворюється з фіксованих елементів хіj; і=1,n; j=1,р.
Припущення 4. Відсутність мультиколінеарності, тобто ранг матриці Х дорівнює кількості стовпців матриці (р+1). Це означає, що стовпці матриці лінійно незалежні, тобто немає лінійного зв’язку між х змінними, отже, не знайдеться таких чисел 0, 1, ..., p, серед яких не всі дорівнюють нулеві, або виконувалась тотожність
0x0i+x1i+...+pxpi=0
або в матричному відображенні ‘Х=0
Припущення 5. Вектор випадкових величин має нормальний закон розподілу N(0, 2I). Припущення щодо однакової дисперсії випадкових величин вже знайшло своє матричне відображення у припущенні 2.