
- •2.4. Курсове проектування
- •1. Динамічні ряди та їхні властивості
- •Системи економетричних рівнянь для прогнозу, прийняття рішень та імітації
- •Проста вибіркова лінійна регресія
- •Оцінка параметрів лінійної регресії за допомогою методу найменших квадратів
- •Імовірнісний зміст простої регресії Узагальнена регресійна модель
- •1. Математичне сподівання параметра
- •Коефіцієнти кореляції та детермінації
- •Поняття про ступені вільності
- •Простий anova-аналіз. Аніліз дисперсій.
- •1. Класична лінійна багатофакторна модель
- •1.1 Основні припущення у багатофакторному регресійному аналізі
- •1.2.Етапи побудови багатофакторної регресійної моделі
- •1.3 Розрахунок невідомих параметрів багатофакторної регресії за мнк
- •1.3.2 Коефіцієнт множинної кореляції та детермінації
- •1.3.3 Anova–дисперсійний аналіз
- •1.4 Перевірка моделі на адекватність
- •2. Матричний підхід до лінійної багатофакторної регресії
- •2.1 Запис ублрм у матричному вигляді
- •2.2 Припущення класичної лінійної багатофакторної регресії
- •2.3 Оцінювання невідомих параметрів у багатофакторній регресії
- •2.4 Дисперсійно-коваріаційна матриця параметрів регресії
- •2.6 Прогнозування за багатофакторною рекгресійною моделлю
- •1. Мультиколінеарність
- •1.1 Теоретичні наслідки мульттиколінеарності
- •1.2. Практичні наслідки мультиколінеарності
- •1.3 Тестування наявності мультиколінеарності
- •2.5. Індивідуальна робота студентів
- •7 Навчально-методичні матеріали та технічні засоби
- •7.1 Основні джерела інформації
- •7.2 Додаткові джерела інформації
- •Основы системного анализа и проектирования асу: Уч. Пособие Павлов, с.Н . Гриша а.А. И др – к.: Выща шк.; 1991. – 367с.
- •2.12.6. T-тест для оцінки значимості коефіцієнта кореляції
- •7.8 Основні поняття теорії ймовірностей
- •7.8.1 Інтегральна функція розподілу ймовірностей випадкової величини
- •7.8.4. Закон рівномірного розподілу ймовірностей
- •7.8.5. Нормальний закон розподілу
- •7.8.5.1. Вплив параметрів нормального розподілу на форму нормальної кривої
- •7.8.6. Розподіл
- •Графік і таблиця нормального закону розподілу
- •Графік і таблиця f-розподілу Фішера
- •Графік і таблиця t-розподілу Ст’юдента
- •5.3. Автокореляція
- •5.3.1. Природа автокореляції. Основні поняття та означення
- •5.3.2. Тестування автокореляції
- •5.3.3. Оцінка параметрів регресійної моделі при наявності автокореляції
- •5.4. Авторегресивні і дистрибутивно-лагові моделі
- •5.4.1.Природа авторегресивних моделей. Приклади практичного застосування авторегресивних моделей
- •5.4.1.1. Приклади використання лагових моделей в економіці. Роль "часу" або "часового лагу" в економіці
- •5.4.1.2. Причини лагів
- •5.4.2. Оцінка параметрів дистрибутивно-лагових моделей
- •5.4.2.1. Послідовна оцінка дистрибутивно-лагових моделей
- •5.4.2.2. Підхід Койка до дистрибутивно-лагових моделей
- •5.4.3. Перша модифікація моделі Койка: модель адаптивнихочікувань
- •5.4.4. Друга модифікація моделі Койка: модель часткових пристосувань
- •Комбінація моделей адаптивних очікувань і частковихпристосувань
- •Оцінювання параметрів авторегресивних моделей
- •Метод допоміжних змінних
- •Виявлення автокореляції в авторегресивних моделях: h-тест Дарбіна
1. Класична лінійна багатофакторна модель
Узагальнена багатофакторна лінійна регресійна модель (УБЛРМ) може бути записана у вигляді
(4.1)
де y– залежна змінна;
xi - незалежні змінні (фактори);
i - параметри моделі (константи) які потрібно оцінити;
- неспостережувана випадкова величина.
Вибіркова лінійна багатофакторна модель має вигляд
де y– залежна змінна;
xi - незалежні змінні (фактори);
bi - оцінки параметрів УБЛР -моделі;
ei - випадкова величина (помилка).
Лінійною регресійною моделлю називається модель, лінійна за своїми параметрами.
За введеними позначеннями БЛРМ має р незалежних змінних, які впливають на залежну змінну у, та (р+1) невідомих параметрів, які потрібно оцінити
1.1 Основні припущення у багатофакторному регресійному аналізі
До шести припущень, вказаних для однофакторної моделі, для багатофакторної додається ще одне припущення
Припущення 7. Мультиколінеарність між факторами х відсутня. Тобто фактори незалежні між собою.
Якщо припустити протилежне, тобто наявність, наприклад лінійної залежності між факторами х1 та х2 х2=3х1, то важко визначити окремий вплив кожного з цих факторів на у. Але у цьому випадку мова йде тоді не про два незалежних фактори, а про один вираз (4.1) можна переписати, виключаючи х2.
Математично відсутність колінеарності між двома факторами визначається через відсутність чисел 1 та 2, які одночасно не дорівнюють нулю, для яких би виконувалась тотожність
1х1і+ 2х2і=0, і=1,n (4.2)
1.2.Етапи побудови багатофакторної регресійної моделі
1.2.1 Вибір та аналіз усіх можливих факторів, що впливають на пояснювальну змінну. Бажано визначити якмога більше впливових факторів, розглянути процес з макроекономічних і мікроекономічних позицій, порадитися з фахівцями досліджуваного об’єкту.
1.2.2 Кількісний аналіз знайдених факторів. На цьому етапі вимірюються або збирається статистика для кідькісних даних, підбирається або розробляється балова шкала оцінок для якісних даних. Фактори, які неможливо виразити кількісно, або данні за якими відсутні вилучаються з аналізу. В результаті цього етапу усі фактори подані у вигляді динамічних або варіаційних рядів.
1.2.3 Математико-статистичний аналіз факторів. Цей етап найважливішим підготовчим етопом для побудови регресійної багатофакторної моделі, на якому остаточно формується необхідна інформаційна база.
1.2.3.1 При недостатній інформації за допомогою спеціальних методів проводиться її відтворення.
1.2.3.2 Перевіряються основні припущення класичного регресійного аналізу.
Для перевірки факторів на мультколінеарність спочатку будується матриця кореляції R коефіцієнтів парної кореляції rxixj між і-им та j–им факторами, яка є симетричною і має вигляд
(4.3)
де – і=j=1,k
rухj – коефіцієнт кореляції між j–им фактором і залежною змінною у.
Потім аналізуються коефіцієнти парної кореляції між факторами. Якщо значення коефіцієнта парної кореляції між змінними наближається до 1, то це свідчить про наявність між ними щільного зв’язку, тобто мультиколінеарності. Тоді один з факторів необхідно залишити, а інший вилучити. Найчастіше залишають фактор, більш вагомий з економічної точки зору за впливом на залежну змінну у, або фактор, який має більший коефіцієнт кореляції із залежною змінною.
Таким чином, результатом третього етапу є множина незалежних між собою факторів, які є базою для побудови регресійної моделі.
1.2.4 Вибір методу та побудова моделі. Метод побудови моделі і модель тісно пов’язані між собою, тобто саме метод впливає на остаточний вигляд моделі.
1.2.5 Оцінка невідомих параметрів за МНК.
1.2.6 Перевірка моделі на адекватність за F-критерієм Фішера та перевірка значимості знайдених параметрів за t-критерієм Ст’юдента.
Якщо модель не адекватна, то повертаються на етап побудови моделі, вводять додаткові фактори, або переходять до нелінійної моделі. Якщо модель адекватна переходять до наступного етапу.
1.2.7 Побудова інтервалів довіри, розрахунок основних характеристик (впливу окремих факторів на залежний показник, прогнозних характеристик), інтерпретація результатів.
Якщо взяти математичне сподівання (4.1), то ми отримаємо умовне математичне сподівання у при фіксованому значенні х
(4.4)
Параметри i називаються частковими коефіцієнтами регресії і вимірюють вплив відповідної змінної на залежну змінну за умови, що всі інші змінні залишаються константами.