
- •2.4. Курсове проектування
- •1. Динамічні ряди та їхні властивості
- •Системи економетричних рівнянь для прогнозу, прийняття рішень та імітації
- •Проста вибіркова лінійна регресія
- •Оцінка параметрів лінійної регресії за допомогою методу найменших квадратів
- •Імовірнісний зміст простої регресії Узагальнена регресійна модель
- •1. Математичне сподівання параметра
- •Коефіцієнти кореляції та детермінації
- •Поняття про ступені вільності
- •Простий anova-аналіз. Аніліз дисперсій.
- •1. Класична лінійна багатофакторна модель
- •1.1 Основні припущення у багатофакторному регресійному аналізі
- •1.2.Етапи побудови багатофакторної регресійної моделі
- •1.3 Розрахунок невідомих параметрів багатофакторної регресії за мнк
- •1.3.2 Коефіцієнт множинної кореляції та детермінації
- •1.3.3 Anova–дисперсійний аналіз
- •1.4 Перевірка моделі на адекватність
- •2. Матричний підхід до лінійної багатофакторної регресії
- •2.1 Запис ублрм у матричному вигляді
- •2.2 Припущення класичної лінійної багатофакторної регресії
- •2.3 Оцінювання невідомих параметрів у багатофакторній регресії
- •2.4 Дисперсійно-коваріаційна матриця параметрів регресії
- •2.6 Прогнозування за багатофакторною рекгресійною моделлю
- •1. Мультиколінеарність
- •1.1 Теоретичні наслідки мульттиколінеарності
- •1.2. Практичні наслідки мультиколінеарності
- •1.3 Тестування наявності мультиколінеарності
- •2.5. Індивідуальна робота студентів
- •7 Навчально-методичні матеріали та технічні засоби
- •7.1 Основні джерела інформації
- •7.2 Додаткові джерела інформації
- •Основы системного анализа и проектирования асу: Уч. Пособие Павлов, с.Н . Гриша а.А. И др – к.: Выща шк.; 1991. – 367с.
- •2.12.6. T-тест для оцінки значимості коефіцієнта кореляції
- •7.8 Основні поняття теорії ймовірностей
- •7.8.1 Інтегральна функція розподілу ймовірностей випадкової величини
- •7.8.4. Закон рівномірного розподілу ймовірностей
- •7.8.5. Нормальний закон розподілу
- •7.8.5.1. Вплив параметрів нормального розподілу на форму нормальної кривої
- •7.8.6. Розподіл
- •Графік і таблиця нормального закону розподілу
- •Графік і таблиця f-розподілу Фішера
- •Графік і таблиця t-розподілу Ст’юдента
- •5.3. Автокореляція
- •5.3.1. Природа автокореляції. Основні поняття та означення
- •5.3.2. Тестування автокореляції
- •5.3.3. Оцінка параметрів регресійної моделі при наявності автокореляції
- •5.4. Авторегресивні і дистрибутивно-лагові моделі
- •5.4.1.Природа авторегресивних моделей. Приклади практичного застосування авторегресивних моделей
- •5.4.1.1. Приклади використання лагових моделей в економіці. Роль "часу" або "часового лагу" в економіці
- •5.4.1.2. Причини лагів
- •5.4.2. Оцінка параметрів дистрибутивно-лагових моделей
- •5.4.2.1. Послідовна оцінка дистрибутивно-лагових моделей
- •5.4.2.2. Підхід Койка до дистрибутивно-лагових моделей
- •5.4.3. Перша модифікація моделі Койка: модель адаптивнихочікувань
- •5.4.4. Друга модифікація моделі Койка: модель часткових пристосувань
- •Комбінація моделей адаптивних очікувань і частковихпристосувань
- •Оцінювання параметрів авторегресивних моделей
- •Метод допоміжних змінних
- •Виявлення автокореляції в авторегресивних моделях: h-тест Дарбіна
1. Математичне сподівання параметра
З лекції 2 вам відомо, що параметр b1 у простій лінійній регресії визначається за формулою
(2.73)
Введемо позначення
(2.74)
З (2.74) випливає, що
Знайдемо математичне сподівання параметра b1. Для цього запишемо b1 у вигляді
Дисперсія параметру b1
(2.81)
Математичне сподівання параметру b0
Дисперсія параметру b0
(2.86)
Оскільки параметри b0 і b1 є лінійними функціями випадкової величини , що за Припущенням 6 розподілена нормально, то ці параметри теж розподілені нормально.
Для оцінки дисперсії випадкової величини знайдемо її математичне очікування.
Якщо розглядається множина вибірок, то формула для довільної і-ої помилки має вигляд
ei=yi- yi^=0+1xi+i-b0-b1xi=i b0 - 0) -(b1+1xi . (2.87)
З (2.82) випливає
b0 - 0 = i (b1+1x
ei=i b0 - 0) -(b1+1xi=ii (b1+1 x -(b1+1xi=ii (b1+1(x- xi) (2.88)
Піднесемо обидві частини (2.88) до квадрата
Врахуємо (2.81), (2.77) та той факт, що
Ми отримали оцінку дисперсії випадкової величини , яку часто позначають кількома позначеннями
^2=S2=^2=
(2.93,
а)
Оскільки випадкова величина - неспостережувана, то і її дисперсію неможливо обчислити, тьому на практиці дисперсія випадкової величини замінюється на свою оцінку.
Побудова інтервалів довіри
Випадкові параметри і розподілені за нормальним законом розподілу з відповідним математичним сподіванням та дисперсією. У формулах для розрахунку їх дисперсій (2.86) та (2.81) замість дійсної дисперсії помилок випадкової величини використовується оцінка дисперсії. Знайдемо інтервали довіри для параметрів УРМ, тобто інтервали, в які параметри потрапляють з заданою ймовірністю.
Для побудови інтервалів довіри використовують спеціальні тести.
Коефіцієнти кореляції та детермінації
Для оцінки щільності зв’язку між залежною величиною у і незалежною змінною х (впливу х на у) використовується коефіцієнт кореляції
(2.26)
Коефіцієнт кореляції, на відміну від коефіцієнта коваріації, є не абсолютною, а відносною мірою зв’язку між двома факторами, тому. Позитивне значення свідчить про прямий зв`язок між показниками, а негативне - про зворотний зв`язок. Коли 1, то це свідчить про наявність сильного зв`язку, а у протилежному випадку - про відсутність зв`язку.
Коефіцієнт детермінації дозволяє перевірити адекватність побудованої моделі реальній дійсності ( лінійність залежності у від х) і також виміряти щільність зв`язку між х та у.
Спочатку розглянемо питання про декомпозицію дисперсій. Розіб`ємо на дві частини відхилення фактичних значень у від теоретичних значень за регресійною прямою.
Такі відхилення можна записати у вигляді
(2.27)
Вираз (2.27) перепишемо таким чином
(2.28)
У статистиці різницю (уі-у) прийнято називати загальним відхиленням. Різницю (у^i-у) називають відхиленням, яке можна пояснити, виходячи з регресійної прямої. Різницю (уі-у^і) називають відхиленням, яке не можна пояснити, виходячи з регресiйної прямої, або непояснювальним відхиленням. Справді, якщо хі змінюється, то змінюються уі у^, а у залишається постійною величиною. Таким чином ми розклали загальне відхилення (уі-у) на відхилення, яке можна пояснити, виходячи з регресійної прямої та непояснювальне відхилення.
Піднесемо обидві частини (2.28) до квадрата та підсумуємо за всіма індексами.
Перепишемо суму добутку у вигляді
Остаточно
(2.29)
де
-
загальна сума квадратів, яка позначається,
як правило, через SST;
-
сума квадратів помилок, яка позначається
через SSE;
-
сума квадратів, що пояснює регресію та
позначається SSR.
Таким чином (2.29) можна записати у вигляді
SST=SSE+SSR. (2.29 a)
Поділивши (2.29) на n, отримаємо вираз для дисперсій
або
2заг=2пом+2регр (2.31)
де 2заг
=
- загальна дисперсія; 2пом
=
-
дисперсія помилок; 2регр
=
- дисперсія, що пояснює регресію.
Поділимо обидві частини (2.31) на 2заг
1= 2пом/2заг+2регр/2заг (2.32)
2пом/2заг є пропорцією дисперсії помилок у загальній дисперсії, тобто являє собою частину дисперсії, яку не можна пояснити через регресійний зв`язок. 2регр/2заг є складовою дисперсії, яку можна пояснити через регресійну лінію і називається коефіцієнтом детермінації R2. Коефіцієнт детермінації є мірою незалежності пояснювальної змінної, тому його можна застосувати як критерій адекватності моделі. Коефіцієнт детермінації можна записати двома засобами
R2=2регр/2заг (2.33)
R2=SSR/SST. (2.34)
З (2.32) випливає, що коефіцієнт детермінації завжди позитивний 0R21.
Формули для розрахунку коефіцієнта кореляції та нахилу мають вигляд
Вираз (2.35) може бути переписаний у вигляді
(2.37)
Оскільки обидва значення х і у додатні, то знак r завжди збігається із знаком параметра b1, а значення r пов`язане із значенням b1 та середніх квадратичних відхилень х і у.
Для визначення зв`язку між коефіцієнтом кореляції та коефіцієнтом детермінації перепишемо вираз для SSR наступним чином
(2.41)
Перепишемо вираз для розрахунку коефіцієнта детермінації з урахуванням (2.41) та виразу для визначення SST
(2.42)
З (2.37) маємо
r=b1х/у
Полрівнюючи вирази (2.37) та (2.42), маємо, що коефіцієнт детермінації дорівнює квадрату коефіцієнта кореляції
R2=r2 (2.43)