
- •2.4. Курсове проектування
- •1. Динамічні ряди та їхні властивості
- •Системи економетричних рівнянь для прогнозу, прийняття рішень та імітації
- •Проста вибіркова лінійна регресія
- •Оцінка параметрів лінійної регресії за допомогою методу найменших квадратів
- •Імовірнісний зміст простої регресії Узагальнена регресійна модель
- •1. Математичне сподівання параметра
- •Коефіцієнти кореляції та детермінації
- •Поняття про ступені вільності
- •Простий anova-аналіз. Аніліз дисперсій.
- •1. Класична лінійна багатофакторна модель
- •1.1 Основні припущення у багатофакторному регресійному аналізі
- •1.2.Етапи побудови багатофакторної регресійної моделі
- •1.3 Розрахунок невідомих параметрів багатофакторної регресії за мнк
- •1.3.2 Коефіцієнт множинної кореляції та детермінації
- •1.3.3 Anova–дисперсійний аналіз
- •1.4 Перевірка моделі на адекватність
- •2. Матричний підхід до лінійної багатофакторної регресії
- •2.1 Запис ублрм у матричному вигляді
- •2.2 Припущення класичної лінійної багатофакторної регресії
- •2.3 Оцінювання невідомих параметрів у багатофакторній регресії
- •2.4 Дисперсійно-коваріаційна матриця параметрів регресії
- •2.6 Прогнозування за багатофакторною рекгресійною моделлю
- •1. Мультиколінеарність
- •1.1 Теоретичні наслідки мульттиколінеарності
- •1.2. Практичні наслідки мультиколінеарності
- •1.3 Тестування наявності мультиколінеарності
- •2.5. Індивідуальна робота студентів
- •7 Навчально-методичні матеріали та технічні засоби
- •7.1 Основні джерела інформації
- •7.2 Додаткові джерела інформації
- •Основы системного анализа и проектирования асу: Уч. Пособие Павлов, с.Н . Гриша а.А. И др – к.: Выща шк.; 1991. – 367с.
- •2.12.6. T-тест для оцінки значимості коефіцієнта кореляції
- •7.8 Основні поняття теорії ймовірностей
- •7.8.1 Інтегральна функція розподілу ймовірностей випадкової величини
- •7.8.4. Закон рівномірного розподілу ймовірностей
- •7.8.5. Нормальний закон розподілу
- •7.8.5.1. Вплив параметрів нормального розподілу на форму нормальної кривої
- •7.8.6. Розподіл
- •Графік і таблиця нормального закону розподілу
- •Графік і таблиця f-розподілу Фішера
- •Графік і таблиця t-розподілу Ст’юдента
- •5.3. Автокореляція
- •5.3.1. Природа автокореляції. Основні поняття та означення
- •5.3.2. Тестування автокореляції
- •5.3.3. Оцінка параметрів регресійної моделі при наявності автокореляції
- •5.4. Авторегресивні і дистрибутивно-лагові моделі
- •5.4.1.Природа авторегресивних моделей. Приклади практичного застосування авторегресивних моделей
- •5.4.1.1. Приклади використання лагових моделей в економіці. Роль "часу" або "часового лагу" в економіці
- •5.4.1.2. Причини лагів
- •5.4.2. Оцінка параметрів дистрибутивно-лагових моделей
- •5.4.2.1. Послідовна оцінка дистрибутивно-лагових моделей
- •5.4.2.2. Підхід Койка до дистрибутивно-лагових моделей
- •5.4.3. Перша модифікація моделі Койка: модель адаптивнихочікувань
- •5.4.4. Друга модифікація моделі Койка: модель часткових пристосувань
- •Комбінація моделей адаптивних очікувань і частковихпристосувань
- •Оцінювання параметрів авторегресивних моделей
- •Метод допоміжних змінних
- •Виявлення автокореляції в авторегресивних моделях: h-тест Дарбіна
Проста вибіркова лінійна регресія
Прості лінійні регресійні моделі встановлюють лінійну залежність між двома змінними, наприклад витратами на відпустку та складом родини; витратами на рекламу та обсягом реалізації; витратами на споживання та ВНП; зміною ВНП залежно від часу та ін.
Загальний вигляд простої вибіркової регресійної моделі
y=b0+b1x+e, (2.1)
де у={y1, y2, ... , yn} - вектор спостережень за залежною змінною;
х={x1, x2, ... , xn} - вектор спостережень за незалежною змінною;
b0, b1- невідомі параметри регресійної моделі;
е={e1, e2, ... , en}- вектор випадкових величин (помилок).
Регресійна модель називається лінійною, якщо вона лінійна за своїми параметрами. Для неї b0 - претин з віссю ординат, а b1 - нахил (звичайно, якщо абстрагуватися від випадкової величини е)
Оцінка параметрів лінійної регресії за допомогою методу найменших квадратів
Щоб мати явний вигляд залежності, необхідно оцінити невідомі параметри моделі b0, b1.
Якщо загальний вигляд розташування даних спостережень на координатній площині х-у дозволяє припустити наявність лінійної залежності між х та у, то постає задача виявити пряму, яка має найменшу суму квадратів відхилень.
Відхилення (помилки) для і-го спостереження відносно цієї прямої
ei=yi-y^i=yi-b0-b1x, i=1,n (2.2)
де y^i- і-та точка на прямій, що відповідає значенню хі.
Відхилення еі, або помилки, іноді називають залишками.
За критерієм маємо
(2.3)
Мінімум функції (2.3) досягається при умові, що перші похідні у за дорівнюють нулеві:
(2.3)
(2.5)
Звідси отримуємо систему лінійних рівнянь
(2.6)
яка називається нормальною.
Розв’язок (2.6) дає
(2.7)
Помножимо чисельник і знаменник (2.7) на 1/n
, (2.8)
де
.
Вираз (2.8) можна ще записати у вигляді
(2.9)
Справді
(2.11)
Чисельник (2.9) є коєфіцієнтом коваріації між х та у, який за означенням визначається як
. (2.12)
Знаменник (2.9) є дисперсією величини х, тобто
var(x)=
. (2.13)
Отже, кут нахилу прямої регресії можна встановити за формулами (2.7-2.9).
З системи рівнянь (2.5) маємо , по-перше, підтвердження, що сума помилок дорівнює нулеві
, (2.15)
а по-друге, вираз для визначення b0
(2.16)
Таким чином, можемо записати у явному вигляді регресію у від х, яку інколи називають регресією найменших квадратів у від х
Імовірнісний зміст простої регресії Узагальнена регресійна модель
Розглянемо приклад. Припустимо, що обсяг реалізації продукції фірми залежить від витрат на рекламу, які є незмінними протягом усього часу спостереження. Тоді єдиним джерелом зміни у є випадкова величина
y= 0+1x+,
де 0, 1 - правильні параметри параметри всієї генеральної сукупності; - випадкова величина.
Проводячи спостереження протягом певного часу, наприклад 3 роки, ми отримаємо множину, яка складається з декількох вибірок (36-ти, якщо спостереження проводилися кожен місяць), тобто за методом МНК можна знайти не одну пару значень b0 та b1. Постає питання, як за заначеннями b0 та b1 зробити висновки про параметри всієї сукупності і чи можна зробити якісь висновки? Щоб відповісти на ці запитання, розглянемо спочатку основні припущення простої лінійної регресії, що лежать в основі МНК.
Класична модель лінійної регресії: основні припущення,
що лежать в основі МНК
Оскільки за узагальненою моделлю
y= 0+1x+
то зробити статистичні висновки про уі неможлово без певних припущень щодо випадкової величини та незалежної змінної.
Припущення 1. Математичне сподівання випадкової величини дорівнює нулеві
E(i /xi)=0 (2.65)
Геометрично це припущення зображено на малюнку 1. Математичні сподівання у для кількох змінних х обведені на регресійній прямій. Відстані над і під математичними сподіваннями є випадковими величинами i. Припущення 1 вимагає, щоб математичне сподівання цих відхилень, відносно будь-якого даного х дорівнювало нулеві. Припущення 1 стверджує, що не враховані у моделі фактори, які були віднесені до i не впливають систематично на математичне сподівання у, тобто додатні значення i нейтралізують від’ємні i, тому їх усереднений чи очікуваний вплив на у дорівнює нулю.
Крім того, припущення E(i /xi)=0 передбачає E(yi /xi)= 0+1xi. Отже ці два припущення еквівалентні.
Припущення 2. Відсутність автокореляції між випадковими величинами, тобто коефіцієнт коваріації між випадковими величинами повинен дорівнювати нулеві
cov(i, ))=(E([i -E(i)][j – E(j)])=E(i j)=0, ij (2.66)
Припущення 2 стверджує, що випадкові величини незалежні одна від одної, тобто мають нульову коваріацію. На мал.2.6 зображена наявність додатної кореляції між , а також від`ємної та випадок відсутності кореляції. Це припущення дає змогу розглянути найпростіший випадок, коли вивчається систематичний вплив (якщо він є) xt наyt без врахуванняінших факторів, виражених випадковою величиною Якщо це не так, то залежнісмть складніша і виходить за межі класичної регресії. Якщо випадкові величини t й t-1 мають додатну кореляцію, то yt залежить не тільки від t а й від t-1.
y
+εi{
-εi{
Припущення 3. Гомоскедастичність або однакова дисперсія випадкових величин
var(i/xi)=E[i -E(i)]=E(i 2)=2 (2.67)
Тобто, оскільки дисперсія для кожного хі є константою (тобто умовна дисперсія i), то умовна дисперсія розподілу у також є сталою величиною.
var(уi/xi)= 2
Якщо дисперсія для хі не є константою, то постає питання, які з розподілів залежних змінних у вибирати для опису реальної ситуації - наближені до своїх математичних сподівань, чи з великим розкидом.
Припущення 4. Незалежність (нульова коваріація) між xi та. i.
cov(i,xi)=E(i -E(i))(xi-E(xi))=
= E(i (xi-E(xi)= оскільки E(i )=0
= E(i xi)- E(xi)E(i) = оскільки E(xi)=const
= E(i xi) =0. за припущенням
Припущення 4 передбачає відсутність кореляції між випадковою величиною і незалежною змінною х, бо інакше важко простежити вплив х на у.
Припущення 4 виконується автоматично, якщо змінна х є невипадковою величиною, або нестохастичною, і зберігається припущення 1, з якого випливає, що cov(i,xi)=E(i -E(i))(xi-E(xi))=0.
Припущення 5. Регресійну модель визначено (специфіковано) правильно. Це припущення нагадує про залежність регресійного аналізу від обраної моделі і застерігає обережно формулювати економетричні моделі, особливо, коли одразу є кілька теорій щодо пояснення економічного явища, анприкад, процентної ставки, попиту на гроші, визначення рівноважної вартості акцій і облігацій тощо.
Припущення 6. Випадкова величина розподілена нормально з математичним сподіванням нуль та сталою дисперсією 2.
N(0, 2)
Це припущення необхідне при побудові інтервалів довіри для параметрів, залежної змінної у та інших характеристик регресійної моделі.
Дані припущення стосуються тільки узагальненої регресійної моделі (УРМ) і не стосуються вибіркової моделі (ВРМ).
Розподіл залежної змінної у
При переході від однієї вибірки до множини вібірок, коли х залишається незмінним, єдиним джерелом зміни у є випадкова величина , тобто у також є випадковою величиною, розподіл якої залежить від припущень для .
Математичне сподівання залежної змінної
Е(уі)=Е(0+1 хі +і) =Е(0+1 хі)+Е(і)= 0+1 хі (2.71)
Друга складова частина дорівнює нулю за Припущенням 1, хі має фіксоване значення, а 0, 1 - параметри узагальненої моделі.
Дисперсія залежної змінної дорівнює дисперсії випадкової величини
var(yi)=D(уі)=Е(уі-Е(уі))2=Е(0+1 хі +і -0+1 хі)2=Е(і)2=2.
Оскільки 0, 1 є константами і хі за властивістю 5 теж є рядом констант, то розподіл у визначається тільки розподілом випадкової величини і також є нормальним.
Закон розподілу параметрів.
Математичне сподівання та дисперсія розподілу параметрів