
- •2.4. Курсове проектування
- •1. Динамічні ряди та їхні властивості
- •Системи економетричних рівнянь для прогнозу, прийняття рішень та імітації
- •Проста вибіркова лінійна регресія
- •Оцінка параметрів лінійної регресії за допомогою методу найменших квадратів
- •Імовірнісний зміст простої регресії Узагальнена регресійна модель
- •1. Математичне сподівання параметра
- •Коефіцієнти кореляції та детермінації
- •Поняття про ступені вільності
- •Простий anova-аналіз. Аніліз дисперсій.
- •1. Класична лінійна багатофакторна модель
- •1.1 Основні припущення у багатофакторному регресійному аналізі
- •1.2.Етапи побудови багатофакторної регресійної моделі
- •1.3 Розрахунок невідомих параметрів багатофакторної регресії за мнк
- •1.3.2 Коефіцієнт множинної кореляції та детермінації
- •1.3.3 Anova–дисперсійний аналіз
- •1.4 Перевірка моделі на адекватність
- •2. Матричний підхід до лінійної багатофакторної регресії
- •2.1 Запис ублрм у матричному вигляді
- •2.2 Припущення класичної лінійної багатофакторної регресії
- •2.3 Оцінювання невідомих параметрів у багатофакторній регресії
- •2.4 Дисперсійно-коваріаційна матриця параметрів регресії
- •2.6 Прогнозування за багатофакторною рекгресійною моделлю
- •1. Мультиколінеарність
- •1.1 Теоретичні наслідки мульттиколінеарності
- •1.2. Практичні наслідки мультиколінеарності
- •1.3 Тестування наявності мультиколінеарності
- •2.5. Індивідуальна робота студентів
- •7 Навчально-методичні матеріали та технічні засоби
- •7.1 Основні джерела інформації
- •7.2 Додаткові джерела інформації
- •Основы системного анализа и проектирования асу: Уч. Пособие Павлов, с.Н . Гриша а.А. И др – к.: Выща шк.; 1991. – 367с.
- •2.12.6. T-тест для оцінки значимості коефіцієнта кореляції
- •7.8 Основні поняття теорії ймовірностей
- •7.8.1 Інтегральна функція розподілу ймовірностей випадкової величини
- •7.8.4. Закон рівномірного розподілу ймовірностей
- •7.8.5. Нормальний закон розподілу
- •7.8.5.1. Вплив параметрів нормального розподілу на форму нормальної кривої
- •7.8.6. Розподіл
- •Графік і таблиця нормального закону розподілу
- •Графік і таблиця f-розподілу Фішера
- •Графік і таблиця t-розподілу Ст’юдента
- •5.3. Автокореляція
- •5.3.1. Природа автокореляції. Основні поняття та означення
- •5.3.2. Тестування автокореляції
- •5.3.3. Оцінка параметрів регресійної моделі при наявності автокореляції
- •5.4. Авторегресивні і дистрибутивно-лагові моделі
- •5.4.1.Природа авторегресивних моделей. Приклади практичного застосування авторегресивних моделей
- •5.4.1.1. Приклади використання лагових моделей в економіці. Роль "часу" або "часового лагу" в економіці
- •5.4.1.2. Причини лагів
- •5.4.2. Оцінка параметрів дистрибутивно-лагових моделей
- •5.4.2.1. Послідовна оцінка дистрибутивно-лагових моделей
- •5.4.2.2. Підхід Койка до дистрибутивно-лагових моделей
- •5.4.3. Перша модифікація моделі Койка: модель адаптивнихочікувань
- •5.4.4. Друга модифікація моделі Койка: модель часткових пристосувань
- •Комбінація моделей адаптивних очікувань і частковихпристосувань
- •Оцінювання параметрів авторегресивних моделей
- •Метод допоміжних змінних
- •Виявлення автокореляції в авторегресивних моделях: h-тест Дарбіна
5.3.3. Оцінка параметрів регресійної моделі при наявності автокореляції
Чи впливає на оцінку параметрів наявність автокореляції? І якщо впливає, то яким чином цього впливу уникнути? Спробуємо відповісти на ці запитання. Для спрощення викладок розглянемо просту лінійну регресійну модель:
. (5.3.1
)
Припустимо, що всі класичні припущення виконуються, крім припущення про незалежність випадкових величин, тобто:
.
Припустимо також, що між випадковими величинами є лінійна залежність:
, (5.3.2)
де
—
коефіцієнт автокореляції;
—
випадкова величина, для якої використовуються
всі класичні припущення методу найменших
квадратів:
. (5.3.3
)
Модель (5.3.3) відома під назвою авторегресивна модель Маркова першого порядку (АR(1)), або авторегресивна лагова модель (авторегресивні лагові моделі детальніше буде розглянуто в наступному параграфі). У такій інтерпретації коефіцієнт автоковаріації ще називається коефіцієнтомавтокореляції першого порядку, або коефіцієнтом автокореляції з лагом 1.
Ми не розглядаємо використання для опису залежності між залишками авторегресивних моделей вищих порядків, бо це суттєво не впливає на подальші викладки.
Отже,
для того, щоб дослідити вплив автокореляції
на оцінку невідомих параметрів,
поверномось до моделі (5.3.1). Розглянемо
для спрощення тільки оцінку параметра
,
яка за методом найменших квадратів
знаходиться за формулою:
Нагадаємо,
що дисперсія параметра
,
при відсутності автокореляції
дорівнює:
.
(5.3.4)
За наявності автокореляції, наприклад типу АR(1), дисперсія параметра змінює своє значення (доведення цього факту ми не наводимо):
. (5.3.5)
Звичайно, якщо = 0, то обидві формули будуть однаковими, але при наявності автокореляції дисперсія параметра відрізнятиметься від значення дисперсії за відсутності автокореляції. Розглянемо, як цей факт буде впливати на оцінки параметрів. Чи залишатимуться у такому разі оцінки параметрів BLUE-оцінками?
На жаль, це не так. Теоретично доведено (доказу ми не наводимо), що при наявності автокореляції оцінки параметрів, залишаючись лінійними та незміщеними, не будуть мати найменшу дисперсію, тобто не будуть ефективними, а значить, і BLUE-оцінками. Якщо це так, то постає інше запитання: чи є ще якийсь метод оцінювання, який в умовах автокореляції дає BLUE-оцінки? Можна показати, що при наявності автокореляції в моде-лях простої лінійної регресії BLUE-оцінкою параметра буде така:
,
(5.3.6)
де А — коригуючий параметр.
Дисперсія параметра знаходиться за формулою
,
де D — коригуючий параметр.
Саме такі оцінки, як для простої лінійної регресії, так і для багатофакторної, дає метод узагальнених найменших квадратів (УНК), який уже було розглянуто в параграфі про гетероскедастичність. Таким чином, за наявності автокореляції перевагу при оцінці невідомих параметрів слід віддати методу узагальнених найменших квадратів, а не методу найменших квадратів.
Якщо все ж таки використовувати метод найменших квадратів в умовах автокореляції, то це призведе до таких наслідків.
Оцінка дисперсії випадкової величини часто переоцінює дійсну дисперсію і, як наслідок, маємо переоцінений коефіцієнт детермінації R2.
Дисперсія параметрів, наприклад vаг( )АR(1), породжує помилки при використанні t- та F-тестів.
Висновки
Одним із припущень класичної лінійної регресії є припущення про незалежність випадкових величин. Якщо це припущення порушується, то наявна серійна кореляція або автокореляція.
Автокореляція може виникати з багатьох причин: по-перше, її викликає інерційність економічних процесів і, як наслідок, залежність між даними в часових рядах; по-друге, некоректно специфіковані моделі, маніпуляції з даними, введення лагових змінних.
При автокореляції небажана оцінка параметрів методом найменших квадратів, бо вона призводить до неефективних оцінок і неможливості застосування t- та F-тестів. Поширеним методом оцінки невідомих параметрів при наявності автокореляції є метод узагальнених найменших квадратів. Тестування автокореляції, як правило, проводиться за d-тестом Дарбіна — Уотсона, хоча є й інші не менш відомі тести.