Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Метод_МСА_КП.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
6.64 Mб
Скачать
      1. Метод допоміжних змінних

Причина неможливості застосування методу найменших квадратів домоделі Койка або моделі адаптивних очікувань полягає в тому, що пояснювальна змінна корелюється з помилкою . Якщо якимось чином усунути цю кореляцію, то можна застосувати метод найменших квадратів, щоб отримати консистентні оцінки, як було зазначено вище (зауваження: оцінки можуть бути зміщеними в малих вибірках). Як цього досягти?

Припустимо, що ми знайшли "замінник" для , який сильно корелює з , але не корелює з , де — це помилка, яка з'являється в моделі Койка або в моделі адаптивних очікувань. Такий замінник має назву допоміжної змінної. Розглянемо як допоміжну змінну для , а потім припустимо, що параметри регресії (5.4.28) можна отримати, розв'язавши таку систему нормальних рівнянь:

;

; (5.4.31)

.

При цьому є оцінками дійсних параметрів . Зауважимо, що якби ми застосували метод найменших квадратів прямо до (5.4.28), система рівнянь звичайного методу найменших квадратів мала б такий вигляд:

; (5.4.32)

;

.

Різниця між цими двома системами рівнянь повинна бути очевидною. Теоретично було показано, що , обчислені з (5.4.31), консистентні, в той час як обчислення за (5.4.32) може й не дати консистентних оцінок. Це трапляється тому, що і [= або ] можуть корелюватися, а хі і не корелюються з . (Спробуйте це показати самостійно.)

Хоча метод допоміжних змінних легко застосовувати, як тільки знайдено придатний замінник, але може виникнути проблема мультиколінеарності, тому що і , які входять до системи нормальних рівнянь (5.4.31), можуть бути високо корельованими (часові ряди звичайно мають високу кореляцію між послідовними значеннями). Таким чином, хоча цей метод дозволяє отримати консистентні оцінки, вони можуть виявитися неефективними.

Перед тим як просуватися далі, маємо відповісти на запитання: яким чином можна знайти "добрий" замінник для який би високо корелювався з , але не корелювався з ? В літературі можна знайти декілька відповідей, їх ми розглянемо пізніше. Треба зазначити, що не завжди легко знайти добрі замінники, тому метод допоміжних змінних має малу область застосування на практиці і потрібно звертатися до методів оцінки з максимальною вірогідністю, що виходить за рамки цієї книги.

      1. Виявлення автокореляції в авторегресивних моделях: h-тест Дарбіна

Як ми вже бачили, в авторегресивних моделях є імовірність того, що випадкові величини можуть бути корельовані. Це спричинює певні проблеми при оцінюванні: у моделі часткових пристосувань випадкова величина не має серійної кореляції (першого порядку), якщо в початковій моделі були некорельовані, тоді як у моделях Койка і адаптивних очікувань були корельовані, навіть якщо були незалежні. Таким чином, постає запитання: як виявити кореляцію в помилці авторегресивної моделі?

Вище зазначалось: d-тест Дарбіна — Уотсона не можна використовувати для визначення серійної кореляції (першого порядку) в авторегресивних моделях, тому що обчислене значення d в таких моделях звичайно наближається до 2, що очікується лише у справді випадкових послідовностях. Іншими словами, якщо ми ретельно обчислимо значення d для цих моделей, то з'явиться закладена помилка, яка не дозволить виявити серійну кореляцію (першого порядку). Нещодавно Дарбін запропонував власний тест серійної кореляції (першого порядку) в авторегресивній моделі для великих вибірок. Цей тест називається h-тестом і має такий вигляд:

, (5.4.33)

де N — розмір вибірки; vаг(а2) — дисперсія оцінки параметра , при ; — оцінка коефіцієнта серійної кореляції (першого порядку) . Для великих вибірок Дарбін показав, що коли =0, h розподілено за стандартним нормальним законом (тобто нормальний розподіл, де математичне сподівання дорівнює нулеві, а дисперсія — одиниці). Звідси випливає, що статистичну значимість спостережуваного h можно легко визначити з таблиці нормального стандартного розподілу.

На практиці, звичайно, не потрібно обчислювати , тому що його можна приблизно обчислювати через оцінене значення d таким чином:

, (5.4.34)

де d — значення звичайного тесту Дарбіна — Уотсона.

Таким чином, (5.4.33) можна переписати у вигляді:

. (5.4.35)

Застосування h-тесту можна розбити на такі кроки.

  1. Оцінити (5.4.28) за методом найменших квадратів.

  2. Обчислити vаг(а2).

  3. Обчислити , як зазначено в (5.4.34).

  4. Обчислити h з (5.4.33) або (5.4.35).

  5. Припустивши, що N— велике, можна впевнитись, що

h-N(0,1), (5.4.36)

тобто h розподілене за нормальним законом з математичним сподіванням, що дорівнює нулеві, та дисперсією одиниця. Із закону нормального розподілу відомо, що

Рг [-1.96 <= h <= 1.96] = 0.95, (5.4.37)

тобто h лежить між -1.96 і +1.96 з імовірністю 95%.

Отже, розв'язок виглядає таким чином:

а) якщо h > 1.96, то відкинути нуль-гіпотезу про те, що немає позитивної автокореляції першого порядку;

Ь) якщо h < -1.96, то також відкинути нуль-гіпотезу про те, що немає негативної автокореляції першого порядку;

с) якщо h знаходиться між -1.96 та 1.96, то не відкидати нуль-гіпотезу про те, що немає автокореляції першого порядку (позитивної чи негативної).

Щоб проілюструвати це, припустимо, що у вибірці, яка нараховує 100 спостережень, встановлено, що d=1.9 і vаг(а2) = 0.005 . Тоді

.

Оскільки обчислене значенння h лежить у межах (5.4.37), ми не можемо з 5%-ним рівнем довіри відкинути гіпотезу про те, що немає позитивної автокореляції.

Особливості h-тесту

  1. Немає значення, скільки змінних х або скільки попередніх значень y включено до регресійної моделі. Щоб обчислити значення h, потрібно розглянути лише дисперсію коефіцієнта попереднього значення .

  2. Тест не можна застосовувати, якщо перевищує 1. (Спробуйте показати це самостійно.) Однак на практиці цього, звичайно, не трапляється.

  3. Оскільки тест розрахований на великі вибірки, застосування його до малих вибірок не є строго обґрунтованим. Властивості тесту для малих вибірок ще не повністю встановлені.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]