
- •Параметричний критерій Гольдфельда-Квандта)
- •Узагальнений метод найменших квадратів
- •Метод найменших квадратів в матричному вигляді.
- •Властивості мнк оцінок:незаміщеність.
- •Оцінювання авто регрес моделей: Метод Уоліса
- •6.Інтервальний прогноз для окремого передбачення
- •7 Anova
- •8. Прогноз однофакторної моделі
- •9. Стандартні помилки та довірчі інтервали оцінок параметрів одно факторної моделі.
- •10. Кореляційний аналіз. Матриці r0, r1/
- •11. Скоригований коефіцієнт детермінації за Тейлом та Амемією
- •15. Критерій Дарбіна – Уотсона. Області прийняття dw
- •16. Тестування гетероскедастичності залишків
- •17. Метод Ейткена
- •19. Дисперсійний аналіз. Anova у однофакторный моделі.
- •24 Однокроковим метод (нмнк)
19. Дисперсійний аналіз. Anova у однофакторный моделі.
Регресія буде значимою, якщо сума квадратів регресії відносно середнього буде більшою порівняно з сумою квадратів відхилень відносно ліній регресії RSS > ESS
Нам необхідно перевірити нульову на альтернативну гіпотези Ho:B1=0; Ha:B1 не= 0
Якщо ми не встанов., що B1 не=0 , тобто знаходимо в області прийняття альтернат. Гіпотези, то регресія буде називатися значимою.
Таким чином аг.сума квадр. Відхилення TSS залежн. Змінної Y від її вибірк середн. Значення склад. Із суми квадратів відх., що обумовлюють регресію RSS та суми квадр. Відхилень залишків ESS:
TSS=RSS+ESS
Джерело розсіюв. |
Сума квадратів відхилень |
Кількість ступенів свободи |
Середній квадрат (оцінка дисперсії) |
Регресія |
RSS=
∑( |
1 |
MSR=RSS/1 |
Помилка |
ESS=
∑( |
n-2 |
MSE=ESS/(n-2) |
Заг варіація |
TSS=
∑( |
n-1 |
---- |
MSE – дає оцінку залишку дисп відп. Регресії. S2 – може виступати мірою адекватності підбір. Можелі MSR- середня сума квадратыв выдхил.
20. Для авторегресійних моделей практично неможливе застосування звичайного тесту Дарбіна – Уотсона на основі статистики DW, оскільки у правій частині моделі присутнє лагове значення залежної змінної . Це призводить до того, що навіть при наявності автокореляції залишків значення DW достатньо близьке до 2, що за критерієм Дарбіна – Уотсона рівнозначно відсутності автокореляції. Для тестування автокореляції залишків в авторегресійних моделях Дарбін запропонував власний тест серійної колекції (першого порядку) для великих вибірок на основі наступної h – статистики: ( 22 ) де n – розмір вибірки, D(q) – дисперсія оцінки коефіцієнта при лаговій змінній , - оцінка коефіцієнта автокореляції першого порядку, яка на практиці, зазвичай, обчислюється за наступною залежністю: Алгоритм тесту.
За 1 МНК оцінюється модель (21) .
Обчислюється значення Обчислюється значення DW .
За формулою ( 23 ) обчислюється значення .
За формулою ( 22 ) обчислюється статистика h .
Для прийнятого рівня значимості за статистичними таблицями стандартизованого нормального розподілу визначається критична точка за умови , де - функція Лапласа .
Якщо -автокореляція присутня, якщо - автокореляція відсутня.
21. Коваріаційна матриця оцінок параметрів моделі
Відомо,
що для характеристики випадкових змінних
,
поряд з математичним сподіванням,
застосовуються також дисперсія
і коваріація
(j k).
Істинні (справжні) значення цих параметрів
класичної економетричної моделі
утворюють дисперсійно-коваріаційну
матрицю
Оцінки
коваріаційної матриці
використовуються для знаходження
стандартних помилок та обчислення
довірчих інтервалів оцінок параметрів
.
Вони використовуються й при перевірці
їх статистичної значущості. На головній
діагоналі матриці
містяться оцінки дисперсій
j-ї
оцінки параметрів, що ж до елементів
(j k),
які розміщені поза головною діагоналлю,
то вони є оцінками коваріації між
і
.
Отже,
,
де
— незміщена оцінка дисперсії залишків;
.
22. Мультиколінеарність – це поняття, яке використовується для опису проблеми, коли нестрога лінійна залежність між пояснювальними змінними призводить до отримання ненадійних оцінок регресії. Проте, така залежність зовсім необов’язково дає незадовільні оцінки. Якщо всі інші умови задовільні, тобто якщо кількість спостережень і вибіркові дисперсії пояснювальних змінних великі, а дисперсія випадкого члена – мала, то в результаті можно отримати досить позитивні оцінки.
Ця проблема є звичною для регресії часових рядів, тобто коли значення показників складаються із рядів спостережень протягом визначеного періоду часу. Якщо дві або більше незалежних змінних мають часовий тренд, то між ними буде існувати кореляція, і це може призвести до мультиколінеарності.
Існують різні методи для зменшення мультиколінеарності. Вони діляться на дві категорії: до першої категорії відносяться методи, спрямовані на виконання умов, що забезпечують надійність оцінок регресії; до другої – відносяться використання зовнішньої інформації.
Найбільш поширеним способом виявлення мультиколінеарності є побудова матриці статистики, в якій відображені коефіцієнти кореляції. Незалежні показники, між якими коефіцієнт кореляції перевищує 0,8 або 80%, розглядають на наявність мультиколінеарності.
У випадку виявлення наявності мультиколінеарності існує декілька простих шляхів її усунення. Основними серед них є наступні.
1. Вилучення змінної (або змінних) з моделі.
2. Зміна аналітичної форми економетричної моделі
3. Збільшення спостережень
4. Перетворення статистичних даних.
5. Використання додаткової первинної інформації.
23. Алгоритм Фаррара - Глобера
Найповніше
дослідити мультиколінеарність можна
з допомогою алгоритму Фаррара — Глобера.
Цей алгоритм має три види статистичних
критеріїв, згідно з якими перевіряється
мультиколінеарність всього масиву
незалежних змінних (
-
«хі» — квадрат); кожної незалежної
змінної з рештою змінних (F-критерій);
кожної пари незалежних змінних
(t-критерій).
Опишемо алгоритм Фаррара — Глобера.
Крок
1.
Стандартизація (нормалізація) змінних.
Крок 2. Знаходження кореляційної матриці
(6.3)
Крок 3. Визначення критерію («хі»-квадрат):
(6.4)
Крок 4. Визначення оберненої матриці:
(6.5)
Крок 5. Очислення F-критеріїв:
(6.6)
Коефіцієнт детермінації для кожної змінної
(6.7)
Крок 6. Знаходження частинних коефіцієнтів кореляції:
(6.8)
Крок 7. Обчислення t-критеріїв:
(6.9)