- •4.Просторові дані. Часові ряди. Особливості часових рядів. Кореляційне поле.
- •6. Методи вибору найкращої функції регресії
- •9.Моделі часових рядів. Регресійні моделі з одним рівнянням.
- •11) Порівнянність та однорідність даних. Повнота даних та стійкість.
- •12) Сутність методу найменших квадратів
- •14) Поняття кореляція. Кореляційний момент або коваріація. Коефіцієнт кореляції. Вибірковий кореляційний момент. Стандартна похибка.
- •15) Якісна оцінка коефіцієнтів кореляції за шкалою Чеддока. Розподіл Фішера-Іейтса.
- •16, 14(1)) Поняття кореляції. Оцінка значимості коефіцієнта кореляції з використанням t-критерію Стьюдента.
- •17) Матриця коефіцієнтів парної кореляції. Вибірковий коефіцієнт множинної кореляції та коефіцієнт детермінації. Вибірковий частинний коефіцієнт кореляції.
- •18) Проблема мультиколінеарності. Застосування алгоритму Фаррера-Глобера.
- •19) Індекс кореляції. Методика розрахунку кореляційного відношення.
- •20) Побудова економетричної моделі на основі покрокової регресії.
- •21 «Істинне» рівняння регресії. Парна регресія. Систематична та випадкова складові.
- •22.Умови Гаусса-Маркова.
- •23. Властивості оцінок параметрів регресійного рівняння: незміщеність, обґрунтованість, ефективність та інваріантність.
- •24. Оцінки найменших квадратів. Верифікація моделі. Стандартна похибка рівняння. Оцінений коефіцієнт детермінації.
- •26 Множинна регресія. Специфікація багатофакторної моделі. Помилки специфікації множинної регресії.
- •27 Мультиколінеарність. Практичні наслідки мультиколінеарності та методи її усунення.
- •28 Оцінка якості моделі множинної регресії. Перевірка виконання передумов мнк. Перевірка гіпотези про нормальний розподіл залишків регресії
- •29Етапи побудови економетричної моделі
- •31 Нелінійна регресія відносно пояснюючих змінних. Нелінійна регресія по параметрам, що оцінюються. Внутрішньо лінійна та нелінійна функції.
- •31 Нелінійна регресія відносно пояснюючих змінних. Нелінійна регресія по параметрам, що оцінюються. Внутрішньо лінійна та нелінійна функції.
- •32. Особливості параметризації нелінійної регресії. Вибір аналітичної форми дослідження.
- •33. Фіктивні змінні. Ілюстрація використання фіктивної змінної. Множинні сукупності фіктивних змінних.
- •34. Оцінка якості моделі. Дослідження відповідності моделі емпіричним даним. Оцінка точності моделі.
- •35. Поняття гомоскедастичності та гетероскедастичності залишків. Наслідки порушень припущення про гомоскедастичність.
- •36. Методи виявлення гетероскедастичності. Тест Голдфельда-Квандта. Тест рангової кореляції Спірмена.
- •37. Методи виявлення гетероскедастичності. Перевірка гетероскедастичності на основі критерію . Тест Глейсера
- •38. Трансформування початкової моделі з гетероскедастичністю.
- •39. Зважений метод найменших квадратів.
- •40. Оцінювання параметрів регресії за допомогою узагальненого методу найменших квадратів (методу Ейткена).
- •41. Поняття автокореляції. Автокореляція залишків. Лагові затримки.
- •42. Природа автокореляції та її наслідки. Методи усунення автокореляції.
- •43. Тестування наявності автокореляції. Критерій Дарбіна-Уотсона. Критерій фон Неймана.
- •44. Коефіцієнти автокореляції та їх застосування. Автокореляційна функція та корелограма.
- •45. Оцінка параметрів моделі з автокорельованими залишками. Метод Ейткена.
- •46. Оцінка параметрів моделі з автокорельованими залишками. Метод Кочрена-Оркатта.
- •47. Прогноз на основі моделі з автокорельованими залишками.
- •48. Узагальнені економетричні моделі.
- •49. Поняття лагу і лагових змінних.
- •50. Дистрибутивно-лагові моделі. Авторегресійні моделі.
- •51. Моделі розподіленого лагу. Узагальнена модель розподіленого лагу.
- •52. Оцінка параметрів лагових моделей. Метод послідовного збільшення кількості лагів.
- •53. Перетворення Койка (метод геометричної прогресії).
- •54. Модель адаптивних сподівань. Модель часткового коригування.
- •55. Оцінювання параметрів методом Ейткена.
- •56. Динамічний та часовий ряди. Систематичні та випадкові компоненти часового ряду. Стаціонарність часового ряду.
- •57. Фільтрація компонент часового ряду. Ts, ds, тренд-сезонні, нелінійні часові ряди.
- •58. Дослідження автокореляційної функції часового ряду.
- •59. Методи фільтрації сезонної компоненти
- •60. Прогнозування тенденції часового ряду за механічними методами
- •62.Метод декомпозиції часового ряду. Розрахунок сезонної хвилі.
- •65. Ідентифікованість моделі. Необхідна та достатня умови ідентифікованості системи.
- •66. Непрямий метод найменших квадратів.
- •67. Двокроковий та трикроковий методи найменших квадратів.
- •68. Прогноз ендогенних змінних і загальні довірчі інтервали.
21 «Істинне» рівняння регресії. Парна регресія. Систематична та випадкова складові.
Нехай маємо набір значень двох змінних – пояснювальна змінна та – пояснююча змінна, кожна з яких містить n спостережень. Нехай між ними теоретично існує деяка лінійна залежність
Це рівняння будемо називати «істинним» рівнянням регресії.
Враховуючи можливі відхилення лінійне рівняння зв’язку двох змінних (парну регресію) представимо у вигляді де – постійна величина (або вільний член рівняння); – коефіцієнт регресії, що визначає нахил лінії. вздовж якої розсіяні дані_спостереження; – випадкова змінна (випадкова
складова, залишок або збурення).
У векторно-матричній формі, співвідношення буде мати такий вигляд:
.
Випадкова складова відображає той факт, що зміна буденеточно описуватися зміною , оскільки присутні інші фактори, невраховані в даній моделі. Таким чином в рівнянні ,значеннякожного спостереження представлено як сума двох частин –систематичної та випадкової . В свою чергу систематичну частину можна представити у вигляді рівняння
.
22.Умови Гаусса-Маркова.
Для того, щоб регресійний аналіз, що базується на звичайному методі найменших квадратів (МНК) давав найкращі із всіх можливі результати, необхідно щоб виконувалися певні умови, які називаються умовами Гаусса-Маркова, а саме:
1.Математичне_сподівання випадкових відхилень повинно дорівнювати нулеві (незміщеність оцінок):
Умова вимагає, щоб випадкові відхилення в середньому не впливали на залежну змінну Y, тобто в кожному конкретному спостереженні відхилення може набувати додатні або від’ємні значення, але не повинно спостерігатися систематичне зміщення відхилень в переважній більшості в бік одного знаку.
Із_врахуванням вищесказаного, будемо мати:
2. Дисперсія випадкових відхилень повинна_бути_сталою_величиною ,
,.
Ця вимога передбачає, що не зважаючи на те, що при кожному конкретному_спостереженні випадкове відхилення може виявитися відносно великим чи малим, це не повинно складати основу для апріорної причини, тобто причини, що не базується на досвіді, що спонукала б велику похибку. Моделі, для яких виконується ця умованазивають гомоскедастичними (рівнозмінними). Моделі, для яких не виконується умова називають гетероскедастичними.
3. Випадкові відхилення та , повинні бути незалежними одне від одного.
Виконання цієї умови припускає, що між будь-якими випадковими відхиленнями_відсутній систематичний зв’язок, тобто величина та знак будь-якого випадкового відхилення не буде являтися причиною величини та знаку будь-якого іншого випадкового відхилення. Цю умову можна записати так
(3.8)
Тут є математичний запис коваріаційного (кореляційного) моменту.
4.Випадковий вектор відхилень повинен бути незалежним від регресорів матриці .
Умова виконується автоматично, коли пояснюючі змінні не є стохастичними величинами в заданій моделі.
бо , а ( не є випадковою величиною).
Незалежні змінні не повинні бути мультиколінеарними, тобто .
деXk –k-й вектор матриці пояснювальних змінних; Xj – j-й вектор цієї матриці пояснювальних змінних X, .