
- •4.Просторові дані. Часові ряди. Особливості часових рядів. Кореляційне поле.
- •6. Методи вибору найкращої функції регресії
- •9.Моделі часових рядів. Регресійні моделі з одним рівнянням.
- •11) Порівнянність та однорідність даних. Повнота даних та стійкість.
- •12) Сутність методу найменших квадратів
- •14) Поняття кореляція. Кореляційний момент або коваріація. Коефіцієнт кореляції. Вибірковий кореляційний момент. Стандартна похибка.
- •15) Якісна оцінка коефіцієнтів кореляції за шкалою Чеддока. Розподіл Фішера-Іейтса.
- •16, 14(1)) Поняття кореляції. Оцінка значимості коефіцієнта кореляції з використанням t-критерію Стьюдента.
- •17) Матриця коефіцієнтів парної кореляції. Вибірковий коефіцієнт множинної кореляції та коефіцієнт детермінації. Вибірковий частинний коефіцієнт кореляції.
- •18) Проблема мультиколінеарності. Застосування алгоритму Фаррера-Глобера.
- •19) Індекс кореляції. Методика розрахунку кореляційного відношення.
- •20) Побудова економетричної моделі на основі покрокової регресії.
- •21 «Істинне» рівняння регресії. Парна регресія. Систематична та випадкова складові.
- •22.Умови Гаусса-Маркова.
- •23. Властивості оцінок параметрів регресійного рівняння: незміщеність, обґрунтованість, ефективність та інваріантність.
- •24. Оцінки найменших квадратів. Верифікація моделі. Стандартна похибка рівняння. Оцінений коефіцієнт детермінації.
- •26 Множинна регресія. Специфікація багатофакторної моделі. Помилки специфікації множинної регресії.
- •27 Мультиколінеарність. Практичні наслідки мультиколінеарності та методи її усунення.
- •28 Оцінка якості моделі множинної регресії. Перевірка виконання передумов мнк. Перевірка гіпотези про нормальний розподіл залишків регресії
- •29Етапи побудови економетричної моделі
- •31 Нелінійна регресія відносно пояснюючих змінних. Нелінійна регресія по параметрам, що оцінюються. Внутрішньо лінійна та нелінійна функції.
- •31 Нелінійна регресія відносно пояснюючих змінних. Нелінійна регресія по параметрам, що оцінюються. Внутрішньо лінійна та нелінійна функції.
- •32. Особливості параметризації нелінійної регресії. Вибір аналітичної форми дослідження.
- •33. Фіктивні змінні. Ілюстрація використання фіктивної змінної. Множинні сукупності фіктивних змінних.
- •34. Оцінка якості моделі. Дослідження відповідності моделі емпіричним даним. Оцінка точності моделі.
- •35. Поняття гомоскедастичності та гетероскедастичності залишків. Наслідки порушень припущення про гомоскедастичність.
- •36. Методи виявлення гетероскедастичності. Тест Голдфельда-Квандта. Тест рангової кореляції Спірмена.
- •37. Методи виявлення гетероскедастичності. Перевірка гетероскедастичності на основі критерію . Тест Глейсера
- •38. Трансформування початкової моделі з гетероскедастичністю.
- •39. Зважений метод найменших квадратів.
- •40. Оцінювання параметрів регресії за допомогою узагальненого методу найменших квадратів (методу Ейткена).
- •41. Поняття автокореляції. Автокореляція залишків. Лагові затримки.
- •42. Природа автокореляції та її наслідки. Методи усунення автокореляції.
- •43. Тестування наявності автокореляції. Критерій Дарбіна-Уотсона. Критерій фон Неймана.
- •44. Коефіцієнти автокореляції та їх застосування. Автокореляційна функція та корелограма.
- •45. Оцінка параметрів моделі з автокорельованими залишками. Метод Ейткена.
- •46. Оцінка параметрів моделі з автокорельованими залишками. Метод Кочрена-Оркатта.
- •47. Прогноз на основі моделі з автокорельованими залишками.
- •48. Узагальнені економетричні моделі.
- •49. Поняття лагу і лагових змінних.
- •50. Дистрибутивно-лагові моделі. Авторегресійні моделі.
- •51. Моделі розподіленого лагу. Узагальнена модель розподіленого лагу.
- •52. Оцінка параметрів лагових моделей. Метод послідовного збільшення кількості лагів.
- •53. Перетворення Койка (метод геометричної прогресії).
- •54. Модель адаптивних сподівань. Модель часткового коригування.
- •55. Оцінювання параметрів методом Ейткена.
- •56. Динамічний та часовий ряди. Систематичні та випадкові компоненти часового ряду. Стаціонарність часового ряду.
- •57. Фільтрація компонент часового ряду. Ts, ds, тренд-сезонні, нелінійні часові ряди.
- •58. Дослідження автокореляційної функції часового ряду.
- •59. Методи фільтрації сезонної компоненти
- •60. Прогнозування тенденції часового ряду за механічними методами
- •62.Метод декомпозиції часового ряду. Розрахунок сезонної хвилі.
- •65. Ідентифікованість моделі. Необхідна та достатня умови ідентифікованості системи.
- •66. Непрямий метод найменших квадратів.
- •67. Двокроковий та трикроковий методи найменших квадратів.
- •68. Прогноз ендогенних змінних і загальні довірчі інтервали.
21 «Істинне» рівняння регресії. Парна регресія. Систематична та випадкова складові.
Нехай
маємо набір значень двох змінних
–
пояснювальна змінна та
–
пояснююча змінна, кожна з яких містить
n
спостережень. Нехай між ними теоретично
існує деяка лінійна залежність
Це рівняння будемо називати «істинним» рівнянням регресії.
Враховуючи
можливі відхилення лінійне рівняння
зв’язку двох змінних (парну регресію)
представимо у вигляді
де
–
постійна величина (або вільний член
рівняння);
–
коефіцієнт регресії, що визначає нахил
лінії. вздовж якої розсіяні
дані_спостереження;
–
випадкова змінна (випадкова
складова, залишок або збурення).
У
векторно-матричній формі, співвідношення
буде мати такий вигляд:
.
Випадкова
складова відображає той факт, що зміна
буденеточно описуватися зміною
,
оскільки присутні інші фактори,
невраховані в даній моделі. Таким чином
в рівнянні
,значеннякожного
спостереження
представлено як сума двох частин –систематичної
та випадкової
.
В свою чергу систематичну частину можна
представити у вигляді рівняння
.
22.Умови Гаусса-Маркова.
Для того, щоб регресійний аналіз, що базується на звичайному методі найменших квадратів (МНК) давав найкращі із всіх можливі результати, необхідно щоб виконувалися певні умови, які називаються умовами Гаусса-Маркова, а саме:
1.Математичне_сподівання
випадкових відхилень
повинно дорівнювати нулеві
(незміщеність оцінок):
Умова
вимагає, щоб випадкові відхилення в
середньому не впливали на залежну змінну
Y,
тобто в кожному конкретному спостереженні
відхилення
може набувати додатні або від’ємні
значення, але не повинно спостерігатися
систематичне зміщення відхилень в
переважній більшості в бік одного знаку.
Із_врахуванням вищесказаного, будемо мати:
2.
Дисперсія випадкових відхилень
повинна_бути_сталою_величиною
,
,.
Ця вимога передбачає, що не зважаючи на те, що при кожному конкретному_спостереженні випадкове відхилення може виявитися відносно великим чи малим, це не повинно складати основу для апріорної причини, тобто причини, що не базується на досвіді, що спонукала б велику похибку. Моделі, для яких виконується ця умованазивають гомоскедастичними (рівнозмінними). Моделі, для яких не виконується умова називають гетероскедастичними.
3.
Випадкові відхилення
та
,
повинні бути незалежними одне від
одного.
Виконання цієї умови припускає, що між будь-якими випадковими відхиленнями_відсутній систематичний зв’язок, тобто величина та знак будь-якого випадкового відхилення не буде являтися причиною величини та знаку будь-якого іншого випадкового відхилення. Цю умову можна записати так
(3.8)
Тут
є математичний запис коваріаційного
(кореляційного) моменту.
4.Випадковий
вектор відхилень
повинен бути незалежним від регресорів
матриці
.
Умова
виконується
автоматично, коли пояснюючі змінні
не є стохастичними величинами в заданій
моделі.
бо
,
а
(
не є випадковою величиною).
Незалежні
змінні не повинні бути мультиколінеарними,
тобто
.
деXk –k-й
вектор матриці пояснювальних змінних;
Xj –
j-й
вектор цієї матриці пояснювальних
змінних X,
.