- •1. Ancova - модель з однією кількісною та однією якісною змінною, яка має дві альтернативи.
- •2. Ancova - модель з однією кількісною та однією якісною змінною, яка має три альтернативи.
- •3. Авторегресійні моделі. Модель адаптивних очікувань.
- •4. Авторегресійні моделі. Модель часткових пристосувань.
- •5. Визначення коефіцієнта детермінації для багатофакторної лінійної регресії, оцінка його статистичної значущості.
- •6. Визначення коефіцієнта детермінації для парної лінійної регресії.
- •7. Використання Dummy-змінних у сезонному аналізі.
- •8. Виявлення автокореляції за допомогою графічного методу, методу рядів.
- •9. Виявлення гетероскедастичності (графічний аналіз залишків, тест рангової кореляції Спірмена).
- •Визначається коефіцієнт рангової кореляції: (1)
- •10. Дайте означення дисперсії вв.
- •11. Дайте означення закону розподілу дискретної вв. Яким чином можна його задати?
- •12. Дайте означення коваріації.
- •13. Дайте означення середнього квадратичного відхилення вв.
- •14. Дайте означення та перелічите основні властивості математичного сподівання вв.
- •15. Дайте означення функції розподілу вв.
- •16. Дайте означення функції щільності ймовірності неперервної вв.
- •17. Зв’язок між коефіцієнтом кореляції та коефіцієнтом детермінації.
- •18. Зв’язок між коефіцієнтом кореляції та кутовим коефіцієнтом b1.
- •19. Методи пом’якшення гетероскедастичності.
- •20. Методи усунення автокореляції. Авторегресійне перетворення.
- •21. Методи усунення мультиколінеарності.
- •22. Моделі ancova
- •23. Моделі anova.
- •24. Наведіть формули для розрахунків коефіцієнтів емпіричного парного лінійного рівняння регресії за мнк.
- •25. Нелінійні моделі та їх лінеаризація. Приклади використання в економіці.
- •26. Об'єкт, предмет та мета економетрії. Основне завдання економетричних досліджень.
- •27. Опишіть процес перевірки адекватності моделі за f-критерієм Фішера.
- •28. Опишіть процес перевірки статистичної значущості коефіцієнта кореляції за допомогою t-теста Стьюдента
- •29. Оцінка дисперсії залишків та дисперсій коефіцієнтів парної регресії.
- •30. Оцінка моделей з лаговими змінними. Метод послідовного збільшення кількості лагів.
- •31. Оцінка моделей з лаговими змінними. Перетворення Койка.
- •32. Оцінка параметрів лінійного рівняння багатофакторної регресії за допомогою мнк.
- •33. Оцінка параметрів парної лінійної регресії за допомогою мнк.
- •34. Перевірка статистичної значущості коефіцієнтів b0 та b1 лінійної регресії за допомогою t-теста Стьюдента.
- •35. Передумови мнк, теорема Гаусса -Маркова.
- •36. Поняття гетероскедастичності та її наслідки.
- •37. Поняття мультиколінеарності та її наслідки.
- •38. Порівняння двох регресійних моделей. Тест Чоу.
- •39. Природа Dummy-змінних.
- •40. Прогнозування за моделлю парної лінійної регресії.
- •41. Суть, причини та наслідки автокореляції.
- •42. Сформулюйте означення багатофакторної лінійної регресії.
- •43. Сформулюйте означення парної лінійної регресії.
- •44. Сформулюйте означення та наведіть формули для розрахунків ssr, sse, sst. Ступені вільності величин ssr, sse, sst.
- •45. Сформулюйте означення функції регресії.
- •46. Теоретичне, емпіричне рівняння багатофакторної регресії.
- •47. Теоретичне, емпіричне рівняння парної лінійної регресії.
- •48. Тестування наявності автокореляції залишків за критерієм Дарбіна-Уотсона.
- •49. Тестування наявності мультиколінеарності. Алгоритм Фаррара-Глобера.
- •50. У чому суть методу найменших квадратів (мнк)?
- •51. Часові ряди. Лагові змінні в економічних моделях.
- •52. Що таке випадкова величина (вв)? Які види вв Вам відомі? Наведіть приклади дискретних та неперервних вв з економіки.
- •53. Що таке генеральна сукупність, вибірка?
- •54. Як визначається і для чого використовується коефіцієнт кореляції?
- •55. Як визначаються інтервали довіри для параметрів , теоретичної лінійної регресії?
- •56. Як за результатами вибірки визначаються: вибіркове середнє, вибіркова дисперсія, вибіркове середнє квадратичне відхилення?
- •57. Як за результатами вибірки визначаються: вибіркові коефіцієнти коваріації та кореляції?
35. Передумови мнк, теорема Гаусса -Маркова.
Можна
показати, що властивості оцінок
коефіцієнтів регресії
(
),
а також і якість побудованої регресії
істотно залежать від властивостей
випадкового відхилення (
).
Доведено, що для одержання за МНК
найкращих результатів необхідно, щоб
виконувався ряд передумов щодо випадкового
відхилення.
Передумови МНК (умови Гаусса – Маркова):
1°.
Математичне
сподівання випадкового відхилення
дорівнює нулю:
для
всіх спостережень.
2°.
Дисперсія
випадкових відхилень
постійна:
для
будь-яких спостережень
і
.
Здійсненність даної передумови називається гомоскедастичністю, нездійсненність – гетероскедастичністю.
3°.
Випадкові
відхилення
і
є
незалежними
(
):
(3)
У випадку, якщо дана умова виконується, то говорять про відсутність автокореляції.
4°. Випадкове відхилення незалежне від пояснюючих змінних:
(4)
5°. Модель є лінійною щодо параметрів.
Теорема Гаусса-Маркова. Якщо передумови 1° – 5° виконані, то оцінки, отримані за МНК, мають наступні властивості:
1.
Оцінки є незміщеними,
тобто
,
.
2.
Оцінки спроможні
(обґрунтовані), тобто дисперсія оцінок
параметрів при зростанні числа
спостережень прагне до нуля:
,
.
3.
Оцінки ефективні,
тобто вони мають найменшу дисперсію в
порівнянні з будь-якими іншими оцінками
даних параметрів, лінійними щодо величин
.
В англомовній літературі такі оцінки називаються BLUE – найкращі лінійні незміщені оцінки. Якщо передумови 2° і 3° порушені, то властивості незміщеності і спроможності зберігаються, а властивість ефективності – ні.
36. Поняття гетероскедастичності та її наслідки.
Однією з таких передумов МНК є умова сталості дисперсій випадкових відхилень :
для
будь-яких спостережень
і
.
Якщо дана передумова виконується, то має місце гомоскедастичністъ (сталість дисперсії відхилень). Невиконання даної передумови називається гетероскедастичністю (дисперсія відхилень не є сталою). Наведемо приклади гомо- і гетероскедастичності на рис. 1, 2 .
Рис. 1 Гомоскедастичність Рис. 2 Гетероскедастичність
37. Поняття мультиколінеарності та її наслідки.
Мультиколінеарність означає існування тісної лінійної залежності, або сильної кореляції, між двома чи більше пояснюючими змінними.
Наслідки мультиколінеарності:
великі дисперсії (стандартні помилки) оцінок теоретичних параметрів;
зменшуються t - статистики коефіцієнтів, що може привести до невірного висновку про вплив відповідної пояснюючої змінної на залежну змінну;
оцінки теоретичних параметрів і їхні стандартні помилки стають дуже чуттєвими до найменшої зміни даних, тобто вони стають нестійкими;
можливе одержання невірного знака коефіцієнта регресії.
38. Порівняння двох регресійних моделей. Тест Чоу.
