- •4.Просторові дані. Часові ряди. Особливості часових рядів. Кореляційне поле.
- •6. Методи вибору найкращої функції регресії
- •9.Моделі часових рядів. Регресійні моделі з одним рівнянням.
- •11) Порівнянність та однорідність даних. Повнота даних та стійкість.
- •12) Сутність методу найменших квадратів
- •14) Поняття кореляція. Кореляційний момент або коваріація. Коефіцієнт кореляції. Вибірковий кореляційний момент. Стандартна похибка.
- •15) Якісна оцінка коефіцієнтів кореляції за шкалою Чеддока. Розподіл Фішера-Іейтса.
- •16, 14(1)) Поняття кореляції. Оцінка значимості коефіцієнта кореляції з використанням t-критерію Стьюдента.
- •17) Матриця коефіцієнтів парної кореляції. Вибірковий коефіцієнт множинної кореляції та коефіцієнт детермінації. Вибірковий частинний коефіцієнт кореляції.
- •18) Проблема мультиколінеарності. Застосування алгоритму Фаррера-Глобера.
- •19) Індекс кореляції. Методика розрахунку кореляційного відношення.
- •20) Побудова економетричної моделі на основі покрокової регресії.
- •21 «Істинне» рівняння регресії. Парна регресія. Систематична та випадкова складові.
- •22.Умови Гаусса-Маркова.
- •23. Властивості оцінок параметрів регресійного рівняння: незміщеність, обґрунтованість, ефективність та інваріантність.
- •24. Оцінки найменших квадратів. Верифікація моделі. Стандартна похибка рівняння. Оцінений коефіцієнт детермінації.
- •26 Множинна регресія. Специфікація багатофакторної моделі. Помилки специфікації множинної регресії.
- •27 Мультиколінеарність. Практичні наслідки мультиколінеарності та методи її усунення.
- •28 Оцінка якості моделі множинної регресії. Перевірка виконання передумов мнк. Перевірка гіпотези про нормальний розподіл залишків регресії
- •29Етапи побудови економетричної моделі
- •31 Нелінійна регресія відносно пояснюючих змінних. Нелінійна регресія по параметрам, що оцінюються. Внутрішньо лінійна та нелінійна функції.
- •31 Нелінійна регресія відносно пояснюючих змінних. Нелінійна регресія по параметрам, що оцінюються. Внутрішньо лінійна та нелінійна функції.
- •32. Особливості параметризації нелінійної регресії. Вибір аналітичної форми дослідження.
- •33. Фіктивні змінні. Ілюстрація використання фіктивної змінної. Множинні сукупності фіктивних змінних.
- •34. Оцінка якості моделі. Дослідження відповідності моделі емпіричним даним. Оцінка точності моделі.
- •35. Поняття гомоскедастичності та гетероскедастичності залишків. Наслідки порушень припущення про гомоскедастичність.
- •36. Методи виявлення гетероскедастичності. Тест Голдфельда-Квандта. Тест рангової кореляції Спірмена.
- •37. Методи виявлення гетероскедастичності. Перевірка гетероскедастичності на основі критерію . Тест Глейсера
- •38. Трансформування початкової моделі з гетероскедастичністю.
- •39. Зважений метод найменших квадратів.
- •40. Оцінювання параметрів регресії за допомогою узагальненого методу найменших квадратів (методу Ейткена).
- •41. Поняття автокореляції. Автокореляція залишків. Лагові затримки.
- •42. Природа автокореляції та її наслідки. Методи усунення автокореляції.
- •43. Тестування наявності автокореляції. Критерій Дарбіна-Уотсона. Критерій фон Неймана.
- •44. Коефіцієнти автокореляції та їх застосування. Автокореляційна функція та корелограма.
- •45. Оцінка параметрів моделі з автокорельованими залишками. Метод Ейткена.
- •46. Оцінка параметрів моделі з автокорельованими залишками. Метод Кочрена-Оркатта.
- •47. Прогноз на основі моделі з автокорельованими залишками.
- •48. Узагальнені економетричні моделі.
- •49. Поняття лагу і лагових змінних.
- •50. Дистрибутивно-лагові моделі. Авторегресійні моделі.
- •51. Моделі розподіленого лагу. Узагальнена модель розподіленого лагу.
- •52. Оцінка параметрів лагових моделей. Метод послідовного збільшення кількості лагів.
- •53. Перетворення Койка (метод геометричної прогресії).
- •54. Модель адаптивних сподівань. Модель часткового коригування.
- •55. Оцінювання параметрів методом Ейткена.
- •56. Динамічний та часовий ряди. Систематичні та випадкові компоненти часового ряду. Стаціонарність часового ряду.
- •57. Фільтрація компонент часового ряду. Ts, ds, тренд-сезонні, нелінійні часові ряди.
- •58. Дослідження автокореляційної функції часового ряду.
- •59. Методи фільтрації сезонної компоненти
- •60. Прогнозування тенденції часового ряду за механічними методами
- •62.Метод декомпозиції часового ряду. Розрахунок сезонної хвилі.
- •65. Ідентифікованість моделі. Необхідна та достатня умови ідентифікованості системи.
- •66. Непрямий метод найменших квадратів.
- •67. Двокроковий та трикроковий методи найменших квадратів.
- •68. Прогноз ендогенних змінних і загальні довірчі інтервали.
27 Мультиколінеарність. Практичні наслідки мультиколінеарності та методи її усунення.
Мультиколінеарність - лінійні зв’язкі між незалежними змінними моделі.
Суть мульт. полягає в тому, що в багатофакторній регресійній моделі дві або більше незалежних змінних пов’язані між собою лінійною залежністю або, іншими словами, мають високий ступінь кореляції:
Практичні наслідки мульт.:
-мульт.незалежних змінних (факторів) призводить до зміщення оцінок параметрів моделі, які розраховуються за МНК. На основі цих оцінок неможливо зробити конкретні висновки про результати взаємозв’язку між показником і факторами;
-збільшення дисперсії та коваріації оцінок параметрів, обчислених за методом найменших квадратів;
-збільшення довірчого інтервалу (оскільки збільшується середній квадрат відхилення параметрів);
-незначущість t-статистик.
Для визначення мультиколінеарності здебільшого застосовують такі тести:
F-тecт, запропонований Глобером і Фарраром ;характеристичні значення та умовний індекс.
методи усунення мульт.:
-використання додаткової або первинної інформації;
-об’єднання інформації;
-відкидання змінної з високою кореляцією;
-перетворення даних (використання перших різниць);
-збільшення кількості спостережень.
28 Оцінка якості моделі множинної регресії. Перевірка виконання передумов мнк. Перевірка гіпотези про нормальний розподіл залишків регресії
Якість моделі регресії перевіряється на основі аналізу залишків регресії . Аналіз залишків дозволяє отримати уявлення про те, наскільки добре підібрана модель і наскільки правильно вибраний метод оцінки коефіцієнтів. Згідно загальним припущенням регресійного аналізу, залишки повинні вести себе як незалежні однаково розподілені випадкові величини. Дослідження доцільно починати з вивчення графіку залишків. Він може показати наявність якої-небудь залежності, що не врахована в моделі. Графік добре показує і викиди, яких потрібно позбавлятися.
Якість моделі оцінюється за наступними напрямками (аналогічно до парної регресії):
-перевірка якості рівняння регресії (індекс кореляції та коефіцієнт детермінації);
-перевірка значимості рівняння регресії (критерій Фішера);
-аналіз статистичної значущості параметрів моделі (t-критерій);
перевірка виконання передумов МНК.
Умови, що необхідні для отримання незміщених, спроможних та ефективних оцінок, представляють собою передумови МНК. Виконання умови рівності нулеві математичного очікування залишків забезпечується завжди при використанні МНК для лінійних моделей. Передумова про нормальний розподіл залишків дозволяє проводити перевірку параметрів регресії за допомогою критеріїв t та F. разом з тим оцінки регресії, отримані методом МНК, мають добрі властивості навіть при відсутності нормального розподілу залишків. Таким чином, найважливішими є виконання умови незалежності та умови гомоскедастичності.
Гипотезу о нормальности изучаемого распределения назы-вают основной гипотезой. Ее проверяют непосредственно по наблюдениям (выборке), используя так называемые критерии согласия. В их основе лежит сравнение некоторых генеральных параметров предполагаемого теоретического распределения и их оценок, полученных по данным выборки.
В качестве оцениваемых параметров удобнее всего брать асимметрию (2.11) и эксцесс (2.12) нормального распределения
, Э = .
В случае нормального распределения , следо-вательно, асимметрия и эксцесс кривой Гаусса равны нулю. Со-ответствующие выборочные коэффициенты асимметрии и эксцесса равны:
где mk - центральный момент выборки порядка к (см. § 2.1) :
(2.88)
Здесь fi - частоты, с которыми появляются значения хі в n независимых испытаниях. Центральные моменты mk выборки удобно вычислять через начальные nk c помощью формул (2.13).
Выборочные асимметрия и эксцесс, как и все выборочные параметры, являются случайными величинами и поэтому даже для нормального распределения могут отличаться от нуля. Распределения выборочных асимметрии и эксцесса очень сложны и мало изучены.
Фишер рекомендует некоторую модификацию оценок асимметрии А и эксцесса Э, а именно:
, .
При небольших объемах выборок они заметно отличаются от выборочных асимметрии и эксцесса. Оказывается, что в случае нормального распределения оценки и имеют с большой степенью точности нормальные выборочные распределения, причем математическое ожидание каждого из них равно нулю, а дисперсии определяются выражениями:
,
Таким образом, задача заключается в ответе на вопрос : значимо ли оценки и (2.89) отличаются от своих математических ожиданий, т. е. от нуля?