
- •1.Поняття моделі й моделювання
- •1.Спостереження за економічним процесом і їх словесний опис – пасивний метод, оскільки спостерігач жодним чином не впливає на хід процесу. Результати спостереження і є словесною моделлю процесу.
- •3. Етапи та принципи побудови емм
- •4. Класифікація емм
- •5. Основні поняття та приклади задач лп.
- •6. Форми запису задач лп
- •8.Симплекс метод
- •12Математична постановка і умова розв’язності т-задач
- •13.Побудова опорних планів транспортної задачі
- •15.Постановка задачі нлп
- •16.Графічний метод задач нлп
- •17.Задачі дробово-лінійного програмування
- •18.Задача нлп без обмежень і з обмеженнями-рівняннями. Метод множників Лагранжа.
- •21.Типи залежностей між ек змінними:
- •23.Вибіркові кореляційні характеристики
- •24.Основні передумови мнк у випадку парної лінійної регресії. Теорема Гауса-Маркова
- •25.Стандартні помилки регресії та коефіцієнтів регресії у випадку парного кореляційно регресійного зв’язку
- •26.Перевірка гіпотез відносно коефіцієнтів регресії та кореляції для парного лінійного кореляційно-регресійного зв’язку
- •27.Інтервальні оцінки параметрів та лінії регресії
- •28.Перевірка загальної якості рівняння регресії
- •29.Формалізація лінійної моделі множинної регресії
- •31.Основні передумови Мнк
- •32.Кількісні оцінки множинного кореляційного зв'язку
- •33.Перевірка значущості коефіцієнтів регресії , детермінації і кореляції у випадку лінійної множиної регресії
- •34.Значущість моделі у цілому
- •35. Інтервальні оцінки параметрів та функції регресії
- •36.Сутність та наслідки гетероскедастичності
- •37. Сутність та наслідки автокореляції
- •38. Сутність та наслідки мультиколінеарності
- •40. Сезоні фіктивні зміні
27.Інтервальні оцінки параметрів та лінії регресії
yi=α+βx+εi
недоліком точкових оцінок є те, що навіть тоді, коли ці оцінки є найкращими, точність наближення залишається невідомою. Тому виникає необхідність знаходити інтервальні оцінки параметрів. Інтервальна оцінка полягає в тому,що за результатами вибірки за допомогою певних методів будують інтервал, який з наперед заданою ймовірністю містить невідоме значення параметра. Цей інтервал називається довірчим, а ті межі, в яких знаходиться невідоме значення – довірчими, ймовірність – довірчою.
28.Перевірка загальної якості рівняння регресії
Коефіцієнт детермінації показує, яка частка варіації залежної змінної зумовлена варіацією пояснюючої (незалежної) змінної. 0≤R2≤1.Наближення R2 до одиниці означає, що емпіричні дані все ближче прилягають до лінії регресії, тобто лінія регресії все точніше апроксимує емпіричні дані. Якщо R2 =1 то точки хі та уі лежать на лінії регресії, тобто між X і У існує лінійний функціональний зв'язок. При R2 =0 варіація залежної змінної повністю зумовлена залишковою варіацією (варіацією не врахованих у моделі змінних) і лінія регресії паралельна осі абсцис (g (xi) = У для всіх спостережень).
Отже, коефіцієнт детерміїїації R2 також показує, наскільки побудована модель вибіркової лінії регресії дає точніший результат для пояснення поведінки залежної змінної У у порівнянні з її середньою величиною У, тобто лінією, паралельною осі абсцис.
29.Формалізація лінійної моделі множинної регресії
У більшості випадків економічні показники залежать не від одного, а від багатьох сукупно діючих факторів. Тоді ми маємо справу із задачами множинної регресії, оскільки вивчається вплив пояснюючих факторів (регресорів) X1, Х2,...,Хm на залежну (пояснювальну) змінну У. Теоретичне рівняння лінійного кореляційно-регресійного зв'язку змінної У з X1, Х2, ... , Хm формалізується так:
У = g(Х1,Х2,...,Хm) + ε = α +β1Х1+β2Х2+... +BmХm+ε,
де а,β1,..., βm - невідомі параметри регресії, а ε - випадкове відхилення. Якщо переписати для кожного з n індивідуальних спостережень, то матимемо таку систему співвідношень
уi = α + β1х1i +... +Bmхmi + εi, і =1,n
Як і у випадку парної регресії, основною задачею множинного регресійного аналізу є оцінка параметрів регресії, тобто заміна системи на систему
yi = а + b1x1i+Ь2х2і+... + Ьmхmi+δі, і = 1,n,
a,b1,bm-оцінки теоретичних параметрів регресій α1,β1
δі-оцінка εі
Оцінювання параметрів моделей множиної регресії за допомогою МНК .
31.Основні передумови Мнк
До основних передумов МНК належать такі припущення:
1) У моделі Yi=α+βx+εi, хі- це детермінована величина, а уі і εі-випадкові величини
2) Математичне сподівання випадкового відхилення М(εі)=0, і=1,n
3) Дисперсія кожного випадкового відхилення є постійною і однаковою D(εі)=σ2
4) Відхилення Еі та Еж є некорельованими М(Еі, Еж)=0,іне=ж
5) Відхилення Еі є нормально розподіленою випадковою величиною.
При виконанні припущень 1-5 модель називається класичною нормальною лінійною регресійною моделлю.
Теорема Гауса-Маркова:Якщо для регресійної моделі виконується припущення 1-5, то оцінка а та b що отримані за допомогою МНК є:
1) Точковими незміщеними оцінками М(а)= α, М(b)=β
2) Точковими обґрунтованими оцінками limD(a)=0 limD(b)=0, де n –обсяг вибірки
3) Точковими ефективними оцінками, тобто мають найменшу дисперсію у класі всіх лінійних незміщених оцінок.