Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
EMM_1.doc
Скачиваний:
12
Добавлен:
13.11.2019
Размер:
157.18 Кб
Скачать

27.Інтервальні оцінки параметрів та лінії регресії

yi=α+βx+εi

недоліком точкових оцінок є те, що навіть тоді, коли ці оцінки є найкращими, точність наближення залишається невідомою. Тому виникає необхідність знаходити інтервальні оцінки параметрів. Інтервальна оцінка полягає в тому,що за результатами вибірки за допомогою певних методів будують інтервал, який з наперед заданою ймовірністю містить невідоме значення параметра. Цей інтервал називається довірчим, а ті межі, в яких знаходиться невідоме значення – довірчими, ймовірність – довірчою.

28.Перевірка загальної якості рівняння регресії

Коефіцієнт детермінації показує, яка частка варіації залежної змінної зумовлена варіацією пояснюючої (незалежної) змінної. 0≤R2≤1.Наближення R2 до одиниці означає, що емпіричні дані все ближче прилягають до лінії регресії, тобто лінія регресії все точніше апроксимує емпіричні дані. Якщо R2 =1 то точки хі та уі лежать на лінії регресії, тобто між X і У існує лінійний функціональний зв'язок. При R2 =0 варіація залежної змінної повністю зумовлена залишковою варіацією (варіацією не врахованих у моделі змінних) і лінія регресії паралельна осі абсцис (g (xi) = У для всіх спостережень).

Отже, коефіцієнт детерміїїації R2 також показує, наскільки побудована модель вибіркової лінії регресії дає точніший результат для пояснення поведінки залежної змінної У у порівнянні з її середньою величиною У, тобто лінією, паралельною осі абсцис.

29.Формалізація лінійної моделі множинної регресії

У більшості випадків економічні показники залежать не від одного, а від багатьох сукупно діючих факторів. Тоді ми маємо справу із задачами множинної регресії, оскільки вивчається вплив пояснюючих факторів (регресорів) X1, Х2,...,Хm на залежну (пояснювальну) змінну У. Теоретичне рівняння лінійного кореляційно-регресійного зв'язку змінної У з X1, Х2, ... , Хm формалізується так:

У = g(Х1,Х2,...,Хm) + ε = α +β1Х1+β2Х2+... +BmХm+ε,

де а,β1,..., βm - невідомі параметри регресії, а ε - випадкове відхилення. Якщо переписати для кожного з n індивідуальних спостережень, то матимемо таку систему співвідношень

уi = α + β1х1i +... +Bmхmi + εi, і =1,n

Як і у випадку парної регресії, основною задачею множинного регресійного аналізу є оцінка параметрів регресії, тобто заміна системи на систему

yi = а + b1x1i+Ь2х2і+... + Ьmхmi+δі, і = 1,n,

a,b1,bm-оцінки теоретичних параметрів регресій α1,β1

δі-оцінка εі

Оцінювання параметрів моделей множиної регресії за допомогою МНК .

31.Основні передумови Мнк

До основних передумов МНК належать такі припущення:

1) У моделі Yi=α+βx+εi, хі- це детермінована величина, а уі і εі-випадкові величини

2) Математичне сподівання випадкового відхилення М(εі)=0, і=1,n

3) Дисперсія кожного випадкового відхилення є постійною і однаковою D(εі)=σ2

4) Відхилення Еі та Еж є некорельованими М(Еі, Еж)=0,іне=ж

5) Відхилення Еі є нормально розподіленою випадковою величиною.

При виконанні припущень 1-5 модель називається класичною нормальною лінійною регресійною моделлю.

Теорема Гауса-Маркова:Якщо для регресійної моделі виконується припущення 1-5, то оцінка а та b що отримані за допомогою МНК є:

1) Точковими незміщеними оцінками М(а)= α, М(b)=β

2) Точковими обґрунтованими оцінками limD(a)=0 limD(b)=0, де n –обсяг вибірки

3) Точковими ефективними оцінками, тобто мають найменшу дисперсію у класі всіх лінійних незміщених оцінок.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]