Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
zaochniki_Yekonometrika.doc
Скачиваний:
4
Добавлен:
07.05.2019
Размер:
964.1 Кб
Скачать

Тема: Загальна лінійна економетрична модель

1. Множинна лінійна регресія

Рівняння множинної регресії – це рівняння такого вигляду, яке виражає лінійною залежністю умовне математичне сподівання регресанта y від декількох факторів xі

М = f(x1, x2……. xm), Y= f (A;Х)+ ,

де Х – матриця незалежних змінних, включає в себе змінні значення x1, x2.,.., xm,

А – вектор невідомих параметрів моделі,

–випадковий (стохастичний) фактор.

Теоретично рівняння множинної лінійної регресії (РМЛР) записується в розгорнутому вигляді таким чином:

Y = а0 + а1 x1 + а2x2 + … + аmxm + .

В цьому рівнянні кожен коефіцієнт aj – це частинний коефіцієнт регресії, який характеризує чутливість величини у до зміни фактора хj – вплив збільшення значення змінної xj (на одну одиницю) на зміну умовного математичного сподівання Y (в певних одиницях вимірювання), коли всі інші змінні фактори вважаються сталими.

Частинні коефіцієнти еластичності: характеризують вплив окремих факторів: на скільки % зміниться регресант Y, якщо значення одного із факторів Хj збільшиться на 1% за незмінності інших факторів.

Кількість спостережень n має бути m+1 , а число r = n-(m+1) називається кількістю ступенів свободи.

2. Передумови застосування метода найменших квадратів

умови Гаусса-Маркова

1). Математичне сподівання випадкових відхилень дорівнює нулю. М( )=0

2). Наявність гомоскедастичності: дисперсія відхилень випадкових складових є сталою величиною

D = = const

3). Відсутність автокореляції: випадкове відхилення і є незалежними один від одного

4). Випадкові відхилення є незалежними від факторів xj.

5). Відсутність мультиколінеарності: між самими пояснюючими змінними факторами xj. відсутня строга лінійна залежність.

6). Самі випадкові відхилення мають нормальний закон розподілу.

Якщо всі ці умови виконуються, то розраховується емпіричне рівняння регресії:

Ŷр = â0 + â1 х1+ â2 х2+ … + âm хm+ û,

де оцінки âi – наближені значення теоретичних параметрів моделі (ці оцінки повинні бути ефективними, спроможними та незміщеними).

3. Дисперсійний і регресійний аналіз моделей

Y

Ŷр

û = y -yp

û 2

0

Дисперсія залишків De =

Дисперсія змінної Dу = , = (фіксація F4)

Коефіцієнт детермінації R2=1- =

знаходиться для перевірки якості рівняння регресії і визначає характер лінійного впливу зміни значень факторів моделі на змінну Y , тобто на скільки відсотків рівняння регресії пояснює поведінку залежної змінної Y: R2 є (0;1).

Крім того, показник R2 може виявитися в ході розрахунків відємним :

  • неякісна лінійна модель (звязок в моделі є нелінійним) ;

  • коефіцієнт моделі а0 є дуже і дуже малим;

  • малий обсяг статистичних даних.

Коефіцієнт кореляції R =√ R2 характеризує тісноту лінійного зв’язку :

чим тіснішим є лінійний звязок між Х і Y, тим ближче R 1,

чим слабшим є лінійний звязок між Х і Y ,тим ближче R 0.

Крім того, якщо R>0, то характер зміни Х і Y однаковий ,

якщо R<0, то характер зміни Х і Y протилежний.

Але фактори Х і Y можуть мати часовий тренд, не повязаний із причинно-наслідковою залежністю, наприклад, показник ВВП, рівень доходу і споживання, коли показник R може 1, а лінійний звязок може бути відсутнім.

Коваріаційна матриця Var  = De· т Х)-1

Стандартні похибки оцінок параметрів моделі дорівнюють квадратному кореню з елементів головної діагоналі коваріаційної матриці S â1 =√|| Var Â||11

Інтервальні оцінки для оцінок параметрів моделі зі ймовірністю р = 1- α містять теоретичні параметри модепі a1 є 1 - tα;( n-m ) ·S â1 ; â1 + tα;( n-m )·S â1 )

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]