Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Метод_заочн-25-10-13

.pdf
Скачиваний:
88
Добавлен:
12.02.2016
Размер:
476.63 Кб
Скачать

n

( уі уˆі )2 – сума квадратів помилок, яка позначається через SSЕ;

i 1 n

( уˆі

 

у

і

)2 – сума квадратів, що пояснює регресію та позначається через SSR.

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

n

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(уі

 

у

)2

 

 

(уі уˆі )2

 

(уˆі

 

у

)2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

i 1

 

 

 

i 1

 

 

 

 

 

 

 

,

 

(3.12)

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

n

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( у і

у

) 2

– загальна дисперсія, яку позначимо заг2 ;

 

 

 

 

 

 

 

 

де

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( уі

уˆі )2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

– дисперсія помилок, яку позначимо пом ;

 

 

 

 

 

 

 

 

 

n

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( уˆі

 

у

)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

– дисперсія,

яку

прийнято

називати

 

дисперсією, що

пояснює

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

регресію, позначимо її через регр2 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

заг2

= пом2

+ регр2

 

.

 

 

 

 

 

 

 

 

 

 

4. Коефіцієнт детермінації:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

R

2

 

( yˆ i

 

y

) 2

 

або

R

2

r

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( y i

 

y

) 2

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

5. Розрахунок F-критерію Фішера:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

F(1,n 2)

 

 

( yˆi

y)2 /1

 

або

 

F

 

 

R2

 

 

m 1

 

 

 

 

 

 

 

 

 

 

( yi

 

yˆi )2

/(n 2)

 

1 R2

 

n m

 

 

де (1, n 2) ступені вільності.

6. Фактичне значення t-критерію Ст’юдента для оцінки коефіцієнтів регресії:

t

b

 

i

(з n k ступенями вільності),

 

 

ˆbi

 

де bi оцінка дисперсії параметра bi, розраховується за формулами:

41

 

 

 

 

2

 

1

 

 

 

 

 

 

n

 

 

 

 

 

b1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(xi

x )2

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

xi2

 

 

 

 

2

 

 

i 1

 

 

 

 

 

n

 

 

 

 

 

b0

 

 

 

 

 

 

 

 

 

 

 

 

 

n ( xi

x )2

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

n

 

 

 

 

 

 

 

 

де 2

 

ei2

;

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

n k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

к кількість оцінених параметрів (у разі простої регресії к=2);

nрозмір вибірки.

7.Фактичне значення t-критерію Ст’юдента для оцінки коефіцієнта кореляції:

rn 2 t

1 r2 .

8. Середня помилка апроксимації:

 

 

1

 

y yˆx

100.

A

n

y

 

 

 

 

9. Побудова інтервалів прогнозу за лінійним рівнянням регресії

yˆxk t myˆx ,

де

m S

1

 

(xk

 

x

)2

 

 

 

 

 

 

 

 

 

 

 

yˆx

n (x x)

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

10. Частинний коефіцієнт кореляції:

 

 

 

 

c*

 

 

ryj.12...( j 1)(

j 1)...(

j 1)( j 1)... m

 

 

ij

 

,

 

 

 

 

 

 

 

 

 

 

cii*c*jj

де С* – зворотна матриця до матриці R (матриця емпіричних парних коефіцієнтів кореляції між усілякими парами Х1, Х2,…Хm).

11. Алгоритм Фаррара — Глобера:

Крок 1. Стандартизація (нормалізація) змінних.

Позначимо вектори незалежних змінних економетричної моделі через x1,x2,x3...xm .

42

Елементи стандартизованих векторів обчислимо за формулою:

 

 

 

 

 

 

 

 

 

 

 

x*

 

xik

 

x

k

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ik

 

 

 

 

n x2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

 

 

 

 

де n — число спостережень i

 

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1,n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m — число пояснювальних змінних, k

 

 

;

 

 

 

 

 

 

 

 

 

1,m

 

 

 

 

 

 

 

 

 

 

x

k

— середнє арифметичне k-ї пояснювальної змінної;

 

2xk

— дисперсія k-ї пояснювальної змінної.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Крок 2. Знаходження кореляційної матриці

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r X * X*,

 

 

 

 

 

 

 

 

де

 

 

X* — матриця стандартизованих

 

 

незалежних (пояснювальних) змінних, X*

матриця, транспонована до матриці X* .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Крок 3. Визначення критерію 2 («хі»-квадрат):

 

 

 

 

 

 

 

 

2

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n 1

 

2m 5 ln

 

r

 

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

де

 

r

 

 

— визначник кореляційної матриці r.

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Значення цього критерію

 

порівнюється з

табличним при

m m 1 ступенях

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

свободи і рівні значущості . Якщо факт2

2табл,

то в масиві пояснювальних змінних існує

мультиколінеарність.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Крок 4. Визначення оберненої матриці:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

C r

1

X

 

1

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

* X

 

 

 

 

 

 

 

Крок 5. Обчислення F-критеріїв:

n m Fk ckk 1 m 1,

де ckk — діагональні елементи матриці C. Фактичні значення критеріїв порівнюються з табличними при n – m і m – 1 ступенях свободи і рівні значущості . Якщо Fkфакт > Fтабл, то відповідна k-та незалежна змінна мультиколінеарна з іншими.

Коефіцієнт детермінації для кожної змінної

R2 1 1 .

xk

ckk

 

Крок 6. Знаходження частинних коефіцієнтів кореляції:

43

r

 

ckj

 

,

 

 

 

kj

ckk cjj

 

 

де ckj — елемент матриці C, що міститься в k-му рядку і j-му стовпці; ckk i cjj — діагональні елементи матриці C.

Крок 7. Обчислення t-критеріїв:

tkj

rkj

n m

.

 

 

 

1 r2

 

 

 

 

kj

12. Алгоритм методу головних компонентів: Крок 1. Нормалізація всіх пояснювальних змінних:

xij*

xij xj

,

i

 

; j

 

.

1,n

1,m

 

 

xj

 

 

 

 

 

Крок 2. Обчислення кореляційної матриці

r1 X * X * . n

Крок 3. Знаходження характеристичних чисел матриці r з рівняння

r E 0, k 1,m,

де E — одинична матриця розміром m m.

Крок 4. Власні значення k упорядковуються за абсолютним рівнем вкладу кожного головного компонента до загальної дисперсії.

Крок 5. Обчислення власних векторів ak розв’язуванням системи рівнянь

r E a 0

за таких умов:

0( j k), aj ak

1( j k).

Крок 6. Знаходження головних компонентів — векторів

zk x ak , k 1,m.

Головні компоненти мають задовольняти умови:

44

n

zk,i 0, i 1,n;

i 1

1

n zk zk k , k 1,m;

zj zk 0, j 1,m, j k.

Крок 7. Визначення параметрів моделі Yˆ Zbˆ:

bˆ Z 1Y.

Крок 8. Знаходження параметрів моделі Yˆ X ˆ :

ˆ a bˆ.

13. Коефіцієнт рангової кореляції Спірмана:

 

 

n

 

 

 

 

 

 

 

di

 

 

 

rs

1 6

i 1

 

 

 

,

 

2

 

 

 

n(n

 

1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

де di різниця між рангами еi і хi, i = 1, 2, …, n, які приписуються двом характеристикам i-го об'єкта;

n кількість об'єктів, що ранжуються.

14. Критерій Парка включає наступні етапи:

1.Будується рівняння регресії уі = b0 + b1 xi + ei.

2.Для кожного спостереження визначаються ln ei2 ln( yi yˆi )2 .

3.Будується регресія

ln i2 ln xi i .

де α = lnσ2.

4. Перевіряється статистична значимість коефіцієнта β рівняння на основі t- статистики.

15. Тест Голдфелда-Квандта полягає в наступному:

1). Ранжуються спостереження змінної X у порядку зростання або убування.

2). Задається величина С кількість центральних спостережень за незалежними змінними X, які ми будемо виключати з подальшого аналізу. Оптимальною кількістю центральних спостережень є приблизно четверта частина всіх спостережень. Залишок (n C) спостережень ділиться на дві підвибірки однакові за розміром, одна з яких включає маленькі значення х, інша більші.

3). Оцінюються окремі регресії для кожної підвибірки, розраховуються суми

45

квадратів відхилень із ((n C /2 k) ступенями волі (k загальна кількість оцінюваних параметрів у моделі).

Якщо припущення про пропорційність дисперсій відхилень значенням X вірно, то дисперсія регресії за першою підвибіркою (сума квадратів відхилень) буде істотно менше дисперсії регресії за другою підвибіркою.

4). Для порівняння відповідних дисперсій будується наступне F-відношення:

F

e22

/ (n c) / 2 k

e22

 

 

 

 

 

e12

,

(5.7)

e12

/ (n c) / 2 k

де e12 сума квадратів підвибірки з малими значеннями х,

e22 відхилення від підвибірки з більшими значеннями х.

16.Метод зважених найменших квадратів (ЗНК)

Застосовується при відомих для кожного спостереження значеннях i2 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

уі = β0 + β1хi + εі.

Розділимо обидві частини на відоме i

 

 

 

 

:

 

 

 

 

i2

 

 

 

 

 

 

 

 

 

 

 

yi

 

 

 

1

 

 

 

 

xi

 

i

.

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

i

 

 

 

0

i

 

 

i

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Поклавши

yi

y

*

,

xi

x

*

,

 

i

i ,

 

 

 

1

z

 

, одержимо рівняння регресії без

 

i

 

i

i

 

 

 

 

 

 

 

 

 

 

 

i

 

i

 

 

 

 

 

 

 

i

 

 

 

i

 

 

 

 

вільного члена, але з додатковою пояснюючою змінною Z і з «перетвореним» відхиленням v:

yi* 0zi 1x1* vi

17. Виявлення мультиколінеарності методом рядів: п – обсяг вибірки;

п1 – загальна кількість знаків «+» при п спостереженнях (кількість позитивних відхилень et);

п2 – загальна кількість знаків «-» при п спостереженнях (кількість негативних відхилень et);

k – кількість рядів.

При досить великій кількості спостережень (п1 > 10, n2 > 10) і відсутності автокореляції ВВ k має асимптотично нормальний розподіл з

46

M (k)

2n1n2

1;

n1 n2

 

 

D(k) 2n1n2 (2n1n2 n1 n2 ). (n1 n2 )2 (n1 n2 1)

Тоді, якщо M(k) – еa/2D(k) < k < M(k) + еa/2D(k), то гіпотеза про відсутність автокореляції не відхиляється.

18. Критерій Дарбіна-Уотсона.

Виявлення автокореляції першого порядку:

T

(et et 1 )2

DW t 2 T

et2

t 1

Для авторегресійних h-статистика Дарбіна визначається за формулою:

 

1

 

n

h 1

 

DW

 

2

1 n var(g)

 

 

ЛІТЕРАТУРА

1.Корольов О.А. Економетрія: Навч. посіб. – К.: Київ. нац. торг.- екон. ун-т, 2000. – 660 с.

2.Назаренко О.М. Основи економетрики: Підручник. – Київ: “Центр навчальної літератури”, 2004. – 392 с.

3.Орлов А.И. Эконометрика: Учебник для вузов. – М.: Изд-во «Экзамен», 2003. – 576 с.

4.Тихомиров Н.П., Дорохина Е.Ю. Эконометрика: Учебник. – М.: Изд-во

«Экзамен», 2003. – 512 с.

5.Эконометрика: Учебник/ Под ред. И.И. Елисеевой. – М.: Финансы и статистика, 2002. – 344 с.: ил.

6.Практикум по эконометрике: Учеб. Пособие / Под. ред. И.И. Елисеева.- М.: Финансы и статистика, 2003. - 292 с.

7.Елисеева И.И., Юзбашев М.М. Общая теория статистики. – 4-е изд., перераб. и доп. – М.: Финансы и статистика, 2003. - 247 с.

8.Грубер Й. Эконометрия: Учебное пособие для студентов экономических специальностей (Т.1: Введение в эконометрию). – К., 1996. - 400 с.

47

9. Доугерти К. Введение в эконометрику: Учебник. 2-е изд./ Пер. с англ. – М.:

ИНФРА – М, 2004. – 432 с.

10. Дрейпер Н., Смит Г. Прикладной регрессионный анализ. Кн. 1,2. - М.: Финансы и статистика, 1986. - 702 с.

11.Клебанова Т.С., Дубровина Н.А.,Милов А.В., Полякова О.Ю., Раевнева Е.В. Эконометрия на персональном компьютере. Учебное пособие – Харьков: Изд.

ХГЭУ, 2002. – 208 с.

12.Лук’яненко І.Г., Краснікова Л.І. Економетрика: Підручник. – К.: Товариство

“Знання”, КОО, 1998. – 494 с.

13.Лугінін О.Є., Білоусова С.В., Білоусов О.М. Економетрія: Навч. посібник. – К.: Центр навч. літератури, 2005. – 252 с.

14.Магнус Я.Р., Катышев П.К., Пересецкий А.А. Эконометрика. Начальный курс: Учеб. – 6-е изд., перераб. и доп. – М.: Дело, 2004. – 576 с.

15.Наконечний С.І., Терещенко Т.О., Романюк Т.П. Економетрія: Підручник. – Вид. 2-ге, допов. та перероб. – К.:КНЕУ, 2000. – 296с.

16.Наконечний С. І., Терещенко Т. О., Водзянова Н К., Роскач О. С. Економетрія. – К.: Ріц Алкон, 1997.

17.Науменко В.І. Впровадження методів прогнозування і планування в умовах ринкової економіки. – К.: Генеза. – 2001. – 256с.

18.Терехов Л.Л. Производственные функции. М.:Статистика, 1984. –100 с.

19.Толбатов Ю.А. Економетрика в Ехсеl. – К., 1997.

20.Уотшем Т. Дж., Паррамоу К. Количественные методы в финансах: Учебное пособие для вузов/ Пер. с англ. под ред. М.Р.Ефимовой. – М.: Финансы, ЮНИТИ, 1999. – 527 с.

21.Эконометрика: Учебник / Под. ред. И.И. Елисеева.- М.: Финансы и статистика, 2003. – 344 с.

22.Эконометрика: Учеб. Пособие / С.А. Бородич. – Мн.: Новое знание, 2001. – 408 с.

23.Филипенко О.М. Конспект лекцій з дисципліни “Економетрія” підготовки бакалавра з напряму 0306 “Менеджмент і адміністрування”. - Харків: ХІНЕМ. – 2005. – 57 с.

24.Филипенко О.М. Практикум з дисципліни “Економетрія” підготовки бакалавра з напряму 0306 “Менеджмент і адміністрування”. - Харків: ХІНЕМ. – 2006. – 59 с.

48