Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

к паре

.docx
Скачиваний:
6
Добавлен:
20.12.2015
Размер:
994.44 Кб
Скачать

Y

Y(x)

ε = Y - Y(x)

ε2

(Y-Yср)2

|ε : Y|

126

154.362

-28.362

804.412

32693.16

0.225

137

102.486

34.514

1191.219

28836.285

0.252

148

159.017

-11.017

121.385

25221.41

0.0744

191

239.099

-48.099

2313.485

13412.535

0.252

274

238.181

35.819

1282.97

1076.66

0.131

370

344.389

25.611

655.943

3992.66

0.0692

432

389.843

42.157

1777.226

15671.91

0.0976

445

415.816

29.184

851.73

19095.785

0.0656

367

414.878

-47.878

2292.328

3622.535

0.13

367

343.248

23.752

564.137

3622.535

0.0647

321

350.247

-29.247

855.415

201.285

0.0911

307

358.308

-51.308

2632.54

0.0352

0.167

331

354.677

-23.677

560.623

585.035

0.0715

345

341.883

3.117

9.714

1458.285

0.00903

364

355.446

8.554

73.163

3270.41

0.0235

384

347.117

36.883

1360.37

5957.91

0.096

0

17346.66

158718.438

1.82

Средняя ошибка аппроксимации Оценка дисперсии равна: se2 = (Y - X*Y(X))T(Y - X*Y(X)) = 17346.66 Несмещенная оценка дисперсии равна: Оценка среднеквадратичного отклонения (стандартная ошибка для оценки Y): Найдем оценку ковариационной матрицы вектора k = S2 • (XTX)-1

1197897.738

10884.245

2062.323

3962.184

-2103.679

-12453.848

10884.245

107.713

18.138

32.676

-0.272

-116.338

2062.323

18.138

9.052

17.437

-12.871

-21.943

3962.184

32.676

17.437

248.968

-165.617

-50.928

-2103.679

-0.272

-12.871

-165.617

207.635

11.755

-12453.848

-116.338

-21.943

-50.928

11.755

132.819

Дисперсии параметров модели определяются соотношением S2i = Kii, т.е. это элементы, лежащие на главной диагонали Показатели тесноты связи факторов с результатом. Если факторные признаки различны по своей сущности и (или) имеют различные единицы измерения, то коэффициенты регрессии bj при разных факторах являются несопоставимыми. Поэтому уравнение регрессии дополняют соизмеримыми показателями тесноты связи фактора с результатом, позволяющими ранжировать факторы по силе влияния на результат. К таким показателям тесноты связи относят: частные коэффициенты эластичности, β–коэффициенты, частные коэффициенты корреляции. Частные коэффициенты эластичности. С целью расширения возможностей содержательного анализа модели регрессии используются частные коэффициенты эластичности, которые определяются по формуле: Частный коэффициент эластичности показывает, насколько процентов в среднем изменяется признак-результат у с увеличением признака-фактора хj на 1% от своего среднего уровня при фиксированном положении других факторов модели. Частный коэффициент эластичности |E1| < 1. Следовательно, его влияние на результативный признак Y незначительно. Частный коэффициент эластичности |E2| < 1. Следовательно, его влияние на результативный признак Y незначительно. Частный коэффициент эластичности |E3| < 1. Следовательно, его влияние на результативный признак Y незначительно. Частный коэффициент эластичности |E4| < 1. Следовательно, его влияние на результативный признак Y незначительно. Частные коэффициент эластичности |E5| > 1. Следовательно, он существенно влияет на результативный признак Y. Стандартизированные частные коэффициенты регрессии. Стандартизированные частные коэффициенты регрессии - β-коэффициенты (βj) показывают, на какую часть своего среднего квадратического отклонения S(у) изменится признак-результат y с изменением соответствующего фактора хj на величину своего среднего квадратического отклонения (Sхj) при неизменном влиянии прочих факторов (входящих в уравнение). По максимальному βj можно судить, какой фактор сильнее влияет на результат Y. По коэффициентам эластичности и β-коэффициентам могут быть сделаны противоположные выводы. Причины этого: а) вариация одного фактора очень велика; б) разнонаправленное воздействие факторов на результат. Коэффициент βj может также интерпретироваться как показатель прямого (непосредственного) влияния j-ого фактора (xj) на результат (y). Во множественной регрессии j-ый фактор оказывает не только прямое, но и косвенное (опосредованное) влияние на результат (т.е. влияние через другие факторы модели). Косвенное влияние измеряется величиной: ∑βirxj,xi, где m - число факторов в модели. Полное влияние j-ого фактора на результат равное сумме прямого и косвенного влияний измеряет коэффициент линейной парной корреляции данного фактора и результата - rxj,y. Так для нашего примера непосредственное влияние фактора x1 на результат Y в уравнении регрессии измеряется βj и составляет -0.621; косвенное (опосредованное) влияние данного фактора на результат определяется как: rx1x2β2 = 0.106 * 0.319 = 0.03392 Сравнительная оценка влияния анализируемых факторов на результативный признак. 5. Сравнительная оценка влияния анализируемых факторов на результативный признак производится: - средним коэффициентом эластичности, показывающим на сколько процентов среднем по совокупности изменится результат y от своей средней величины при изменении фактора xi на 1% от своего среднего значения; - β–коэффициенты, показывающие, что, если величина фактора изменится на одно среднеквадратическое отклонение Sxi, то значение результативного признака изменится в среднем на β своего среднеквадратического отклонения; - долю каждого фактора в общей вариации результативного признака определяют коэффициенты раздельной детерминации (отдельного определения): d2i = ryxiβi. d21 = 0.68 • (-0.621) = -0.42 d22 = 0.65 • 0.319 = 0.21 d23 = 0.23 • (-0.0675) = -0.0157 d24 = 0.23 • 0.136 = 0.0307 d25 = 0.82 • 1.337 = 1.09 При этом должно выполняться равенство: ∑d2i = R2 = 0.89 Множественный коэффициент корреляции (Индекс множественной корреляции). Тесноту совместного влияния факторов на результат оценивает индекс множественной корреляции. В отличии от парного коэффициента корреляции, который может принимать отрицательные значения, он принимает значения от 0 до 1. Поэтому R не может быть использован для интерпретации направления связи. Чем плотнее фактические значения yi располагаются относительно линии регрессии, тем меньше остаточная дисперсия и, следовательно, больше величина Ry(x1,...,xm). Таким образом, при значении R близком к 1, уравнение регрессии лучше описывает фактические данные и факторы сильнее влияют на результат. При значении R близком к 0 уравнение регрессии плохо описывает фактические данные и факторы оказывают слабое воздействие на результат. Коэффициент множественной корреляции определить через матрицу парных коэффициентов корреляции: где Δr - определитель матрицы парных коэффициентов корреляции; Δr11 - определитель матрицы межфакторной корреляции.

1

0.68

0.65

0.23

0.23

0.82

0.68

1

0.11

0.17

-0.051

0.96

0.65

0.11

1

-0.00335

0.2

0.27

0.23

0.17

-0.00335

1

0.7

0.24

0.23

-0.051

0.2

0.7

1

0.031

0.82

0.96

0.27

0.24

0.031

1

Δr = 0.00193

1

0.11

0.17

-0.051

0.96

0

0.11

1

-0.00335

0.2

0.27

0

0.17

-0.00335

1

0.7

0.24

0

-0.051

0.2

0.7

1

0.031

0

0.96

0.27

0.24

0.031

1

0

0

0

0

0

0

0

Δr11 = 0.0177 Коэффициент множественной корреляции Связь между признаком Y и факторами Xi низкая. Расчёт коэффициента корреляции выполним, используя известные значения линейных коэффициентов парной корреляции и β-коэффициентов. Коэффициент детерминации R2 = 0.891 Коэффициент детерминации. R2= 0.9442 = 0.891 5. Проверка гипотез относительно коэффициентов уравнения регрессии (проверка значимости параметров множественного уравнения регрессии). Число v = n - m - 1 называется числом степеней свободы. Считается, что при оценивании множественной линейной регрессии для обеспечения статистической надежности требуется, чтобы число наблюдений, по крайней мере, в 3 раза превосходило число оцениваемых параметров. 1) t-статистика Tтабл (n-m-1;α/2) = (10;0.025) = 2.228 Находим стандартную ошибку коэффициента регрессии b0: Статистическая значимость коэффициента регрессии b0 подтверждается. Находим стандартную ошибку коэффициента регрессии b1: Статистическая значимость коэффициента регрессии b1 не подтверждается. Находим стандартную ошибку коэффициента регрессии b2: Статистическая значимость коэффициента регрессии b2 не подтверждается. Находим стандартную ошибку коэффициента регрессии b3: Статистическая значимость коэффициента регрессии b3 не подтверждается. Находим стандартную ошибку коэффициента регрессии b4: Статистическая значимость коэффициента регрессии b4 не подтверждается. Находим стандартную ошибку коэффициента регрессии b5: Статистическая значимость коэффициента регрессии b5 подтверждается. Доверительный интервал для коэффициентов уравнения регрессии. Определим доверительные интервалы коэффициентов регрессии, которые с надежность 95% будут следующими: (bi - ti Sbi; bi + ti Sbi) b0: (-3017.4 - 2.228 • 1094.49 ; -3017.4 + 2.228 • 1094.49) = (-5455.91;-578.88) b1: (-13.42 - 2.228 • 10.38 ; -13.42 + 2.228 • 10.38) = (-36.54;9.7) b2: (6.67 - 2.228 • 3.01 ; 6.67 + 2.228 • 3.01) = (-0.0315;13.38) b3: (-6.48 - 2.228 • 15.78 ; -6.48 + 2.228 • 15.78) = (-41.63;28.68) b4: (12.24 - 2.228 • 14.41 ; 12.24 + 2.228 • 14.41) = (-19.87;44.34) b5: (30.48 - 2.228 • 11.52 ; 30.48 + 2.228 • 11.52) = (4.8;56.15) 6. Проверка общего качества уравнения множественной регрессии. Оценка значимости уравнения множественной регрессии осуществляется путем проверки гипотезы о равенстве нулю коэффициент детерминации рассчитанного по данным генеральной совокупности: R2 или b1 = b2 =... = bm = 0 (гипотеза о незначимости уравнения регрессии, рассчитанного по данным генеральной совокупности). Для ее проверки используют F-критерий Фишера. При этом вычисляют фактическое (наблюдаемое) значение F-критерия, через коэффициент детерминации R2, рассчитанный по данным конкретного наблюдения. По таблицам распределения Фишера-Снедоккора находят критическое значение F-критерия (Fкр). Для этого задаются уровнем значимости α (обычно его берут равным 0,05) и двумя числами степеней свободы k1=m и k2=n-m-1. 2) F-статистика. Критерий Фишера. Чем ближе этот коэффициент к единице, тем больше уравнение регрессии объясняет поведение Y. Более объективной оценкой является скорректированный коэффициент детерминации: Добавление в модель новых объясняющих переменных осуществляется до тех пор, пока растет скорректированный коэффициент детерминации. Проверим гипотезу об общей значимости - гипотезу об одновременном равенстве нулю всех коэффициентов регрессии при объясняющих переменных: H0: R2 = 0; β1 = β2 = ... = βm = 0. H1: R2 ≠ 0. Проверка этой гипотезы осуществляется с помощью F-статистики распределения Фишера (правосторонняя проверка). Если F < Fkp = Fα ; n-m-1, то нет оснований для отклонения гипотезы H0. Табличное значение при степенях свободы k1 = 5 и k2 = n-m-1 = 16 - 5 - 1 = 10, Fkp(5;10) = 3.33 Отметим значения на числовой оси.

Принятие H0

Отклонение H0, принятие H1

95%

5%

3.33

16.32

Поскольку фактическое значение F > Fkp, то коэффициент детерминации статистически значим и уравнение регрессии статистически надежно Оценка значимости дополнительного включения фактора (частный F-критерий). Необходимость такой оценки связана с тем, что не каждый фактор, вошедший в модель, может существенно увеличить долю объясненной вариации результативного признака. Это может быть связано с последовательностью вводимых факторов (т. к. существует корреляция между самими факторами). Мерой оценки значимости улучшения качества модели, после включения в нее фактора хj, служит частный F-критерий – Fxj: где m – число оцениваемых параметров. В числителе - прирост доли вариации у за счет дополнительно включенного в модель фактора хj. Если наблюдаемое значение Fxj больше Fkp, то дополнительное введение фактора xj в модель статистически оправдано. Частный F-критерий оценивает значимость коэффициентов «чистой» регрессии (bj). Существует взаимосвязь между частным F-критерием - Fxj и t-критерием, используемым для оценки значимости коэффициента регрессии при j-м факторе: R2(x5,xn) = ∑βjrj = 0.3187 * 0.6459 -0.0675 * 0.2329 + 0.1356 * 0.2263 + 1.337 * 0.816 = 1.312 Fkp(k1=4;k2=10) = 3.48 Сравним наблюдаемое значение частного F-критерия с критическим: Fx1<3.48, следовательно, фактор х1 не целесообразно включать в модель после введения факторов хj. R2(x5,xn) = ∑βjrj = -0.6211 * 0.678 -0.0675 * 0.2329 + 0.1356 * 0.2263 + 1.337 * 0.816 = 0.685 Сравним наблюдаемое значение частного F-критерия с критическим: Fx2>3.48, следовательно, фактор х2 целесообразно включать в модель после введения факторов хj. R2(x5,xn) = ∑βjrj = -0.6211 * 0.678 + 0.3187 * 0.6459 + 0.1356 * 0.2263 + 1.337 * 0.816 = 0.906 Сравним наблюдаемое значение частного F-критерия с критическим: Fx3<3.48, следовательно, фактор х3 не целесообразно включать в модель после введения факторов хj. R2(x5,xn) = ∑βjrj = -0.6211 * 0.678 + 0.3187 * 0.6459 -0.0675 * 0.2329 + 1.337 * 0.816 = 0.86 Сравним наблюдаемое значение частного F-критерия с критическим: Fx4<3.48, следовательно, фактор х4 не целесообразно включать в модель после введения факторов хj. R2(x5,xn) = ∑βjrj = -0.6211 * 0.678 + 0.3187 * 0.6459 -0.0675 * 0.2329 + 0.1356 * 0.2263 = -0.2 Сравним наблюдаемое значение частного F-критерия с критическим: Fx5>3.48, следовательно, фактор х5 целесообразно включать в модель после введения факторов хj. Покажем на примере для x1. Проверка наличия гетероскедастичности. 1) Методом графического анализа остатков. В этом случае по оси абсцисс откладываются значения объясняющей переменной X, а по оси ординат либо отклонения ei, либо их квадраты e2i. Если имеется определенная связь между отклонениями, то гетероскедастичность имеет место. Отсутствие зависимости скорее всего будет свидетельствовать об отсутствии гетероскедастичности. 2) При помощи теста ранговой корреляции Спирмена. Коэффициент ранговой корреляции Спирмена. Присвоим ранги признаку ei и фактору X.

X

ei

ранг X, dx

ранг ei, dy

1

28.36

1

7

2

34.51

2

10

3

11.02

3

3

4

48.1

4

15

5

35.82

5

11

6

25.61

6

6

7

42.16

7

13

8

29.18

8

8

9

47.88

9

14

10

23.75

10

5

11

29.25

11

9

12

51.31

12

16

13

23.68

13

4

14

3.12

14

1

15

8.55

15

2

16

36.88

16

12

Соседние файлы в предмете Эконометрика