
- •Содержание
- •1. Модели временных рядов
- •1. Постановочный
- •2.Модели адаптивного сглаживания. Экспоненциальное сглаживание. Теорема Брауна.
- •Экспоненциальное сглаживание.
- •Теорема Брауна.
- •Задание 1
- •Решение
- •1.1. Методом наименьших квадратов найдем оценки линейного уравнения регрессии: .
- •1.2. С помощью коэффициентов парной корреляции проанализируем тесноту линейной связи между доходностью на акцию и доходностью на фондовый индекс .
- •Задание 2
- •Решение
- •2.1. По методу наименьших квадратов находим оценки коэффициентов множественной линейной регрессионной модели
- •2.2. Проверим статистическую значимость параметров и уравнения множественной регрессии с надёжностью 0,95.
- •2.3. Рассчитаем точечный и интервальный прогноз
- •Задание 3
- •3.1. По методу наименьших квадратов находим оценки коэффициентов множественной линейной регрессионной модели
- •3.2. Проверим статистическую значимость параметров и уравнения множественной регрессии с надёжностью 0,95.
- •3.3. Рассчитаем точечный и интервальный прогноз
- •Задание 4
- •1. Линейную трендовую модель строим с помощью надстройки excel «Анализ данных… Регрессия»:
- •Задание 5
- •Список литературы
Задание 5
Гетероскедастичность и автокорреляция. Проведите проверку построенной в задании 2 модели на гетероскедастичность и автокорреляцию. Все вычисления производите для модели множественной линейной регрессии при 5%-ном уровне значимости.
Решение
Множественная линейная регрессионная модель имеет вид:
Сведём расчётные данные в таблицу.
i |
yi |
xi1 |
xi2 |
|
|
|
1 |
3658 |
3193,08 |
55,21 |
3664,08 |
-6,08 |
36,97 |
2 |
3741,1 |
3236,02 |
60,08 |
3759,18 |
-18,08 |
326,89 |
3 |
3791,7 |
3275,52 |
63,48 |
3832,31 |
-40,61 |
1649,17 |
4 |
3906,9 |
3454,3 |
66,19 |
3994,80 |
-87,9 |
7726,41 |
5 |
4207,6 |
3640,39 |
68,63 |
4158,87 |
48,73 |
2374,61 |
6 |
4347,8 |
3821,1 |
70,99 |
4318,07 |
29,73 |
883,87 |
7 |
4486,6 |
3981,3 |
72,72 |
4454,38 |
32,22 |
1038,13 |
8 |
4582,5 |
4113,4 |
75,49 |
4584,65 |
-2,15 |
4,62 |
9 |
4784,1 |
4279,5 |
78,44 |
4741,35 |
42,75 |
1827,56 |
10 |
4906,5 |
4393,7 |
81,86 |
4867,59 |
38,91 |
1513,99 |
11 |
5014,2 |
4474,5 |
85,63 |
4974,85 |
39,35 |
1548,42 |
12 |
5033 |
4466,6 |
88,91 |
5012,86 |
20,14 |
405,62 |
13 |
5189,3 |
4594,5 |
91,62 |
5139,35 |
49,95 |
2495,00 |
14 |
5261,3 |
4748,9 |
93,81 |
5277,68 |
-16,38 |
268,30 |
15 |
5397,2 |
4928,1 |
95,7 |
5429,57 |
-32,37 |
1047,82 |
16 |
5539,1 |
5075,6 |
97,9 |
5563,15 |
-24,05 |
578,40 |
17 |
5677,7 |
5237,5 |
100 |
5705,58 |
-27,88 |
777,29 |
18 |
5854,5 |
5423,9 |
101,94 |
5863,23 |
-8,73 |
76,21 |
19 |
6331 |
5978,8 |
104,85 |
6294,44 |
36,56 |
1336,63 |
20 |
6510 |
6294,6 |
107,38 |
6551,46 |
-41,46 |
1718,93 |
Сумма |
98220,1 |
88611,3 |
1660,83 |
98220,1 |
32,65 |
27634,86 |
Проверим гипотезу о наличии гетероскедастичности с помощью теста Голдфельда-Квандта. Упорядочиваем выборку по возрастанию фактора х1
i |
yi |
xi1 |
xi2 |
1 |
3658 |
3193,08 |
55,21 |
2 |
3741,1 |
3236,02 |
60,08 |
3 |
3791,7 |
3275,52 |
63,48 |
4 |
3906,9 |
3454,3 |
66,19 |
5 |
4207,6 |
3640,39 |
68,63 |
6 |
4347,8 |
3821,1 |
70,99 |
7 |
4486,6 |
3981,3 |
72,72 |
8 |
4582,5 |
4113,4 |
75,49 |
9 |
4784,1 |
4279,5 |
78,44 |
10 |
4906,5 |
4393,7 |
81,86 |
11 |
5014,2 |
4474,5 |
85,63 |
12 |
5033 |
4466,6 |
88,91 |
13 |
5189,3 |
4594,5 |
91,62 |
14 |
5261,3 |
4748,9 |
93,81 |
15 |
5397,2 |
4928,1 |
95,7 |
16 |
5539,1 |
5075,6 |
97,9 |
17 |
5677,7 |
5237,5 |
100 |
18 |
5854,5 |
5423,9 |
101,94 |
19 |
6331 |
5978,8 |
104,85 |
20 |
6510 |
6294,6 |
107,38 |
Сумма |
98220,1 |
88611,3 |
1660,83 |
Полученную
упорядоченную выборку делим на 3 примерно
одинаковые части
.
Тогда 7 первых наблюдений, соответствующих
малым значениям х,
и 7 последних, соответствующих большим
значениям х,
оставляем. А 6 центральных данных удаляем
из рассмотрения.
Сформировались две подвыборки:
i |
yi |
xi1 |
xi2 |
1 |
3658 |
3193,08 |
55,21 |
2 |
3741,1 |
3236,02 |
60,08 |
3 |
3791,7 |
3275,52 |
63,48 |
4 |
3906,9 |
3454,3 |
66,19 |
5 |
4207,6 |
3640,39 |
68,63 |
6 |
4347,8 |
3821,1 |
70,99 |
7 |
4486,6 |
3981,3 |
72,72 |
|
|
|
|
14 |
5261,3 |
4748,9 |
93,81 |
15 |
5397,2 |
4928,1 |
95,7 |
16 |
5539,1 |
5075,6 |
97,9 |
17 |
5677,7 |
5237,5 |
100 |
18 |
5854,5 |
5423,9 |
101,94 |
19 |
6331 |
5978,8 |
104,85 |
20 |
6510 |
6294,6 |
107,38 |
По известной процедуре МНК строим уравнения множественной линейной регрессии для каждой из этих частей.
Получаем для первой части: Y = 336.3651 + 0.96X1 + 4.7369X2, для последней части: Y = 607.5847 + 0.7192X1 + 13.1161X2.
Находим остатки для каждого из этих уравнений, возводим их в квадрат и суммируем:
i |
yi |
xi1 |
xi2 |
|
еперв |
е2перв |
1 |
3658 |
3193,08 |
55,21 |
3663,25 |
-5,25 |
27,52 |
2 |
3741,1 |
3236,02 |
60,08 |
3727,54 |
13,56 |
183,95 |
3 |
3791,7 |
3275,52 |
63,48 |
3781,56 |
10,14 |
102,76 |
4 |
3906,9 |
3454,3 |
66,19 |
3966,03 |
-59,13 |
3496,18 |
5 |
4207,6 |
3640,39 |
68,63 |
4156,23 |
51,37 |
2638,57 |
6 |
4347,8 |
3821,1 |
70,99 |
4340,89 |
6,91 |
47,70 |
7 |
4486,6 |
3981,3 |
72,72 |
4502,88 |
-16,28 |
265,05 |
Сумма |
|
|
|
|
|
6761,74 |
|
|
|
|
|
епосл |
е2посл |
14 |
5261,3 |
4748,9 |
93,81 |
5253,41 |
7,89 |
62,17 |
15 |
5397,2 |
4928,1 |
95,7 |
5407,08 |
-9,88 |
97,71 |
16 |
5539,1 |
5075,6 |
97,9 |
5542,02 |
-2,92 |
8,54 |
17 |
5677,7 |
5237,5 |
100 |
5686,00 |
-8,30 |
68,97 |
18 |
5854,5 |
5423,9 |
101,94 |
5845,51 |
8,99 |
80,84 |
19 |
6331 |
5978,8 |
104,85 |
6282,76 |
48,24 |
2327,03 |
20 |
6510 |
6294,6 |
107,38 |
6543,07 |
-33,07 |
1093,48 |
Сумма |
|
|
|
|
|
3738,75 |
Находим отношение суммы квадратов остатков, оно подчиняется F-распределению Фишера:
Сравниваем
его с табличным значением F-критерия
Фишера на уровне значимости
с (k-1) и (k-1) степенями свободы, где k –
объёмы оставшихся частей выборки.
На
уровне значимости
с
6 и 6 степенями свободы табличное значение
.
Т.к.
наблюдаемое значение меньше табличного:
,
то гипотеза о наличии гетероскедастичности
не отвергается.
Рассмотрим множественную регрессионную модель
.
Напомним, в задаче 2 мы нашли модель:
.
Проверим, имеет ли место автокорреляция ошибок этой модели. Найдем значения числителя и знаменателя в формуле.
Значение знаменателя найдено ранее при решении задачи 5.1, и равно 38972,39. Значение числителя в формуле d - статистики Дарбина-Уотсона легко вычисляется и равно 68083,24. Подставляя найденные значения в, получим
d = 37196,52 / 27634,86 =1,346.
В исследуемой ситуации число наблюдений n=20, число объясняющих (независимых) переменных m=2. По условию уровень значимости =0,05. По таблице находим: dl =1,10; du =1,54. В нашем случае dl < d < du. Статистика Дарбина-Уотсона находится в зоне неопределенности. Всего три-четыре десятых не хватает для того, чтобы можно было уверенно принять гипотезу об отсутствии автокорреляции ошибок регрессии.