- •Донецьк 2010
- •Введение
- •1. Моделирование рядов динамики
- •1.1. Определение параметров моделирующих функций
- •1.2. Оценка адекватности и надежности модели
- •1.3. Оценка параметров уравнений
- •1.4. Использование моделей тренда в прогнозировании
- •2. Автокорреляция уровней динамического ряда
- •Свойства коэффициента автокорреляции:
- •3. Автокорреляция остатков
- •3.1. Критерий Дарбина – Уотсона (d - статистика)
- •Ограничения на применение критерия Дарбина - Уотсона:
- •3.2. Нециклический коэффициент автокорреляции остатков
- •3.3.Циклический коэффициент автокорреляции остатков
- •4.2. Снижение влияния гетероскедастичности
- •5 Множественная регрессия
- •5.1. Классический подход
- •Расчет элементов коэффициента
- •Коэффициенты эластичности результативного показателя по факторам определяются по формуле (51)
- •5.2. Матричный подход
- •5.3. Расчеты с использованием пк
- •Вывод итогов
- •6 Мультиколлинеарность
- •7 Ранговая корреляция
- •7.1. Экспертное оценивание
- •7.2. Этапы работ в системе экспертных оценок
- •7.3. Метод ранговой корреляции
- •Вспомогательные расчеты
- •Б) Случай многих экспертов
- •8 Сетевое планирование
- •9. Компьютерная поддержка расчетов в пакете Excel
- •9.1. Ввод данных
- •9.2. Построение расчетной таблицы
- •9.3. Вычисление параметров моделирующих уравнений
- •9. 4. Графическое представление данных
- •Данных диаграммы
- •Параметры диаграммы
- •Размещение диаграммы
- •9.5. Построение линии тренда
- •9.6. Использование опции Мастер функций
- •9.7. Использование пакета Анализ данных
- •Литература
- •Коэффициентов автокорреляции
- •Критические значения и для коэффициента автокорреляции критерия Дарбина-Уотсона для
- •Критические значения и для коэффициента автокорреляции критерия Дарбина-Уотсона для
- •Значение критерия Пирсона
- •Квантили распределения Стьюдента
5.3. Расчеты с использованием пк
Уравнение линейной регрессии можно получить на ПК, используя опции Сервис – Анализ данных – Регрессия (более подробно см. раздел 7).
Например, используя данные примера 5, в результате расчетов получим следующую таблицу:
Вывод итогов
Регрессионная статистика |
|
Множественный -квадрат Нормированный -кв Стандартная ошибка Наблюдения |
0,821816 0,675382 0,567176 0,108807 9 |
Дисперсионный анализ
|
|
|
|
|
Значимость |
Регрессия Остаток Итого |
2 6 8 |
0,147789 0,071034 0,218822 |
0,073894 0,011839 |
6,241634 |
0,034207 |
|
Коэффициенты |
Стандартная ошибка |
-статистика |
-значение |
Нижнее 95% |
Верхнее 95% |
пересечение |
5,023567 |
1,862928 |
2,696598 |
0,035737 |
0,465144 |
9,581991 |
Переменная |
-0,137011 |
0,06299 |
-2,175117 |
0,072548 |
-0,291141 |
0,01712 |
Переменная |
-0,00141 |
0,00848 |
-0,166266 |
0,873409 |
-0,022161 |
0,019341 |
На основании данных таблицы можно сделать такие выводы:
множественный коэффициент ;
уравнение множественной регрессии ;
-статистика 6,24.
Сравнивая полученное значение с , найденным по таблице Фишера , получим, что , т.е. уравнение регрессии значимо.
-статистика для коэффициента равна –2,1751, для коэффициента равна –0,1663;
Сравнивая , найденное по таблице Стьюдента , с -статистиками для коэффициентов и , получаем, что -статистики коэффициентов меньше . Следовательно, коэффициенты и достаточно надежны.
доверительные интервалы для параметров уравнения регрессии:
для коэффициента ;
для коэффициента .
6 Мультиколлинеарность
На практике при количественной оценке параметров эконометрической модели довольно часто сталкиваются с проблемой взаимосвязи между объясняющими переменными. Если взаимосвязь довольно тесная, то оценка параметров модели может иметь большую погрешность. Такая взаимосвязь между объясняющими переменными называется мультиколлинеарностью. Мультиколлинеарность переменных приводит к смещению оценок параметров модели. Поэтому необходима проверка факторов на мультиколлинеарность.
Наиболее простой формой проверки мультиколлинеарности является анализ корреляционной матрицы. Значение парных коэффициентов корреляции свидетельствует о том, связаны между собою переменные или нет.
Составляем симметричную матрицу коэффициентов парной корреляции
. (55)
Если среди парных коэффициентов корреляции независимых переменных существуют такие, значение которых приближается или равно множественному коэффициенту корреляции, то это говорит о возможности существования мультиколлинеарности.
Но если в модели больше двух факторов, вопрос о мультиколлинеарности не может ограничиваться информацией, которая дает эта матрица. Более общая проверка предусматривает вычисление определителя матрицы R, . Вычисляем определитель матрицы .
Если , то существует полная мультиколлинеарность.
Если , то мультиколлинеарности нет.
Чем ближе к нулю, тем увереннее можно утверждать о существовании между переменными мультикоолинеарности.
Если в эконометрической модели получено малое значение параметра при большом коэффициентов деретминации и при этом -критерий существенно отличается от нуля, то это коворит о наличии мультиколлинеарности.
Наиболее полное исследование мультиколлинеарности можно осуществить на основе алгоритма Феррара-Глаубера. Этот алгоритм включает три вида статистических критериев, на основе которых проверяется мультиколлинеарность всего массива переменных ( , хи-квадрат); каждой факторной переменной со всеми другими (F-статистика) и мультиколлинеарность каждой пары факторов (t-статистика). Все эти критерии при сравнении с их критическими значениями дают возможность сделать конкретные выводы относительно наличия или отсутствия мультиколлинеарности независимых переменных.
Алгоритм метода Феррара-Глаубера.
Для исследования общей мультиколлинеарности и мультиколлинеарностью между отдельными факторами используют корреляционную матрицу
, (56)
где парные коэффициенты корреляции вычисляются по формулам:
,
,
где , .
Для исследования общей мультиколлинеарности используют величину критерия :
,
где – количество наблюдений, – число факторов, – определитель корреляционной матрицы .
По таблице Пирсона (приложение 3) находим .
Если , то между всеми объясняющими переменными нет общей мультиколлинеарности.
Если , то между объясняющими переменными существует общая мальтиколлинеарность.
В случае существования общей мультиколлинеарности следует определить какая из объясняющих переменных порождает мультиколлинеарность. Для этого вычисляют частные коэффициенты корреляции по формуле
, (57)
где – элементы обратной матрицы .
Критерием коллинеарности для каждой пары факторов служат величины -статистик:
.
По таблицам Стьюдента (приложение 5) находим .
Если , то между объясняющими переменными и коллинеарности нет.
Если , то между объясняющими переменными и существует значительная коллинеарность.
В случае выявления коллинеарности между парой объясняющих переменных и необходимо исключить из дальнейшего анализа переменную, которая имеет наименьшую корреляцию с показателем .
Пример 6.1.
Затраты на питание зависят от факторов: общие затраты, состав семьи и заработок. Надо исследовать наличие общей мультиколлинеарности по алгоритму Феррара-Глаубера.
Таблица 6.1
Данные для модели
Затраты на питание, |
Общие затраты, |
Состав семьи, |
Заработок,
|
22 |
45 |
1,7 |
70 |
30 |
72 |
1,9 |
105 |
45 |
131 |
2 |
172 |
62 |
228 |
3,4 |
302 |
48 |
90 |
3 |
150 |
64 |
145 |
3,6 |
205 |
76 |
225 |
4,7 |
303 |
108 |
357 |
5,2 |
480 |
65 |
136 |
4,9 |
195 |
90 |
218 |
5 |
315 |
Решение.
1. Найдем корреляционную матрицу. Эта матрица симметричная. В нашем случае размера . Она имеет вид:
, (58)
где исчисляется по формуле
, (59)
где , , .
Вычислим вспомогательную таблицу:
Таблица 6.2
Расчет элементов корреляционной матрицы
|
|
|
|
|
|
|
|
|
45 |
1,7 |
70 |
2025 |
2,89 |
4900 |
76,5 |
3150 |
119 |
72 |
1,9 |
105 |
5184 |
3,61 |
11025 |
136,8 |
7560 |
199,5 |
131 |
2 |
172 |
17161 |
4 |
29584 |
262 |
22532 |
344 |
228 |
3,4 |
302 |
51984 |
11,56 |
91204 |
775,2 |
68856 |
1026,8 |
90 |
3 |
150 |
8100 |
9 |
22500 |
270 |
13500 |
450 |
145 |
3,6 |
205 |
21025 |
12,96 |
42025 |
522 |
29725 |
738 |
225 |
4,7 |
303 |
50625 |
22,09 |
91809 |
1057,5 |
68175 |
1424,1 |
357 |
5,2 |
480 |
127449 |
27,04 |
230400 |
1856,4 |
171360 |
2496 |
136 |
4,9 |
195 |
18496 |
24,01 |
38025 |
666,4 |
26520 |
955,5 |
218 |
5 |
315 |
47524 |
25 |
99225 |
1090 |
68670 |
1575 |
1647 |
35,4 |
2297 |
349573 |
142,16 |
660697 |
6712,8 |
480048 |
9327,9 |
В нашем случае число испытаний равно 10. Из таблицы 13 имеем:
|
|
|
|
|
|
|
|
|
Рассчитаем средние квадратичные отклонения:
Рассчитанные значения подставим в формулу (23):
Для данной задачи корреляционная матрица (25) имеет вид:
Элементы этой матрицы характеризуют тесноту связи между факторами.
В нашем случае Между каждой парой факторов существует определенная связь.
2. Найдем определитель корреляционной матрицы по формуле (27):
(60)
В нашем случае получим такие результаты:
Значение определителя свидетельствует о наличии значительной мультиколлинеарности.
3. Найдем - статистику по формуле (28):
(61)
В нашем случае число испытаний число факторов , поэтому формула (28), имеет вид:
При степени свободы и уровне значимости находим по таблице (приложение 3) критическое значение .
Если , то мультиколлинеарность существует, в противном случае, то есть при мультиколлинеарность отсутствует.
В нашем случае поскольку ( ), то можем считать, что мультиколлинеарность присутствует. Поэтому один из факторов следует исключить, а именно , так как он в меньшей степени влияет на .