Программа EViews 4.0
Выбираем:
Frequency = Undated
Range start = 1
Range end =38
Выделить по нужному порядку через “Ctrl”
Правой клавишей мыши – Open – As Group…
Откроется окно группы.
Скопировать как есть из Excel (Ctrl+C)
В EViews:
Нажать «Edit», чтобы разблокировать редактирование переменных.
Вставить из буфера обмена (Ctrl+V)
Закрываем группу (это окно), не сохраняем (удалить).
Заново выделяем переменные. Всегда X – выделяем первым (PRICE).
Правой клавишей мыши – Open – As Equation
Откроется окно моделей
Наилучшая константа = среднее значение Y.
Модель детерминации
Коэффициент меняется от 0 до 1 и показывает долю дисперсии. Если коэффициент = 0, то нет смысла использовать.
Коэффициент детерминации в окне модели:
R-squared |
0.7102753 |
Adjusted R-squared – исправленный коэффициент детерминации
проверяем гипотезу:
H0: модель статистически не значима. R2 = 0 (проверка статистической незначимости модели)
- квантиль (уровень
значимости =0,005)
-
F-statistic (модель Фишера):
1.
Prob. >
принимаем гипотезу,
модель не значима
перестраиваем
2.
Prob. <
не принимаем гипотезу,
модель значима
анализируем дальше
Коэффициент детерминации показывает долю объяснённой дисперсии (если =70%, то мы объяснили 70% точек)
S. E. Regration – стандартная ошибка регрессии
Sum squared resid – остаточная сумма квадратов
Mean dependent var – среднее значение (математическое ожидание) (обычно не используем)
Штрафы за ввод не значимых переменных:
Akaike info criterion – информационный критерий Акаики
Schwarz criterion - информационный критерий Шварца
они должны быть минимальны (это штрафы за ввод незначимых переменных)
Коэффициент показывает, насколько единиц изменится Y при изменении X на одну единицу.
проверяем гипотезу:
H0: переменная статистически не значима (Ki = 0)
-
t-statistic (модель Стьюдента):
1.
Prob. >
принимаем гипотезу (условно принимаем),
переменная не значима,
удаляем
2.
Prob. <
не принимаем гипотезу
(условно отвергаем),
переменная значима,
оставляем
Коэффициент детерминации (R2) очень чувствителен к количеству переменных. Неважно, какую переменную мы удалим, он будет уменьшаться.
удаляем переменную |
||
показатель |
значимую |
незначимую |
R2 |
↘ |
↘ |
Adj R2 |
↘ |
↗ |
S.E. |
↗ |
↘ |
Sum |
↗ |
↗ |
Akaiki |
↗ |
↘ |
Schwartz |
↗ |
↘ |
Появление множества нелогичных знаков и незначимых переменных – следствие явления, называемого «мультиколлинеальность» (явление связи между объясняющими переменными).
С мультиколлинеальностью нужно бороться только тогда, когда она искажает модель.
Самый простой способ – развести факторы, которые так или иначе связаны между собой, развести в разные модели.
Есть такая штука как «матрица коэффициентов (парной) корреляции».
Знак коэффициента показывает, прямая это или обратная зависимость.
Величина коэффициента – степень зависимости.
Анализ матрицы коэффициента корреляции.
|
PRICE |
SPACE |
KITCHENSPACE |
LIVINGSPACE |
MAXFLOOR |
FLOOR |
TIME |
PRICE |
1 |
0.77 |
0.73 |
0.62 |
0.62 |
0.12 |
-0.24 |
SPACE |
|
1 |
0.81 |
0.89 |
0.66 |
0.11 |
-0.01 |
KITCHENSPACE |
0.73 |
0.81 |
1 |
0.65 |
0.70 |
0.02 |
0.02 |
LIVINGSPACE |
0.62 |
0.89 |
0.65 |
1 |
0.52 |
-0.03 |
-0.03 |
MAXFLOOR |
0.62 |
0.66 |
0.70 |
0.52 |
1 |
0.28 |
0.02 |
FLOOR |
0.12 |
0.11 |
0.02 |
-0.03 |
0.28 |
1 |
0.12 |
TIME |
-0.24 |
-0.01 |
0.02 |
-0.03 |
0.02 |
0.12 |
1 |
