Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Metodicheskie_ukazania_po_kursu.docx
Скачиваний:
2
Добавлен:
22.11.2019
Размер:
778.78 Кб
Скачать

4.2. Значимость модели множественной регрессии

1. t – статистика используется для проверки гипотезы о значимости коэффициентов регрессии с помощью статистики Стьюдента

Выдвигается гипотеза о незначимости коэффициента .

Для ее проверки рассчитывается статистика Стьюдента с (n-m) степенями свободы

(4.2.1)

где - среднеквадратическая ошибка коэффициента , рассчитываемая по формуле

(4.2.2)

Для проверки данной гипотезы необходимо сравнить фактическое и критическое (табличное) значения t – статистики Стьюдента по схеме:

1) задается уровень значимости γ ;

2) по исходным статистическим данным вычисляется и сравнивается с :

если < , то гипотеза о незначимости коэффициента регрессии отклоняется, то есть коэффициент является статистически значимым.

если > , то гипотеза принимается, то есть коэффициент является статистически незначимой величиной.

Для определяются доверительные интервалы: с надежностью (1-γ).

2. F - тест используется для проверки гипотезы о значимости модели в целом с помощью статистики Фишера.

Выдвигается нулевая гипотеза : о статистической незначимости уравнения регрессии (все коэффициенты регрессии равны нулю).

Для проверки данной гипотезы необходимо сравнить фактическое и критическое (табличное) значения F – статистики Фишера.

(4.2.3)

где n – число единиц совокупности,

m – количество регрессоров в построенной модели.

Для определенного уровня значимости γ определяется .

Если < , то гипотеза о незначимости модели в целом отклоняется, то есть модель является статистически значимой.

Если > , то гипотеза принимается, то модель является статистически незначимой.

4.3. Мультиколлинеарность

В случае если предположение о сильной статистической независимости факторов не выполняется, может возникать эффект мультиколлинеарности.

Мультиколлинеарность – наличие сильной линейной статистической зависимости между факторами.

Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов.

Признаками наличия мультиколлинеарности являются:

- большие стандартные ошибки и малая значимость оценок при одновременной значимости модели в целом;

- небольшие изменения исходных статистических данных (добавление или изъятие небольшой порции наблюдений) приводит к существенному изменению оценок коэффициентов модели, вплоть до изменения знаков;

- неправильные с экономической точки зрения знаки перед коэффициентами регрессии (например, увеличение площади квартиры увеличивает ее стоимость, то есть знак при коэффициенте, который отвечает за площадь, должен быть положительным, в случае мультиколлинеарности он может быть отрицательным);

Для выявления мультиколлинеарности необходимо:

1) определять первоначальный набор факторов исходя из экономического смысла;

2) построить регрессионную модель и оценить неизвестные коэффициенты МНК;

2) выявить сильную попарную статистическую зависимость между факторами и устранять их дублирующее влияние.

Для оценки сильной парной линейной зависимости между факторами строится таблица выборочных коэффициентов корреляции , которые рассчитываются по исходным статистическим данным. Выбираются коэффициенты корреляции со значениями . Один из дублирующих факторов удаляется по экономическим соображениям. Удаляемый фактор должен сильно коррелировать с результирующим признаком y и слабо коррелировать с объясняющими факторами (кроме дублирующего).

После удаления факторов строится новая модель регрессии и оценивается МНК.