Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЭКОНОМЕТРИКА. Готовые билеты.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
4.2 Mб
Скачать

40. Последствия и признаки частичной мультиколлинеарности

В реальности мы имеем дело с данными, имеющими стохастический характер, поэтому случай полной мультиколлинеарности на практике встречается крайне редко. На практике мы имеем дело с частичной мультиколлинеарностью.

Частичная мультиколлинеарность характеризуется коэффициентами парной корреляции между регрессорами, которые так же носят стохастический характер и, по значениям которых судят о степени коррелированности.

Для определения степени коррелированности строят матрицу взаимных корреляций регрессоров R={rij}, I,j=1,2,…,k.

Если между регрессорами имеется корреляционная связь, соответствующий коэффициент корреляции будет близок к единице rij ≈1

Матрица (XTX)-1 будет иметь полный ранг, но близка к вырожденной, т.е det(XTX)-1 ≈0

В этом случае, формально можно получить оценки параметров модели, их точностные показатели, но все они будут неустойчивыми.

Последствия частичной мультиколлинеарности следующие:

  • Увеличение дисперсий оценок параметров (снижение точности)

  • Уменьшение значений t-статистик для параметров, что приводит к неправильному выводу о их статистической значимости

  • Неустойчивость оценок МНК-параметров и их дисперсий

  • Возможность получения неверного (с точки зрения теории) знака у оценки параметра

Точные количественные критерии для обнаружения частичной мультиколлинеарности отсутствуют

В качестве признаков ее наличия используют следующие:

  • Модуль парного коэффициента корреляции между регрессорами Хi и Xj больше 0.75

  • Близость к нулю определителя матрицы (XTX)-1

  • Большое количество статистически незначимых параметров в модели

41. Прогнозирование на основе модели множественной регрессии

Прогнозирование по модели множественной регрессии проводится аналогично прогнозированию по модели парной регрессии.

Прогнозирование по модели множественной линейной регрессии предполагает оценку ожидаемых значений зависимой переменной при заданных значениях независимых переменных, входящих в уравнение регрессии. Различают точечный и интервальный прогнозы.

Точечный прогноз – это расчетное значение зависимой переменной, полученное подстановкой в уравнение множественной линейной регрессии прогнозных значений независимых переменных.

Точечный прогноз для заданных значений факторов

находится по уравнению регрессии

, где В – вектор-столбец оценок параметров уравнения регрессии.

Интервальный прогноз – это минимальное и максимальное значения зависимой переменной, в промежуток между которыми она попадает с заданной долей вероятности и при заданных значениях независимых переменных.

Для построения интервального прогноза для заданного уровня доверительной вероятности нужно найти стандартную (среднюю) ошибку прогноза se(yпр) и критическое значение t-статистики Стьюдента для  степеней свободы и заданной доверительной вероятности.

Стандартная ошибка прогноза находится по формуле

где s – стандартная ошибка регрессии, для которой 

X – матрица выборки значений факторов,  - матрица-столбец прогнозных значений факторов.

Доверительный интервал прогноза задается формулой

42. Свойства оценок мнк (определения и смысл)

Классический подход к оцениванию параметров линейной модели основан на методе наименьших квадратов (МНК).

Этот метод позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака (y) от расчетных (теоретических) минимальна:

Чтобы найти минимум функции, надо вычислить производные по каждому из параметров и приравнять их к нулю, т.к. равенство нулю производной – необходимое условие экстремума. В результате получается система уравнений, решение которой и позволяет получить оценки параметров регрессии.

Для получения корректной модели следует проверить выполнение предпосылок МНК:

1. Остатки регрессии (i=1, 2,…, n) являются случайными.

2. Средняя величина остатков равна нулю. Данная предпосылка всегда выполняется для линейных моделей со свободным коэффициентом.

3. Дисперсия остатков одинакова и не зависит от значений факторов.

4. Остатки независимы (отсутствие автокорреляции).

5. Остатки распределены по нормальному закону.

Если не выполняется хотя бы одна из предпосылок, то рассматриваемая модель не вполне адекватно описывает исследуемое явление.

Коэффициенты уравнения регрессии b0, b1, b2, …, bp являются случайными величинами. Если выполняются предпосылки 1 – 4 МНК, то они обладают следующими свойствами:

1. Несмещенности. Математическое ожидание коэффициента равно соответствующему истинному параметру регрессии:

2. Эффективности. Они характеризуются наименьшей дисперсией:

3. Состоятельности. При увеличении числа наблюдений увеличивается точность оценки:

Невыполнение предпосылки 5 не позволяет корректно оценить точность и проверить статистическую значимость уравнения регрессии и его параметров.