
- •Введение
- •1. Понятие о прогнозировании и математическом моделировании
- •1.1. Понятие о прогнозировании и прогностике
- •1.2. История развития прогностики как науки
- •Современное состояние методологии прогнозирования
- •1.4. Понятие о математическом моделировании и его роли в прогнозировании
- •Корреляционный и регрессионный анализ
- •Функциональная и статистическая зависимости
- •Корреляционный анализ
- •Проверка значимости коэффициента корреляции
- •Корреляционное отношение
- •2.5. Парная линейная регрессия
- •Первое уравнение системы (2.15) можно преобразовать к виду
- •Множественная линейная регрессия
- •Умножив обе части уравнения слева на матрицу , получим
- •Некоторые вопросы практического применения
- •Линейные регрессионные модели с переменной структурой. Фиктивные переменные
- •Нелинейные модели регрессии
- •Обобщенная линейная модель. Гетероскедастичность остатков
- •Системы одновременных уравнений
- •Системы независимых и взаимосвязанных (совместных) уравнений
- •Структурная и приведенная формы экономической модели. Условия индетификации.
- •Анализ временных рядов и прогнозирование
- •Анализ временных рядов
- •Критерий случайности
- •Показатели динамики временных рядов
- •Формулы для расчета показателей представлены в табл. 4.1. Т а б л и ц а 4. 1. Показатели динамики
- •Выделение тренда. Сглаживание и выравнивание
- •Линейные модели тренда Предположим, что имеет место линейная зависимость , т. Е.
- •Первое уравнение системы (4.6) можно преобразовать к виду
- •Полиноминальные модели прогнозирования
- •Найдем ковариационную матрицу оценок
- •Стационарные временные ряды. Автокорреляционная функция
- •Адаптивные модели прогнозирования
- •Модель с цикличностью развития
- •Диагностическая проверка адекватности моделей. Критерий Дарбина–Уотсона
- •4.11. Основные проблемы идентификации статистических моделей прогнозирования
Некоторые вопросы практического применения
регрессионных моделей
Ранее нами была изучена классическая линейная модель множественной регрессии. Однако мы не касались некоторых проблем, связанных с практическим использованием модели множественной регрессии. К их числу относится мультиколлинеарность.
Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных. Мультиколлинеарность может проявляться в функциональной и стохастической формах.
При функциональной форме мультиколлинеарности по крайней мере одна из парных связей между объясняющими переменными является линейной функциональной зависимостью. В этом случае матрица ХTX особенная, так как содержит линейно зависимые векторы-столбцы и ее определитель равен нулю. Это приводит к невозможности решения соответствующей системы уравнений и получения оценок параметров регрессионной модели.
Однако в экономических
исследованиях мультиколлинеарность
чаще всего проявляется в стохастической
форме, когда между хотя бы двумя
объясняющими переменными существует
тесная корреляционная связь. Матрица
ХTX
в этом случае является неособенной, но
ее определитель очень мал. В результате
получаются значительные дисперсии
оценок коэффициентов регрессии
Наличие мультиколлинеарности системы объясняющих переменных можно статистически проверить по тесту Глобера – Феррара.
При отсутствии мультиколлинеарности статистика
,
(2.58)
где
– объем выборки;
– количество объясняющих переменных;
det
– определитель выборочной корреляционной
матрицы объясняющих переменных
,
имеет
–
распределение с k(k-1)/2
степенями свободы.
Вычисленное значение сравнивается с табличным значением уровня значимости α для k(k-1)/2 степеней свободы.
Одним из методов снижения мультиколлинеарности системы объясняющих переменных X1, X2, …, Xk является выявление пар переменных с высокими коэффициентами корреляции (более 0,8). При этом одну из таких переменных исключают из рассмотрения. Какую из двух переменных удалить решают на основании экономических соображений или оставляют ту, которая имеет более высокий коэффициент корреляции с зависимой переменной.
Полезно также находить множественные коэффициенты корреляции между одной объясняющей переменной и некоторой группой из них.
Множественный коэффициент корреляции служит мерой линейной зависимости между случайной величиной Хi и некоторым набором других случайных величин X1, X2, X3, …,Xi-1,Xi+1,… Xk.
Множественный
коэффициент корреляции
определяется
как обычный коэффициент парной корреляции
между Хi
и Хi*,
где Хi*−
наилучшее линейное приближение Хi
случайными
величинами X1,
X2,
X3,
…,Xi-1,Xi+1,…
Xk.
Чем ближе значения коэффициента множественной корреляции к единице, тем лучше приближение случайной величины Хi линейной комбинацией случайных величин X1, X2, X3, …,Xi-1,Xi+1,… Xk.
Множественный коэффициент корреляции выражается через элементы корреляционной матрицы следующим образом:
,
(2.59)
где │R│– определитель корреляционной матрицы R;
Rii – алгебраическое дополнение элемента rii.
Если
,
то величина Хi
представляет
собой линейную комбинацию случайных
величин X1,
X2,
X3,
…,Xi-1,Xi+1,…
Xk.
С другой стороны,
только
тогда, когда Хi
не
коррелированна ни с одной из случайных
величин X1,
X2,
X3,
…,Xi-1,Xi+1,…
Xk.
В качестве выборочной оценки коэффициента множественной корреляции используется выражение
.
(2.60)
Наличие высокого множественного коэффициента корреляции (более 0,8) также свидетельствует о мультиколлинеарности.
Еще одним из методов уменьшения мультиколлинеарности является использование пошаговых процедур отбора наиболее информативных переменных с использованием скорректированного коэффициента детерминации.
Недостатком
коэффициента детерминации R2
для выбора
наилучшего уравнения регрессии является
то, что он всегда увеличивается при
добавлении новых переменных в регрессионную
модель. Поэтому целесообразно использовать
скорректированный коэффициент
детерминации
,
определяемый по формуле
.
В отличие от R2 скорректированный коэффициент может уменьшаться при введении в модель новых объясняющих переменных, не оказывающих существенного влияния на зависимую переменную.
На первом шаге рассматривается лишь одна объясняющая переменная, имеющая с зависимой переменной Y наибольший коэффициент корреляции (детерминации). На втором шаге включается в регрессию новая объясняющая переменная, которая вместе с первоначальной дает наиболее высокий скорректированный коэффициент детерминации с Y и т. д.
Процедура введения новых переменных продолжается до тех пор, пока будет увеличиваться скорректированный коэффициент детерминации