
- •ОГЛАВЛЕНИЕ
- •ПРЕДИСЛОВИЕ
- •МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ
- •РАБОЧАЯ ПРОГРАММА ДИСЦИПЛИНЫ
- •РЕКОМЕНДАЦИИ ПО САМОСТОЯТЕЛЬНОЙ РАБОТЕ СТУДЕНТА
- •ТЕОРЕТИЧЕСКИЕ МАТЕРИАЛЫ
- •ГЛАВА 1. СТАТИСТИЧЕСКИЕ ПОНЯТИЯ И РАСПРЕДЕЛЕНИЯ
- •§ 1. Введение
- •§ 2. Суть регрессионного анализа
- •§ 3. Некоторые статистические определения
- •§ 4. Нормальное (гауссовское) распределение
- •§ 5. (хи-квадрат)-распределение
- •§ 6. Распределение Стьюдента (t-распределение)
- •§ 7. F-распределение (распределение дисперсионного отношения)
- •§ 8. Статистическая проверка гипотез
- •§ 9. Определение критических значений распределений Стьюдента и Фишера с использованием программы Microsoft Office Excel
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 2. ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ. УСЛОВИЯ ГАУССА–МАРКОВА
- •§ 1. Основные понятия
- •§ 2. Метод наименьших квадратов
- •§ 3. Предпосылки метода наименьших квадратов
- •§ 4. Анализ точности определения оценок коэффициентов регрессии
- •§ 5. Проверка статистической значимости коэффициентов парной линейной регрессии
- •§ 6. Интервальные оценки коэффициентов линейного уравнения регрессии
- •§ 7. Доверительные интервалы для зависимой переменной
- •§ 8. Проверка общего качества уравнения регрессии. Коэффициент детерминации
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 3. МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Определение параметров уравнения регрессии
- •§ 2. Расчет коэффициентов множественной линейной регрессии
- •§ 3. Дисперсии и стандартные ошибки коэффициентов
- •§ 4. Проверка статистической значимости коэффициентов уравнения регрессии
- •§ 5. Интервальные оценки коэффициентов теоретического уравнения регрессии
- •§ 6. Проверка общего качества уравнения регрессии
- •§ 7. Проверка равенства двух коэффициентов детерминации
- •§ 8. Проверка гипотезы о совпадении уравнений регрессии для двух выборок
- •§ 10. Частные уравнения регрессии
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 4. АВТОКОРРЕЛЯЦИЯ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Суть и причины автокорреляции
- •§ 2. Последствия автокорреляции
- •§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона
- •§ 4. Методы устранения автокорреляции
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 5. ГЕТЕРОСКЕДАСТИЧНОСТЬ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Последствия гетероскедастичности
- •§ 3. Обнаружение гетероскедастичности
- •§ 4. Методы смягчения проблемы гетероскедастичности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ
- •§ 1. Общие понятия и последствия мультиколлнеарности
- •§ 2. Определение мультиколлинеарности
- •§ 3. Методы устранения мультиколлинеарности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 7. ФИКТИВНЫЕ ПЕРЕМЕННЫЕ В РЕГРЕССИОННЫХ МОДЕЛЯХ
- •§ 1. Модель с одной фиктивной (бинарной) переменной
- •§ 3. Сравнение двух регрессий
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 8. НЕЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Общие понятия
- •§ 2. Степенные модели (логарифмические)
- •§ 3. Обратная модель (гиперболическая)
- •§ 4. Полиномиальная модель
- •§ 5. Показательная модель (лог-линейная)
- •§ 6. Выбор формы модели
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 9. ВРЕМЕННЫЕ РЯДЫ
- •§ 1. Общие понятия
- •§ 2. Моделирование тренда временного ряда
- •§ 4. Стационарные ряды
- •§ 5. Процесс авторегрессии AR(p)
- •§ 6. Процессы скользящего среднего MA(q)
- •§ 7. Комбинированные процессы авторегрессии-скользящего среднего ARMA(p, q)
- •§ 8. Модели ARMA, учитывающие наличие сезонности
- •§ 9. Нестационарные временные ряды. Процессы авторегрессии и проинтегрированного скользящего среднего ARIMA(p, k, q)
- •§ 10. Регрессионные модели с распределенными лагами
- •§ 11. Полиномиально распределенные лаги Ш. Алмон
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 10. СИСТЕМЫ ОДНОВРЕМЕННЫХ УРАВНЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Идентификация структурной формы модели
- •§ 3. Косвенный метод наименьших квадратов
- •§ 4. Двухшаговый метод наименьших квадратов
- •§ 5. Трехшаговый метод наименьших квадратов
- •Резюме
- •Вопросы для самопроверки
- •ЗАКЛЮЧЕНИЕ
- •ЗАДАНИЯ ДЛЯ КОНТРОЛЯ
- •Тесты для самоконтроля
- •Ключи к тестам для самоконтроля
- •Контрольная работа
- •Вопросы к зачету (экзамену)
- •ГЛОССАРИЙ
- •СПИСОК ЛИТЕРАТУРЫ

5.Сохраняется ли состоятельность оценок параметров линейной модели при гетероскедастичности случайных возмущений?
6.Как преобразуются переменные в уравнении парной линейной регрессии, если дисперсия остатков пропорциональна объясняющей переменной?
7.Как преобразуются переменные в уравнении парной линейной регрессии, если дисперсия остатков пропорциональна квадрату объясняющей переменной?
8.Расскажите порядок выполнения теста Голдфелда–Квандта.
9.Какая статистика применяется для сравнения дисперсий в тесте Голдфелда–Квандта?
10.Когда применяется обобщенный метод наименьших квадра-
тов?
11.Как в случае гетероскедастичности преобразуются переменные в модели множественной линейной регрессии?
12.Почему при использовании коэффициента корреляции рангов для исследования гетероскедастичности остатки берутся по абсолютной величине (или возводятся во вторую степень)?
ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ
Цель: изучение нарушения одной из предпосылок условий Га- усса–Маркова в случае множественной линейной регрессии, а именно: отсутствие заметной линейной взаимосвязи между объясняющими переменными.
Методические указания
Внимание следует обратить на факты, свидетельствующие о наличии мультиколлинеарности объясняющих переменных, ее последствия и методы смягчения мультиколлинеарности. Обратите внимание, что рассматриваемые методы не гарантируют устранение мультиколлинеарности. Перед изучением главы следует повторить определение коэффициента корреляции, вычисление обратной матрицы и алгебраических дополнений. Особое внимание следует обратить на невозможность осмысленной трактовки коэффициентов при объясняющих переменных в случае достаточно сильной мультиколлинеарности. Необходимо научиться рассчитывать с по-
118

мощью программы Microsoft Office Excel частные коэффициенты корреляции. Последние также понадобятся при изучении свойств стационарных временных рядов.
§ 1. Общие понятия и последствия мультиколлнеарности
Серьезной проблемой при построении моделей множественной линейной регрессии по МНК является мультиколлинеарность — линейная взаимосвязь двух или нескольких объясняющих переменных. Если объясняющие переменные связаны строгой функциональной зависимостью, то говорят о совершенной мультиколлинеарности. В случае совершенной мультиколлинеарности
матрица X T X оказывается вырожденной, т. е. ее определитель равен нулю, а значит, не существует обратная матрица (X T X )−1 , ко-
торая участвует в основных соотношениях метода наименьших квадратов.
Совершенная мультиколлинеарность является скорее теоретическим примером. Реальна же ситуация, когда между объясняющими переменными существует довольно сильная корреляционная зависимость, а не строгая функциональная. Такая зависимость на-
зывается несовершенной мультиколлинеарностью. Мультиколли-
неарность затрудняет разделение влияния объясняющих факторов на поведение зависимой переменной и делает оценки коэффициентов регрессии ненадежными.
Нестрогая линейная зависимость между объясняющими переменными необязательно дает неудовлетворительные оценки. Если число наблюдений и выборочные дисперсии объясняющих переменных велики, а дисперсия случайного члена мала, то в итоге можно получить вполне хорошие оценки. Оценка любой регрессии будет страдать от мультиколлинеарности в определенной степени, если только все независимые переменные не окажутся абсолютно некоррелированными. Рассмотрение данной проблемы начинается только тогда, когда это серьезно влияет на результаты оценки регрессии. Эта проблема является обычной для регрессий временных рядов, когда данные состоят из ряда наблюдений в течение какого-
119

то периода времени. Если две или более объясняющие переменные имеют ярко выраженный временной тренд, то они будут тесно коррелированны, и это может привести к мультиколлинеарности.
Обычно выделяются следующие последствия мультиколлинеарности:
1.Падает точность оценивания. Оно становится очень трудным, так как невозможно распутать клубок взаимных влияний изменений различных объясняющих. Это падение точности проявляется в трех аспектах. Дисперсии (стандартные ошибки) некоторых конкретных оценок параметров уравнения становятся очень большими, оказываются сильно коррелированными друг с другом, что затрудняет нахождение истинных значений определяемых величин и расширяет интервальные оценки, ухудшая их точность.
2.Исследователи время от времени сталкиваются с некорректностью введения в анализ тех или иных переменных, поскольку коэффициенты при них оказываются незначимыми (уменьшаются t-статистики коэффициентов). Однако истинная причина может заключаться совсем не в том, что эти переменные не влияют на зависимую переменную, а в том, что множество выборочных данных не позволяет это отразить.
3.Оценки коэффициентов по МНК и их стандартные ошибки становятся очень чувствительными к изменениям данных, т. е. они становятся неустойчивыми. Добавление совсем небольшого количества наблюдений может иногда привести к очень сильным сдвигам в значениях некоторых коэффициентов.
4.Затрудняется определение вклада каждой из объясняющих переменных в объясняемую уравнением регрессии дисперсию зависимой переменной.
5.Возможно получение неверного знака у коэффициента регрессии.
Напомним, что коэффициент bj при переменной Xj в уравнении линейной регрессии:
ˆ
Y =b0 +b1X 1+b2 X 2 +...+bm X m
показывает, на сколько единиц изменится зависимая переменная Y, если объясняющая переменная Xj вырастет на одну единицу при
120

фиксированных значениях остальных объясняющих переменных. Однако в случае мультиколлинеарности этот смысл коэффициентов регрессии утрачивается.
§ 2. Определение мультиколлинеарности
Точных количественных критериев для определения наличия (отсутствия) мультиколлинеарности не существует. Тем не менее, существуют некоторые рекомендации по выявлению мультиколлинеарности.
1. В первую очередь анализируют матрицу парных коэффициентов корреляции:
|
1 |
r y1 |
r y2 |
r y3 |
... |
r ym |
|
|
|
|
1 |
r12 |
r13 |
... |
|
|
|
|
r1y |
r1m |
|
|||||
ˆ |
r2 y |
r21 |
1 |
r23 |
... |
r2m |
|
(6.1) |
R = |
r31 |
r32 |
1 |
... |
|
, |
||
|
r3 y |
r3m |
|
|||||
|
... ... ... |
... |
... |
... |
|
|
||
|
|
rm1 |
rm2 |
rm3 |
... |
1 |
|
|
|
rmy |
|
|
точнее ту ее часть, которая относится к объясняющим переменным:
1 |
r12 |
r13 |
... |
r1m |
|
|
|
1 |
r23 |
... |
|
|
|
r21 |
r2m |
|
||||
R = r31 |
r32 |
1 |
... |
r3m |
. |
(6.2) |
|
|
... |
... |
... |
|
|
... ... |
|
|
||||
|
rm2 |
rm3 |
... |
1 |
|
|
rm1 |
|
|
Здесь rij — парный коэффициент корреляции между переменными Xi, Xj; ryj — парный коэффициент корреляции между Y и Xj.
Формулы для расчета парных коэффициентов корреляции могут быть записаны в следующем виде:
121

|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
n |
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n∑ xkj yk −∑ xkj ×∑ yk |
|
|
|
|
|||||||||||
r jy =r yj =r x j y |
= |
|
|
|
|
|
|
k=1 |
|
|
|
|
|
k=1 |
|
k=1 |
|
|
|
|
, |
|||
|
|
|
|
|
n |
|
|
|
2 |
|
|
|
|
|
n |
2 |
|
|
||||||
|
|
|
n |
|
2 |
|
|
|
|
|
n |
|
2 |
|
|
|||||||||
|
|
|
|
n∑ |
|
−∑ |
xkj |
|
× n∑ y |
k |
|
−∑ y |
|
|
||||||||||
|
|
|
|
|
xkj |
k=1 |
|
|
k=1 |
|
k |
|
||||||||||||
|
|
|
k=1 |
|
|
|
|
|
|
|
k=1 |
|
||||||||||||
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
n |
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n∑ xki xkj −∑ xki ×∑ xkj |
|
|
|
|
|||||||||||||
rij =r ji =r x j xi |
= |
|
|
|
|
|
|
|
k=1 |
|
|
|
|
|
k=1 |
|
k=1 |
|
|
|
|
, |
||
|
|
|
|
|
|
|
n |
|
|
|
2 |
|
|
|
|
|
n |
2 |
|
|||||
|
|
|
|
n |
|
2 |
|
|
|
|
n |
2 |
|
|
|
|||||||||
|
|
|
|
n∑ |
|
−∑ |
xki |
|
|
× n∑ y |
|
−∑ y |
|
|
||||||||||
|
|
|
|
k=1 |
xki |
|
k=1 |
|
|
k=1 |
kj |
|
kj |
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
k=1 |
|
k =1, ..., n — номер наблюдения.
Считается, что наличие коэффициентов rij, превышающих по абсолютной величине 0,75-0,8, свидетельствует о наличии мультиколлинеарности.
2.Если определитель матрицы X T X близок к нулю (например, одного порядка с накапливающимися ошибками вычислений), то это свидетельствует о наличии мультиколлинеарности.
3.Коэффициент детерминации R2 достаточно высок, но некоторые из коэффициентов регрессии статистически незначимы, т. е. имеют низкие t-статистики.
4.Высокие частные коэффициенты корреляции свидетельствуют о наличии мультиколлинеарности. При изучении многомерных связей необходимо измерять действительную силу линейной связи между двумя переменными, очищенную от влияния на рассматриваемую пару переменных других факторов. Частные коэффициенты корреляции определяют силу линейной зависимости между двумя переменными без учета влияния на них других переменных.
Выборочный частный коэффициент корреляции между перемен-
ными Xi |
и X j (1≤i < j ≤m), очищенный от влияния остальных |
(m−2) |
объясняющих переменных, символически обозначается |
rij•12....(i−1)(i+1)...(j−1)(j+1)...m . Приведем формулу расчета данного коэффициента.
Пусть — матрица, обратная к матрице R:
122

11 |
12 |
13 ... |
1m |
|
|||
21 22 |
23 ... |
2m |
|
||||
=R−1 = 31 |
32 |
33 ... |
3m |
. |
(6.3) |
||
|
|
|
|
... |
|
|
|
... ... ... ... |
|
|
|||||
|
m2 |
m3 ... |
|
|
|
||
m1 |
mm |
|
|||||
Тогда: |
|
|
|
|
|
|
|
rij•12....(i−1)(i+1)...(j−1)(j+1)...m =− |
|
ij |
|
. |
(6.4) |
||
|
|
|
|||||
|
|
|
|
ii jj |
|
При проверке статистически значимого отличия от нуля выборочного частного коэффициента корреляции и при построении для него доверительных интервалов следует пользоваться рекомендациями для парного коэффициента корреляции, но во всех формулах объем выборки полагать равным (n - k), где k — остальные объясняющие переменные, т. е. переменные, влияние которых исключается при расчете частных коэффициентов корреляции.
5. Более внимательное изучение вопроса мультиколлинеарности производится следующим образом. Строятся уравнения регрессии каждой из объясняющих переменных Xj на оставшиеся объясняющие переменные X 1,X 2,...,X j−1,X j+1,...,X m . Вычисляются коэффи-
циенты детерминации R2j и рассчитывается их статистическая зна-
чимость на основе F-статистики: |
|
|
|
|
|
R2j |
|
n−m |
|
F j = |
|
× |
|
. |
1−R2j |
m−1 |
Здесь n — число наблюдений, m — число объясняющих переменных в первоначальном уравнении регрессии. Статистика F имеет распределение Фишера с ν1 =m−1 и ν2 =n−m степенями
свободы. Если коэффициент R2j статистически незначим, то Xj не
является линейной комбинацией других переменных и ее можно оставить в уравнении регрессии. В противном случае есть основания считать, что Xj существенно зависит от других объясняющих переменных и имеет место мультиколлинеарность.
123