
- •ОГЛАВЛЕНИЕ
- •ПРЕДИСЛОВИЕ
- •МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ
- •РАБОЧАЯ ПРОГРАММА ДИСЦИПЛИНЫ
- •РЕКОМЕНДАЦИИ ПО САМОСТОЯТЕЛЬНОЙ РАБОТЕ СТУДЕНТА
- •ТЕОРЕТИЧЕСКИЕ МАТЕРИАЛЫ
- •ГЛАВА 1. СТАТИСТИЧЕСКИЕ ПОНЯТИЯ И РАСПРЕДЕЛЕНИЯ
- •§ 1. Введение
- •§ 2. Суть регрессионного анализа
- •§ 3. Некоторые статистические определения
- •§ 4. Нормальное (гауссовское) распределение
- •§ 5. (хи-квадрат)-распределение
- •§ 6. Распределение Стьюдента (t-распределение)
- •§ 7. F-распределение (распределение дисперсионного отношения)
- •§ 8. Статистическая проверка гипотез
- •§ 9. Определение критических значений распределений Стьюдента и Фишера с использованием программы Microsoft Office Excel
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 2. ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ. УСЛОВИЯ ГАУССА–МАРКОВА
- •§ 1. Основные понятия
- •§ 2. Метод наименьших квадратов
- •§ 3. Предпосылки метода наименьших квадратов
- •§ 4. Анализ точности определения оценок коэффициентов регрессии
- •§ 5. Проверка статистической значимости коэффициентов парной линейной регрессии
- •§ 6. Интервальные оценки коэффициентов линейного уравнения регрессии
- •§ 7. Доверительные интервалы для зависимой переменной
- •§ 8. Проверка общего качества уравнения регрессии. Коэффициент детерминации
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 3. МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Определение параметров уравнения регрессии
- •§ 2. Расчет коэффициентов множественной линейной регрессии
- •§ 3. Дисперсии и стандартные ошибки коэффициентов
- •§ 4. Проверка статистической значимости коэффициентов уравнения регрессии
- •§ 5. Интервальные оценки коэффициентов теоретического уравнения регрессии
- •§ 6. Проверка общего качества уравнения регрессии
- •§ 7. Проверка равенства двух коэффициентов детерминации
- •§ 8. Проверка гипотезы о совпадении уравнений регрессии для двух выборок
- •§ 10. Частные уравнения регрессии
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 4. АВТОКОРРЕЛЯЦИЯ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Суть и причины автокорреляции
- •§ 2. Последствия автокорреляции
- •§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона
- •§ 4. Методы устранения автокорреляции
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 5. ГЕТЕРОСКЕДАСТИЧНОСТЬ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Последствия гетероскедастичности
- •§ 3. Обнаружение гетероскедастичности
- •§ 4. Методы смягчения проблемы гетероскедастичности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ
- •§ 1. Общие понятия и последствия мультиколлнеарности
- •§ 2. Определение мультиколлинеарности
- •§ 3. Методы устранения мультиколлинеарности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 7. ФИКТИВНЫЕ ПЕРЕМЕННЫЕ В РЕГРЕССИОННЫХ МОДЕЛЯХ
- •§ 1. Модель с одной фиктивной (бинарной) переменной
- •§ 3. Сравнение двух регрессий
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 8. НЕЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Общие понятия
- •§ 2. Степенные модели (логарифмические)
- •§ 3. Обратная модель (гиперболическая)
- •§ 4. Полиномиальная модель
- •§ 5. Показательная модель (лог-линейная)
- •§ 6. Выбор формы модели
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 9. ВРЕМЕННЫЕ РЯДЫ
- •§ 1. Общие понятия
- •§ 2. Моделирование тренда временного ряда
- •§ 4. Стационарные ряды
- •§ 5. Процесс авторегрессии AR(p)
- •§ 6. Процессы скользящего среднего MA(q)
- •§ 7. Комбинированные процессы авторегрессии-скользящего среднего ARMA(p, q)
- •§ 8. Модели ARMA, учитывающие наличие сезонности
- •§ 9. Нестационарные временные ряды. Процессы авторегрессии и проинтегрированного скользящего среднего ARIMA(p, k, q)
- •§ 10. Регрессионные модели с распределенными лагами
- •§ 11. Полиномиально распределенные лаги Ш. Алмон
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 10. СИСТЕМЫ ОДНОВРЕМЕННЫХ УРАВНЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Идентификация структурной формы модели
- •§ 3. Косвенный метод наименьших квадратов
- •§ 4. Двухшаговый метод наименьших квадратов
- •§ 5. Трехшаговый метод наименьших квадратов
- •Резюме
- •Вопросы для самопроверки
- •ЗАКЛЮЧЕНИЕ
- •ЗАДАНИЯ ДЛЯ КОНТРОЛЯ
- •Тесты для самоконтроля
- •Ключи к тестам для самоконтроля
- •Контрольная работа
- •Вопросы к зачету (экзамену)
- •ГЛОССАРИЙ
- •СПИСОК ЛИТЕРАТУРЫ

рассматриваемого периода, что в свою очередь может послужить причиной автокорреляции.
§ 2. Последствия автокорреляции
При применении МНК обычно выделяются следующие последствия автокорреляции:
1.Оценки параметров, оставаясь линейными и несмещенными, перестают быть эффективными. Следовательно, они перестают обладать свойствами наилучших линейных несмещенных оценок.
2.Дисперсии оценок являются смещенными. Часто дисперсии, вычисляемые по стандартным формулам, являются заниженными, что влечет за собой увеличение t-статистик. Это может привести к признанию статистически значимыми объясняющие переменные, которые в действительности таковыми могут и не являться.
T |
2 |
|
|
3. Оценка дисперсии регрессии S e2 =∑ |
et |
|
является сме- |
|
|
||
t=1 T −m−1 |
|
щенной оценкой истинного значения σ2 , во многих случаях занижая его.
4. В силу вышесказанного выводы по t- и F-статистикам, определяющим значимость коэффициентов регрессии и коэффициента детерминации, возможно, будут неверными. Вследствие этого ухудшаются прогнозные качества модели.
§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона
Истинные значения отклонений εt , t =1, 2, ..., T неизвестны.
Поэтому выводы об их независимости осуществляются на основе оценок et , t =1, 2, ..., T , полученных из эмпирического уравнения
регрессии. Рассмотрим возможные методы определения автокорреляции.
Обычно проверяется некоррелированность отклонений et , t =1, 2, ..., T , являющаяся необходимым, но недостаточным условием независимости. Причем проверяется некоррелированность сосед-
91

них величин et. Соседними обычно считаются соседние во времени (при рассмотрении временных рядов) или по возрастанию объясняющей переменной X (в случае перекрестной выборки) значения et. Для них несложно рассчитать коэффициент корреляции, назы-
ваемый в этом случае коэффициентом автокорреляции первого
порядка:
ret et−1 =
T
∑(et −M (et ))(et−1−M (et−1))
t=2
T |
(et−M (et))2 |
T |
(et−1−M (et−1))2 |
∑ |
∑ |
||
t=2 |
|
t=2 |
|
T |
|
|
T |
|
|
|
|
T |
∑etet−1 |
|
∑etet−1 |
|
|
∑etet−1 |
|||
t=2 |
|
= |
t=2 |
|
|
≈ |
t=2 |
|
T |
T |
|
T−1 |
|
T |
|||
|
T |
|
|
|
∑et2 |
|||
∑et2 |
∑et−12 |
|
∑et |
2 |
∑et |
2 |
|
|
t=2 |
t=2 |
|
t=2 |
|
t=1 |
|
|
t=1 |
|
|
|
|
|
=
(4.3)
.
При этом учитывается, что математическое ожидание остатков
M (et )=0 .
На практике для анализа коррелированности отклонений вместо коэффициента корреляции используют тесно связанную с ним статистику Дарбина–Уотсона (DW), рассчитываемую по формуле:
|
T |
(e |
−e |
)2 |
|
|
|
|
|
∑ |
|
|
|
||||
DW = |
t=2 |
t |
|
t−1 |
. |
(4.4) |
||
|
T |
|
|
|
|
|||
|
|
∑et2 |
|
|
||||
|
|
t=1 |
|
|
|
|
|
|
Очевидно, что при больших T |
|
|
|
|
|
|
||
DW ≈2 |
1− |
retet−1) |
. |
|
||||
|
|
( |
|
|
|
Нетрудно заметить, что если et=et-1, то retet−1 =1 и DW=0 (положительная автокорреляция). Если et=-et-1, то retet−1 =-1 и DW=4 (от-
рицательная автокорреляция). Во всех других случаях 0≤DW ≤4 . При случайном поведении отклоненийretet−1 =0 и DW=2. Таким
образом, необходимым условием независимости случайных откло-
92

нений является близость к двойке значения статистики Дарбина– Уотсона. Тогда, если DW ≈2 , мы считаем отклонения от регрессии случайными (хотя они в действительности могут и не быть таковыми). Это означает, что построенная линейная регрессия, вероятно, отражает реальную зависимость. Скорее всего, не осталось неучтенных существенных факторов, влияющих на зависимую переменную. Какая-либо другая нелинейная формула не превосходит по статистическим характеристикам предложенную линейную модель. В этом случае, даже когда R2 невелико, вполне вероятно, что необъясненная дисперсия вызвана влиянием на зависимую переменную большого числа различных факторов, индивидуально слабо влияющих на исследуемую переменную, и может быть описана как случайная нормальная ошибка.
Возникает вопрос, какие значения DW можно считать статистически близкими к 2? Для ответа на этот вопрос разработаны специальные таблицы критических точек статистики Дарбина–Уотсона, позволяющие при данном числе наблюдений T (или в прежних обозначениях n), количестве объясняющих переменных m и заданном уровне значимости α определять границы приемлемости (критические точки) наблюдаемой статистики DW. Для заданных α, T , m
в таблице указываются два числа: dl — нижняя граница и du — верхняя граница.
Общая схема критерия Дарбина–Уотсона следующая:
1. По построенному эмпирическому уравнению регрессии
ˆyt =b0 +b1xt1+b2 xt 2+...+bm xtm
определяются значения отклонений et = yt −ˆyt для каждого на-
блюдения t, t =1, ..., T .
2.По формуле (4.4) рассчитывается статистика DW.
3.По таблице критических точек Дарбина–Уотсона определяются два числа dl и du и осуществляют выводы по правилу:
(0≤DW <d l ) — существует положительная автокорреляция,
(d l ≤DW <d u ) — вывод о наличии автокорреляции не определен, (d u ≤DW <4−d u ) — автокорреляция отсутствует,
93

(4−d u ≤DW <4−d l ) — вывод о наличии автокорреляции не определен,
(4−d l ≤DW ≤4) — существует отрицательная автокорреляция.
Не обращаясь к таблице критических точек Дарбина–Уотсона, можно пользоваться «грубым» правилом и считать, что автокорреляция остатков отсутствует, если 1,5<DW <2,5 . Для более на-
дежного вывода целесообразно обращаться к табличным значениям. При наличии автокорреляции остатков полученное уравнение регрессии обычно считается неудовлетворительным.
Отметим, что при использовании критерия Дарбина–Уотсона необходимо учитывать следующие ограничения:
1.Критерий DW применяется лишь для тех моделей, которые содержат свободный член.
2.Предполагается, что случайные отклонения εt определяются
по итерационной схеме: εt = ρεt−1+νt , называемой авторегрессионной схемой первого порядка AR(1). Здесь νt — случайный член, для которого условия Гаусса–Маркова выполняются.
3.Статистические данные должны иметь одинаковую периодичность (не должно быть пропусков в наблюдениях).
4.Критерий Дарбина–Уотсона не применим для регрессионных моделей, содержащих в составе объясняющих переменных зависимую переменную с временным лагом в один период, т. е. для так называемых авторегрессионных моделей вида:
yt = β0 +β1xt1+β2 xt 2+...+βm xtm +γyt−1+εt . |
(4.5) |
В этом случае имеется систематическая связь между одной из объясняющих переменных и одним из компонентов случайного члена. Не выполняется одна из основных предпосылок МНК — объясняющие переменные не должны быть случайными (не иметь случайной составляющей). Значение любой объясняющей переменной должно быть экзогенным (заданным вне модели), полностью определенным. В противном случае оценки будут смещенными даже при больших объемах выборок.
94

Для авторегрессионных моделей разработаны специальные тесты обнаружения автокорреляции, в частности h-статистика Дарбина, которая определяется по формуле:
|
n |
|
h = ρˆ |
1−nD(g), |
(4.6) |
где ρˆ — оценка коэффициента ρ авторегрессии первого порядка εt = ρεt−1+νt ( νt — случайный член), D(g ) — выборочная дисперсия коэффициента γ при лаговой переменной yt−1 , n — число наблюдений.
При большом объеме выборки h распределяется как φ(0,1),
т. е. как нормальная переменная со средним значением 0 и дисперсией, равной 1 по нулевой гипотезе отсутствия автокорреляции. Следовательно, гипотеза отсутствия автокорреляции может быть отклонена при уровне значимости 5%, если абсолютное значение h больше, чем 1,96, и при уровне значимости 1%, если оно больше, чем 2,58, при применении двухстороннего критерия и большой выборке. В противном случае она не отклоняется.
Отметим, что обычно значение ρˆ рассчитывается по формуле: ˆρ=1−0,5DW , а D(g ) равна квадрату стандартной ошибки S g
оценки g коэффициента γ . Поэтому h легко вычисляется на основе данных оцененной регрессии.
Основная проблема при использовании этого теста заключается в невозможности вычисления h при nD(g)>1.
Пример 4.1. Пусть имеются следующие условные данные (X — объясняющая переменная, Y — зависимая переменная, табл. 4.1).
Таблица 4.1
Исходные данные (условные, ден. ед.)
t |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
X |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
Y |
3 |
8 |
6 |
12 |
11 |
17 |
15 |
20 |
16 |
24 |
22 |
28 |
26 |
34 |
31 |
ˆ
Линейное уравнение регрессии имеет вид: Y =2,09+2,014X .
95