17-11-2015_11-58-24 / Эконометрика (электронный конспект)
.pdf1)упорядочить данные по убыванию той независимой переменной, относительно которой есть подозрение на гетероскедастичность;
2)исключить d средних (в этом упорядочении) наблюдений (d должно быть примерно равно четверти общего количества наблюдений);
3)провести две независимые регрессии первых n2 − d2 наблюдений и последних n2 − d2
наблюдений и построить соответствующие остатки e1 и e2 ;
4) составить статистику F |
= |
e1T e1 |
|
= |
∑et21 |
. |
|
|
|
|
|
|
|
|
|
||||||||||||||
e2T e2 |
∑et22 |
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
Если верна нулевая гипотеза (8) о постоянстве дисперсий случайных отклонений, то |
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
− |
d |
− m, |
n |
− |
d |
|
построенная статистика F имеет распределение Фишера с |
2 |
2 |
2 |
− m степенями |
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|||
свободы. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
− |
d |
− m, |
n |
− |
d |
|
|
|
|
|
|
|
|
||||
В случае, если F > Fc ρ; |
2 |
2 |
2 |
2 |
− m нулевая гипотеза отвергается и, следо- |
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
вательно, |
|
можно |
|
сделать |
|
|
вывод |
|
о |
|
|
присутствии |
гетероскедастичности; если |
||||||||||||||||
|
ρ; |
n |
− |
d |
− m, |
n |
− |
d |
|
, нет оснований отвергать нулевую гипотезу. |
|
||||||||||||||||||
F ≤ Fc |
2 |
2 |
2 |
2 |
− m |
|
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Суть и причины автокорреляции Автокорреляция остатков (отклонений) в подавляющем большинстве случаев встречается в
регрессионном анализе при использовании данных временных рядов. В экономических задачах значительно чаще встречается положительная автокорреляция (т.е. когда
cov(εt ,εt −1 | X )> 0 ), нежели отрицательная.
Причины автокорреляции:
1)Ошибки спецификации. Неучет в модели какой-либо важной объясняющей переменной обычно приводит к системным отклонениям точек наблюден6ий от линии регрессии.
2)Инерция. Многие экономические показатели обладают определенной цикличностью. Экономические показатели реагируют на изменение экономических условий с запаздыванием (временным лагом).
3)Сглаживание данных. Часто данные по некоторому продолжительному временному периоду получают усреднением данных по составляющим его подынтервалам. Это может привести к определенному сглаживанию колебаний, которые имелись внутри рассматриваемого периода.
51
Последствия автокорреляции
3)Оценки коэффициентов регрессии, оставаясь линейными и несмещенными, перестают быть эффективными, что (в частности) ухудшает прогноз.
4)Дисперсии и ковариации оценок являются смещенными. Это приводит к искажению значений статистик Стъюдента и Фишера, что негативным образом сказывается на результаты проверки гипотез и построении интервальных оценок.
Обнаружение автокорреляции
Выводы о независимости (либо зависимости) случайных отклонений εt делаются на основе их оценок et (т.е. на основе остатков регрессии).
Графический метод.
По оси абсцисс откладываются значения временного индекса t , по оси ординат – остатки et . В случае, когда точки (t,et ) разбросаны вокруг оси абсцисс случайным образом можно сделать вывод об отсутствии автокорреляции, в противном случае – о ее наличии.
Тест Дарбина-Уотсона (Durbin-Watson)
Статистика Дарбина-Уотсона находится по формуле:
|
n |
|
|
DW = |
∑(et −et −1 )2 |
(14) |
|
t =2 |
|
||
|
n |
||
|
|
∑et2 |
|
|
|
t =1 |
|
|
Можно показать, что при наличии в модели свободного члена: |
||
DW ≈ 2(1− r) |
(15) |
где r – выборочный коэффициент корреляции между остатками et и et −1 . В соответствии с соотношением (15):
0 ≤ DW ≤ 4, |
(16) |
причем близость значения DW к нулю означает близость коэффициента r к единице (т.е. положительную корреляцию остатков), близость DW к 2 означает, что r ≈ 0 (т.е. отсутствие автокорреляции), близость DW к 4 означает близость r к -1 (т.е. отрицательную автокорреляцию).
Для более точного определения, какое значение статистики свидетельствует об отсутствии автокорреляции, а какое – об ее наличии (и ее виде), найдены критические точки распределения Дарбина-Уотсона: dl (нижняя граница) и du (верхняя граница), зависящие от
52
числа наблюдений n , количества объясняющих переменных m и от уровня значимости ρ. Значения dl и du (зависящие от n , m и ρ) можно найти в таблицах.
Выводы о наличии и характере автокорреляции делаются по следующему правилу:
1)0 ≤ DW < dl – существует положительная автокорреляция
2)dl < DW < du – неопределенность (нельзя сделать вывод о наличии либо отсутствии авто-
корреляции)
3)du < DW < 4 − du – автокорреляция отсутствует
4)4 − du < DW < 4 − dl – неопределенность (нельзя сделать вывод о наличии либо отсутствии
автокорреляции)
5) 4 − dl < DWl ≤ 4 – существует отрицательная автокорреляция
Обобщенный метод наименьших квадратов
В общем случае ковариационная матрица var(ε| X ) может быть любой симметричной положительно определенной матрицей.
Для исследования модели в общем случае (в частности, при наличии гетероскедастичности либо автокорреляции) используется так называемый обобщенный метод наименьших квадратов (сокращенно ОМНК).
Изложим этот метод.
Основные гипотезы общей линейной регрессионной модели.
1) |
Y = Xβ+ ε |
(1) |
2) |
E (ε| X )= 0 |
(2) |
3) |
var(ε| X )= σ2Ω, где |
(3) |
Ω – симметричная положительно определенная матрица размера n ×n
4) ε| X N (0,σ2Ω) |
(4) |
Поскольку Ω симметричная положительно определенная матрица, обратная матрица Ω−1 также симметрична и положительно определена. Следовательно, существует такая симмет-
ричная положительно определенная матрица P = Ω−12 , что
P P = Ω−1 |
(5) |
В частности, если Ω диагональная (случай гетероскедастичности):
53
|
ω |
0 ... |
0 |
|
|
|
||||||||||||
|
01 |
|
ω ... |
0 |
|
|
||||||||||||
Ω = |
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
.................... |
|
|
|||||||||||||||
|
|
|
|
|
|
0 ... |
|
|
|
|
|
|
||||||
|
0 |
|
|
|
|
|
ωn |
|
||||||||||
то |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
0 |
|
|
... |
|
0 |
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
ω |
|
|||||||||||||
|
|
|
|
1 |
1 |
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
0 |
|
|
|
|
|
|
... |
0 |
|
|
||||||
Ω−1 = |
|
|
|
ω |
||||||||||||||
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
.................... |
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
0 |
|
0 ... |
|
|
|
|||||||||
|
|
|
|
|
|
ω |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
и матрица P = Ω−12 имеет вид: |
||||||||||||||||||
|
|
1 |
|
0 |
|
|
... |
|
0 |
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
||||||||||||
|
|
ω |
|
|||||||||||||||
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
||||
|
0 |
|
|
|
|
|
|
|
|
|
... |
0 |
|
|
||||
|
|
|
|
|
|
|
|
|
|
|||||||||
P = |
|
|
|
|
|
ω2 |
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
.................... |
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
0 |
|
|
|
0 ... |
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
ω |
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
(6)
(7)
(8)
Можно показать, что |
|
|
|
PΩP = In |
|
|
(9) |
Умножим (1) слева на P : |
|
||
PY = PXβ+ Pε |
|
(10) |
|
Обозначим: |
|
|
|
Y = PY , |
X = PX , |
ε = Pε |
(11) |
В силу (11) равенство (10) можно записать:
Y = Xβ+ ε |
(12) |
В силу (2) и (11): |
|
E (ε| X )= E (Pε| X )= PE (ε| X )= 0 . |
|
Следовательно, |
|
E (ε| X )= 0 |
(13) |
В силу (3), (9), (11)
54
var(ε| X )= E ε |
εT | |
X |
= E PεεT P | X |
|
= E PεεT P | X |
= |
||||
|
|
|
|
|
|
|
|
|
|
|
|
T |
|
2 |
|
2 |
In |
|
|
|
|
= PE εε |
|
| X P |
= σ |
PΩP = σ |
|
|
|
|
||
Следовательно, |
|
|
|
|
|
|
|
|
||
var(ε| X )= σ2In |
|
|
|
(14) |
|
|
|
|
Если отклонения ε распределены нормально (при условии X ), то и ε = Pε также распределены нормально (при условии X ).
Следовательно, для модели (12) выполнены условия классической линейной регрессионной модели. Поэтому все результаты, полученные для классической регрессионной модели, справедливы и для модели (12).
В соответствии с формулой для МНК-оценок коэффициентов регрессии для модели (12) в силу (5):
b = (X T X )−1 X TY = (X T PPX )−1 X T PPY = (X T Ω−1 X )−1 X T Ω−1Y . |
(15) |
|
Итак, МНК-оценка для модели (5): |
|
|
b = (X T Ω−1 X )−1 X T Ω−1Y |
(16) |
|
Эта оценка называется ОМНК-оценкой для исходной модели (1).
Как следует из результатов для классической модели, ОМНК-оценка b является несмещенной и эффективной линейной оценкой вектора коэффициентов β.
В силу (5) в соответствии с формулой для ковариационной матрицы оценок коэффициентов β для классической модели:
Var b | X = σ2 (X T X )−1 = σ2 (X T PPX )−1 = σ2 (X T Ω−1 X )−1
Итак,
|
|
|
|
| X |
|
= σ |
2 |
(X |
T |
Ω |
−1 |
X ) |
−1 |
(17) |
Var b |
|
|
|
|
|
|||||||||
Обозначим: |
|
|
|
|
|
|
|
|
||||||
|
ˆ |
|
|
|
|
|
|
|
|
|
|
|
(18) |
|
Y |
|
= Xb |
|
|
|
|
|
|
|
|
|
|||
e |
|
=Y |
ˆ |
|
|
|
|
|
|
|
|
(19) |
||
|
−Y |
|
|
|
|
|
|
|
|
|
прогнозные значения и соответствующие остатки для исходной модели с использованием b .
Обозначим: |
|
|
ˆ |
|
|
|
(20) |
|
Y |
= Xb |
55
e |
ˆ |
(21) |
=Y −Y |
прогнозные значения и соответствующие остатки для новой модели. В соответствии с формулой (3.32):
e = I − X |
(X |
T X )−1 X |
T ε |
(21’) |
|
|
|
|
|
Всоответствии с результатами для классической модели случайные векторы b и e независимы.
Всоответствии с формулой (3.34):
Var[e | X ] |
|
= σ2 In − X |
(X T X )−1 X |
T |
|
|
|
|
|
|
(21’’) |
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
В соответствии с формулой (3.35) для классической модели необъясненная дисперсия |
|||||||||||||||||||
для новой модели равна: |
|
|
|
|
|
|
|
|
|
||||||||||||||
s2 |
= |
1 |
|
|
eT e |
|
|
|
|
|
|
|
(22) |
|
|
|
|
|
|
|
|||
|
n − m |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
Величина s2 является несмещенной оценкой параметра σ2 . |
|||||||||||||||||||||||
Как следует из результатов для классической модели: |
|
|
|||||||||||||||||||||
(n − m) |
s2 |
|
|
χ |
2 |
(n − m) |
|
|
|
|
(22’) |
|
|
|
|
|
|||||||
σ2 |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
В силу (11), (18)-(22): |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
2 |
|
1 |
|
|
T |
|
1 |
|
|
ˆ T |
|
ˆ |
1 |
|
|
|
T |
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
s |
|
= |
n − m |
e e |
= |
n − m |
(Y |
−Y ) |
(Y |
−Y )= |
n − m |
(Y |
− Xb) (Y − |
Xb)= |
= n −1 m (Y − Xb)T PP(Y − Xb)= n −1 m (e )T Ω−1e
Итак, величина s2 может быть найдена по формуле:
s2 = |
1 |
(e )T Ω−1e |
|
|
(23) |
||||||
n − m |
|
|
|||||||||
Обозначим: |
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
−1 |
|
||
|
2 |
(X |
T |
|
−1 |
X ) , |
|
||||
|
|
| X = s |
Ω |
(39) |
|||||||
Var b |
|
|
|
||||||||
В силу несмещенности оценки s2 |
из (24) следует, что матрица (39) является несмещенной |
оценкой ковариационной матрицы векторной МНК-оценки b .
56
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| X |
диспер- |
Заметим, что элементы главной диагонали матрицы Var b | X |
– оценки Var b |
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
сий коэффициентов b . Следовательно, величины: |
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
s(b |
| X ) = |
|
|
|
| X |
(40) |
|
|
|
|
|
|
|
|||
Var b |
|
|
|
|
|
|
|
|||||||||
i |
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
|
|
можно считать оценками стандартных отклонений коэффициентов b . |
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
При выполнении гипотезы (4) величины: |
|
|
|
|
|
|
|
|
||||||||
t (bi |
)= |
bi −βi |
|
|
|
|
(41) |
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
s(b |
| X ) |
|
|
|
|
|
|
|
|
|
|
|
||
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
являются t-статистиками для новой модели, и, следовательно, имеют распределение Стъюдента с n − m степенями свободы.
Поэтому, в соответствии с результатами для классической модели доверительные интервалы
для коэффициентов βi |
определяются из равенства: |
|||||||
|
{ |
|
( i ) |
|
c |
} |
|
|
P |
|
t |
b |
≤ t |
|
(ρ,n − m) |
=1−ρ, |
(42) |
где ρ – уровень значимости, а tc (ρ,n − m) – соответствующая двусторонняя квантиль рас-
пределения Стъюдента с числом степеней свободы n − m .
В силу (41), (42) |
интервальные оценки для коэффициентов βi |
имеют вид: |
||
|
|
|
|
(43) |
bi −tc (ρ,n − m)s(bi | X ), |
bi +tc (ρ,n − m)s(bi | X ) |
Проверка гипотезы: Hβ = r
H – матрица размером q ×m , q ≤ m , rank(H ) = q , r – вектор-столбец длиной q .
В соответствии с результатами для классической модели, при выполнении гипотезы:
Hβ = r |
|
(44) |
|
|
|
величина: |
|
|
|
|
|
|
(Hb − r)T H (X T X )−1 |
H T −1 |
(Hb − r) |
||
F = |
|
|
|
|
(45) |
|
s2q |
|
|
||
|
|
|
|
|
имеет распределение Фишера (F-распределение) с (q,n − m) степенями свободы:
F F(q,n − m) |
(46) |
|||||
Поскольку в силу (5), (11) |
|
|||||
|
T |
T |
Ω |
−1 |
X |
(47) |
X |
X = X |
|
|
статистика (45) может быть записана в виде:
57
|
(Hb − r)T H (X T Ω−1 X )−1 |
H T |
−1 |
(Hb − r) |
|
F = |
|
|
|
|
(48) |
s2q |
|
|
|
||
|
|
|
|
|
Отметим, что в силу формулы (39) формулу (48) можно также записать в виде:
|
|
T |
|
|
|
H |
T |
−1 |
|
|
|
|
|
|
|
|
|||||
F = |
(Hb |
− r) H Var b |
| X |
|
(Hb − r) |
(48’) |
||||
|
|
|
q |
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
Напомним, что при выполнении гипотезы (44) имеет место равенство:
P{F ≤ Fc (ρ;q,n − m)}=1−ρ , |
(49) |
где Fc (ρ;q,n − m) – (1−ρ) -квантиль распределения Фишера с (q,n − m) степенями свободы.
В случае, если F > Fc (ρ;q,n − m) нулевая гипотеза отвергается; если F ≤ Fc (ρ;q,n − m), нет оснований отвергать нулевую гипотезу (и она принимается).
Доверительная область для коэффициентов регрессии Рассмотрим случай, когда H = Im .
Тогда равенство (44) примет вид: β = r
Заменив H на Im и r на β в формуле (48), получим:
F = |
(b −β)T (X T Ω−1 X )(b −β) |
(50) |
|
s2m |
|
Отметим, что в силу формулы (39) формулу (50) можно также записать в виде:
|
|
T |
|
|
−1 |
|
|
F = |
(b |
−β) |
Var (b |
| X ) |
(b −β) |
(50’) |
|
|
|
|
m |
|
|
||
|
|
|
|
|
|
|
|
В силу (49), (50) |
(1−ρ) -доверительная область для вектора β задается условием: |
||||||
(b −β)T (X T Ω−1 X )(b −β)≤ s2mFc (ρ;m,n − m) |
(51) |
и является эллипсоидом в m-мерном пространстве. С учетом (50’) условие (51) можно записать виде:
|
T |
−1 |
|
(51’) |
(b |
−β) Var (b |
| X ) |
(b −β)≤ mFc (ρ;m,n − m) |
58
Прогнозирование
Пусть Xn+1 = (xn+1,1, , xn+1,m ) – известные значения, Yn+1 – неизвестно.
Будем считать, что основные гипотезы имеют место также для «наблюдения» n +1:
1) |
Yn+1 = Xn+1β+ εn+1 |
(52) |
2) |
E (εn+1 | X , Xn+1 )= 0 |
(53) |
3) |
var(ε+ | X , Xn+1 )= σ2Ω+ , |
(54) |
где ε+ = (ε,εn+1 )T = (ε1, ,εn ,εn+1 )T , Ω+ |
– симметричная положительно определенная матрица |
||
размера (n +1) ×(n +1) , такая, что Ω – ее подматрица, |
|||
4) ε+ | X , Xn+1 N (0,σ2Ω+ ) |
(55) |
||
При заданном Xn+1 |
= (xn+1,1, , xn+1,m ) будем строить прогноз, линейный относительно Y : |
||
Yˆ |
= CTY |
(56) |
|
n+1 |
|
|
|
где C = (c1, ,cn )T .
Условие несмещенности прогноза имеет вид:
ˆ |
| X , Xn+1 )= E (Yn+1 |
| X , Xn+1 ) |
(57) |
E (Yn+1 |
|||
Из (1), (2), (56): |
|
|
E (Yˆn+1 | X , Xn+1 )= E (CTY | X , Xn+1 )= CT E (Y | X , Xn+1 )= CT Xβ
Итак,
ˆ |
X , Xn+1 )= C |
T |
Xβ |
(58) |
|
E (Yn+1 | |
|
||||
Из (52), (53): |
|
|
|
||
E (Yn+1 | |
X , Xn+1 )= Xn+1β |
(59) |
|||
Итак, условие несмещенности прогноза (56) имеет вид: |
|||||
CT Xβ = X |
β |
|
|
(60) |
|
|
|
n+1 |
|
|
|
Поскольку равенство (60) должно выполняться при всех β, из него следует, что:
CT X = Xn+1 |
(61) |
Условие эффективности прогноза заключается в том, что вектор C = (c1, ,cn )T обеспечивает
минимум выражения: |
|
||||
ˆ |
|
2 |
|
|
|
E (Y |
−Yn+1 ) |
| X , Xn+1 |
(62) |
||
|
|||||
|
|
|
|
|
59
В силу (60):
|
ˆ |
−Yn+1 = C |
T |
|
(Xβ+ ε)−(Xn+1β+ εn+1 )= C |
T |
Xβ+C |
T |
ε − |
Xn+1β−εn+1 = C |
T |
ε −εn+1 |
|
(63) |
||||||||||||||||||||||||||||
Yn+1 |
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||
Следовательно, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
ˆ |
|
|
2 |
= |
|
(C |
T |
ε −εn+1 ) |
2 |
= C |
T |
|
|
T |
|
2 |
|
|
|
T |
εεn+1 |
|
|
|
|
(64) |
|
|
|||||||||||||
(Yn+1 −Yn+1 ) |
|
|
|
|
|
εε |
C + εn+1 − 2C |
|
|
|
|
|
|
|
||||||||||||||||||||||||||||
Подставим (64) в (62) и воспользуемся формулой (3): |
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||
|
|
ˆ |
|
|
|
|
2 |
| X , |
|
= C |
T |
E |
|
|
T |
|
|
|
|
+ E |
|
2 |
|
|
|
|
T |
E[εεn+1 | X , Xn+1 ]= |
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||
|
E (Yn+1 −Yn+1 ) |
|
|
Xn+1 |
|
εε |
|
| X , Xn+1 C |
εn |
+1 | X , Xn+1 − 2C |
|
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
= σ2CT ΩC + var(εn+1 | X , Xn+1 )− 2CT cov(ε,εn+1 | X , Xn+1 ) |
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||
Итак, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
ˆ |
|
|
|
|
2 |
|
|
|
|
|
|
2 T |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
T |
|
|
|
|
|
|
||||||
|
E (Yn+1 −Yn+1 ) |
| X , |
Xn+1 |
= σ C ΩC + var |
(εn+1 | X , Xn+1 )− 2C cov(ε,εn+1 | X , Xn+1 ) |
(65) |
||||||||||||||||||||||||||||||||||||
|
|
|
||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Заметим, что |
|
var(εn+1 | X , Xn+1 ) равен произведению σ2 на элемент ωn+1,n+1 |
матрицы Ω+ , а |
|||||||||||||||||||||||||||||||||||||||
вектор-столбец |
|
|
|
cov(ε,εn+1 | X , Xn+1 ) |
|
|
равен |
|
|
|
произведению |
|
|
σ2 |
на |
столбец |
||||||||||||||||||||||||||
ω1:n,n+1 = (ω1,n+1, ,ωn,n+1 )T |
|
соответствующих элементов матрицы Ω+ . |
|
|
|
|
|
|||||||||||||||||||||||||||||||||||
Следовательно, равенство (65) можно также записать в виде: |
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||
|
|
ˆ |
|
|
|
|
2 |
|
|
|
|
|
|
|
2 |
|
|
|
T |
|
|
|
|
|
|
|
|
T |
|
|
|
|
|
|
|
|
|
|
||||
|
E (Yn+1 −Yn+1 ) |
| X , Xn+1 |
= σ (C ΩC + ωn+1,n+1 − 2C ω1:n,n+1 ) |
|
|
(66) |
|
|
||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Таким |
образом, |
|
|
вектор |
|
C = (c1, ,cm ) |
|
|
обеспечивающий несмещенный |
и эффективный |
||||||||||||||||||||||||||||||||
прогноз в классе прогнозов, линейных относительно Y , является решением следующей |
||||||||||||||||||||||||||||||||||||||||||
оптимизационной задачи: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
CT ΩC |
− 2CT ω |
|
|
|
+1 |
→ min |
|
|
|
|
|
|
|
|
|
|
(67) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
1:n,n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
CT X = Xn+1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(68) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
Построим функцию Лагранжа для задачи (67)-(68): |
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||
|
L(C,Λ)= CT ΩC − 2CT ω1:n,n+1 −(CT X − Xn+1 )Λ |
|
|
|
|
|
|
(69) |
|
|
|
|
|
|
|
|||||||||||||||||||||||||||
где Λ = (λ1, ,λm )T |
– вектор множителей Лагранжа. |
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||
Продифференцируем функцию Лагранжа по C . |
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||
|
∂L |
|
(C,Λ)= 2ΩC − 2ω1:n,n+1 − X Λ |
|
|
|
|
|
|
|
|
(70) |
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
∂C |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
Приравняв полученное выражение к нулю, получим условие Куна-Таккера: |
|
|
|||||||||||||||||||||||||||||||||||||||
2ΩC − 2ω1:n,n+1 |
|
− X Λ = 0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(71) |
|
|
|
|
|
|
|
|
|
60