Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

17-11-2015_11-58-24 / Эконометрика (электронный конспект)

.pdf
Скачиваний:
57
Добавлен:
20.02.2016
Размер:
1.05 Mб
Скачать

1)упорядочить данные по убыванию той независимой переменной, относительно которой есть подозрение на гетероскедастичность;

2)исключить d средних (в этом упорядочении) наблюдений (d должно быть примерно равно четверти общего количества наблюдений);

3)провести две независимые регрессии первых n2 d2 наблюдений и последних n2 d2

наблюдений и построить соответствующие остатки e1 и e2 ;

4) составить статистику F

=

e1T e1

 

=

et21

.

 

 

 

 

 

 

 

 

 

e2T e2

et22

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Если верна нулевая гипотеза (8) о постоянстве дисперсий случайных отклонений, то

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

d

m,

n

d

 

построенная статистика F имеет распределение Фишера с

2

2

2

m степенями

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

свободы.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

d

m,

n

d

 

 

 

 

 

 

 

 

В случае, если F > Fc ρ;

2

2

2

2

m нулевая гипотеза отвергается и, следо-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

вательно,

 

можно

 

сделать

 

 

вывод

 

о

 

 

присутствии

гетероскедастичности; если

 

ρ;

n

d

m,

n

d

 

, нет оснований отвергать нулевую гипотезу.

 

F Fc

2

2

2

2

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Суть и причины автокорреляции Автокорреляция остатков (отклонений) в подавляющем большинстве случаев встречается в

регрессионном анализе при использовании данных временных рядов. В экономических задачах значительно чаще встречается положительная автокорреляция (т.е. когда

cov(εt ,εt 1 | X )> 0 ), нежели отрицательная.

Причины автокорреляции:

1)Ошибки спецификации. Неучет в модели какой-либо важной объясняющей переменной обычно приводит к системным отклонениям точек наблюден6ий от линии регрессии.

2)Инерция. Многие экономические показатели обладают определенной цикличностью. Экономические показатели реагируют на изменение экономических условий с запаздыванием (временным лагом).

3)Сглаживание данных. Часто данные по некоторому продолжительному временному периоду получают усреднением данных по составляющим его подынтервалам. Это может привести к определенному сглаживанию колебаний, которые имелись внутри рассматриваемого периода.

51

Последствия автокорреляции

3)Оценки коэффициентов регрессии, оставаясь линейными и несмещенными, перестают быть эффективными, что (в частности) ухудшает прогноз.

4)Дисперсии и ковариации оценок являются смещенными. Это приводит к искажению значений статистик Стъюдента и Фишера, что негативным образом сказывается на результаты проверки гипотез и построении интервальных оценок.

Обнаружение автокорреляции

Выводы о независимости (либо зависимости) случайных отклонений εt делаются на основе их оценок et (т.е. на основе остатков регрессии).

Графический метод.

По оси абсцисс откладываются значения временного индекса t , по оси ординат – остатки et . В случае, когда точки (t,et ) разбросаны вокруг оси абсцисс случайным образом можно сделать вывод об отсутствии автокорреляции, в противном случае – о ее наличии.

Тест Дарбина-Уотсона (Durbin-Watson)

Статистика Дарбина-Уотсона находится по формуле:

 

n

 

 

DW =

(et et 1 )2

(14)

t =2

 

 

n

 

 

et2

 

 

 

t =1

 

 

Можно показать, что при наличии в модели свободного члена:

DW 2(1r)

(15)

где r – выборочный коэффициент корреляции между остатками et и et 1 . В соответствии с соотношением (15):

0 DW 4,

(16)

причем близость значения DW к нулю означает близость коэффициента r к единице (т.е. положительную корреляцию остатков), близость DW к 2 означает, что r 0 (т.е. отсутствие автокорреляции), близость DW к 4 означает близость r к -1 (т.е. отрицательную автокорреляцию).

Для более точного определения, какое значение статистики свидетельствует об отсутствии автокорреляции, а какое – об ее наличии (и ее виде), найдены критические точки распределения Дарбина-Уотсона: dl (нижняя граница) и du (верхняя граница), зависящие от

52

числа наблюдений n , количества объясняющих переменных m и от уровня значимости ρ. Значения dl и du (зависящие от n , m и ρ) можно найти в таблицах.

Выводы о наличии и характере автокорреляции делаются по следующему правилу:

1)0 DW < dl – существует положительная автокорреляция

2)dl < DW < du – неопределенность (нельзя сделать вывод о наличии либо отсутствии авто-

корреляции)

3)du < DW < 4 du – автокорреляция отсутствует

4)4 du < DW < 4 dl – неопределенность (нельзя сделать вывод о наличии либо отсутствии

автокорреляции)

5) 4 dl < DWl 4 – существует отрицательная автокорреляция

Обобщенный метод наименьших квадратов

В общем случае ковариационная матрица var(ε| X ) может быть любой симметричной положительно определенной матрицей.

Для исследования модели в общем случае (в частности, при наличии гетероскедастичности либо автокорреляции) используется так называемый обобщенный метод наименьших квадратов (сокращенно ОМНК).

Изложим этот метод.

Основные гипотезы общей линейной регрессионной модели.

1)

Y = Xβ+ ε

(1)

2)

E (ε| X )= 0

(2)

3)

var(ε| X )= σ2, где

(3)

– симметричная положительно определенная матрица размера n ×n

4) ε| X N (0,σ2)

(4)

Поскольку симметричная положительно определенная матрица, обратная матрица 1 также симметрична и положительно определена. Следовательно, существует такая симмет-

ричная положительно определенная матрица P = Ω12 , что

P P = Ω1

(5)

В частности, если диагональная (случай гетероскедастичности):

53

 

ω

0 ...

0

 

 

 

 

01

 

ω ...

0

 

 

Ω =

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

....................

 

 

 

 

 

 

 

 

0 ...

 

 

 

 

 

 

 

0

 

 

 

 

 

ωn

 

то

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

0

 

 

...

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ω

 

 

 

 

 

1

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

...

0

 

 

1 =

 

 

 

ω

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

....................

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

0

 

0 ...

 

 

 

 

 

 

 

 

 

ω

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

и матрица P = Ω12 имеет вид:

 

 

1

 

0

 

 

...

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ω

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

...

0

 

 

 

 

 

 

 

 

 

 

 

 

P =

 

 

 

 

 

ω2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

....................

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

0 ...

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ω

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

(6)

(7)

(8)

Можно показать, что

 

 

PP = In

 

 

(9)

Умножим (1) слева на P :

 

PY = PXβ+ Pε

 

(10)

Обозначим:

 

 

Y = PY ,

X = PX ,

ε = Pε

(11)

В силу (11) равенство (10) можно записать:

Y = Xβ+ ε

(12)

В силу (2) и (11):

 

E (ε| X )= E (Pε| X )= PE (ε| X )= 0 .

Следовательно,

 

E (ε| X )= 0

(13)

В силу (3), (9), (11)

54

var(ε| X )= E ε

εT |

X

= E PεεT P | X

 

= E PεεT P | X

=

 

 

 

 

 

 

 

 

 

 

 

 

T

 

2

 

2

In

 

 

 

 

= PE εε

 

| X P

= σ

PP = σ

 

 

 

 

Следовательно,

 

 

 

 

 

 

 

 

var(ε| X )= σ2In

 

 

 

(14)

 

 

 

 

Если отклонения ε распределены нормально (при условии X ), то и ε = Pε также распределены нормально (при условии X ).

Следовательно, для модели (12) выполнены условия классической линейной регрессионной модели. Поэтому все результаты, полученные для классической регрессионной модели, справедливы и для модели (12).

В соответствии с формулой для МНК-оценок коэффициентов регрессии для модели (12) в силу (5):

b = (X T X )1 X TY = (X T PPX )1 X T PPY = (X T 1 X )1 X T 1Y .

(15)

Итак, МНК-оценка для модели (5):

 

 

b = (X T 1 X )1 X T 1Y

(16)

 

Эта оценка называется ОМНК-оценкой для исходной модели (1).

Как следует из результатов для классической модели, ОМНК-оценка b является несмещенной и эффективной линейной оценкой вектора коэффициентов β.

В силу (5) в соответствии с формулой для ковариационной матрицы оценок коэффициентов β для классической модели:

Var b | X = σ2 (X T X )1 = σ2 (X T PPX )1 = σ2 (X T 1 X )1

Итак,

 

 

 

 

| X

 

= σ

2

(X

T

1

X )

1

(17)

Var b

 

 

 

 

 

Обозначим:

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

(18)

Y

 

= Xb

 

 

 

 

 

 

 

 

 

e

 

=Y

ˆ

 

 

 

 

 

 

 

 

(19)

 

Y

 

 

 

 

 

 

 

 

 

прогнозные значения и соответствующие остатки для исходной модели с использованием b .

Обозначим:

 

ˆ

 

 

 

(20)

Y

= Xb

55

e

ˆ

(21)

=Y Y

прогнозные значения и соответствующие остатки для новой модели. В соответствии с формулой (3.32):

e = I X

(X

T X )1 X

T ε

(21’)

 

 

 

 

 

Всоответствии с результатами для классической модели случайные векторы b и e независимы.

Всоответствии с формулой (3.34):

Var[e | X ]

 

= σ2 In X

(X T X )1 X

T

 

 

 

 

 

 

(21’’)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В соответствии с формулой (3.35) для классической модели необъясненная дисперсия

для новой модели равна:

 

 

 

 

 

 

 

 

 

s2

=

1

 

 

eT e

 

 

 

 

 

 

 

(22)

 

 

 

 

 

 

 

 

n m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Величина s2 является несмещенной оценкой параметра σ2 .

Как следует из результатов для классической модели:

 

 

(n m)

s2

 

 

χ

2

(n m)

 

 

 

 

(22’)

 

 

 

 

 

σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В силу (11), (18)-(22):

 

 

 

 

 

 

 

 

 

 

 

 

2

 

1

 

 

T

 

1

 

 

ˆ T

 

ˆ

1

 

 

 

T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

s

 

=

n m

e e

=

n m

(Y

Y )

(Y

Y )=

n m

(Y

Xb) (Y

Xb)=

= n 1 m (Y Xb)T PP(Y Xb)= n 1 m (e )T 1e

Итак, величина s2 может быть найдена по формуле:

s2 =

1

(e )T 1e

 

 

(23)

n m

 

 

Обозначим:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

2

(X

T

 

1

X ) ,

 

 

 

| X = s

(39)

Var b

 

 

 

В силу несмещенности оценки s2

из (24) следует, что матрица (39) является несмещенной

оценкой ковариационной матрицы векторной МНК-оценки b .

56

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

| X

диспер-

Заметим, что элементы главной диагонали матрицы Var b | X

– оценки Var b

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

сий коэффициентов b . Следовательно, величины:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

s(b

| X ) =

 

 

 

| X

(40)

 

 

 

 

 

 

 

Var b

 

 

 

 

 

 

 

i

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

можно считать оценками стандартных отклонений коэффициентов b .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

При выполнении гипотезы (4) величины:

 

 

 

 

 

 

 

 

t (bi

)=

bi −βi

 

 

 

 

(41)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

s(b

| X )

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

являются t-статистиками для новой модели, и, следовательно, имеют распределение Стъюдента с n m степенями свободы.

Поэтому, в соответствии с результатами для классической модели доверительные интервалы

для коэффициентов βi

определяются из равенства:

 

{

 

( i )

 

c

}

 

 

P

 

t

b

t

 

(ρ,n m)

=1−ρ,

(42)

где ρ – уровень значимости, а tc (ρ,n m) – соответствующая двусторонняя квантиль рас-

пределения Стъюдента с числом степеней свободы n m .

В силу (41), (42)

интервальные оценки для коэффициентов βi

имеют вид:

 

 

 

 

(43)

bi tc (ρ,n m)s(bi | X ),

bi +tc (ρ,n m)s(bi | X )

Проверка гипотезы: Hβ = r

H – матрица размером q ×m , q m , rank(H ) = q , r – вектор-столбец длиной q .

В соответствии с результатами для классической модели, при выполнении гипотезы:

Hβ = r

 

(44)

 

 

величина:

 

 

 

 

 

(Hb r)T H (X T X )1

H T 1

(Hb r)

F =

 

 

 

 

(45)

 

s2q

 

 

 

 

 

 

 

имеет распределение Фишера (F-распределение) с (q,n m) степенями свободы:

F F(q,n m)

(46)

Поскольку в силу (5), (11)

 

 

T

T

1

X

(47)

X

X = X

 

 

статистика (45) может быть записана в виде:

57

 

(Hb r)T H (X T 1 X )1

H T

1

(Hb r)

F =

 

 

 

 

(48)

s2q

 

 

 

 

 

 

 

 

Отметим, что в силу формулы (39) формулу (48) можно также записать в виде:

 

 

T

 

 

 

H

T

1

 

 

 

 

 

 

 

 

F =

(Hb

r) H Var b

| X

 

(Hb r)

(48’)

 

 

 

q

 

 

 

 

 

 

 

 

 

 

 

 

 

Напомним, что при выполнении гипотезы (44) имеет место равенство:

P{F Fc (ρ;q,n m)}=1−ρ ,

(49)

где Fc (ρ;q,n m) – (1−ρ) -квантиль распределения Фишера с (q,n m) степенями свободы.

В случае, если F > Fc (ρ;q,n m) нулевая гипотеза отвергается; если F Fc (ρ;q,n m), нет оснований отвергать нулевую гипотезу (и она принимается).

Доверительная область для коэффициентов регрессии Рассмотрим случай, когда H = Im .

Тогда равенство (44) примет вид: β = r

Заменив H на Im и r на β в формуле (48), получим:

F =

(b −β)T (X T 1 X )(b −β)

(50)

 

s2m

 

Отметим, что в силу формулы (39) формулу (50) можно также записать в виде:

 

 

T

 

 

1

 

 

F =

(b

−β)

Var (b

| X )

(b −β)

(50’)

 

 

 

m

 

 

 

 

 

 

 

 

 

В силу (49), (50)

(1−ρ) -доверительная область для вектора β задается условием:

(b −β)T (X T 1 X )(b −β)s2mFc (ρ;m,n m)

(51)

и является эллипсоидом в m-мерном пространстве. С учетом (50’) условие (51) можно записать виде:

 

T

1

 

(51’)

(b

−β) Var (b

| X )

(b −β)mFc (ρ;m,n m)

58

Прогнозирование

Пусть Xn+1 = (xn+1,1, , xn+1,m ) – известные значения, Yn+1 – неизвестно.

Будем считать, что основные гипотезы имеют место также для «наблюдения» n +1:

1)

Yn+1 = Xn+1β+ εn+1

(52)

2)

E (εn+1 | X , Xn+1 )= 0

(53)

3)

var(ε+ | X , Xn+1 )= σ2+ ,

(54)

где ε+ = (ε,εn+1 )T = (ε1, ,εn ,εn+1 )T , +

– симметричная положительно определенная матрица

размера (n +1) ×(n +1) , такая, что – ее подматрица,

4) ε+ | X , Xn+1 N (0,σ2+ )

(55)

При заданном Xn+1

= (xn+1,1, , xn+1,m ) будем строить прогноз, линейный относительно Y :

Yˆ

= CTY

(56)

 

n+1

 

 

 

где C = (c1, ,cn )T .

Условие несмещенности прогноза имеет вид:

ˆ

| X , Xn+1 )= E (Yn+1

| X , Xn+1 )

(57)

E (Yn+1

Из (1), (2), (56):

 

 

E (Yˆn+1 | X , Xn+1 )= E (CTY | X , Xn+1 )= CT E (Y | X , Xn+1 )= CT Xβ

Итак,

ˆ

X , Xn+1 )= C

T

Xβ

(58)

E (Yn+1 |

 

Из (52), (53):

 

 

 

E (Yn+1 |

X , Xn+1 )= Xn+1β

(59)

Итак, условие несмещенности прогноза (56) имеет вид:

CT Xβ = X

β

 

 

(60)

 

 

n+1

 

 

 

Поскольку равенство (60) должно выполняться при всех β, из него следует, что:

CT X = Xn+1

(61)

Условие эффективности прогноза заключается в том, что вектор C = (c1, ,cn )T обеспечивает

минимум выражения:

 

ˆ

 

2

 

 

E (Y

Yn+1 )

| X , Xn+1

(62)

 

 

 

 

 

 

59

В силу (60):

 

ˆ

Yn+1 = C

T

 

(Xβ+ ε)(Xn+1β+ εn+1 )= C

T

Xβ+C

T

ε −

Xn+1β−εn+1 = C

T

ε −εn+1

 

(63)

Yn+1

 

 

 

 

 

 

Следовательно,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

2

=

 

(C

T

ε −εn+1 )

2

= C

T

 

 

T

 

2

 

 

 

T

εεn+1

 

 

 

 

(64)

 

 

(Yn+1 Yn+1 )

 

 

 

 

 

εε

C + εn+1 2C

 

 

 

 

 

 

 

Подставим (64) в (62) и воспользуемся формулой (3):

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

2

| X ,

 

= C

T

E

 

 

T

 

 

 

 

+ E

 

2

 

 

 

 

T

E[εεn+1 | X , Xn+1 ]=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

E (Yn+1 Yn+1 )

 

 

Xn+1

 

εε

 

| X , Xn+1 C

εn

+1 | X , Xn+1 2C

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= σ2CT C + var(εn+1 | X , Xn+1 )2CT cov(ε,εn+1 | X , Xn+1 )

 

 

 

 

 

 

 

Итак,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

2

 

 

 

 

 

 

2 T

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

T

 

 

 

 

 

 

 

E (Yn+1 Yn+1 )

| X ,

Xn+1

= σ C C + var

(εn+1 | X , Xn+1 )2C cov(ε,εn+1 | X , Xn+1 )

(65)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Заметим, что

 

var(εn+1 | X , Xn+1 ) равен произведению σ2 на элемент ωn+1,n+1

матрицы + , а

вектор-столбец

 

 

 

cov(ε,εn+1 | X , Xn+1 )

 

 

равен

 

 

 

произведению

 

 

σ2

на

столбец

ω1:n,n+1 = (ω1,n+1, ,ωn,n+1 )T

 

соответствующих элементов матрицы + .

 

 

 

 

 

Следовательно, равенство (65) можно также записать в виде:

 

 

 

 

 

 

 

ˆ

 

 

 

 

2

 

 

 

 

 

 

 

2

 

 

 

T

 

 

 

 

 

 

 

 

T

 

 

 

 

 

 

 

 

 

 

 

E (Yn+1 Yn+1 )

| X , Xn+1

= σ (C C + ωn+1,n+1 2C ω1:n,n+1 )

 

 

(66)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким

образом,

 

 

вектор

 

C = (c1, ,cm )

 

 

обеспечивающий несмещенный

и эффективный

прогноз в классе прогнозов, линейных относительно Y , является решением следующей

оптимизационной задачи:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

CT C

2CT ω

 

 

 

+1

min

 

 

 

 

 

 

 

 

 

 

(67)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1:n,n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

CT X = Xn+1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(68)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Построим функцию Лагранжа для задачи (67)-(68):

 

 

 

 

 

 

 

 

 

 

L(C,Λ)= CT C 2CT ω1:n,n+1 (CT X Xn+1 )Λ

 

 

 

 

 

 

(69)

 

 

 

 

 

 

 

где Λ = (λ1, ,λm )T

– вектор множителей Лагранжа.

 

 

 

 

 

 

 

 

 

Продифференцируем функцию Лагранжа по C .

 

 

 

 

 

 

 

 

 

 

 

 

 

L

 

(C,Λ)= 2C 2ω1:n,n+1 X Λ

 

 

 

 

 

 

 

 

(70)

 

 

 

 

 

 

 

 

 

 

C

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Приравняв полученное выражение к нулю, получим условие Куна-Таккера:

 

 

2C 2ω1:n,n+1

 

X Λ = 0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(71)

 

 

 

 

 

 

 

 

 

60

Соседние файлы в папке 17-11-2015_11-58-24