Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Churakov_Mat_met_obr_exp_dan_v_ekon

.pdf
Скачиваний:
30
Добавлен:
26.03.2016
Размер:
5.46 Mб
Скачать

Пусть z G В^, yeR^ и z - (p(y) — решение некоторой задачи, найденное как функция вектора у. Тогда:

Определение 2.3. Решение z = фС^) Hдiзыв2icтcя устойчивым, ес ли при V8 > О 35(8) > О такое, что из неравенства \\у\ У2\\ < 5(e) с дует ||zi - Z2II < е, где у\ и У2 — произвольные элементы из R'^,

Z]=(f(y\),Z2='(p(y2)'

По существу, это определение означает, что решение устойчи­ во, если малым по норме изменениям аргумента j ; соответству­ ют малые по норме изменения 8z в решении z, так что ||8z||~>0 при

IISjiHO.

Определение 2.4. Задача поиска решения z = ф(у) называется корректно поставленной на паре пространств R'^, R'", если вы­ полняются условия:

1)для \/уе Я^ существует решение ze R'";

2)решение определено однозначно, т.е. единственно;

3)решение устойчиво.

Задачи, не удовлетворяющие перечисленным требованиям, называют некорректно поставленными. В связи с поиском МНКоценок наибольшее беспокойство вызывает третье условие, что и порождает, как уже отмечалось, необходимость найти своеобраз­ ный критерий устойчивости решения. Осуществим это намере­ ние в связи с поиском решения системы алгебраических уравне­ ний

y=-Az,AER'''^,

(2.41)

подобной определяющей МНК-оценку системе (2.23). Для этого нам понадобятся некоторые дополнительные сведения о вектор­ ных и матричных нормах.

Определение 2.5. Пустъу= [J/]GR'^, т.е. /= 1, 2,..., п. Тогда чис­

ло

М = (ly/+ ЬГ + ... + \УпГ)'^^Р>и

(2.42)

называется гельдеровой нормой вектора у.

В зависимости от/? получают ту или иную частную норму Так, при/7 = 1 получают октаэдрическую [9], или /i-норму [26]; при /? = 2 имеем уже широко нами использовавшуюся евклидову, или /2-норму; при /7 = оо получим кубическую, или /оо-норму |[у|| = maxjlyj, / = 1,2,..., п). В зависимости от характера решаемой задачи применяют ту или иную частную норму.

60

Определение 2.6. Пусть А = [а,у]е R'"^ и \\у\\е R^. Тогда число

;;GR^з;^0„ I А'II

называется нормой матрицы А, согласованной с нормой вектора;?. Помимо трех традиционных аксиом, которым удовлетворяет норма любого математического объекта из линейного простран­ ства, матричная норма (2.43) обладает еще одним свойством: ес-

лиАеК'^'^иВеК"'^,то

|И^|<|И1|хМ. (2.44)

В зависимости от способа определения векторной нормы по­ лучают определенную матричную норму Так, если \\у\\ - /i-нор­ ма, то

т

М||=тахЕ|%|

1<А:<л/=:1

И называется максимальной столбцовой нормой. Если ||у|| - /оо-норма, то

М||=тах Iп \а^1,\

\<i<mk=\

И называется максимальной строчной нормой. Если Щ — евкли­ дова норма, то

MlhV^max»

где Хтах - максимальное собственное число матрицы А^А и назы­ вается спектральной нормой. Используются и другие матричные нормы. Например,

т п ^

илиприт = А/ \\А\\=п max \ац,\,

MJhJX Y^afj,

V/=U=1

\<i,k<n

Полезно иметь в виду \\Щ > 1, |И"^|| > l|J£ll/IMI, где Е, Ае R^^^ Возвратимся теперь к системе (2.41). Пусть вместо точного

значения у получено приближенное значение у = у + 5у. Тогда вместо точного решения z системы получим приближенное

61

z= z + 6z, причем отклонения связаны уравнением Ьу = Adz или 5z = ^~^б>^. Переходя к нормам, получаем с учетом (2.44) ||5г|| ^ |И~^11 X 1|5у|1- Рассмотрим относительную ошибку решения ||Sz||/||zl|. Из (2.44) следует ||j; || < \\А\\ х ||/||. Перемножив два послед­ них неравенства, получим

NIxllFll^lNlxIM-'llxIMilxllzlH

^2 45)

=>W/||z1|:S|H-4|x|MI|x||5j;||/|ly'||.

 

Отсюда следует, что относительная ошибка в решении, вы­ званная неточным заданием входных данных j;*, тем больше, чем больше число ЦА'^Ц х \\A\l которое может служить своеобразным индикатором устойчивости решения.

Определение 2.7. Число D^ = Ы~Ч х 1И11 Для невырожденной матрицы ^ и D^ = оо для вырожденной называется числом обуслов­ ленности матрицы А.

Некоторые характерные свойства числа обусловленности [19]:

max! И l^minl"~ наибольшее И Наи­ меньшее по модулю собственные числа матрицы А; D^B ^ D^D^ для произведения АВ матриц. Матрицы с большим числом обус­ ловленности называются плохо обусловленными в противовес хорошо обусловленным матрицам, которым соответствуют малые числа обусловленности.

Таким образом, чем больше число обусловленности матрицы, тем большая относительная ошибка решения порождается одной и той же относительной ошибкой задания входных данных >?. При этом следует иметь в виду, что конкретное значение числа обус­ ловленности зависит от способа задания нормы \\А\\ матрицы А, Заметим, что современные пакеты прикладных программ преду­ сматривают вычисление чисел обусловленности матриц при раз­ личных заданиях их норм.

Выявленные особенности системы (2.41) свойственны, разу­ меется, и системе (2.23), используемой для поиска МНК-оценки (2.24). Если матрица Т Т оказывается плохо обусловленной, ис­ пользовать выражение (2.24) как средство практического вычис­ ления МНК-оценки рискованно, так как даже малые ошибки в задании вектора Ч^^у могут привести к большим отклонениям ре­ шения, т.е. к большим ошибкам МНК-оценки. Несложно полу­ чить аналогичное (2.45) неравенство для уравнения (2.23). Пусть У* = \ff^Q __ гипотетический вектор экспериментальных данных,

62

соответствующих идеальному случаю безошибочных наблюде­ ний, и j ; = Y^e + 8 — результат реальных наблюдений. Тогда по аналогии с (2.45) получаем

не - в|| / ||в|| < l^'^^'ll X ||(W)-^|| X {^''eW I II^^Vll.

Отсюда следует, что при плохо обусловленной матрице Y^Y нужны иные, нежели (2.24), принципы поиска решения системы (2.23). Эти принципы и при плохо обусловленной матрице Y^Y должны гарантировать приемлемо малые ошибки оценивания. Успехи вычислительной математики в этом направлении в по­ следнее время связаны с разработкой так называемых .we/wc?(3oe/?^- гуляризации, объединенных в весьма разветвленную математиче­ скую теорию решения некорректных задач (например, [24]). Да­ лее, не вдаваясь в терминологические и принципиальные осо­ бенности методов регуляризации, рассмотрим один из алгорит­ мов, позволяющих обеспечить устойчивость решения при вычис­ лении МНК-оценок и организовать достаточно рациональную вычислительную схему поиска этих оценок.

2.3.7. Рекуррентный метод наименьших квадратов

Предположим, что поиск МНК-оценки осуществляется не по всему массиву >^1, yj-, '•••>Уп экспериментальных данньис, а лишь по части^1,^2» •••» Уь к<п. Это означает, что целевая функция (2.20)

и соответствующая оптимизационная задача приобретают вид

/jt = X [У] - W^(xj)ef -^ min по е.

(2.46)

Техника решения задачи (2.46) уже известна, и ее «материали­ зация» может быть представлена в форме (2.25)

в^^> =

к

 

lv(xi)yr

(2.47)

 

Здесь индекс у оценки указывает на объем эксперименталь­ ных данных, используемых при ее вычислении. Выражение (2.47) введено чисто формально в том отношении, что проблема обра-

63

щаемости матрицы в (2.47) не обсуждается, так как в последую­ щем она легко снимается.

Утверждение 2.9. Пусть матрицы Р, Q, R таковы, что образуют невырожденную матрицу Р~^ 4- Q^RT^Q. Тогда справедливо пред­ ставление

(Р-* + Q^R-^Q)-^ =Р- PQ^iQPQ^ + Ry^QP.

(2.48)

Доказательство этой так называемой леммы об обращении ма­ трицы можно найти, например, в [20], и мы не будем на нем ос­ танавливаться.

Введем обозначение

^ - l

к-\

 

-1

51^ = Ev(^/)v (^/)

V(^/)V (Xi) + V(XA:)¥

(Xk)

1

=(%-i~^+Wk)V(x,)rK

Воспользовавшись леммой об обращении матрицы, предста­ вим

% = %-1 - '3ik.Mxk)(W^(xj,) 3if,_Mxk) + l)~V(Xk) ^k~h (2.49) Это позволяет следующим образом преобразовать выражение

(2.47):

 

 

fk-i

]

ё^^^=щ

lw(Xi)yi-^\V(xk)yk

\ =

к-\

= i^k-l -Qk-l^-l) 1 WiXi)yi+^kW(Xj,)yk,

/=l

где обозначено ^^_i = 9l^_iV(X)t)(\|f^(x^) 3ik-Mxk) + l)"V^(^it). По аналогии с (2.47)

^k-ilv(Xi)yi^e^^-^^

и, следовательно,

в(к) = в<^-^> - ^,_1 в(^-^> + %^(Хк)Ук^

64

в соответствии с введенными обозначениями имеем:

Sik-Г^ = 91^-^ - yif(Xk)yv^(Xk) => Qk-i = ^к У¥(хк)У¥^{Хк).

Это позволяет окончательно записать

 

в(к) = в^^-1)^ 9i;t W(Xk)(yk- V(Xk)e^^-'^), k=h2,...,

п. (2.50)

Совокупность выражений (2.49), (2.50) обычно и принято на­ зывать рекуррентным методом наименьших квадратов (РМНК). Вычисления по этому методу организуются последовательно. Вначале полагают к= I; задают начальные условия, наиболее ча­ сто в виде 9^^^ = 0,91о = уД где у = const >> 1; из (2.49) находят 9li, а из (2.50) — в^^\ что формально соответствует поиску оценки в^^^ регрессионных параметров по единственному эксперимен­ тальному результату;;!. Разумеется, никакого серьезного внима­ ния к оценке в^^^ проявлять нельзя, она лишена какого-либо практического смысла и должна рассматриваться как формаль­ ный «эпизод» на пути получения МНК-оценки. Далее принима­

ют А: = 2, из (2.49) находят 912 » ^ из (2.50) — в^^\ что соответству­ ет уточненной по второму экспериментальному наблюдению У2 оценке. Далее аналогичным образом проводятся вычисления при /: = 3,4,..., л, что приводит к оценке в^'^^ принимаемой за МНКоценку.

Как видно, при такой схеме вычислений не приходится обра­ щать плохо обусловленную матрицу, что стимулирует получение устойчивого решения. Чтобы более явно раскрыть механизм это­ го явления, поступим следующим образом. С использованием матрицы 91;^ МНК-оценку (2.25) можем представить в следующем виде:

в =

п

 

Е V(Xi)yi = 91„ Е yv(Xi)yi. (2.51)

 

(=1

/=1

Матрица 91„ вычисляется последовательно. Будем иметь:

% = (%Г^ + v(jc,)v^(xi))-'; 9l2 = (91,-' + Щх2)у/^(Х2)Г^ =

= (91о-' + v(aci)\|fVi) +

W2)v\x2)r^;...;

65

Если учесть результат последовательного вычисления матри­ цы 91;^, выражение (2.51) перепишется так:

 

 

f

.

\

-1

 

 

в =

п

 

и

 

 

 

 

1=1

 

 

 

 

 

 

(2.52)

 

 

^

1

"

Т ^

-1 П

 

 

 

 

 

Ч

'=1

/

/=1

 

Как видим, оценки (2.51), (2.52) различаются: если в (2.51)

матрица

т

^

т

плохо обусловлена, то ее аналог

^ ^=E¥(J^/)V (^/)

 

 

/=1

 

 

 

-1

'^

Т

 

 

 

- 1

Y V^" + S ¥(^/)¥

(^/) в (2.52) благодаря начальному условию у J?

может оказаться хорошо обусловленной матрицей, что и обеспе­ чивает устойчивость решения.

Чтобы получить представление об эффективности РМНК, приведем результаты одного вычислительного эксперимента. Его существо заключается в следующем. Были заданы конкретные матрица Y размерностью /7 = 10на/г7 + 1=3и вектор в. Матри­ ца Т строилась случайным образом, но так, что один из ее столб­ цов отличался от соседнего только одним элементом, изменение которого позволяло варьировать число обусловленности матри­ цы Y^Y. Далее решалась прямая задача, в результате чего находи­ ли вектор j ; * = ^ в . Этот вектор искажался случайным «шумом» е с независимыми и равномерно распределенными на [-с, с] ком­ понентами, что приводило к формированию вектора у - у -^ г. Построенный таким образом вектор у использовался при реше­ нии обратной задачи, т.е. при поиске оценки в вектора в в соот­ ветствии с регулярным (2.24) и рекуррентным (2.49), (2.50) мето­ дами наименьших квадратов. Результаты вычислений содержатся

втабл. 2.1.

Втаблице использованы следующие обозначения: D = ЦЧ'^Ч?!!

т

-1

т

Цф'^еИ

||(^ 40

II -

число обусловленности матрицы Ч? Т;

" ^ " -

 

 

 

llwVll

относительная ошибка при формировании свободных членов

D

оо

5,56-10^2

5,56-10^^

5,56-10^

5,5610^

2,5-10'^

2,310^

595

36 i

'19,68

Точностные характеристики МНК и РМНК

Таблица 2.1

 

 

1

1|в-в||

1

1|в-в||

Diag(y'^^-1

 

II^Vll

lieil

 

lieil

 

для МНК

 

 

 

1

для РМНК

 

 

4 • iO~^

-

 

0,258

-

 

 

6,9310^

 

0,257

810-^

 

3,810-^

 

1,110^^

 

 

 

 

 

1,М0^^

 

 

 

 

 

8-10-^

 

3,910"^

704,3

 

0,23

1,М0^

 

 

 

 

 

1,М0^

 

 

 

 

'

8-10"^

 

3,310"^

43,79

 

0,342

1,110^

1

 

 

 

 

1,110^

 

7,12

 

3,18

8-10""^

 

5,110"^

 

1,Ы0^

 

 

 

 

 

 

 

0,507

 

0,506

8-10-^

 

410-^

 

49,9

1

 

 

 

 

49,1

 

0,187

 

0,187

8-10-^

j

3,37-10"^

 

4,69

 

 

 

 

 

4,42

 

 

0,066

 

0,066

810-^

1

3,8-10"^

 

1,26

1

 

 

 

 

1,1

 

 

 

 

 

8-10-^

 

310-^

0,029

 

0,029

0,102

1

 

 

 

 

0,044

 

9,810-^

 

 

8-10"^

 

3,210-^

 

9,810-^

0,057

1

 

 

 

 

0,011

i

67

||е~е||

системы уравнений (2.23); ц^., для МНК - относительная 11^11

ошибка МНК-оценки (2.24); ^* ^ для РМНК - относитель-

II в II

пая ошибка оценки, найденной рекуррентным методом наи­ меньших квадратов-diag (4f^W)~^ — столбец диагональных эле­ ментов матрицы (Т Т)~^ определяющей точность МНК-оцен­ ки. При проведении вычислений применялись евклидова вектор­ ная и спектральная матричная нормы. Содержащиеся в табл. 2.1 данные получены усреднением по десяти реализациям вектора е, ковариационная матрица которого в эксперименте принималась равной (2/3)xlO""^jE'. Истинное значение вектора в формирова­ лось случайным образом и оказалось равным в^ = [4,063 0,053 1,655]. Первая строка в табл. 2.1 соответствует вырожденной мат­ рице 4f^4f. Из таблицы видно, что при плохо обусловленных мат­ рицах 4f^4f рекуррентный метод, в отличие от регулярного, ведет себя вполне «пристойно».

По мере уменьшения числа обусловленности матрицы Y^Y точностные характеристики методов сближаются. Наблюдаемое ухудшение точности рекуррентного метода в «среднем» диапазо­ не чисел обусловленности можно объяснить тем, что все исследо­ вания проводились при одном и том же значении параметра у, определяющего начальную матрицу ^Q = уЕ в структуре рекур­ рентного алгоритма (было принято у = 10 ). Вместе с тем иссле­ дования свидетельствуют об определенной чувствительности ал­ горитма к значению этого параметра, которое полезно адаптиро­ вать к числу обусловленности матрицы Y^Y. Так, если при D = 5,56 X 10 положить у = 10^, то относительная ошибка рекуррентно найденной оценки оказывается равной 0,723 (вместо 3,18 при у = 10"^). Выбор оптимального значения параметра у здесь не обсуждается.

2.3.8. Коэффициент детерминации. Послерегрессионный анализ регрессионной модели

Коэффициент детерминации. Рассмотренные выше методы рег­ рессионного анализа предполагали, что регрессионная модель (2.2) (число и характер экзогенных переменных, структура и раз­ мерность вектор-функции Щх) и т.п.) выбрана и обоснована

68

средствами предварительного анализа регрессионной модели (см. п. 1.5). После проведения рефессионного анализа исследова­ тель располагает большей информацией о свойствах модели, так как для регрессионных параметров модели и дисперсии экспери­ ментальных ошибок получены МНК-оценки и установлены их основные свойства. Это позволяет с позиций новых знаний еще раз возвратиться к модели (2.2), подвергнуть ее дополнительному анализу и при необходимости подкорректировать.

В эконометрических задачах существенная часть послерегрессионного анализа связана с применением так называемого коэффициента детерминации. Чтобы его определить (здесь воз­ можны различные подходы), рассмотрим вариацию (разброс) вар(у) экспериментальных данных (2.4) относительно их средне­ го значения, которую по определению примем равной

 

1 «

-.7

\

- 9

1

- Т

{y-ys),

eap{y) = -^(yi-yY

 

^-Wy-ysW

^-i.y-ys)

 

 

rii^i

 

n

 

n

 

 

где y=^iyi,

5 = [1 1 ... i f

GR^

 

 

 

 

Введем обозначения: / = Т в - оцененные значения регрес­ сионных составляющих в наблюдениях у, г= у —/ есть оценки экспериментальных ошибок, и представим

 

1

-

-

-> т

 

-

 

-

-

 

вар{у) = '-'{у - f

+ f

- ysy

{у - f

-v f

- ys) =

 

 

n

 

 

 

 

 

 

 

 

 

= -(y-ff(y-f)-^'(f-ysf(f-ys)

 

 

 

+

n

 

^iy-ff(f-ys)=^

n

n

 

 

 

 

 

 

 

 

 

1

 

 

~

2

-

 

 

^^-^^^

 

= ~e'^e + ea/7(/) + -e^(/->;s),

 

 

n

 

 

n

 

 

 

 

 

где величина

1

-

-

T -^

-

характеризует разброс

eap(f) = —(f-ys)

(f-ys)

регрессионных составляющих наблюдений относительно средне­ го значения наблюдений. Покажем, что последнее слагаемое в (2.53) равно нулю. Действительно, имеем:

ё = д;-Ч'в = ^ в + е - '¥(4f^4fy^4f^(We + е) = (£ - WCP^W)-^W^)E.

69

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]