Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Churakov_Mat_met_obr_exp_dan_v_ekon

.pdf
Скачиваний:
30
Добавлен:
26.03.2016
Размер:
5.46 Mб
Скачать

ду, что эффективность локального сглаживания возрастает с уве­ личением т и падает с ростом п. При практических расчетах це­ лесообразно Офаничиваться п <2и т<4. Дополнительно обра­ тим внимание на то, что при изложенной организации локально­ го сглаживания несглаженными оказываются первые и послед­ ние т элементов исходного временного ряда. Этот недостаток можно устранить, применив на этих участках алгоритмы типа ре­ куррентного метода наименьших квадратов.

3.4. Линейное прогнозирование структурно детерминированных рядов

приступим теперь к рассмотрению одного из наиболее важных вопросов анализа временных рядов — прогнозированию их по­ следующих значений по результатам наблюдения за ними на не­ котором фиксированном отрезке времени. Итак, полагаем, что в нашем распоряжении имеются N наблюдений, математически отображаемых моделями (3.1), (3.2). Базисные функции ф)^(^/), А: = О, 1, ..., ^, / = 1,2, .,., N, выбраны или в классе полиномиаль­ ных функций, или в более широком классе ортогональных функ­ ций. Ряд может быть подвергнут локальному сглаживанию, но мы сохраняем исходные обозначения (3.1). Задача, как уже отме­ чалось, заключается в поиске наилучшей в некотором смысле оценки tfn ненаблюдаемой величины Уг^, т > N, по результатам

наблюдений у-\у\У2'-' Ум]^-

Прогнозированное значение ряда у,^ будем искать в классе

линейных операторов, позволяющем представить

 

Ym=W\

(3.66)

где W— пока неизвестный вектор весовых коэффициентов. Этот вектор попытаемся найти таким образом, чтобы точность про­ гнозирования, понимаемая в далее определяемом смысле, оказа­ лась наивысшей. Чтобы конкретизировать содержание послед­ ней фразы, обозначим символом

У\='Ут-Ут

(3.67)

ошибку прогнозирования и более детально изучим ее структуру Для этого удобно вектор наблюдений у в соответствии с (3.1), (3.2) представить в матрично-векторной форме

140

у = Фа +р,

(3.68)

где

 

«0

Ро

Ф = ФоСг) Ф1('2) - Ф?(^2) , в = «1 ,

р = Pi

л.

_PN \

Тогда

 

Ц^Ут-ГУЧФа+Р).

 

Теперь сделаем важное допущение: будем полагать, что мо­ дель тренда (3.2), введенная выше на отрезке [/^ /дг], справедлива и на множестве [/j, t^]. Это позволяет представить

Ут = Фт « + Р/и,

где

т_ [фо(и Ф1(^т) - Ф^(и].

Сиспользованием этого допущения записываем

(3.69)

Из (3.69) следует, что ошибка прогнозирования содержит де­ терминированную и стохастическую составляющие. Первая из них определяет среднее значение ошибки прогнозирования и, так как вектор а неизвестен, также является величиной неизвест­ ной. Так как вектор ^Гпока не найден, потребуем

Фя Ф^^=0,

(3.70)

где О - нулевой {q + 1)-вектор. Соотношение (3.70) обеспечивает равенство М{г\} = О и, следовательно, является условием несме­ щенности. Относительно компонентов вектора W^OHO представ­ ляет собой систему линейных алгебраических уравнений, содер­ жащую q + 1 уравнений с 7V неизвестными. Так как q+ \ < М,то при выполнении условий совместности Кронекера—Капелли си­ стема оказывается неопределенной, т.е. имеет бесконечное число решений. Для поиска конкретного решения следует задать до-

141

полнительное условие, которому это решение должно удовлетво­ рять. За таковое примем следующее.

Если выполняется (3.70), то ошибка прогнозирования (3.69) содержит только случайную составляющую. В этом случае точ­ ность прогнозирования можно характеризовать дисперсией ошибки прогнозирования D{r\) = М{г]^}, и точность прогнозиро­ вания окажется наивысшей, если вектор W, помимо выполнения условий (3.70), обеспечит минимальное значение дисперсии /){г|}. В результате приходим к следующей оптимизационной за­ даче поиска вектора W:

M{r]^} = G^(\-\-W^W)-^

min ,

(3.71)

Х={1УеК^:(р^-ф^}У=0},

 

(3.72)

Смысл задачи (3.71), (3.72), таким образом, следующий: на множестве решений системы (3.70) найти то, которое минимизи­ рует дисперсию ошибки прогнозирования. Подобная задача встречалась ранее при доказательстве теоремы Маркова и, как отмечалось, решается методом неопределенных множителей Лагранжа. Поэтому, не прибегая к подробным комментариям, огра­ ничимся основными этапами решения.

Функция Лагранжа

L(W, X) = c^W^W+ 2А.^(ф^-ф'^»0.

Необходимые условия рассматриваемого условного минимума

G V - ФЛ = ON, (fm - Ф^^= 0^+1.

Решение:

W= Ф(ф'^Ф)-^ф^.

(3.73)

Алгоритм прогнозирования:

Ут = fV^y = ф/(Ф'^Ф)-'Ф^

(3.74)

Таким образом, наилучшее линейное прогнозирование вре­ менного ряда в сформулированных условиях заключается в ли­ нейном преобразовании вектора наблюдений j? линейным опера-

142

тором, отождествляемым с вектором (3.73). Легко обнаружить, что сомножитель (Ф^Ф)~^Ф^>' в (3.74) представляет собой не что иное, как МНК-оценку а вектора параметров а, ^«айденную по наблюдениям у. Поэтому кратко можно записать: Yf^ = (рщ^^- Точ­ ность оптимального прогнозирования определяется минималь­ ным значением дисперсии (3.71), которая в случае (3.73) оказы­ вается равной

а^2 = min М{г]^} = 0^(1 + ф/(ф'Гф)-1ф^.

(3.75)

Можно, вычислив (3.74), построить доверительные интерва­ лы для истинного значения у^ прогнозируемой величины. Пусть вначале дисперсия а^ известна. Так как вектор заявляется гауссовским, то ошибка прогнозирования г\ является центрированной гауссовской величиной: ц ~ N(0, Сц ) и, следовательно, ц/а^ = = (jfTj -Yfn)/(y^ - N(0, 1) — стандартная случайная гауссовская ве­ личина. При доверительной вероятности а должно выполняться ^Ил/с^л! ^ Ya) "^ ос, где Ya — двухсторонняя а-квантиль стандартно­ го гауссовскогр распределения, Р — символ вероятности. Но тог­ да ~Ya^ (Ут -^т)/^ц "^ Ya И С ВСрОЯТНОСТЬЮ а ВЫПОЛНЯСТСЯ

Ущ - УаС^л ^Ут<Ут + Уа^^ц-

(3.76)

Если дисперсия а^ неизвестна, то, как это делалось в рефессионном анализе, вычисляется ее МНК-оценка

где Ф^^ - к-я строка матрицы Ф, и находится оценка дисперсии (3.75)

Э^2 = э2(1+ф/(Ф^Ф)Лт).

Далее находится величина г|/а^ и средствами, подобными применявшимся в аналогичной ситуации в п. 2.3.8, доказывает­ ся, что эта величина распределена по закону Стьюдента с N—q—l степенями свободы: г\/Ъ^ - t{N— ^ - 1). Но тогда прихо­ дим к подобному (3.76) результату:

Ут-УоРх\^Ут<Ут^УоРц,

(3.77)

14Э

где Ya — двухсторонняя а-квантиль распределения Стьюдента с N - q-\ степенями свободы.

Алгоритм прогнозирования существенно упрощается, если столбцы матрицы Ф ортогональны. Используя общий результат (3.74), несложно найти:

 

 

 

N

 

к=0

 

м

(3.78)

 

 

 

 

 

 

 

\

/=1

 

 

/

г

 

гг2 - ^ 2

 

я

^l(fm)

(3.79)

 

1+ Е

^ 9

 

 

 

А:=0|

 

 

 

 

ХФИ^/)

 

 

V

V/=l

Решение (3.74) легко распространяется на случай/> ~ 7V(0, А^), f^iPmP) ~ 0> т.е. на случай коррелированного гауссовского вектора р, но не коррелированного с величиной/^^^j. Соответствующие ве­ личины оказываются равными:

Т / л Т г г - 1 л ч - 1 л Т г г - 1 , _ ^ Т^

Ут = ifm\<b'Kp-'<b)-'<b'Kp-'y = ф^Ч

ал' = ст2 + ф/(фТА:^-^Ф)-^

3.5. Рекуррентное прогнозирование структурно детерминированных рядов

Распространенный метод прогнозирования временных рядов ос­ нован на применении рекуррентных алгоритмов типа экспонен­ циального сглаживания. В этом методе используется полиноми­ альная модель тренда

к=0

И в зависимости от порядка полинома q, который обычно не пре­ вышает 2, применяют тот или иной алгоритм экспоненциально-

144

го сглаживания. Начнем рассмотрение с простейшего случая ^ = О, которому соответствует модель ряда

}^/ = ^о+А',/=1,2,...,Ж

(3.80)

Существо метода заключается в последовательном использо­ вании вычислительного алгоритма

Si = ayi + Р^/.ь / = 1, 2,..., Л^, а + Р = 1, ае [О, 1], (3.81) или, что то же самое,

5'/ = 5^_i + a0;,._5/_i)

(3.82)

при некотором начальном условии i^o.

Величину Si принято называть экспоненциальной средней, параметр а — коэффициентом (параметром) сглаживания. Из (3.81) последовательно имеем:

Si = ау1 + Р^о, 52 = ау2 + P^i = а(у2 + P^i) + Р^^о, ^з = (3.83)

= а(уз+Р>'2+Р^1) + РХ...,

Si =a(yi ч-РУМ +р2>;,_2 +... + p'-Vi) + P% =а Е р ^ ' Ч +Р%.

Таким образом, величина Si представляет собой линейную комбинацию всех предшествующих /-му моменту элементов ряда и /-Г0 элемента, причем вес каждого элемента ряда в формирова­ нии величины Si в соответствии с показательной закономернос­ тью, определившей название метода, становится тем меньше, чем дальше во времени этот элемент отстоит от /-го момента. По­ следнее можно интерпретировать как стремление алгоритма в большей степени доверять новым наблюдениям и в меньшей - более ранним, устаревающим. С ростом / количество участвую­ щих в образовании 5/ наблюдений возрастает, причем вес ранних из них становится все меньшим. В случае (3.80)

Si =аоа i Р'-^ +а i р'Л/t +Р% =

к=1 к=\

i

= (l-P')ao+aSP'-4+P%-

к=\

145

Математическое ожидание и дисперсия этой величины ока­ зываются соответственно равными:

M{Si} = (l^^)ao + &So,

(3.84)

 

(3.85)

2

• Таким об­

Так как P < 1, то при / -> ©о M{Si}-^ao, /){5/} -^

разом, при достаточно больших /, что, в свою очередь, возможно при большом объеме TVвыборки временного ряда, величина 5/ мо­ жет рассматриваться как несмещенная оценка не изменяющегося во времени тренда а^. При этом параметр р, характеризующий

эффективность сглаживания, оказывается равным р = т-а;^~<1.

Формально наивысшая эффективность достигается при а = 0. Однако этот результат лишен практического содержания, так как в этом случае -5*/ = So = const и говорить о каком-либо сглажива­ нии ряда бессмысленно.

При использовании алгоритма (3.82) возникают по крайней мере, два важных в прикладном отношении вопроса: как выбрать начальное условие SQ И параметр сглаживания а. Однозначных ответов на эти вопросы нет. Из приведенных соотношений следу­ ет, что малые значения а обеспечивают высокую эффективность сглаживания, но при этом может недопустимо «затянуться» про­ цесс достижения величинами M{Si} и /){5/} их предельных значе­ ний, соответствующих наилучшему сглаживанию и условию не­ смещенности. Большие значения а ускоряют переходный про­ цесс, но ухудшаются сглаживающие свойства алгоритма. Требу­ ется компромиссное решение. Часто рекомендуют выбирать а в пределах [0,1; 0,3]. Но известны [16] и аргументированные возра­ жения против этих рекомендаций. Аналогичные проблемы воз­ никают и при выборе iSo- В идеале хотелось бы иметь i^o = ^о и тог­ да из (3.84) следует M{Si} = GQ независимо от /. Но это практичес­ ки недостижимое фантазирование, так как тренд ао неизвестен (иначе не было бы задачи). Иногда вполне приемлемым оказыва-

1 '"

ется решение 5о =— S УА:» где m - некоторое количество началь-

146

ных членов ряда. В качестве прогнозированного значения У^ ря­ да в случае (3.80), (3.82) принимается

А

При выполнении (3.80) в качестве альтернативного методу экспоненциального сглаживания можно рассмотреть рекуррент­ ный метод наименьших квадратов, изложенный выше. В этом случае МНК-оценка йо/ величины UQ, найденная по наблюдени­ ям у\, У2, ..., Уь рекуррентно выражается через оценку 5o(/_i), со­ ответствующую наблюдениям yi, yi,..., ^/-ь и /-е наблюдение:

^о/=^0(/-1)+т(>'/-йо(М))» ^* = 1. 2. - •

(3.86)

Внешне алгоритмы (3.82) и (3.86) очень похожи. Различие проявляется в том, что вес а второго слагаемого справа в (3.82)

постоянен, а в (3.86) аналогичный весовой коэффициент т явля­ ется переменным во времени. Но это казалось бы незначительное различие порождает принципиально разные последствия. Рас­ пространив технологию преобразований (3.83) на (3.86), получим

 

 

.

1

1.

Г

,

 

«01=>'Ь

^02 = 2>'2 + 2^^^"2^^1"^^2).

 

1

2

 

1

 

 

1 /

<3-«^>

^03 =^УЪ +Т^02 =Т(Л +>'2 +>'3). ••- %• =7 ^ Ук-

 

5

5

 

i

 

 

I f^-x

 

МНК-оценка (3.87), таким образом, как и экспоненциальное среднее (3.83), является линейной комбинацией наблюдений у\, У2,..., yi, НО, В отличие от (3.83), в (3.87) эти наблюдения входят с

одним и тем же весом т, т.е. алгоритм не «забывает» более ранние

наблюдения и для него все наблюдения одинаково важны. Если тренд действительно не изменяется на отрезке [1,7V], т.е. выпол­ няется (3.80), то это свойство алгоритма (3.86) не порождает ка­ ких-либо критических замечаний. Но если вопреки (3.80) вели­ чина ^0 изменит свое значение в какой-то момент t^s (/j, /дг), алго­ ритм (3.86) будет медленно реагировать на это изменение, так как проявляется сильное влияние ранних наблюдений, соответству­

ет

ющих прежнему значению тренда GQ. Алгоритм (3.82) более опе­ ративно среагирует на это изменение, ибо в его структуре ранние наблюдения играют менее значимую роль, нежели поздние, соответствз^ющие произошедшему изменению в тренде. В силу анало­ гичных причин алгоритм экспоненциального сглаживания мо­ жет оказаться предпочтительнее и в случаях медленно «дрейфую­ щего» тренда GQ. Однако если (3.80) выполняется, то

M{aoi} = aonpu\/iG[l,N],

т.е. рекуррентный МНК формирует несмещенную оценку тренда, начиная с первого наблюдения ух, а не ассимптотически, как в случае (3.84). Дисперсия

D{aoi} = {l/i^}M\ i Е/?^/?Л = -^г—^Опри/->оо,

что также предпочтительнее (3.84). Дополнительно обратим вни­ мание на то, что для алгоритма (3.86) не существует проблемы выбора начального условия 5оо, так как алгоритм нечувствителен к этой величине. Но еще раз подчеркнем, несмотря на эти досто­ инства, рекуррентный МНК менее чувствителен к возможным эволюциям тренда, нежели алгоритм экспоненциального сгла­ живания. И объясняется это именно тем обстоятельством, что при формировании МНК-оценки все наблюдения принимают участие с одним и тем же весом. В то же время при экспоненци­ альном сглаживании более ранние по отношению к текущему моменту времени наблюдения сопровождаются существенно меньшими весами, нежели наблюдения, приближенные к этому моменту. Это в значительной степени объясняет широкую попу­ лярность экспоненциального сглаживания при обработке вре­ менных рядов, включая и задачи прогнозирования.

Алгоритм (3.82) ориентирован на случай (3.80). Несложно вы­ явить его поведение, если в действительности тренд окажется не постоянным, а, например, линейно меняющимся:

fi = ao + aiiJ^l,2,...,N.

(3.88)

Чтобы это сделать, удобно (3.82) переписать в виде

5,4-1 - (1 - ос№ = осУ;+ь / = О, 1,..., ЛГ- 1,

(3.89)

148

где принято ;?/+! = 0. Выражение (3.89) представляет собой про­ стейшее неоднородное разностное уравнение первого порядка с постоянными параметрами. Найдем его решение, соответствую­ щее начальному условию SQ. С этой целью предварительно полу­ чим общее решение этого уравнения. Как известно, оно склады­ вается из общего решения Sj однородного уравнения

5'/+,-(1-а)5'/ = 0

(3.90)

и какого-либо частного решения Si** неоднородного уравнения (3.89). Уравнению (3.90) соответствует характеристическое урав­ нение Z—(1-ос) = 0с единственным корнемzi = 1 - а. Следова­ тельно, Si = с(1 — а)', где с — постоянная «интегрирования». Ча­ стное решение уравнения (3.89) в случае (3.88) ищем в виде S** ~ йо "^ ^1^ ^'Д^ ^0' ^1 ^ некоторые пока неизвестные констан­ ты. Для их определения функции 5/ и (3.88) подставляем в (3.89) и, рассматривая получающееся выражение как тождество, со­ ставляем систему уравнений аЬо + 6i = а(ао + ui), ab\ = aa\^ji3 которой следует b^ — a^ — ^iP/a, b\ = a\. Таким образом, 5/ = = До - «iP/oc + a\i и рбщее решение уравнения (3.89) оказывается равным Si = с(1 — а)' +fifQ— а\^/а + ац. Для решения задачи Коши используем начальное условие ^SQ = с + ^о — t/i(3/a, из которого сле­ дует с = iSo - ^0 "^ ^iP/oc, что позволяет окончательно записать

^/ == (-^Ь - «о + ^iP/oc)(l - а)' + До ^ ^iP/ot + a\iy

(3.91)

/=1,2,..., Ж

Таким образом, если тренд изменяется по линейному закону, алгоритм экспоненциального сглаживания (3.82) формирует по­ следовательность величин (3.91), которые отличаются от (3.88). Величину

5/= 5 , - / = (5о-«о + ^iP/oc)(l - а)'*- P^i/a

(3.92)

можно назвать ошибкой преобразования линейно изменяющего­ ся тренда оператором экспоненциального сглаживания. При до­ статочно больших / первое слагаемое в (3.92) становится сколь угодно малым и, как говорят, в установившемся режиме, т.е. по­ сле завершения переходного процесса, будет наблюдаться уста­ новившаяся ошибка буст = —P^i/a. Этот результат следует пони-

149

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]