Churakov_Mat_met_obr_exp_dan_v_ekon
.pdfду, что эффективность локального сглаживания возрастает с уве личением т и падает с ростом п. При практических расчетах це лесообразно Офаничиваться п <2и т<4. Дополнительно обра тим внимание на то, что при изложенной организации локально го сглаживания несглаженными оказываются первые и послед ние т элементов исходного временного ряда. Этот недостаток можно устранить, применив на этих участках алгоритмы типа ре куррентного метода наименьших квадратов.
3.4. Линейное прогнозирование структурно детерминированных рядов
приступим теперь к рассмотрению одного из наиболее важных вопросов анализа временных рядов — прогнозированию их по следующих значений по результатам наблюдения за ними на не котором фиксированном отрезке времени. Итак, полагаем, что в нашем распоряжении имеются N наблюдений, математически отображаемых моделями (3.1), (3.2). Базисные функции ф)^(^/), А: = О, 1, ..., ^, / = 1,2, .,., N, выбраны или в классе полиномиаль ных функций, или в более широком классе ортогональных функ ций. Ряд может быть подвергнут локальному сглаживанию, но мы сохраняем исходные обозначения (3.1). Задача, как уже отме чалось, заключается в поиске наилучшей в некотором смысле оценки tfn ненаблюдаемой величины Уг^, т > N, по результатам
наблюдений у-\у\У2'-' Ум]^-
Прогнозированное значение ряда у,^ будем искать в классе
линейных операторов, позволяющем представить |
|
Ym=W\ |
(3.66) |
где W— пока неизвестный вектор весовых коэффициентов. Этот вектор попытаемся найти таким образом, чтобы точность про гнозирования, понимаемая в далее определяемом смысле, оказа лась наивысшей. Чтобы конкретизировать содержание послед ней фразы, обозначим символом
У\='Ут-Ут |
(3.67) |
ошибку прогнозирования и более детально изучим ее структуру Для этого удобно вектор наблюдений у в соответствии с (3.1), (3.2) представить в матрично-векторной форме
140
у = Фа +р, |
(3.68) |
где |
|
«0 |
Ро |
Ф = ФоСг) Ф1('2) - Ф?(^2) , в = «1 , |
р = Pi |
л. |
_PN \ |
Тогда |
|
Ц^Ут-ГУЧФа+Р). |
|
Теперь сделаем важное допущение: будем полагать, что мо дель тренда (3.2), введенная выше на отрезке [/^ /дг], справедлива и на множестве [/j, t^]. Это позволяет представить
Ут = Фт « + Р/и,
где
т_ [фо(и Ф1(^т) - Ф^(и].
Сиспользованием этого допущения записываем
(3.69)
Из (3.69) следует, что ошибка прогнозирования содержит де терминированную и стохастическую составляющие. Первая из них определяет среднее значение ошибки прогнозирования и, так как вектор а неизвестен, также является величиной неизвест ной. Так как вектор ^Гпока не найден, потребуем
Фя Ф^^=0, |
(3.70) |
где О - нулевой {q + 1)-вектор. Соотношение (3.70) обеспечивает равенство М{г\} = О и, следовательно, является условием несме щенности. Относительно компонентов вектора W^OHO представ ляет собой систему линейных алгебраических уравнений, содер жащую q + 1 уравнений с 7V неизвестными. Так как q+ \ < М,то при выполнении условий совместности Кронекера—Капелли си стема оказывается неопределенной, т.е. имеет бесконечное число решений. Для поиска конкретного решения следует задать до-
141
полнительное условие, которому это решение должно удовлетво рять. За таковое примем следующее.
Если выполняется (3.70), то ошибка прогнозирования (3.69) содержит только случайную составляющую. В этом случае точ ность прогнозирования можно характеризовать дисперсией ошибки прогнозирования D{r\) = М{г]^}, и точность прогнозиро вания окажется наивысшей, если вектор W, помимо выполнения условий (3.70), обеспечит минимальное значение дисперсии /){г|}. В результате приходим к следующей оптимизационной за даче поиска вектора W:
M{r]^} = G^(\-\-W^W)-^ |
min , |
(3.71) |
Х={1УеК^:(р^-ф^}У=0}, |
|
(3.72) |
Смысл задачи (3.71), (3.72), таким образом, следующий: на множестве решений системы (3.70) найти то, которое минимизи рует дисперсию ошибки прогнозирования. Подобная задача встречалась ранее при доказательстве теоремы Маркова и, как отмечалось, решается методом неопределенных множителей Лагранжа. Поэтому, не прибегая к подробным комментариям, огра ничимся основными этапами решения.
Функция Лагранжа
L(W, X) = c^W^W+ 2А.^(ф^-ф'^»0.
Необходимые условия рассматриваемого условного минимума
G V - ФЛ = ON, (fm - Ф^^= 0^+1.
Решение:
W= Ф(ф'^Ф)-^ф^. |
(3.73) |
Алгоритм прогнозирования:
Ут = fV^y = ф/(Ф'^Ф)-'Ф^ |
(3.74) |
Таким образом, наилучшее линейное прогнозирование вре менного ряда в сформулированных условиях заключается в ли нейном преобразовании вектора наблюдений j? линейным опера-
142
тором, отождествляемым с вектором (3.73). Легко обнаружить, что сомножитель (Ф^Ф)~^Ф^>' в (3.74) представляет собой не что иное, как МНК-оценку а вектора параметров а, ^«айденную по наблюдениям у. Поэтому кратко можно записать: Yf^ = (рщ^^- Точ ность оптимального прогнозирования определяется минималь ным значением дисперсии (3.71), которая в случае (3.73) оказы вается равной
а^2 = min М{г]^} = 0^(1 + ф/(ф'Гф)-1ф^. |
(3.75) |
Можно, вычислив (3.74), построить доверительные интерва лы для истинного значения у^ прогнозируемой величины. Пусть вначале дисперсия а^ известна. Так как вектор заявляется гауссовским, то ошибка прогнозирования г\ является центрированной гауссовской величиной: ц ~ N(0, Сц ) и, следовательно, ц/а^ = = (jfTj -Yfn)/(y^ - N(0, 1) — стандартная случайная гауссовская ве личина. При доверительной вероятности а должно выполняться ^Ил/с^л! ^ Ya) "^ ос, где Ya — двухсторонняя а-квантиль стандартно го гауссовскогр распределения, Р — символ вероятности. Но тог да ~Ya^ (Ут -^т)/^ц "^ Ya И С ВСрОЯТНОСТЬЮ а ВЫПОЛНЯСТСЯ
Ущ - УаС^л ^Ут<Ут + Уа^^ц- |
(3.76) |
Если дисперсия а^ неизвестна, то, как это делалось в рефессионном анализе, вычисляется ее МНК-оценка
где Ф^^ - к-я строка матрицы Ф, и находится оценка дисперсии (3.75)
Э^2 = э2(1+ф/(Ф^Ф)Лт).
Далее находится величина г|/а^ и средствами, подобными применявшимся в аналогичной ситуации в п. 2.3.8, доказывает ся, что эта величина распределена по закону Стьюдента с N—q—l степенями свободы: г\/Ъ^ - t{N— ^ - 1). Но тогда прихо дим к подобному (3.76) результату:
Ут-УоРх\^Ут<Ут^УоРц, |
(3.77) |
14Э
где Ya — двухсторонняя а-квантиль распределения Стьюдента с N - q-\ степенями свободы.
Алгоритм прогнозирования существенно упрощается, если столбцы матрицы Ф ортогональны. Используя общий результат (3.74), несложно найти:
|
|
|
N |
|
к=0 |
|
м |
(3.78) |
|
|
|
|||
|
|
|
||
|
|
\ |
/=1 |
|
|
/ |
г |
|
|
гг2 - ^ 2 |
|
я |
^l(fm) |
(3.79) |
|
1+ Е |
^ 9 |
|
|
|
|
А:=0| |
|
|
|
|
|
ХФИ^/) |
|
|
V |
V/=l |
/у |
Решение (3.74) легко распространяется на случай/> ~ 7V(0, А^), f^iPmP) ~ 0> т.е. на случай коррелированного гауссовского вектора р, но не коррелированного с величиной/^^^j. Соответствующие ве личины оказываются равными:
Т / л Т г г - 1 л ч - 1 л Т г г - 1 , _ ^ Т^
Ут = ifm\<b'Kp-'<b)-'<b'Kp-'y = ф^Ч
ал' = ст2 + ф/(фТА:^-^Ф)-^
3.5. Рекуррентное прогнозирование структурно детерминированных рядов
Распространенный метод прогнозирования временных рядов ос нован на применении рекуррентных алгоритмов типа экспонен циального сглаживания. В этом методе используется полиноми альная модель тренда
к=0
И в зависимости от порядка полинома q, который обычно не пре вышает 2, применяют тот или иной алгоритм экспоненциально-
144
го сглаживания. Начнем рассмотрение с простейшего случая ^ = О, которому соответствует модель ряда
}^/ = ^о+А',/=1,2,...,Ж |
(3.80) |
Существо метода заключается в последовательном использо вании вычислительного алгоритма
Si = ayi + Р^/.ь / = 1, 2,..., Л^, а + Р = 1, ае [О, 1], (3.81) или, что то же самое,
5'/ = 5^_i + a0;,._5/_i) |
(3.82) |
при некотором начальном условии i^o.
Величину Si принято называть экспоненциальной средней, параметр а — коэффициентом (параметром) сглаживания. Из (3.81) последовательно имеем:
Si = ау1 + Р^о, 52 = ау2 + P^i = а(у2 + P^i) + Р^^о, ^з = (3.83)
= а(уз+Р>'2+Р^1) + РХ...,
Si =a(yi ч-РУМ +р2>;,_2 +... + p'-Vi) + P% =а Е р ^ ' Ч +Р%.
Таким образом, величина Si представляет собой линейную комбинацию всех предшествующих /-му моменту элементов ряда и /-Г0 элемента, причем вес каждого элемента ряда в формирова нии величины Si в соответствии с показательной закономернос тью, определившей название метода, становится тем меньше, чем дальше во времени этот элемент отстоит от /-го момента. По следнее можно интерпретировать как стремление алгоритма в большей степени доверять новым наблюдениям и в меньшей - более ранним, устаревающим. С ростом / количество участвую щих в образовании 5/ наблюдений возрастает, причем вес ранних из них становится все меньшим. В случае (3.80)
Si =аоа i Р'-^ +а i р'Л/t +Р% =
к=1 к=\
i
= (l-P')ao+aSP'-4+P%-
к=\
145
Математическое ожидание и дисперсия этой величины ока зываются соответственно равными:
M{Si} = (l^^)ao + &So, |
(3.84) |
|
(3.85) |
2 |
• Таким об |
Так как P < 1, то при / -> ©о M{Si}-^ao, /){5/} -^ |
разом, при достаточно больших /, что, в свою очередь, возможно при большом объеме TVвыборки временного ряда, величина 5/ мо жет рассматриваться как несмещенная оценка не изменяющегося во времени тренда а^. При этом параметр р, характеризующий
эффективность сглаживания, оказывается равным р = т-а;^~<1.
Формально наивысшая эффективность достигается при а = 0. Однако этот результат лишен практического содержания, так как в этом случае -5*/ = So = const и говорить о каком-либо сглажива нии ряда бессмысленно.
При использовании алгоритма (3.82) возникают по крайней мере, два важных в прикладном отношении вопроса: как выбрать начальное условие SQ И параметр сглаживания а. Однозначных ответов на эти вопросы нет. Из приведенных соотношений следу ет, что малые значения а обеспечивают высокую эффективность сглаживания, но при этом может недопустимо «затянуться» про цесс достижения величинами M{Si} и /){5/} их предельных значе ний, соответствующих наилучшему сглаживанию и условию не смещенности. Большие значения а ускоряют переходный про цесс, но ухудшаются сглаживающие свойства алгоритма. Требу ется компромиссное решение. Часто рекомендуют выбирать а в пределах [0,1; 0,3]. Но известны [16] и аргументированные возра жения против этих рекомендаций. Аналогичные проблемы воз никают и при выборе iSo- В идеале хотелось бы иметь i^o = ^о и тог да из (3.84) следует M{Si} = GQ независимо от /. Но это практичес ки недостижимое фантазирование, так как тренд ао неизвестен (иначе не было бы задачи). Иногда вполне приемлемым оказыва-
1 '"
ется решение 5о =— S УА:» где m - некоторое количество началь-
146
ных членов ряда. В качестве прогнозированного значения У^ ря да в случае (3.80), (3.82) принимается
А
При выполнении (3.80) в качестве альтернативного методу экспоненциального сглаживания можно рассмотреть рекуррент ный метод наименьших квадратов, изложенный выше. В этом случае МНК-оценка йо/ величины UQ, найденная по наблюдени ям у\, У2, ..., Уь рекуррентно выражается через оценку 5o(/_i), со ответствующую наблюдениям yi, yi,..., ^/-ь и /-е наблюдение:
^о/=^0(/-1)+т(>'/-йо(М))» ^* = 1. 2. - • |
(3.86) |
Внешне алгоритмы (3.82) и (3.86) очень похожи. Различие проявляется в том, что вес а второго слагаемого справа в (3.82)
постоянен, а в (3.86) аналогичный весовой коэффициент т явля ется переменным во времени. Но это казалось бы незначительное различие порождает принципиально разные последствия. Рас пространив технологию преобразований (3.83) на (3.86), получим
|
|
. |
1 |
1. |
Г |
, |
|
«01=>'Ь |
^02 = 2>'2 + 2^^^"2^^1"^^2). |
|
|||||
1 |
2 |
|
1 |
|
|
1 / |
<3-«^> |
^03 =^УЪ +Т^02 =Т(Л +>'2 +>'3). ••- %• =7 ^ Ук- |
|
||||||
5 |
5 |
|
i |
|
|
I f^-x |
|
МНК-оценка (3.87), таким образом, как и экспоненциальное среднее (3.83), является линейной комбинацией наблюдений у\, У2,..., yi, НО, В отличие от (3.83), в (3.87) эти наблюдения входят с
одним и тем же весом т, т.е. алгоритм не «забывает» более ранние
наблюдения и для него все наблюдения одинаково важны. Если тренд действительно не изменяется на отрезке [1,7V], т.е. выпол няется (3.80), то это свойство алгоритма (3.86) не порождает ка ких-либо критических замечаний. Но если вопреки (3.80) вели чина ^0 изменит свое значение в какой-то момент t^s (/j, /дг), алго ритм (3.86) будет медленно реагировать на это изменение, так как проявляется сильное влияние ранних наблюдений, соответству
ет
ющих прежнему значению тренда GQ. Алгоритм (3.82) более опе ративно среагирует на это изменение, ибо в его структуре ранние наблюдения играют менее значимую роль, нежели поздние, соответствз^ющие произошедшему изменению в тренде. В силу анало гичных причин алгоритм экспоненциального сглаживания мо жет оказаться предпочтительнее и в случаях медленно «дрейфую щего» тренда GQ. Однако если (3.80) выполняется, то
M{aoi} = aonpu\/iG[l,N],
т.е. рекуррентный МНК формирует несмещенную оценку тренда, начиная с первого наблюдения ух, а не ассимптотически, как в случае (3.84). Дисперсия
D{aoi} = {l/i^}M\ i Е/?^/?Л = -^г—^Опри/->оо,
что также предпочтительнее (3.84). Дополнительно обратим вни мание на то, что для алгоритма (3.86) не существует проблемы выбора начального условия 5оо, так как алгоритм нечувствителен к этой величине. Но еще раз подчеркнем, несмотря на эти досто инства, рекуррентный МНК менее чувствителен к возможным эволюциям тренда, нежели алгоритм экспоненциального сгла живания. И объясняется это именно тем обстоятельством, что при формировании МНК-оценки все наблюдения принимают участие с одним и тем же весом. В то же время при экспоненци альном сглаживании более ранние по отношению к текущему моменту времени наблюдения сопровождаются существенно меньшими весами, нежели наблюдения, приближенные к этому моменту. Это в значительной степени объясняет широкую попу лярность экспоненциального сглаживания при обработке вре менных рядов, включая и задачи прогнозирования.
Алгоритм (3.82) ориентирован на случай (3.80). Несложно вы явить его поведение, если в действительности тренд окажется не постоянным, а, например, линейно меняющимся:
fi = ao + aiiJ^l,2,...,N. |
(3.88) |
Чтобы это сделать, удобно (3.82) переписать в виде
5,4-1 - (1 - ос№ = осУ;+ь / = О, 1,..., ЛГ- 1, |
(3.89) |
148
где принято ;?/+! = 0. Выражение (3.89) представляет собой про стейшее неоднородное разностное уравнение первого порядка с постоянными параметрами. Найдем его решение, соответствую щее начальному условию SQ. С этой целью предварительно полу чим общее решение этого уравнения. Как известно, оно склады вается из общего решения Sj однородного уравнения
5'/+,-(1-а)5'/ = 0 |
(3.90) |
и какого-либо частного решения Si** неоднородного уравнения (3.89). Уравнению (3.90) соответствует характеристическое урав нение Z—(1-ос) = 0с единственным корнемzi = 1 - а. Следова тельно, Si = с(1 — а)', где с — постоянная «интегрирования». Ча стное решение уравнения (3.89) в случае (3.88) ищем в виде S** ~ йо "^ ^1^ ^'Д^ ^0' ^1 ^ некоторые пока неизвестные констан ты. Для их определения функции 5/ и (3.88) подставляем в (3.89) и, рассматривая получающееся выражение как тождество, со ставляем систему уравнений аЬо + 6i = а(ао + ui), ab\ = aa\^ji3 которой следует b^ — a^ — ^iP/a, b\ = a\. Таким образом, 5/ = = До - «iP/oc + a\i и рбщее решение уравнения (3.89) оказывается равным Si = с(1 — а)' +fifQ— а\^/а + ац. Для решения задачи Коши используем начальное условие ^SQ = с + ^о — t/i(3/a, из которого сле дует с = iSo - ^0 "^ ^iP/oc, что позволяет окончательно записать
^/ == (-^Ь - «о + ^iP/oc)(l - а)' + До ^ ^iP/ot + a\iy
(3.91)
/=1,2,..., Ж
Таким образом, если тренд изменяется по линейному закону, алгоритм экспоненциального сглаживания (3.82) формирует по следовательность величин (3.91), которые отличаются от (3.88). Величину
5/= 5 , - / = (5о-«о + ^iP/oc)(l - а)'*- P^i/a |
(3.92) |
можно назвать ошибкой преобразования линейно изменяющего ся тренда оператором экспоненциального сглаживания. При до статочно больших / первое слагаемое в (3.92) становится сколь угодно малым и, как говорят, в установившемся режиме, т.е. по сле завершения переходного процесса, будет наблюдаться уста новившаяся ошибка буст = —P^i/a. Этот результат следует пони-
149