
5ый семестр / 8. Системный анализ (complete)_1 / SA / не мое / ТС и СА_гр.447_2019 / Учебные пособия / СЕРГЕЕВ_МАКЕТ
.pdf
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
αn = arg min ∑F( yi |
− f (xi ,α)), F(z) = −log p(z). |
(2) |
||||||||||||
|
α |
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
В частности, если p(z) гауссова |
– N (0,σ 2 ), то (2) |
переходит в метод наи- |
|||||||||||||
меньших квадратов (МНК) |
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
αn = arg min ∑( yt − f (xi ,α))2 , |
|
|
(3) |
|||||||||||
|
|
α |
|
|
|
|
|
|
|
|
|
|
|
|
|
а если p(z) – плотность распределения Лапласа – L(0,a) |
(т. е. p(z) = |
1 |
exp(− |
|
z |
|
/ a)), |
||||||||
|
|
||||||||||||||
2a |
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
то из (2) получаем метод наименьших модулей (МНМ) |
|
|
|
|
|
||||||||||
|
αn |
= arg min ∑ |
|
yi − f (xi ,α) |
|
. |
|
|
(4) |
||||||
|
|
|
|
|
|||||||||||
|
|
|
α |
|
|
|
|
|
|
|
|
|
|
|
|
Для |
простейшего случая оценки |
скалярного сигнала при наличии шума |
|||||||||||||
( f (xi ,α) ≡α R1 ), вектор αn |
из |
(3) совпадает с |
выборочным |
средним: |
|||||||||||
αn = |
1 ∑yi , а из (4) – с выборочной медианой: αn = med( y1 ,..., yn ). |
|
|
|
|
|
|||||||||
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
Оценки максимального правдоподобия при некоторых предположениях асимптотически оптимальны в том смысле, что их среднеквадратическая ошибка аппроксимации при объеме выборки n(n → ∞) достигает минимально
возможное значение, совпадающее с нижней границей неравенства Рао– Крамера. Действительно, для произвольной несмещенной оценки αn спра-
ведливо неравенство Рао–Крамера [1]
|
M (αn |
−α)(αn −α)T ≥ |
1 |
(Bn I ( p))−1; |
(5) |
||
|
|
|
|
|
n |
|
|
∞ |
2 |
|
n |
|
|
|
|
I ( p) = −∞∫ |
( p(z)) |
|
dz, Bn = 1n ∑i=1 |
α f (xi ,α* ) Tα f (xi ,α* ). |
(6) |
||
p(z) |
|
Здесь α – истинное значение параметра; I ( p) – фишеровская информация
p'(z) = |
dp(z) |
. Предполагается, что I ( p) существует и конечна, матрица B не- |
|
||
|
dz |
n |
|
|
|
вырождена. |
|
Пусть xi – независимые случайные векторы с плотностью p(x) . Тогда оценка максимального правдоподобия (2) асимптотически нормальна:
n(αn −α) ~ N(0, S),S = (BI ( p))−1 , B = MBn .
Сопоставляя это с (5), получаем, что (2) – асимптотически эффективная оценка.
Однако оценки максимального правдоподобия не являются стабильными при малых отклонениях распределений от предполагаемого. Рассмотрим простейший пример. Пусть f (x,α) ≡α R1 , тогда оценка максимального правдоподобия для нормального распределения есть выборочное среднее
|
1 |
n |
αn = |
∑yi . Если же p(z) = (1−α)g(z) +αh(z), где α > 0 мало; g(z) – гауссова |
|
|
n i=1 |
плотность; h(z) – плотность распределения с бесконечной дисперсией (модель редких больших выбросов), то выборочное среднее имеет бесконечную
171

дисперсию. Иначе говоря, оценка αn в этом случае не только не оптимальна,
но даже не состоятельна, хотя функция распределения помехи близка к нормальной.
Стабильныйметодмаксимальногоправдоподобия
Рассмотрим стабильный метод оценивания параметров функций, предполагая, что известен лишь некоторый класс плотностей распределений вероятностей помех P, p P . Естественным представляется следующий способ
оценивания в такой ситуации. Выберем «наименее благоприятное» распределение p* из P, для которого правая часть (5) максимальна, и применим метод максимального правдоподобия для p* . Таким образом, получаем
αn = arg min ∑F * ( yi − f (xi ,α)), F * (z) = −log p* (z) |
(7) |
α
p* = arg min I ( p).
p P
По существу, этот подход для одномерной задачи оценки центра распределения был впервые предложен в работе [2], где автор рассмотрел класс P распределений, близкий к нормальному, и нашел для него p* и оценочную
функцию F * . Анализ ряда других классов P и обобщение на задачи регрессионного типа было проделано в [3, 4]. Там же приведены рекуррентные варианты алгоритмов оценивания и результаты вычислений. Ниже кратко описываются полученные в [3, 4], результаты.
Приведем примеры классов распределений помех P и соответствующих наименее благоприятных распределений p* и оценочных функций F * :
А. Класс P1 всех невырожденных распределений: P1 ={p : p(0) ≥ε > 0}. Тогда p* – распределение Лапласа, F * (z) = z и метод (7) сводится к методу наименьших модулей (4).
Б. КлассP2 распределений сограниченнойдисперсией: P2 ={p: ∫z2 p(z)dz ≤σ2}.
Тогда p* – нормальное распределение F * (z) = z2 и метод (7) сводится к методу наименьших квадратов (3).
В. Класс P3 «приближенно нормальных» распределений: P3 ={p =(1−c)g +ch,
0 < c <1, g гауссова |
N (0,σ 2 ), h произвольна }. Тогда |
F * (z) = z2 при |
|||||||||||
|
z |
|
≤ a, F * (z) = 2a |
|
z |
|
−a2 |
при |
|
z |
|
> a , где a вычисляется по σ 2 |
и с. Метод (7) в |
|
|
|
|
|
|
этом случае является промежуточным между методом наименьших квадратов и методом наименьших модулей. По существу, этот метод осуществляет автоматическую отбраковку аномальных (резко выделяющихся) измерений.
Г. Класс |
P4 |
«приближенно |
равномерных» |
распределений |
|||||||||||||
P4 ={p =(1−c)g +ch, |
|
0 < c <1, |
g |
|
равномерная |
R(0,a),h −произвольная |
|||||||||||
плотность }. Тогда F(z) = 0 при |
|
z |
|
≤ a, |
F(z) = |
|
z |
|
−a |
при |
|
z |
|
≥ a. |
В одномерном |
||
|
|
|
|
|
|
случае ( f (x,α) ≡α) метод (7) дает оценку αn , такую что число измерений yi , меньших αn −a, равно числу измерений, больших αn + a.
172

Можно рассмотреть и ряд других классов P : «финитных» и «приближенно финитных» распределений, классы распределений, близких к нормальному или равномерному в других метриках и т. д.
Основная теорема об асимптотической оптимальности в минимаксном смысле оценок (7) может быть сформулирована так. Пусть F * (z) = −log p* (z) симметрична, выпукла и удовлетворяет условию Липшица, плотность p(z) помехи ξ симметрична и непрерывна в точках скачков ψ * (z) = F * (z)', причем существует отрезок, на котором F * (z) отлична от линейной , а p(z) положительна. Пусть задача линейна: f (x,α) = xTα, причем xi – случайная выборка из распределения с плотностью P , причем xi и ξi взаимно незави-
симы, xi ограничены и матрица B = ∫xxT dP(x) невырождена. Тогда оценка (7) асимптотически нормальна
n(an −a* ) ~ N (0, S(F * , p)) , |
|
||||
S(F, p) = B |
−1 |
∫φ2 pdx |
, |
φ(z) = F'(z). |
(8) |
|
(∫pdφ)2 |
||||
|
|
|
|
|
Если Р – выпуклый класс распределений, в котором множество {p : I ( p) < ∞}
плотно, а p* = arg min I ( p) существует, то
p P
S(F * , p) ≤ S(F * , p* ) = B−1I ( p* ) ≤ S(F, p* ), |
(9) |
p P. |
|
Иначе говоря, для всего класса Р гарантируется равномерная оценка асимптотической матрицы ковариаций an , и эта оценка не может быть лучше для лю-
бой другой функции F.
Учетинформацииорешении. Методмаксимумаапостериорнойвероятности
До сих пор использовалась лишь априорная информация о статистических характеристиках помех, а априорная информация о решении не использовалась. Перейдем теперь к описанию возможных способов учета априорной информации о решении.
Начнем с простейшего случая. Пусть известны p(z) – плотность помех ξi и po (a) – плотность априорного распределения решения. Тогда вместо ме-
тода максимального правдоподобия (2) целесообразно применить метод максимума апостериорной вероятности:
αn |
= arg min[∑F( yi − f (xi ,α)) + F0 (α)], |
|
|
|
|
|
|
c |
|
(10) |
|||
|
F(z) = −log p(z), |
|
||||
|
F0 (α) = −log p0 (α). |
|
|
|
|
|
В частности, если |
p(z) – гауссова N (0, σ 2 ), p (α) – гауссова |
N(α |
0 |
,S |
0 |
), |
|
0 |
|
|
|
а f (x,α) ≡ xT α, то получаем
173

αn = arg min[( yi −xTi α)2 +σ 2 (α−α0 )T S0−1 (α−α0 )] = |
|||||
α |
|
|
|
|
|
= arg min[αT Bα+ |
σ 2 |
(α−α0 )T |
S0−1 (α−α0 ) −2αT b], |
||
n |
|||||
α |
|
|
|
||
|
|
|
|
||
B = |
1 |
∑xi xiT , b = |
1 ∑yi xi . |
||
|
n |
|
|
n |
Таким образом, вместо решения системы Bc ≡ b (как в методе наименьших квадратов) здесь нужно решать систему
Bα+ |
σ 2 |
S0−1 |
(α−α0 ) ≡ b, |
|
||
n |
|
|||||
которая при S0 =σ02 I имеет вид: |
|
|
|
|
|
|
|
|
|
|
|
|
|
(B + βn I )α = b + βnα0 , βn = |
σ 2 |
. |
(12) |
|||
|
||||||
|
|
|
|
nσ02 |
|
Иначе говоря, метод максимума апостериорной вероятности для гауссова случая приводит к решению регуляризованной системы нормальных уравнений. Параметр регуляризации cn полностью определяется отношением дис-
персий помехи и априорного распределения решения.
Отметим, что статистический подход к решению некорректных задач и методу регуляризации как к способу учета априорной информации о решении рассматривался рядом авторов [5, 6].
В негауссовском случае метод (10) приводит к способам оценивания, отличным от стандартного метода регуляризации. Пусть, например, f (x,α) ≡α R1 , p(z) – плотность распределения Лапласа L(0,c), p0 (α) – гаус-
сова плотность N (α0 ,σ02 ).Тогда
|
αn |
= arg min[∑ |
|
yi −α |
|
+ |
c |
|
(α −α0 )2 ]. |
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
2σ |
2 |
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
В частности, при n = 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
y1, |
|
|
|
|
|
|
|
если σ02 |
> c |
|
y1 −α0 |
|
, |
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
α1 |
= |
|
+ |
σ 2 |
|
|
|
−α |
|
), если σ 2 |
≤ c |
|
|
y −α |
|
|
. |
|
|
||||||
|
α |
0 |
0 sign( y |
|
0 |
|
|
0 |
|
|
|
||||||||||||||
|
|
|
β |
|
1 |
|
|
|
|
|
|
0 |
|
|
1 |
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Аналогичнымобразомпри f (x,α) ≡α R1, |
p(z) ~ L(0,a), |
p (α) ~ L(α |
, a ), n =1 |
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
0 |
0 |
||
|
|
|
|
α |
1 |
= |
|
y1 ,если a < a0 |
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
α0 , еслиa > a0 . |
|
|
|
|
|
|
|
|
|
|
Наконец, если p0 (α) – равномерная плотность на некотором ограниченном множестве Q RN , метод (10) принимает вид
αn = arg min ∑F( yi − F(xi ,α)), |
(13) |
α Q |
|
так что вместо безусловного минимума в (2) здесь ищется минимум той же функции при наличии ограничений α Q.
174
Если применить к рассматриваемой задаче неравенство Крамера–Рао для случайных параметров [8], то для линейного случая ( f (x,α) = xT α) и лю-
бой оценки |
αn , смещение которой b(α) удовлетворяет |
условию |
||||||||
lim b(α) p0 (α) = 0, |
получим |
|
|
|
|
|
|
|
||
α→∞ |
|
|
|
|
|
|
|
|
|
|
|
M (αn −α)(αn −α)T ≥ 1 |
[Bn I ( p) + 1 I ( p0 )]−1 |
; |
(14) |
||||||
|
|
|
n |
|
|
|
n |
|
|
|
|
Bn = 1n ∑xi xiT , I ( p) = ∫ |
p'(z)2 |
dz; |
|
(15) |
|||||
|
p(z) |
|
||||||||
|
I ( po ) = ∫ |
|
ln p0 (α) T ln p0 (α) |
|
p0 (α)dα. |
|
|
|||
|
|
|
|
|
||||||
Поэтому, |
если плотности p(z) |
и p0 (α) известны не |
полностью |
( p P, p0 P0 ), то в соответствии с изложенным выше подходом следует вы-
брать «наименее благоприятные» распределения |
p* P, p* P , для которых |
|
|
0 |
0 |
нижняя граница точности оценки, задаваемая (14), максимальна. Если выбрать в качестве скалярной характеристики матрицы, которую нужно максимизировать, ее детерминант, то этот подход приводит к следующему стабильному способу оценивания:
αn = arg min[∑F * ( yi − xiT α) + F0* (α)],
|
α |
|
F * (z) = −log p* (z), F0* (α) = −log p0* (α), |
(16) |
|
p* = arg min I ( p), |
p0* = arg min(det I ( p0 )). |
|
p P |
p0 Po |
|
Подчеркнем, что оценочная функция F * оказывается той же, что и для задач при отсутствии априорной информации о решении.
Приведем примеры классов P0 и соответствующих им функций F0*. Для простоты ограничимся одномерным случаем (α R1 ) :
А. Априорное распределение α симметрично с центром α0 и дисперсией
σ |
2 . Тогда p* (α) |
– гауссово N (α |
0 |
,σ 2 ), |
F * (α) = |
1 |
|
(α −α |
0 |
)2 . |
|||||||||||
|
|
||||||||||||||||||||
|
0 |
|
|
|
0 |
|
|
|
|
|
0 |
0 |
2σ02 |
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
Б. Решение |
сосредоточено |
|
на |
отрезке |
[α |
0 |
−a, α |
0 |
+ a]. Тогда p* (α) = |
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
||
= π cos2 π(x −α0 ) |
на этом отрезке и p* (α) = 0 вне его, |
F * (α) = −2logcos π(x −α0 ) |
|||||||||||||||||||
|
a |
|
|
2a |
|
|
|
|
|
|
0 |
|
|
|
|
0 |
|
2c |
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
при |
|
x −α |
0 |
|
< a, F * (α) = ∞ при |
|
x −α |
0 |
|
≥ a. |
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
При n → ∞ алгоритм (16), как нетрудно видеть, совпадает с (10) (т. е. роль априорной информации стремится к 0 с ростом n).
При малых объемах выборки малых n метод (16) обладает существенными преимуществами в силу более полного учета априорной информации. Кроме того, минимизируемая в (16) функция лучше обусловлена, и искать ее минимум легче. Так, для гауссового случая матрица В может быть близка к вырожденной, а матрица B + βn I (12) положительно определена. Поэтому
решение (12) устойчиво и менее чувствительно к разного рода ошибкам.
175

Методнепараметрического оцениванияфункциирегрессии
Рассмотрим задачу идентификации статического объекта в условиях априорной непараметрической неопределенности о структуре модели
yi* = f (xi ) +ξi , i =1,n , |
(17) |
|
где yi* , xi , i =1,n – измеренные значения входных и выходных переменных объекта с плотностью p( y,x), f (x) – неизвестная, однозначная функция; ξi – помехи с плотностью p(z). Известно, что наилучшим приближением к модели объекта f (x) является функция регрессии:
r(x) = ∫yP( y / x)dy, |
(18) |
|
где |
R1 |
|
∫ ∫( y − f (x))2 P( y / x)P(x)dydx, |
|
|
r(x) = arg minf F |
|
|
|
R1 Rm |
|
P( y / x) = P( y,x) / P(x) – условная плотность распределения вероятности переменных y, x .
Задача идентификации статического стохастического объекта (17) за-
ключается в оценке плотностей вероятности |
P( y,x), P(x) |
|
и соответственно |
||||||||||||||||||||||||||||||||||||||||
функции регрессии r(x) . |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
В качестве оценок |
P( y,x) и |
P(x) используются непараметрические при- |
|||||||||||||||||||||||||||||||||||||||||
ближения плотности вероятности «ядерного» типа [14–15] |
|
|
|||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
n |
x |
−xi |
|
1 |
|
n m |
1 |
|
x j − x ji |
|
, |
(19) |
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
Pn (x) = |
|
|
|
∑k |
|
h |
|
= |
|
|
∑∏ |
hj |
k j |
hj |
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n i=1 |
|
|
|
n i=1 j=1 |
|
|
|
|
||||||||||||||||||||
где k j ((x j − x ji ) / hj ), |
|
|
j = |
1,m |
|
– некоторые весовые функции «ядра» с центром в |
|||||||||||||||||||||||||||||||||||||
точках x ji , j = |
|
, i = |
|
; |
|
hj , j = |
|
– параметры «сглаживания». |
|||||||||||||||||||||||||||||||||||
1,m |
1,n |
1,m |
|||||||||||||||||||||||||||||||||||||||||
Свойства ядер: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
a) k j (x j − x ji ) / hj ) →C j , hj → ∞, j = |
|
|
.; |
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||
1,m |
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||
При C j =1 ядро k j нормированное; |
|
|
|
|
|
|
|
|
(20) |
||||||||||||||||||||||||||||||||||
б) k j ((x j − x ji ) / hj ) → 0, hj → 0, j = |
|
. |
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||
1,m |
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||
В качестве ядер k j часто используют функции: |
|
|
|
|
|||||||||||||||||||||||||||||||||||||||
a) k(u) = exp(−u2 / 2) ; |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
b) k(u) = exp(− |
|
|
u |
|
) ; |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(21) |
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
1− |
|
u |
|
|
при 0 < |
|
u |
|
≤1, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||
в) k(u) = |
|
|
|
|
|
|
|
|
|
|
u |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
при |
|
|
>1. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
По аналогии с (19) имеет место непараметрическая оценка совместной плотности вероятности P( y,x) случайных величин y, x :
|
1 |
n |
1 |
y − y |
i |
m |
1 |
x j − x ji |
|
|
||
Pn ( y,x) = |
|
∑ |
|
k |
|
∏ |
|
|
|
. |
(22) |
|
|
|
|
|
|
|
|||||||
|
n i=1 hy |
|
hy |
|
|
|
|
hj |
|
|
||
|
|
|
j=1 |
hj |
|
|
176
Подставляя оценки (19) и (22) в (18) и учитывая свойства ядер (20), получим оценку функции регрессии
|
n |
|
1 |
|
|
x j − x ji |
|
* |
|
|
|||||
|
∑ |
|
|
|
|
|
k |
|
|
|
yi |
|
|
||
h |
|
|
|
h |
|
|
|
||||||||
|
i=1 |
j |
|
|
|
j |
|
|
|
|
|||||
rn (x) = |
|
|
|
|
|
|
|
|
|
. |
(23) |
||||
n |
|
|
|
1 |
|
|
x j |
− x ji |
|
||||||
|
|
|
|
|
|
|
|
||||||||
|
∑ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
hj |
|
k j |
hj |
|
|
|
|
||||||
|
i=1 |
|
|
|
|
|
|
|
|
|
Оценка (23) широко используется в задачах идентификации, обработки экспериментальных данных в случаях, когда априорная информация о виде модели объекта отсутствует (модель «черного» ящика). Известны лишь значения его входных и выходной переменной.
Свойства непараметрических оценок регрессии. Непараметрические оценки регрессии вида (23) обладает лишь асимптотическими оптимальными свойствами при бесконечно большом объеме выборки n ( n → ∞). При конечных выборках непараметрические оценки регрессии смещенные [15] .
Существуют различные методы устранения смещения непараметрических оценок регрессии наиболее эффективными из которых являются метод «складного ножа» [12] и метод локальной аппроксимации плотности вероятности [14].
Отметим, что аналогами непараметрических оценок регрессии (22) являются приближения, полученные на основе метода локальной аппроксимации функций [16]
k |
|
f (x,u) = ∑αj (u) ψj (x −u) , |
(24) |
j=1
вокрестности некоторой точки u Rm . Здесь – известные функции. Парамет-
ров αj (u), |
j = |
1,k |
определяем из условия: |
|
|
||||||||
|
|
|
|
|
|
|
n |
u −x |
|
|
n |
|
|
|
|
|
|
|
α* (u) = arg min(∑ K |
|
i |
(F( yi* −∑αj (u)ψj (xi −u))) |
(25) |
||||
|
|
|
|
n |
|
||||||||
|
|
|
|
|
|
|
α i=1 |
|
|
|
j=1 |
|
|
где |
u −x |
i |
|
– ядра вида (21) . |
|
|
|
|
|
|
|||
K |
|
|
|
|
|
|
|
|
|
||||
n |
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
В случае принадлежности распределения помех классу распределений с ограниченной дисперсией F(u) = u2 , оценки (24) при k =1 совпадают с непараметрическими оценками регрессии (23).
Списоклитературы
1.Крамер Г. Математические методы статистики. – М., «Мир», 1975.
2.Huber P.J. Robust estimation of a location parameter. Ann. Math. Stat. 1964. – Vol. 35. – № 1. – C. 73–101.
3.Поляк Б.Т., Цыпкин Я.З. Помехоустойчивая идентификация – В сб.: Идентификация и оценка параметров систем. – Т. 1. – С. 190–213. Препринты IV симпозиума ИФАК, Тбилиси, «Мецниереба», 1976.
177
4.Цыпкин Я.З., Поляк Б.Т. Огрубленный метод максимального правдоподобия. Теория колебаний, прикладная математика. – Горький: Изд. ГГУ, 1977.
5.Турчин В.Ф., Козлов В.П., Малкевич М.С. Использование методов математической статистики для решения некорректных задач. Успехи физ. наук. – 1970. – Vol. 102. – № 3. – С. 345–386.
6.Жуковский Е.Л. Статистическая регуляризация алгебраических систем уравнений // Журн. вычисл. матем. и матем. физ. – 1972. – 12. – № 1. – 185–191.
7.Ван Трис Г.Л. Теория обнаружения оценок и модуляции. – Т. 1. – М.: Изд. «Сов. радио», 1972.
8.Цыпкин Я.З. Адаптация и обучение в автоматических системах. – М.: «Наука», 1968.
9.Невельсон М.Б., Хасьминский Р.З. Стохастическая аппроксимация и рекуррентное оценивание. – М.: «Наука», 1972.
10.Martin R.D., Masrelie C.J., Robust estimation via stochastic approximation. IEEE Trans. Inf. Th.. – 1975. – Vol. 21. – № 3. – С. 263–271.
11.Tukey J.W. Instead of Guass-Markov ieast sguares – what? In. «Applied statistics», ed. R.P. Gupta, North-Holland publ. co., 1975.
12.Добровидов А.В., Кошкин Г.М. Непараметрическое оценивание сигна-
лов. – М.: Наука, 1997. – 336 с.
13.Поляк Б.Т., Цыпкин Я.З. Стабильное оценивание в условиях неполной информации. Вопросы кибернетики. Адаптивные системы управления. – М., 1977. – С. 6–14.
14.Сергеев В.Л. Об использовании оценок локальной аппроксимации плотности вероятности // Автоматика и телемеханика. – 1979. – С. 56–61.
15.Шапиро Е.И. Непараметрические оценки плотности вероятности в задачах обработки результатов наблюдений (обзор) // Зарубежная радиоэлек-
троника. – 1976. – № 2. – С. 3–36.
16.Катковник В.Я. Непараметрическая идентификация и сглаживание данных. – М.: Наука, 1985. – 336 с.
178
ПРИЛОЖЕНИЕ4 ПРИМЕРЫТЕКСТОВПРОГРАММВАРИАНТОВЛАБОРАТОРНЫХРАБОТ
1.Текстпрограммыстатистическогомоделированияиопределения параметровинтегрированной системымоделидобычинефти
Sub Example_1_B1()
'Описание переменных динамических массивов данных
Dim |
n As Integer |
|
' Число лет разработки |
Dim |
m As Integer |
|
' Число параметров модели добычи нефти |
Dim |
L As Integer |
|
' Переменная числа лет прогноза добычи нефти |
Dim |
m1 As Integer |
|
' Число экспертных оценок извлекаемых запасов нефти |
For |
n = 1 To 15 |
|
' Цикл по числу лет истории разработки месторождения |
m = 3 |
|
|
|
L = 3 |
|
|
|
m1 = 5 |
|
|
|
'Описание переменных и констант |
|||
ReDim y(n) As Single |
|
' Имитируемый вектор фактической добычи нефти |
|
ReDim S1_(m1) As Single |
|
' Имитируемый вектор экспертных оценок извлекаемых запасов |
|
ReDim YL(n + L) As Single |
|
' Вектор прогноза добычи нефти на L лет |
|
ReDim ALy(m) As Single |
|
' Точные значения параметров модели добычи нефти |
|
ReDim AL(m) As Single |
|
' Оценки параметров модели добычи нефти |
|
ReDim ALo(m) As Single |
|
' Начальные значения параметров модели добычи нефти |
|
ReDim ALh(m) As Single |
|
' Вспомогательный вектор параметров при дроблении шага h |
|
|
|
|
' в методе Гаусса–Ньютона |
ReDim F(n) As Single |
|
' Вектор модельных значений добычи нефти |
|
ReDim Fo(n) As Single |
|
' Вектор значений добычи нефти при начальных значениях |
|
|
|
|
' параметров модели AL = ALo |
ReDim d(n, m) As Single |
|
' Матрица частных производных по вектору параметров АL |
|
ReDim DT(m, n) As Single |
|
' Транспонированная матрица частных производных |
|
ReDim DTD(m, m) As Single |
|
' Матрицапланирования в методенаименьших квадратов(МНК) |
|
ReDim Ds(m, 1) As Single |
|
' Вектор частных производных в модели априорных сведений |
|
ReDim DTs(1, m) As Single |
|
' Транспонированый вектор частных производных в модели |
|
' извлекаемых запасов |
|
|
|
ReDim DTsDs(m, m) As Single |
' Матрицачастныхпроизводных вмоделиизвлекаемых запасов |
||
ReDim E(n, 1) As Single |
|
' Вектор строка невязок Y-F |
|
ReDim DTE(m, 1) As Single |
|
' Вектор правых частей СЛУ в МНК |
|
ReDim DTsEs(m, 1) As Single |
' Вектор столбец второго слагаемого правой части СЛУ ИСМ |
||
ReDim A(m, m) As Single |
|
' Матрица планирования для адаптации интегрированной |
|
системы |
|
|
' моделей(ИСМ) |
ReDim B(m) As Single |
|
' Вектор правых частей СЛУ для ИСМ |
|
ReDim DeltaAL(m) As Single |
' Вектор приращений параметров AL(m) |
||
Dim S_ As Single |
|
' Фактические извлекаемые запасы нефти |
|
Dim T As Integer |
' Число лет разработки |
||
Dim SAL As Single |
' Оценка извлекаемых запасов |
||
Dim DeltaSAL As Single |
' Относительная ошибка оценки извлекаемых запасов |
||
Dim kr As Single |
' Управляющий параметр(параметр регуляризации) |
||
|
|
|
179 |
Dim h As Single |
' Параметр шага h в методе Гаусса–Ньютона |
Dim c1 As Single |
' Уровень ошибок измерений добычи нефти |
Dim c2 As Single |
' Уровеньошибокэкспертныхоценокизвлекаемыхзапасовнефти |
Dim QLh(15) As Single |
' Функционалкачества(дляпроверкиусловиясходимостиметода |
' Гаусса–Ньютона) |
|
Dim QL(15) As Single |
' Функционалкачества(длякритерияточностиоценкипраметров) |
Dim Es As Single |
' Es = S_ – SAL |
Dim ND(51) As Single |
' Вектор псевдослучайных чисел, распределенных по |
|
' нормальному закону N(0 |
Dim i1 As Integer |
' Число дробления параметра h |
Dim i2 As Integer |
' Переменная номера шага в методе Гаусса–Ньютона |
ReDim B1(m, m) As Single |
' В1,С,Y1 – массивы для решения СЛУ в процедуре ELS_hol_1 |
ReDim C(m, m) As Single |
|
ReDim Y1(m) As Single |
' C – нижняятреугольнаяматрица, B1 – верхняятреугольнаматрица |
'1. Формирование интегрированной системы моделей (ИСМ)
'1.1. Формированиевекторапсевдослучайныхчисел– N(0,1)
Randomize (78) 'Начальные значения датчика равномерных псевдослучайных величин Rnd() Rnd (-506)
For i = 1 To 51 s = 0
For j = 1 To 6 s = s + Rnd()
Next j
ND(i) = (s – 3) * 1.4 Next i
' 1.2. ФормированиевекторафактическихзначенийдобычинефтиY
T = 50 'Число лет разработки месторождения
ALy(1) = 10 'Параметры модели добычи нефти
ALy(2) = 0.2 ALy(3) = 1.5
с1 = 0.01 ' Относительный уровень ошибок измерений добычи нефти
c2 = 0.01 ' Относительный уровень ошибок экспертных оценок извлекаемых запасов нефти
For i = 1 To n
y(i) = ALy(1) * Exp(-ALy(2) * i) * Exp(ALy(3) * Log(i)) y(i) = y(i) + с1 * y(i) * ND(i)
Next i
'1.3. формированиеэкспертныхоценокизвлекаемыхзапасов
S_ = 742 ' – точное значение априорной информации о запасах S_(T,AL(3))
MS_ = 0 ' Начальное среднее значение экспертных оценок извлекаемых запасов
For i = 1 To m1
S1_(i) = S_ + S_ * c2 * ND(i) MS_ = MS_ + S1_(i)
Next i
MS_ = MS_ / m1
180