Скачиваний:
1
Добавлен:
18.07.2023
Размер:
3.44 Mб
Скачать

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

αn = arg min F( yi

f (xi ,α)), F(z) = −log p(z).

(2)

 

α

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В частности, если p(z) гауссова

N (0,σ 2 ), то (2)

переходит в метод наи-

меньших квадратов (МНК)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

αn = arg min ( yt f (xi ,α))2 ,

 

 

(3)

 

 

α

 

 

 

 

 

 

 

 

 

 

 

 

а если p(z) – плотность распределения Лапласа – L(0,a)

(т. е. p(z) =

1

exp(

 

z

 

/ a)),

 

 

2a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

то из (2) получаем метод наименьших модулей (МНМ)

 

 

 

 

 

 

αn

= arg min

 

yi f (xi ,α)

 

.

 

 

(4)

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

Для

простейшего случая оценки

скалярного сигнала при наличии шума

( f (xi ,α) α R1 ), вектор αn

из

(3) совпадает с

выборочным

средним:

αn =

1 yi , а из (4) – с выборочной медианой: αn = med( y1 ,..., yn ).

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

Оценки максимального правдоподобия при некоторых предположениях асимптотически оптимальны в том смысле, что их среднеквадратическая ошибка аппроксимации при объеме выборки n(n → ∞) достигает минимально

возможное значение, совпадающее с нижней границей неравенства Рао– Крамера. Действительно, для произвольной несмещенной оценки αn спра-

ведливо неравенство Рао–Крамера [1]

 

M (αn

α)(αn α)T

1

(Bn I ( p))1;

(5)

 

 

 

 

 

n

 

 

2

 

n

 

 

 

 

I ( p) = −∞

( p(z))

 

dz, Bn = 1n i=1

α f (xi ,α* ) Tα f (xi ,α* ).

(6)

p(z)

 

Здесь α – истинное значение параметра; I ( p) – фишеровская информация

p'(z) =

dp(z)

. Предполагается, что I ( p) существует и конечна, матрица B не-

 

 

dz

n

 

 

вырождена.

 

Пусть xi – независимые случайные векторы с плотностью p(x) . Тогда оценка максимального правдоподобия (2) асимптотически нормальна:

n(αn α) ~ N(0, S),S = (BI ( p))1 , B = MBn .

Сопоставляя это с (5), получаем, что (2) – асимптотически эффективная оценка.

Однако оценки максимального правдоподобия не являются стабильными при малых отклонениях распределений от предполагаемого. Рассмотрим простейший пример. Пусть f (x,α) α R1 , тогда оценка максимального правдоподобия для нормального распределения есть выборочное среднее

 

1

n

αn =

yi . Если же p(z) = (1α)g(z) +αh(z), где α > 0 мало; g(z) – гауссова

 

n i=1

плотность; h(z) – плотность распределения с бесконечной дисперсией (модель редких больших выбросов), то выборочное среднее имеет бесконечную

171

дисперсию. Иначе говоря, оценка αn в этом случае не только не оптимальна,

но даже не состоятельна, хотя функция распределения помехи близка к нормальной.

Стабильныйметодмаксимальногоправдоподобия

Рассмотрим стабильный метод оценивания параметров функций, предполагая, что известен лишь некоторый класс плотностей распределений вероятностей помех P, p P . Естественным представляется следующий способ

оценивания в такой ситуации. Выберем «наименее благоприятное» распределение p* из P, для которого правая часть (5) максимальна, и применим метод максимального правдоподобия для p* . Таким образом, получаем

αn = arg min F * ( yi f (xi ,α)), F * (z) = −log p* (z)

(7)

α

p* = arg min I ( p).

p P

По существу, этот подход для одномерной задачи оценки центра распределения был впервые предложен в работе [2], где автор рассмотрел класс P распределений, близкий к нормальному, и нашел для него p* и оценочную

функцию F * . Анализ ряда других классов P и обобщение на задачи регрессионного типа было проделано в [3, 4]. Там же приведены рекуррентные варианты алгоритмов оценивания и результаты вычислений. Ниже кратко описываются полученные в [3, 4], результаты.

Приведем примеры классов распределений помех P и соответствующих наименее благоприятных распределений p* и оценочных функций F * :

А. Класс P1 всех невырожденных распределений: P1 ={p : p(0) ε > 0}. Тогда p* – распределение Лапласа, F * (z) = z и метод (7) сводится к методу наименьших модулей (4).

Б. КлассP2 распределений сограниченнойдисперсией: P2 ={p: z2 p(z)dz σ2}.

Тогда p* – нормальное распределение F * (z) = z2 и метод (7) сводится к методу наименьших квадратов (3).

В. Класс P3 «приближенно нормальных» распределений: P3 ={p =(1c)g +ch,

0 < c <1, g гауссова

N (0,σ 2 ), h произвольна }. Тогда

F * (z) = z2 при

 

z

 

a, F * (z) = 2a

 

z

 

a2

при

 

z

 

> a , где a вычисляется по σ 2

и с. Метод (7) в

 

 

 

 

 

 

этом случае является промежуточным между методом наименьших квадратов и методом наименьших модулей. По существу, этот метод осуществляет автоматическую отбраковку аномальных (резко выделяющихся) измерений.

Г. Класс

P4

«приближенно

равномерных»

распределений

P4 ={p =(1c)g +ch,

 

0 < c <1,

g

 

равномерная

R(0,a),h произвольная

плотность }. Тогда F(z) = 0 при

 

z

 

a,

F(z) =

 

z

 

a

при

 

z

 

a.

В одномерном

 

 

 

 

 

 

случае ( f (x,α) α) метод (7) дает оценку αn , такую что число измерений yi , меньших αn a, равно числу измерений, больших αn + a.

172

Можно рассмотреть и ряд других классов P : «финитных» и «приближенно финитных» распределений, классы распределений, близких к нормальному или равномерному в других метриках и т. д.

Основная теорема об асимптотической оптимальности в минимаксном смысле оценок (7) может быть сформулирована так. Пусть F * (z) = −log p* (z) симметрична, выпукла и удовлетворяет условию Липшица, плотность p(z) помехи ξ симметрична и непрерывна в точках скачков ψ * (z) = F * (z)', причем существует отрезок, на котором F * (z) отлична от линейной , а p(z) положительна. Пусть задача линейна: f (x,α) = xTα, причем xi – случайная выборка из распределения с плотностью P , причем xi и ξi взаимно незави-

симы, xi ограничены и матрица B = xxT dP(x) невырождена. Тогда оценка (7) асимптотически нормальна

n(an a* ) ~ N (0, S(F * , p)) ,

 

S(F, p) = B

1

φ2 pdx

,

φ(z) = F'(z).

(8)

 

(pdφ)2

 

 

 

 

 

Если Р – выпуклый класс распределений, в котором множество {p : I ( p) < ∞}

плотно, а p* = arg min I ( p) существует, то

p P

S(F * , p) S(F * , p* ) = B1I ( p* ) S(F, p* ),

(9)

p P.

 

Иначе говоря, для всего класса Р гарантируется равномерная оценка асимптотической матрицы ковариаций an , и эта оценка не может быть лучше для лю-

бой другой функции F.

Учетинформацииорешении. Методмаксимумаапостериорнойвероятности

До сих пор использовалась лишь априорная информация о статистических характеристиках помех, а априорная информация о решении не использовалась. Перейдем теперь к описанию возможных способов учета априорной информации о решении.

Начнем с простейшего случая. Пусть известны p(z) – плотность помех ξi и po (a) – плотность априорного распределения решения. Тогда вместо ме-

тода максимального правдоподобия (2) целесообразно применить метод максимума апостериорной вероятности:

αn

= arg min[F( yi f (xi ,α)) + F0 (α)],

 

 

 

 

 

 

c

 

(10)

 

F(z) = −log p(z),

 

 

F0 (α) = −log p0 (α).

 

 

 

 

 

В частности, если

p(z) – гауссова N (0, σ 2 ), p (α) – гауссова

N(α

0

,S

0

),

 

0

 

 

 

а f (x,α) xT α, то получаем

173

αn = arg min[( yi xTi α)2 +σ 2 (αα0 )T S01 (αα0 )] =

α

 

 

 

 

= arg min[αT +

σ 2

(αα0 )T

S01 (αα0 ) 2αT b],

n

α

 

 

 

 

 

 

 

B =

1

xi xiT , b =

1 yi xi .

 

n

 

 

n

Таким образом, вместо решения системы Bc b (как в методе наименьших квадратов) здесь нужно решать систему

+

σ 2

S01

(αα0 ) b,

 

n

 

которая при S0 =σ02 I имеет вид:

 

 

 

 

 

 

 

 

 

 

 

(B + βn I )α = b + βnα0 , βn =

σ 2

.

(12)

 

 

 

 

 

nσ02

 

Иначе говоря, метод максимума апостериорной вероятности для гауссова случая приводит к решению регуляризованной системы нормальных уравнений. Параметр регуляризации cn полностью определяется отношением дис-

персий помехи и априорного распределения решения.

Отметим, что статистический подход к решению некорректных задач и методу регуляризации как к способу учета априорной информации о решении рассматривался рядом авторов [5, 6].

В негауссовском случае метод (10) приводит к способам оценивания, отличным от стандартного метода регуляризации. Пусть, например, f (x,α) α R1 , p(z) – плотность распределения Лапласа L(0,c), p0 (α) – гаус-

сова плотность N (α0 ,σ02 ).Тогда

 

αn

= arg min[

 

yi α

 

+

c

 

(α α0 )2 ].

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2σ

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

В частности, при n = 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y1,

 

 

 

 

 

 

 

если σ02

> c

 

y1 α0

 

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α1

=

 

+

σ 2

 

 

 

α

 

), если σ 2

c

 

 

y α

 

 

.

 

 

 

α

0

0 sign( y

 

0

 

 

0

 

 

 

 

 

 

β

 

1

 

 

 

 

 

 

0

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Аналогичнымобразомпри f (x,α) α R1,

p(z) ~ L(0,a),

p (α) ~ L(α

, a ), n =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

0

0

 

 

 

 

α

1

=

 

y1 ,если a < a0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α0 , еслиa > a0 .

 

 

 

 

 

 

 

 

 

 

Наконец, если p0 (α) – равномерная плотность на некотором ограниченном множестве Q RN , метод (10) принимает вид

αn = arg min F( yi F(xi ,α)),

(13)

α Q

 

так что вместо безусловного минимума в (2) здесь ищется минимум той же функции при наличии ограничений α Q.

174

Если применить к рассматриваемой задаче неравенство Крамера–Рао для случайных параметров [8], то для линейного случая ( f (x,α) = xT α) и лю-

бой оценки

αn , смещение которой b(α) удовлетворяет

условию

lim b(α) p0 (α) = 0,

получим

 

 

 

 

 

 

 

α→∞

 

 

 

 

 

 

 

 

 

 

 

M (αn α)(αn α)T 1

[Bn I ( p) + 1 I ( p0 )]1

;

(14)

 

 

 

n

 

 

 

n

 

 

 

Bn = 1n xi xiT , I ( p) =

p'(z)2

dz;

 

(15)

 

p(z)

 

 

I ( po ) =

 

ln p0 (α) T ln p0 (α)

 

p0 (α)dα.

 

 

 

 

 

 

 

Поэтому,

если плотности p(z)

и p0 (α) известны не

полностью

( p P, p0 P0 ), то в соответствии с изложенным выше подходом следует вы-

брать «наименее благоприятные» распределения

p* P, p* P , для которых

 

0

0

нижняя граница точности оценки, задаваемая (14), максимальна. Если выбрать в качестве скалярной характеристики матрицы, которую нужно максимизировать, ее детерминант, то этот подход приводит к следующему стабильному способу оценивания:

αn = arg min[F * ( yi xiT α) + F0* (α)],

 

α

 

F * (z) = −log p* (z), F0* (α) = −log p0* (α),

(16)

p* = arg min I ( p),

p0* = arg min(det I ( p0 )).

 

p P

p0 Po

 

Подчеркнем, что оценочная функция F * оказывается той же, что и для задач при отсутствии априорной информации о решении.

Приведем примеры классов P0 и соответствующих им функций F0*. Для простоты ограничимся одномерным случаем (α R1 ) :

А. Априорное распределение α симметрично с центром α0 и дисперсией

σ

2 . Тогда p* (α)

– гауссово N (α

0

,σ 2 ),

F * (α) =

1

 

(α α

0

)2 .

 

 

 

0

 

 

 

0

 

 

 

 

 

0

0

2σ02

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Б. Решение

сосредоточено

 

на

отрезке

[α

0

a, α

0

+ a]. Тогда p* (α) =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

= π cos2 π(x α0 )

на этом отрезке и p* (α) = 0 вне его,

F * (α) = −2logcos π(x α0 )

 

a

 

 

2a

 

 

 

 

 

 

0

 

 

 

 

0

 

2c

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

при

 

x α

0

 

< a, F * (α) = ∞ при

 

x α

0

 

a.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

При n → ∞ алгоритм (16), как нетрудно видеть, совпадает с (10) (т. е. роль априорной информации стремится к 0 с ростом n).

При малых объемах выборки малых n метод (16) обладает существенными преимуществами в силу более полного учета априорной информации. Кроме того, минимизируемая в (16) функция лучше обусловлена, и искать ее минимум легче. Так, для гауссового случая матрица В может быть близка к вырожденной, а матрица B + βn I (12) положительно определена. Поэтому

решение (12) устойчиво и менее чувствительно к разного рода ошибкам.

175

Методнепараметрического оцениванияфункциирегрессии

Рассмотрим задачу идентификации статического объекта в условиях априорной непараметрической неопределенности о структуре модели

yi* = f (xi ) +ξi , i =1,n ,

(17)

 

где yi* , xi , i =1,n – измеренные значения входных и выходных переменных объекта с плотностью p( y,x), f (x) – неизвестная, однозначная функция; ξi – помехи с плотностью p(z). Известно, что наилучшим приближением к модели объекта f (x) является функция регрессии:

r(x) = yP( y / x)dy,

(18)

где

R1

 

∫ ∫( y f (x))2 P( y / x)P(x)dydx,

 

r(x) = arg minf F

 

 

R1 Rm

 

P( y / x) = P( y,x) / P(x) – условная плотность распределения вероятности переменных y, x .

Задача идентификации статического стохастического объекта (17) за-

ключается в оценке плотностей вероятности

P( y,x), P(x)

 

и соответственно

функции регрессии r(x) .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В качестве оценок

P( y,x) и

P(x) используются непараметрические при-

ближения плотности вероятности «ядерного» типа [14–15]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

n

x

xi

 

1

 

n m

1

 

x j x ji

 

,

(19)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pn (x) =

 

 

 

k

 

h

 

=

 

 

∑∏

hj

k j

hj

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n i=1

 

 

 

n i=1 j=1

 

 

 

 

где k j ((x j x ji ) / hj ),

 

 

j =

1,m

 

– некоторые весовые функции «ядра» с центром в

точках x ji , j =

 

, i =

 

;

 

hj , j =

 

– параметры «сглаживания».

1,m

1,n

1,m

Свойства ядер:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a) k j (x j x ji ) / hj ) C j , hj → ∞, j =

 

 

.;

 

 

 

 

 

 

1,m

 

 

 

 

 

 

При C j =1 ядро k j нормированное;

 

 

 

 

 

 

 

 

(20)

б) k j ((x j x ji ) / hj ) 0, hj 0, j =

 

.

 

 

 

 

 

 

 

 

1,m

 

 

 

 

 

 

 

 

В качестве ядер k j часто используют функции:

 

 

 

 

a) k(u) = exp(u2 / 2) ;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b) k(u) = exp(

 

 

u

 

) ;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(21)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

u

 

 

при 0 <

 

u

 

1,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

в) k(u) =

 

 

 

 

 

 

 

 

 

 

u

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

при

 

 

>1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

По аналогии с (19) имеет место непараметрическая оценка совместной плотности вероятности P( y,x) случайных величин y, x :

 

1

n

1

y y

i

m

1

x j x ji

 

 

Pn ( y,x) =

 

 

k

 

 

 

 

.

(22)

 

 

 

 

 

 

 

n i=1 hy

 

hy

 

 

 

 

hj

 

 

 

 

 

j=1

hj

 

 

176

Подставляя оценки (19) и (22) в (18) и учитывая свойства ядер (20), получим оценку функции регрессии

 

n

 

1

 

 

x j x ji

 

*

 

 

 

 

 

 

 

 

k

 

 

 

yi

 

 

h

 

 

 

h

 

 

 

 

i=1

j

 

 

 

j

 

 

 

 

rn (x) =

 

 

 

 

 

 

 

 

 

.

(23)

n

 

 

 

1

 

 

x j

x ji

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

hj

 

k j

hj

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

Оценка (23) широко используется в задачах идентификации, обработки экспериментальных данных в случаях, когда априорная информация о виде модели объекта отсутствует (модель «черного» ящика). Известны лишь значения его входных и выходной переменной.

Свойства непараметрических оценок регрессии. Непараметрические оценки регрессии вида (23) обладает лишь асимптотическими оптимальными свойствами при бесконечно большом объеме выборки n ( n → ∞). При конечных выборках непараметрические оценки регрессии смещенные [15] .

Существуют различные методы устранения смещения непараметрических оценок регрессии наиболее эффективными из которых являются метод «складного ножа» [12] и метод локальной аппроксимации плотности вероятности [14].

Отметим, что аналогами непараметрических оценок регрессии (22) являются приближения, полученные на основе метода локальной аппроксимации функций [16]

k

 

f (x,u) = αj (u) ψj (x u) ,

(24)

j=1

вокрестности некоторой точки u Rm . Здесь – известные функции. Парамет-

ров αj (u),

j =

1,k

определяем из условия:

 

 

 

 

 

 

 

 

 

n

u x

 

 

n

 

 

 

 

 

 

α* (u) = arg min(K

 

i

(F( yi* αj (uj (xi u)))

(25)

 

 

 

 

n

 

 

 

 

 

 

 

 

α i=1

 

 

 

j=1

 

где

u x

i

 

– ядра вида (21) .

 

 

 

 

 

 

K

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В случае принадлежности распределения помех классу распределений с ограниченной дисперсией F(u) = u2 , оценки (24) при k =1 совпадают с непараметрическими оценками регрессии (23).

Списоклитературы

1.Крамер Г. Математические методы статистики. – М., «Мир», 1975.

2.Huber P.J. Robust estimation of a location parameter. Ann. Math. Stat. 1964. – Vol. 35. – № 1. – C. 73–101.

3.Поляк Б.Т., Цыпкин Я.З. Помехоустойчивая идентификация – В сб.: Идентификация и оценка параметров систем. – Т. 1. – С. 190–213. Препринты IV симпозиума ИФАК, Тбилиси, «Мецниереба», 1976.

177

4.Цыпкин Я.З., Поляк Б.Т. Огрубленный метод максимального правдоподобия. Теория колебаний, прикладная математика. – Горький: Изд. ГГУ, 1977.

5.Турчин В.Ф., Козлов В.П., Малкевич М.С. Использование методов математической статистики для решения некорректных задач. Успехи физ. наук. – 1970. – Vol. 102. – № 3. – С. 345–386.

6.Жуковский Е.Л. Статистическая регуляризация алгебраических систем уравнений // Журн. вычисл. матем. и матем. физ. – 1972. – 12. – № 1. – 185–191.

7.Ван Трис Г.Л. Теория обнаружения оценок и модуляции. – Т. 1. – М.: Изд. «Сов. радио», 1972.

8.Цыпкин Я.З. Адаптация и обучение в автоматических системах. – М.: «Наука», 1968.

9.Невельсон М.Б., Хасьминский Р.З. Стохастическая аппроксимация и рекуррентное оценивание. – М.: «Наука», 1972.

10.Martin R.D., Masrelie C.J., Robust estimation via stochastic approximation. IEEE Trans. Inf. Th.. – 1975. – Vol. 21. – № 3. – С. 263–271.

11.Tukey J.W. Instead of Guass-Markov ieast sguares – what? In. «Applied statistics», ed. R.P. Gupta, North-Holland publ. co., 1975.

12.Добровидов А.В., Кошкин Г.М. Непараметрическое оценивание сигна-

лов. – М.: Наука, 1997. – 336 с.

13.Поляк Б.Т., Цыпкин Я.З. Стабильное оценивание в условиях неполной информации. Вопросы кибернетики. Адаптивные системы управления. – М., 1977. – С. 6–14.

14.Сергеев В.Л. Об использовании оценок локальной аппроксимации плотности вероятности // Автоматика и телемеханика. – 1979. – С. 56–61.

15.Шапиро Е.И. Непараметрические оценки плотности вероятности в задачах обработки результатов наблюдений (обзор) // Зарубежная радиоэлек-

троника. – 1976. – № 2. – С. 3–36.

16.Катковник В.Я. Непараметрическая идентификация и сглаживание данных. – М.: Наука, 1985. – 336 с.

178

ПРИЛОЖЕНИЕ4 ПРИМЕРЫТЕКСТОВПРОГРАММВАРИАНТОВЛАБОРАТОРНЫХРАБОТ

1.Текстпрограммыстатистическогомоделированияиопределения параметровинтегрированной системымоделидобычинефти

Sub Example_1_B1()

'Описание переменных динамических массивов данных

Dim

n As Integer

 

' Число лет разработки

Dim

m As Integer

 

' Число параметров модели добычи нефти

Dim

L As Integer

 

' Переменная числа лет прогноза добычи нефти

Dim

m1 As Integer

 

' Число экспертных оценок извлекаемых запасов нефти

For

n = 1 To 15

 

' Цикл по числу лет истории разработки месторождения

m = 3

 

 

 

L = 3

 

 

 

m1 = 5

 

 

 

'Описание переменных и констант

ReDim y(n) As Single

 

' Имитируемый вектор фактической добычи нефти

ReDim S1_(m1) As Single

 

' Имитируемый вектор экспертных оценок извлекаемых запасов

ReDim YL(n + L) As Single

 

' Вектор прогноза добычи нефти на L лет

ReDim ALy(m) As Single

 

' Точные значения параметров модели добычи нефти

ReDim AL(m) As Single

 

' Оценки параметров модели добычи нефти

ReDim ALo(m) As Single

 

' Начальные значения параметров модели добычи нефти

ReDim ALh(m) As Single

 

' Вспомогательный вектор параметров при дроблении шага h

 

 

 

' в методе Гаусса–Ньютона

ReDim F(n) As Single

 

' Вектор модельных значений добычи нефти

ReDim Fo(n) As Single

 

' Вектор значений добычи нефти при начальных значениях

 

 

 

' параметров модели AL = ALo

ReDim d(n, m) As Single

 

' Матрица частных производных по вектору параметров АL

ReDim DT(m, n) As Single

 

' Транспонированная матрица частных производных

ReDim DTD(m, m) As Single

 

' Матрицапланирования в методенаименьших квадратов(МНК)

ReDim Ds(m, 1) As Single

 

' Вектор частных производных в модели априорных сведений

ReDim DTs(1, m) As Single

 

' Транспонированый вектор частных производных в модели

' извлекаемых запасов

 

 

ReDim DTsDs(m, m) As Single

' Матрицачастныхпроизводных вмоделиизвлекаемых запасов

ReDim E(n, 1) As Single

 

' Вектор строка невязок Y-F

ReDim DTE(m, 1) As Single

 

' Вектор правых частей СЛУ в МНК

ReDim DTsEs(m, 1) As Single

' Вектор столбец второго слагаемого правой части СЛУ ИСМ

ReDim A(m, m) As Single

 

' Матрица планирования для адаптации интегрированной

системы

 

 

' моделей(ИСМ)

ReDim B(m) As Single

 

' Вектор правых частей СЛУ для ИСМ

ReDim DeltaAL(m) As Single

' Вектор приращений параметров AL(m)

Dim S_ As Single

 

' Фактические извлекаемые запасы нефти

Dim T As Integer

' Число лет разработки

Dim SAL As Single

' Оценка извлекаемых запасов

Dim DeltaSAL As Single

' Относительная ошибка оценки извлекаемых запасов

Dim kr As Single

' Управляющий параметр(параметр регуляризации)

 

 

 

179

Dim h As Single

' Параметр шага h в методе Гаусса–Ньютона

Dim c1 As Single

' Уровень ошибок измерений добычи нефти

Dim c2 As Single

' Уровеньошибокэкспертныхоценокизвлекаемыхзапасовнефти

Dim QLh(15) As Single

' Функционалкачества(дляпроверкиусловиясходимостиметода

' Гаусса–Ньютона)

 

Dim QL(15) As Single

' Функционалкачества(длякритерияточностиоценкипраметров)

Dim Es As Single

' Es = S_ – SAL

Dim ND(51) As Single

' Вектор псевдослучайных чисел, распределенных по

 

' нормальному закону N(0

Dim i1 As Integer

' Число дробления параметра h

Dim i2 As Integer

' Переменная номера шага в методе Гаусса–Ньютона

ReDim B1(m, m) As Single

' В1,С,Y1 – массивы для решения СЛУ в процедуре ELS_hol_1

ReDim C(m, m) As Single

 

ReDim Y1(m) As Single

' C – нижняятреугольнаяматрица, B1 – верхняятреугольнаматрица

'1. Формирование интегрированной системы моделей (ИСМ)

'1.1. Формированиевекторапсевдослучайныхчисел– N(0,1)

Randomize (78) 'Начальные значения датчика равномерных псевдослучайных величин Rnd() Rnd (-506)

For i = 1 To 51 s = 0

For j = 1 To 6 s = s + Rnd()

Next j

ND(i) = (s – 3) * 1.4 Next i

' 1.2. ФормированиевекторафактическихзначенийдобычинефтиY

T = 50 'Число лет разработки месторождения

ALy(1) = 10 'Параметры модели добычи нефти

ALy(2) = 0.2 ALy(3) = 1.5

с1 = 0.01 ' Относительный уровень ошибок измерений добычи нефти

c2 = 0.01 ' Относительный уровень ошибок экспертных оценок извлекаемых запасов нефти

For i = 1 To n

y(i) = ALy(1) * Exp(-ALy(2) * i) * Exp(ALy(3) * Log(i)) y(i) = y(i) + с1 * y(i) * ND(i)

Next i

'1.3. формированиеэкспертныхоценокизвлекаемыхзапасов

S_ = 742 ' – точное значение априорной информации о запасах S_(T,AL(3))

MS_ = 0 ' Начальное среднее значение экспертных оценок извлекаемых запасов

For i = 1 To m1

S1_(i) = S_ + S_ * c2 * ND(i) MS_ = MS_ + S1_(i)

Next i

MS_ = MS_ / m1

180