Скачиваний:
1
Добавлен:
18.07.2023
Размер:
3.44 Mб
Скачать

Для этой цели необходимо вычислить производные от функционала Ф(Δα0) по параметрам Δα0 и приравнять их к нулю

 

Φ( α0 )

 

 

 

0

 

 

T

 

0

 

0

 

0

 

 

 

 

=

 

0 Φ( α

 

) = −2D W (e

 

D

 

α

 

)

 

 

 

 

 

 

 

 

 

 

α0

 

α

 

 

0

y

 

 

 

 

 

 

(3.1.7)

 

 

 

 

 

 

0 R α0 ) = 0.

 

 

 

 

 

 

 

2RT Wα (

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

В результате получим систему линейных уравнений

 

 

(DT Wy D +β RT WαR)i1 αi1

= (DT Wye +β RT Wα

 

 

)i1 , (3.1.8)

 

α

относительно приращений вектора

параметров αi1

на шаге i 1,

i =1, 2, 3, ... Индекс i 1 означает, что все переменные системы линейных уравнений вычислены при значениях α =αi1, i =1, 2, 3, ...

Для обеспечения сходимости процедуры определения параметров

(3.1.6), (3.1.8), необходимо выполнение условия

 

Φ(αi ) <Φ(αi1) , i 1, i =1, 2, 3, ...

(3.1.9)

на каждом шаге итерационного процесса.

Для этой цели существует ряд методов, приведенных в приложении 3. В методе Гаусса–Ньютона выполнение условия сходимости (3.1.9) осу-

ществляется

дроблением шага h (hi =1, i =1, 2, 3, ...) пополам

hi = hi1 / 2 ,

i =1, 2, 3, ....

Рассмотрим интегрированную систему моделей, в которой априор-

ная информация о параметрах модели объекта представлена системой нелинейных уравнений

 

*

= f (x,α) +ξ,

 

y

 

(3.1.10)

 

 

 

 

 

 

 

 

 

 

 

α = r(α) + η,

 

где r(α) – вектор нелинейных функций (r1 (α), r2 (α), ..., rm (α))T . Используя разложение функции f (x,α) и r(α) в ряд Тейлора вида

(3.1.3), перейдем к линейной,

относительно параметров α0 , интегри-

рованной системе моделей вида:

 

 

 

 

0

0

α

0

+ξ,

 

e f

= D f

 

 

 

 

= D0

α0 + η,

(3.1.11)

 

e0

 

r

r

 

 

 

 

 

 

 

r

(α)

 

 

 

 

0

где

D0r

, i, j =1,m

– квадратная матрица частных производных

=

i

 

 

 

 

 

 

α

j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

функции r(α) по параметрам α, e0f = y* f (x,α0 ), e0r = αr(α0 ), а D0f , α0 – определены в (3.1.3).

41

Для интегрированной системы моделей (3.1.11) по аналогии с (3.1.5) имеет место комбинированный критерий качества

Φ( α0 ) =

 

 

 

e0f D0f

α0

 

 

 

2 +β

 

 

 

 

 

D0r

α0

 

 

 

2 .

 

 

 

 

 

 

 

 

 

e0r

 

 

(3.1.12)

 

 

 

 

 

 

 

 

 

 

 

 

 

Wy

 

 

 

 

 

 

 

 

Wα

 

В данном случае алгоритм адаптации с использованием метода Гаусса–Ньютона по аналогии с (3.1.6), (3.1.8) сводится к итерационной процедуре вида:

αi =αi1

+h αi1,

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

(3.1.13)

 

T

 

T

i1

i1

T 0

T

 

 

i1

 

 

0

(Df

WyDf +β Dr

WαDr )

α

=(D f Wyef

+β Dr

Wαer )

, i =1, 2, 3,... .

 

 

 

 

 

 

 

 

 

 

 

 

Важным моментов в алгоритмах адаптации (3.1.6) и (3.1.13) является определение управляющего параметра, который (в упрощенном варианте) может быть определен на первом шаге итерационного процесса путем решения оптимизационной задачи вида

β* =arg min(

 

 

 

y* f(x,α1

(β)

 

2

+β

 

 

 

 

 

1(β)

 

2 .

 

 

 

 

 

α

 

β

 

 

 

 

 

 

Wy

 

 

 

 

 

 

 

 

Wα

 

 

 

 

 

 

 

 

 

 

 

 

Полученное значение управляющего параметра β* может быть использовано на последующих шагах.

Рассмотрим интегрированную систему моделей, в которой априорная информация о параметрах модели объекта формируется на основе использования l объектов-аналогов:

 

*

= f (x,α) +ξ,

 

y

 

(3.1.14)

 

 

k = R

α+ η

, k =

 

 

 

α

1,l,

 

 

 

 

k

k

 

 

 

 

где Rk – известная матрица для k объекта-аналога; αk =(α1k ,α2k ,..., αmk ) –

вектор дополнительных априорных данных для k объекта-аналога. Поставим в соответствие данной интегрированной системе моделей

квадратичный функционал качества, предполагая, что случайные величины ξ и η распределены по нормальному закону

 

 

2

l

 

 

 

2

 

Φ(α) =

y* f (x,α)

W

+βk

αk Rk α

W .

(3.1.15)

 

 

y

k =1

α

 

Тогда алгоритм определения параметров α при использовании метода Гаусса–Ньютона по аналогии с (3.1.6), (3.1.8) сводится к рекуррентной процедуре

 

i

=α

i1

+hj

α

i1

, i =1, 2, 3, ...

 

α

 

 

(3.1.16)

 

 

 

 

l

 

 

 

l

(DT WyD+βk RTk Wαk Rk )i1

αi1 =(DT Wye +βk RTk Wαk

 

k )i1.

 

α

 

 

 

 

 

k=1

 

 

 

k =1

 

 

 

 

 

 

 

 

 

Алгоритм адаптации, основанный на методе Ньютона–Рафсона.

Для решения оптимизационной задачи часто используется метод Ньютона, приведенный в приложении 2, основанный на использовании вто-

42

y* =f (x,α) +ξ,
Гy =L(y) +η,

рых частных производных при разложении функционала качества Φ(α) в ряд Тейлора в окрестности точки α0

Φ(α)

=

Φ(α

0

)

+

α Φ(α ))

0

α

0 +

( α

0 T

0

α

0

,

(3.1.17)

 

 

(

 

 

) H

 

 

 

элементами

где H0 – матрица Гессе вторых частных производных с

(2Φ(α) / ∂αi ∂α j , i,j =1,m)0 ,

α0 = (αα0 ) , а индекс «0»

означает, что

частные производные вычислены при α = α0 .

Необходимым условием минимума функционала (3.1.17) является

равенство нулю частных производных по

 

α0

 

 

 

 

(3.1.18)

где (

 

 

α0 Φ(α) =( α Φ(α ))0 +H0 α0 = 0,

 

 

 

 

Φ(α))0

= ( T f W

e0

+β RT W

 

 

)0

,

H0 = ( 2f W

 

e0

+ T f

f +

α

 

α

 

 

α

y

f

 

 

α

 

α

y

f

 

α α

 

 

+β RT W R)0 ,

 

f =(f(α) / α

, i =

 

), 2f =(2f (α) / α

α

, i, j =

 

) ,

1,m

1,m

 

α

α

 

 

 

i

 

 

 

 

 

α

 

i

 

 

j

 

 

 

 

e0f = y* f (x,α0 ), α=α0 .

Процесс определения параметров α в данном случае проводится по схеме:

αi =αi1 +h αi1,

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

2

f W e

0

T

f

W

 

T

W R)

i1

α

i1

=

(3.1.19)

(

f

+

f +β R

 

 

 

α

y

α

 

 

y α

 

 

α

 

 

 

 

 

 

 

= ( T f W e0

+β RT W α)i1.

 

 

 

 

 

 

 

 

α

 

y

f

 

α

 

 

 

 

 

 

Преимуществом метода Ньютона–Рафсона (3.1.19) по сравнению с методом Гаусса–Ньютона является то, что он обеспечивает более высокую скорость сходимости. Недостатком является трудоемкость при вычислении матрицы вторых производных α2f.

Следует отметить, что в последнее время широкое практическое применение получили квазиньютоновские методы оптимизации (методы переменной метрики), приведенные в приложении 2, позволяющие строить различные аппроксимации матрицы Гессе.

3.2.Нелинейныеинтегрированные системыидентификации

сучетомаприорнойинформацииовыходеобъекта

Рассмотрим интегрированную систему моделей, основанную на нелинейной статической стохастической модели объекта и нелинейной модели дополнительной априорной информации о его выходе

(3.2.1)

где L – известный оператор (функция, функционал и т. д.); y* – векторы измеренных значений выхода объекта; y – дополнительные априорные

данные, полученные с «объекта-аналога»; f (x,α) – вектор нелинейной

43

функции f( x,α) вычисленной в точкахxi ,i =1,n ;ξ, η – векторы случай-

ных величин; L – диагональная индикаторная матрица.

Введем обозначения Ly = yГ , Ly = g(x,α) , с учетом которых интегрированную систему моделей (3.2.1) представим в виде:

 

*

=f (x,α) +ξ,

 

y

 

(3.2.2)

y

 

=g(x,α) +η.

 

Г

 

 

 

 

 

Алгоритм адаптации, основанный на методе Гаусса–Ньютона.

Используя прием разложения нелинейных функций

f (x,α) и

g(x,α)

в ряд Тейлора с точностью до членов первого порядка малости:

 

f (x,α) = f (x,α0 ) + α f (x,α0 )T α0,

 

 

 

 

 

 

 

(3.2.3)

g(x,α) = g(x,α0 ) + αg(x,α0 )T α0,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

приведем решение оптимизационной задачи

 

 

 

 

 

 

 

 

α*(β) =arg min Φ(α) =

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

(3.2.4)

= J(α) +βQ(α) =

 

 

 

y* f (x,α)

 

2 +β

 

 

 

 

 

Г g(x,α)

 

 

 

2

 

 

 

 

 

 

 

y

 

 

 

 

 

 

 

 

Wy

 

 

 

 

 

 

 

 

W

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

с использованием итерационной процедуры Гаусса–Ньютона по аналогии с алгоритмом адаптации (3.1.13). Для этой цели линеаризуем интегрированную систему (3.2.2)

 

0

 

0

α

0

+ξ,

e f

= D f

 

 

 

 

 

0

 

0

 

 

0

= D

α

+η,

e

g

g

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

g(x

,α)

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

) , D0

 

 

 

 

 

 

 

 

 

 

 

и перейдем к ре-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

, i

=1,n, j

=1,m

где eg = yГ g(x,α

 

=

 

 

i

 

 

 

 

 

 

 

 

 

 

 

g

 

 

αj

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

шению оптимизационной задачи

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

*

 

 

 

 

0

 

 

0

 

0

 

 

0

 

 

 

 

 

 

 

 

0

 

0

 

 

 

 

 

 

 

 

 

α

= arg min(Φ(

α

) =

 

 

 

α

 

+β

 

 

 

0

 

α

 

 

 

 

 

 

 

 

e f

D f

 

 

 

 

eg Dg

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

Wy

 

 

 

 

 

 

 

 

 

 

 

 

 

W

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

для определения оптимального вектора приращений параметров α0 . В данном случае процедура уточнения параметров (по аналогии с процедурой (3.1.13)) имеет вид:

 

i

=α

i1

+h α

i1

,

 

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

T

 

 

 

 

i

T

 

i1

 

i1

 

T

 

 

T

 

i1

 

 

 

W D

 

 

)

α

=(D

W e

 

)

, (3.2.5)

(D

f

+β D W D

 

 

f

f

+β D W e

 

 

 

f

 

y

 

 

g y q

 

 

 

 

 

y

g y g

 

 

 

 

i =1, 2, 3, ... .

 

 

Для получения (3.2.5) достаточно взять производные от функционала Φ( α0 ) по параметрам α0 и приравнять их к нулю.

Для интегрированной системы моделей, в которой априорная информация о выходе объекта получена с l объектов-аналогов

44

 

y* =f(x,α) +ξ,

 

 

 

 

 

 

 

 

(3.2.6)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=g

 

(x,α) +η ,

k =

 

 

 

 

 

y

 

Гk

k

1,l,

 

 

 

 

 

 

 

k

 

 

 

 

 

 

 

 

 

процедура уточнения параметров (по аналогии с (3.2.5)) примет вид

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

αi =αi1 +h αi1,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

l

 

 

 

T

 

 

 

i1

 

 

i1

 

(3.2.7)

 

T

 

 

 

 

 

 

 

 

 

(D f WyD f +βk Dgk W

yk Dgk )

 

 

α

 

 

 

=

 

 

k=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

T

 

l

 

 

 

T

 

 

i1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=(D f Wye f

+βk Dgk W

yk egk )

 

 

 

, i =1, 2, 3, ... .

 

 

 

 

 

 

k=1

в

приложении

 

 

2 методов

оптимизации

На основе

приведенных

 

 

функций для интегрированной системы моделей (3.2.2) и (3.2.6) можно получить различные процедуры адаптации вектора неизвестных параметров α. Например, для интегрированной системы моделей (3.2.2) метод Ньютона–Рафсона (по аналогии с алгоритмом (3.1.19)) приводит к итерационной процедуре вида

αi =αi1

+h αi1,

 

 

 

 

 

 

 

i

 

 

 

 

 

(3.2.8)

( α2f Wye0f +Tαf Wy αf +β DTg WαDg )i1 αi1 =

 

=( T f W e0

+β DT W

 

e

)i1.

 

 

 

 

 

 

 

α

y f

g

y g

 

 

3.3. Нелинейныекомбинированные интегрированные системыидентификации

Рассмотрим интегрированную систему моделей, основанную на нелинейной статической стохастической модели объекта и моделей объек- тов-аналогов, дающих дополнительную априорную информацию о параметрах и выходной переменной модели. Рассмотрим также класс объ- ектов-аналогов, представляющий дополнительную априорную информацию о выходе объекта в интегральном виде. Остановимся на интегрированной системе моделей вида:

y* =f (x,α) +ξ,

 

 

 

 

 

 

 

α=r(α) +η1,

 

(3.3.9)

 

 

 

 

y =g(x,α) +η2 ,

 

 

 

z(x,α)dx

+η3

= s(α) +η3,

 

s =

 

 

Rm

 

 

 

где f (x,α), f (α), f (x,α), z(x,α) – известные нелинейные функции (в общем виде функционалы); y*, α, y – соответственно, векторы измерен-

ных значений выхода объекта и априорных дополнительных данных о параметрах модели объекта и его выходе; s – дополнительная априор-

45

ная информация о выходе объекта, заданная в интегральной форме; ξ, η1, η2, η3 – векторы случайных величин.

От интегрированной системы моделей (3.3.9) перейдем к линеаризованной интегрированной системе моделей относительно приращений α0, где все нелинейные функции представлены рядом Тейлора в окрестности точки α0 с точностью до членов первого порядка малости:

0

 

0

 

α

0

+ξ,

 

 

 

e f

= Df

 

 

 

 

 

 

0

= D

0

 

α

0

+η

,

 

e

 

r

 

 

 

(3.3.10)

r

 

 

 

 

 

 

1

 

 

 

 

0

= D

0

 

α

0

+η

 

 

,

e

g

g

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

e0

= D0

 

α0 +η

 

,

 

 

s

 

s

 

 

 

 

 

3

 

 

 

где D0f , D0g – матрицы частных производных от функций f, g соответст-

венно по параметрам αj , j =1,m в точках xi , i =1,n при начальных зна-

чениях α = α0;

D0r , D0s – векторы частных производных от функции r и

функционала s по параметрам αj , j =

 

;e0f = y* f (x,α0 ) ;

1,m

e0

=αr(α0 ) ; e0

= y g(x,α0 ) ; e0 = s s(α0 ) .

r

g

s

Интегрированной системе моделей (3.3.10) поставим в соответствие комбинированный взвешенный критерий качества, основанный на частных квадратичных функционалах качества:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Φ(

α0 ) = J(

α0 ) +βjQ j (

α0 ) ,

 

 

 

 

(3.3.11)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

j=1

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

2

 

0

0

0

 

2

 

 

 

 

 

0

0

 

 

 

 

 

 

 

 

0

0

 

 

 

 

0

0

 

где J( α)=

 

; Q =

 

0

 

 

 

Q =

 

 

0

 

 

Q =

0

 

 

e

f

D α

 

 

e

D

α

 

;

e D α

 

;

e

D α

 

.

 

 

 

 

 

Wy

1

 

r

 

 

r

 

 

W

 

2

 

 

 

g

r

 

 

W

3

s

s

 

 

W

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

y

 

 

 

 

 

 

s

В качестве оптимальных значений

α* приращения параметров

 

α0

используем величину

 

α* =arg min Φ( α0 ).

 

 

 

 

 

 

 

(3.3.12)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Δα0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Для решения задачи (3.3.12) достаточно вычислить производные от

Φ( α0 ) до

 

α0 и приравнять их к нулю

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Φ( α0) =−2D0 W E

f

2D0W E0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f

y

 

 

r

 

α

r

 

 

 

 

 

 

(3.3.13)

 

 

 

 

 

 

 

 

2D0W

 

E0 2D0W E0

=0,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

z

 

y

g

 

 

s

s

s

 

 

 

 

 

 

 

 

 

 

 

 

 

где E =(e0 D0 α0);

E =(e0

D0 α0),

E =(e0

D0

α0), E =(e0

D0 α0).

f f

 

f

 

 

 

r

r

 

 

 

r

 

 

g

 

g

 

 

 

 

g

 

 

 

s

s

 

 

s

 

 

 

Собирая члены c

α0

 

из (3.3.13), получим систему линейных урав-

нений, которую запишем для произвольного вектора приращений

 

αi1

на шаге i – 1, начиная с

α0 ,

i =1, 2, 3...,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ai1

αi1 =Bi1 ,

 

 

 

 

 

 

 

 

 

(3.3.14)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

46

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где

Ai1 =(DTf WyDTf +β1DTr WαDr +β2DTg WyDg +β3DTs WsDs )i1 Bi1 =(DT Wye0f +β1DTr Wα e0r +β2DTz Wy e0g +β3DTs Ws e0s )i1,

индекс i 1 означает, что все переменные вычислены при α=αi1 . Основываясь на схеме Ньютона с учетом (3.3.13), процедура уточ-

нения параметров α примет вид

 

 

 

i

=α

i1

+h α

i1

,

 

 

α

 

 

 

 

 

Ai1

 

 

i

 

 

(3.3.15)

 

αi1 =Bi1,

i =1, 2, 3, ... .

 

 

 

 

 

 

 

 

 

 

 

Отметим,

что

при

 

 

значениях управляющих

параметров

β1 = β2 = β3 = 0

и Wy =I ,

алгоритм

определения параметров (3.3.14)

совпадает с методом Гаусса–Ньютона для идентификации модели объекта f (x,α).

Для интегрированной системы моделей вида:

y*

= f (x,α) +ξ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= rk (α) +η1k , k =1,l1,

 

 

 

αk

 

,

(3.3.16)

y

 

=g

 

(x,α) +η

, k =

 

 

k

k

1,l

,

s

 

 

2k

2

 

 

 

 

= s(α) +η

, k

=

 

 

 

 

 

 

1,l ,

 

 

 

k

 

 

3k

 

3

 

 

 

 

 

 

в которой дополнительная априорная информация получена c l1 +l2 +l3

объектов-аналогов, процедура уточнения параметров проводится по схеме, аналогичной (3.3.14), где

 

l1

 

 

 

l2

 

 

 

Ai1 = (DTf WyDTf +β1k DTrk Wαk Drk +

β2DTg W

 

Dg +

y

k=1

 

 

k =1

 

 

 

 

l3

 

WsDs )i1

 

 

 

 

 

 

 

 

 

+ β3DTs

 

 

 

 

 

 

(3.3.17)

 

k =1

 

 

 

 

 

 

 

 

 

 

 

l1

 

 

 

l2

 

 

 

l3

 

 

 

Bi1 =(DT Wye0f +β1DTr

Wα e0r

+

β2DTz W

 

e0g +β3DTs

Ws e0s )i1.

y

k =1

 

 

 

k=1

 

 

 

k=1

 

 

 

Следует отметить, что дополнительные априорные данные могут быть известны только по некоторым компонентам векторов α и y .

3.4. Нелинейныединамическиеинтегрированныесистемыидентификации

Нелинейные динамические интегрированные системы идентификации рассмотрим на примере нелинейной динамической интегрированной системы моделей вида:

47

y* = F (α) +ξ

, y(0) =

 

(0),

y

t

t

t

 

 

 

α= +η,

 

(3.4.1)

y

= Hy + ν,

 

 

 

 

 

 

 

 

 

 

где y*t – вектор измеренных в моменты времени t значений выхода объ-

екта yt Ft (α) =( f ( yt1, yt , t, α, xt ), t =1,n) – вектор функция, полученная в результате конечно-разностной аппроксимации нелинейного дифференциального уравнения первого порядка (1.4.10); xt =(x1t , x2t , ..., xmt ) – зна-

чения входных переменных объекта в момент времени t, α – вектор неизвестных параметров; R,H – известные матрицы; ξt , η, ν – векторы

ошибок измерений выхода исследуемого объекта и ошибок задания априорной информации соответственно.

Представим в (3.4.1) функцию Ft (α) рядом Тейлора в окрестности

точки α0 с точностью до членов первого порядка малости. В результате получим линеаризованную интегрированную систему моделей относительно приращений α0,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

= D

0

 

 

α

0

+ξ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

1

 

 

α0 +η,

 

 

 

 

 

 

 

 

(3.4.2)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= R

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e0 = D02 α0 + v,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α=α0, R1 α0 =(rij1

α0j ,i

=

1,m

)T , e0 = y HFt (α0 ), D02 = HD10,

 

 

 

 

 

 

 

 

 

 

 

j=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

f ( y

1

, y , t, α, x

)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

t

 

t

 

t

 

, t =1,n , j =

1,m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D1

 

 

 

 

αj

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

При использовании комбинированного критерия качества

 

 

 

 

0

 

 

 

0

0

 

 

0

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

2

 

 

 

0

 

0

 

0

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Φ( α

) =

e

 

 

 

+β

 

αR α

+β

 

e

D

α

 

 

 

 

D α

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

Wy

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Wα

2

 

 

 

 

 

 

 

 

 

Wy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

алгоритм адаптации по определению вектора параметров α по аналогии с (3.1.6) , (3.2.7) сводится к итерационной процедуре вида:

αi =αi1 +h

αi1, i =1, 2, 3, ....

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

T

 

 

 

T

 

 

 

 

 

T

 

 

 

 

 

 

 

i1

 

i1

 

 

(D W D

+

β R

W R +β

2

D

W

 

D

)

 

 

 

α

 

=

(3.4.3)

 

 

 

 

 

 

1

y 1

 

1

 

α

 

2

 

 

y

2

 

 

 

 

 

 

 

 

 

= (DT

W e0

+β RT W

α

+β

DT

W

 

e0 )i1.

 

 

 

 

 

 

1

y

 

1 r

α

 

 

 

 

 

2

 

 

1

 

y

 

 

 

 

По аналогии с (3.4.3) проектируются алгоритмы адаптации для интегрированных систем идентификации, где в качестве модели объекта используются нелинейные интегральные уравнения вида (1.2.11).

48

Глава4 НЕПАРАМЕТРИЧЕСКИЕИНТЕГРИРОВАННЫЕ

СИСТЕМЫИДЕНТИФИКАЦИИ

4.1. Линейныенепараметрическиеинтегрированныесистемыидентификации

Рассмотрение непараметрических интегрированных систем идентификации начнем с простой интегрированной системы моделей первого уровня вида

y* =+ξ,

(4.1.1)

 

αj =φj j ) +ηj , j =

 

 

,

 

1,m

 

 

 

где F – вектор известных функций f j (x), j =

 

,

вычисленных в точках

1, m

xi , i =1,n; y* = ( y1*, y2*,, yn* )T – вектор измеренных значений выхода объекта у; α – вектор неизвестных параметров; αj , j =1,m – дополнительные априорные данные; φj j ), j =1,m – неизвестные однозначные

функции, связывающие параметры исследуемого объекта с выходными значениями объекта-аналога; ξ, ηj , j =1,m, – случайные величины,

представляющие ошибки измерения выхода объекта и ошибки задания априорной информации; Т – символ транспонирования.

Задача идентификации заключается в оценивании неизвестных параметров, когда относительно функций φj (α), j =1,m известны лишь

общие предположения, такие как непрерывность, ограниченность, существование производных и т. д.

Вданных условиях модель (4.1.1) представляет линейную, интегрированную систему, где дополнительная информация задана в непараметрической форме. Существует достаточно широкий класс объектов с непараметрическими моделями априорной информации:

1.Системы, где априорные данные неоднородны.

2.Системы, где недостаточно изучен механизм взаимодействия исследуемого объекта и объекта-аналога.

3.Системы с нестабильным взаимодействием исследуемого объекта и объекта-аналога (при одних условиях есть взаимодействие, при других условиях – нет) и т. п.

Вусловиях непараметрической априорной неопределенности о

структуре моделей объектов-аналогов, когда функции φj (α), j =1,l не-

известны, встает вопрос о методике формирования комбинированного функционала качества. Сформулируем критерии, необходимые для конструирования комбинированного функционала качества [12].

49

1. Критерий огрубления моделей объектов-аналогов

Действие критерия заключается в замене неизвестной функции

φj (α) известной в окрестности некоторой точки α0. В простейшем случае

вкачестве φj (α) может быть выбран вектор неизвестных параметров α.

2. Критерий значимости дополнительной информации

Данный критерий предусматривает введение правила «менее значимой дополнительной информации – меньший вес», что связано с введением некоторых весовых функций с центром в окрестности точки α0j ,

убывающих в зависимости от увеличения значений α0j αj →∞ .

3. Критерий компенсации

В качестве компенсации за огрубление моделей дополнительных априорных данных, выбора начального приближения α0j параметра αj ,

 

 

 

α0

α

j

 

 

вводится весовая функция с управляющим параметром h

K

 

j

 

 

,

 

 

h

 

 

 

 

 

 

 

 

 

таким образом, чтобы выполнялись условия Kh 0, h0, Kh C<∞,h→∞.

В качестве комбинированного функционала качества с учетом введенных выше критериев, будем использовать приближение

Φ(α) = J(α) +Q(α) =

 

y*

 

 

 

2

+

 

αα

 

K2 h ,

(4.1.2)

 

 

 

 

 

 

 

 

 

Wy

 

 

 

 

 

 

 

 

 

 

 

 

где J(α) – взвешенный с матрицей Wy частный критерий среднего квадрата ошибок измерений выхода объекта и выбора модели; Q(α) – частный

 

 

 

 

 

α0

α

j

 

критерий

качества модели объекта-аналога;

Kh =(diag(K(

j

 

),

 

h

 

 

 

 

 

 

 

 

 

j =

 

) –

диагональная матрица весовых функций, h – управляющий

1,m

параметр.

Следует отметить, что аналогом данных весовых функций являются ядра в непараметрических оценках плотности распределения вероятностей и регрессии, приведенных в приложении 3.

Задача определения параметров α с учетом критерия (4.1.2) сводится к задаче оптимизации вида

α*(h) =arg min Φ(α). (4.1.3)

α

Для решения задачи (4.1.3) необходимо взять производные от функционала Φ(α) по параметрам α, используя формулы для производ-

ных по векторному аргументу, приведенные в приложении, и приравнять их к нулю:

∂∂Φα = αΦ= −2FT Wy (y* ) 2Kh (αα) = 0.

50