Скачиваний:
1
Добавлен:
18.07.2023
Размер:
3.44 Mб
Скачать

Оптимизационную задачу (2.1.16) можно свести к последовательному решению системы линейных уравнений. Алгоритмы определения управляющих параметров рассмотрены в пятой главе.

В качестве примера рассмотрим интегрированную систему моделей вида:

yi* = α1 2 (xi x) i ,i =1,n,α1 = α1 1 ,α2 = α2 2 ,

где y = α1 +α2 (x x) – уравнение линейной регрессии;

 

 

 

(2.1.17)

 

1

n

 

x =

xi

– выбо-

 

n i=1

 

рочное среднее; α1 и α2 – дополнительные априорные данные сведения о параметрах α1 и α2 , ξ, i =1,n, η1, η2 – ошибки измерения выхода объ-

екта и ошибки задания априорных данных о параметрах модели объекта. Данная интегрированная система моделей следует из (2.1.1) при

R = I и m = 2.

Предполагая, что ошибки измерений и ошибки задания дополнительных априорных данных независимы и одинаково распределены (Wy =Wα = I ), из (2.1.4) получим оценки параметров α1 и α2

α* (β) = (FT F +βI )1 (FT y* +βα) ,

(2.1.18)

где

 

 

 

 

 

 

 

 

 

 

 

T

 

1,

 

 

1,

. . .

 

1

 

F

 

x,

x

 

x,

. . . x

 

 

 

 

= x

2

n

x .

 

 

 

1

 

 

 

 

 

 

Алгоритм получения оценок параметров заключается в выполнении последовательности действий:

1)вычисление произведения матриц FT F ;

2)получения обратной матрицы (FT F +βI )1 ;

3)расчета вектора свободных членов (FT y* +βα) ;

4)вычисление произведения (FT F +βI )1 (FT y* +βα) .

В силу симметричности уравнения регрессии матрица FT F диагональная

 

 

 

n

0

 

 

T

 

 

n

 

F

 

F =

0

(xi x)2

.

 

 

 

 

i=1

 

Тогда соответствующая обратная

матрица

(FT F +βI )1 также диаго-

нальная.

 

 

 

 

 

 

 

 

 

31

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

+β

 

 

 

 

 

 

 

 

(FT F +

 

 

n

 

 

 

 

1

 

 

 

 

 

 

βI )1 =

 

0

 

 

 

 

 

.

 

 

(2.1.19)

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(xi x)2 +β

 

 

 

Матрица FT y* равна

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yi

 

 

 

 

 

 

 

 

 

 

 

 

FT y* =

n

i=1

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(x1 x) yi

 

 

 

 

 

Соответственно

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yi

 

+βα1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(F

T

y

*

+βα) =

 

 

i=1

 

 

 

 

 

 

(2.1.20)

 

 

 

 

n

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

(xi x) yi +

βα2

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

Перемножая матрицы (2.1.19) и (2.1.20), получим

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

*

 

yi +βα1

 

*

 

 

(xi x) yi +βα2

(2.1.21)

 

i=1

 

 

 

 

 

 

 

i

=1

 

 

 

 

α1

(β) =

 

 

n +β ,

α2 (β) =

 

 

(xi x)2 +

β .

 

Следует отметить, что полученные оценки можно вычислять при n 1 (проводится прямая через одну точку).

При β = 0 полученные оценки параметров совпадают с соответст-

вующими оценками метода наименьших квадратов, которые можно использовать при объеме измерений n 2 , поскольку при n =1 определитель матрицы FT F равен нулю.

Следует отметить, что при матрице планирования FT F большой размерности, решение соответствующих систем линейных уравнений осуществляетсяоднимизитерационныхметодовпоследовательныхприближений.

2.2.Линейныеинтегрированныесистемыидентификации

сучетомаприорнойинформацииовыходеобъекта

Рассмотрим линейную интегрированную систему моделей, в которой используется дополнительная априорная информация о выходе объекта

 

*

= +ξ,

(2.2.1)

y

 

Гy = Ry + η,

 

где R,Г – известные матрицы;

y* = ( y1* , y2* ,..., yn* )T ,

y = ( y1 , y2 ,...yn )T

векторы столбцы измеренных значений выхода объекта и дополнительных априорных данных, матрица F и векторы α, ξ, η определены в 2.1.1.

32

Введем обозначения F1 = F,F2 = RF и представим интегрированную систему моделей (2.2.1) в виде:

 

 

y* = F1α+ξ,

(2.2.2)

 

 

 

α+ η,

 

 

Гy = F2

 

 

где

F

– матрица известных функций

f j (xi ), j =

 

, вычисленных в точ-

1,m

 

1

 

 

 

 

ках xi ,i =1,n, Г – диагональная индикаторная матрица для указания от-

сутствующих значений компонент вектора дополнительных априорных данных y .

Например, при Г = (zij = 0,i, j =1,n 1, znn =1) , априорная информа-

ция задана одним значением yn

в точке xn и интегрированная система

моделей при R = I примет вид

 

y*

= F1α+ξ,

 

= yn + ηn ,

yn

Следует отметить, что измерения выхода объекта и дополнительные данные могут быть получены при разных значениях входных переменных, принадлежащих их разным областям. Например, измерения

выхода объекта yi ,i 1,n могут быть определены в точках xi x1 , а дополнительные данные y j , j 1,n в точках x j x2 , причем области

х1 и х2 не пересекаются. В этой связи в качестве дополнительной априорной информации могут быть использованы и экспертные оценки прогнозных значений выхода объекта, в том числе и прогнозные значения выхода по косвенным измерениям, где в качестве y и y понимаются

разные переменные.

В случае использования частных квадратичных функционалов качества и комбинированного критерия качества вида

Φ(α) =

 

 

 

y*

 

 

 

2

+ β

 

 

 

Гy F α

 

 

 

2

(2.2.3)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

Wy

 

 

 

 

2

 

 

 

Wy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

решение оптимизационной задачи определения оптимального вектора

параметров α:

α*(β) =argmin Φ(α)

α

сводится (по аналогии c линейной интегрированной системой моделей (2.1.1)) к решению системы линейных уравнений вида

(F1T Wy F1 +β F2T Wy F2 ) α = (FT Wy y* +β F2T Wy Гy)

(2.2.4)

и оптимизационной задаче по определению оптимального управляющего параметра

33

β* = arg min(Φ(α*(β)) =

 

 

 

y* * (β)

 

 

 

2W

 

+

 

 

F2α* (β)

 

 

 

2W ) . (2.2.5)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

 

β R

y

 

 

 

 

 

 

 

y

Рассмотрим интегрированную систему моделей для случая d объек- тов-аналогов, т. е. дополнительная априорная информация в выходе объекта формируется с d объектов-аналогов:

 

*

= F1α+ξ,

 

 

 

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(2.2.6)

 

 

y

 

= F

α+ η

 

,k =1,d,

Г

k

k

k

 

 

 

 

2 k

 

 

 

 

 

где матрицы F1, F2k, Гk известные матрицы.

По аналогии (2.1.15) и (2.2.4) алгоритм адаптации данной интегрированной системы сводится к решению оптимизационной задачи

 

 

 

 

d

α* (β) = argmin(Φ(α) =

 

y* F1α

 

2 Wy +βk

 

 

 

Гk yk F2k α

 

 

 

2 Wy ) (2.2.7)

 

 

 

 

α

 

 

 

k =1

и, соответственно, к решению систем линейных уравнений вида

d

d

(F1T Wy F +βk F2Tk Wy F2k )α = (FT Wy y* +βk F2Tk Wy Zk yk ) (2.2.8)

k =1

k =1

и оптимизационной задаче по определению оптимального вектора управляющих параметров

β*j

= arg min(Φ(α*(β )) =

 

 

 

y* F α* (β)

 

 

 

2 +

 

 

 

 

 

β R

 

 

 

 

 

 

 

Wy

d

 

 

(2.2.9)

+βk

 

y

k

F2k α* (β)

 

2W ), j =

1, d

.

k =1

 

 

y

2.3. Комбинированныелинейныеинтегрированные системыидентификации

Рассмотрим линейную интегрированную систему моделей, в которой одновременно используется априорная информация о параметрах и выходе исследуемого объекта

 

*

= +ξ,

 

y

 

 

 

 

 

 

(2.3.1)

Г1 α = R1α+ η1 ,

Г

y = R

y + η

,

 

2

2

2

 

где F, R1, R2 – известные матрицы; Г1 ,Г2 – диагональные индикатор-

ные матрицы.

Для определения вектора неизвестных параметров α будем использовать комбинированный функционал качества

Φ(α) =

 

 

 

y* F1α

 

 

 

2

+β1

 

 

 

Г1α R1α

 

 

 

2 +β2

 

 

 

Г2 y F2α

 

 

 

,

(2.3.2)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Wy

 

 

 

 

 

 

 

 

Wα

 

 

 

 

 

 

 

Wy

 

где F1 = F,F2 = RF ; β1 и β2 – управляемые параметры.

34

По аналогии с (2.1.2), (2.2.3) алгоритм адаптации данной комбинированной интегрированной системы моделей сводится к оптимизационной задаче

α*(β ,β

) =arg min Φ(α),

 

 

 

1

2

 

α

 

 

 

 

 

и решению системы линейных уравнений

 

 

 

 

(FT W F +β RT W R +βFT W F )α =

 

1 y 1

1 1

α 1

2

y

2

 

(2.3.3)

=(FT W y* +β RT Г α+

β FT W Г

y)

 

y

1 1

1

2 2

y

2

 

 

относительно вектора неизвестных параметров α и оптимизационной

задаче по определению управляющих параметров β1

и β2

β*j =arg min Φ(α*(β1,β2 )), j =

 

.

(2.3.4)

1,2

β1, β2

 

Рассмотрим интегрированную систему моделей, в которой допол-

нительная информация о параметрах α получена с d1 объектов-аналогов, а дополнительная информация о выходе получена с d2 объектованалогов:

y*

= F1α+ξ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

,

(2.3.5)

 

 

 

 

 

 

Г1 j αj = R1 j Z1 jα+ η1 j , j =1,d1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=1,d2 .

 

 

Г2k yk = F2k α+ η2k ,k

 

 

Для данной системы соответствующим образом формируется комбинированный функционал качества как сумма взвешенных частных критериев качества исследуемого объекта и объектов-аналогов

 

 

 

 

 

 

 

 

 

 

d

 

 

 

 

 

 

 

 

 

 

 

d

 

 

 

 

 

Φ(α) =

 

 

 

y* F1α

 

 

 

2W

y

+1

β1 j

 

Г1 j αj Rij Zij α

 

2W

+ 2

β2k

 

Г2k yk F2k α

 

2Wy

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

j=1

 

 

 

 

 

 

 

 

 

 

α

k =1

по параметрам α

Тогда задача оптимизации функционала Φ(α)

к решению системы линейных уравнений вида

 

 

 

 

 

 

 

 

 

 

 

d

 

 

d

 

 

 

 

 

 

 

 

 

(F1T WyF1 +1 βj R1Tj W

 

 

R1 j +2 βk F2Tk WyF2k )α =

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

j=1

 

 

k

=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

d

 

 

 

d

 

 

 

 

 

 

 

 

 

= (FT Wy y* +1 β1 j R1TjW

 

 

Г1 j

α

+2 β2k F2Tk Wy Г2k y).

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

j=1

 

 

 

k =1

 

 

 

 

 

. (2.3.6)

сводится

2.4. Линейныединамическиеинтегрированные системыидентификации

Рассмотрим линейные динамические интегрированные системы идентификации на основе интегрированной системы моделей вида:

 

*

= Fxt +ξt ,

 

 

 

yt

 

 

(2.4.1)

 

 

= Rh

 

+ η ,

 

 

 

h

t

t

 

 

 

 

 

t

 

 

 

где F – некоторый интегральный оператор с ядром ht;

h

t

– вектор до-

полнительных априорных данных о

ядре, заданный

с

ошибкой ηt;

xt xt ,y*t – векторы входных и выходной переменной объекта; R – известная матрица.

35

В качестве примера рассмотрим нелинейный интегральный опера-

тор Гаммерштейна

h(τ) f (x(t τ))dτ,

0

в котором ядро представим в виде ряда известных функций z j (xt ), j =1,m с точностью до параметров α j , j =1,m :

m

 

ht = α j z j (xt ) = .

(2.4.2)

j=1

Тогда система (2.4.1) примет вид, подобный линейной интегрированной системе моделей (2.1.1) с учетом априорной информации о параметрах модели объекта

 

*

= F1t α+ξt ,

 

 

 

 

 

 

 

yt

 

 

 

 

(2.4.3)

 

 

 

 

 

 

 

 

 

 

= F α

+ η

,t =1,n,

h

t

 

 

 

 

2

t

 

 

 

 

 

 

 

где матрица F1 = (z j (x(τ)) f (x(t τ))dτ, t =

 

j =

 

) ; α – вектор не-

1,n,

1,m

0

 

 

 

 

 

 

 

 

 

 

 

известных параметров, F2 = Rz.

При использовании частных квадратичных критериев качества и комбинированного функционала качества вида:

Φ(α) =

 

 

 

y* F

α

 

2

+β

 

 

 

 

 

 

F α

 

 

 

2

,

 

 

 

 

 

h

t

 

 

 

 

 

 

t 1t

 

 

Wy

 

 

 

 

 

 

2

 

 

 

Wh

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

алгоритм адаптации интегрированной системы моделей (2.4.3), по аналогии с (2.1.2), сводится к решению системы линейных уравнений

(FT W F +βFT W

 

F ) α = (FTW y* +βFT W

 

 

 

)

(2.4.4)

 

 

 

h

 

 

1 y 1

2 h 2

1 y

2 h

 

и решению соответствующей оптимизационной задачи по определению управляющего параметра β.

Следует отметить, что при h(t) =δ (t), где δ(t) – дельта – функция Дирака, линейная динамическая интегрированная система моделей переходит в статическую линейную интегрированную систему моделей

 

*

= ht +ξt ,

yt

 

 

 

 

 

 

h

= h +η

,t =1, n

 

t

t t

 

 

с учетом априорной информации о выходе объекта.

Рассмотрим линейные динамические интегрированные системы идентификации на основе модели объекта в форме обыкновенного дифференциального уравнения

m

m

 

 

1

ak z(k ) (t) = 2

bj x( j) (t),

(2.4.5)

k =0

j=0

 

 

 

36

 

 

где

z(k )(t) =

d k (z)

 

– производная порядка k от выхода объекта;

xt(i) =

d j x(t)

dt k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

dt j

производная j

 

порядка

 

 

от

входа объекта; z(k ) (t0 ) =

 

, k = 0,1,...,,

 

 

j

zk

m 1, x( j) (t ) =

 

, j =0,1,

..., m

1 – начальные условия.

 

 

 

 

x

 

 

 

 

1

0

 

j

 

 

 

2

 

 

 

 

 

 

 

 

Часто систему (2.4.5) представляют в виде конечно-разностного

уравнения

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

m

 

 

 

 

 

 

 

 

 

 

z(t) = 1

ak

fk (z(t k)) + 2

bk fk (x(t j)),

(2.4.6)

 

 

 

 

 

k =0

 

 

 

j=0

 

 

 

 

 

 

где

fk (•) – известная функция,

аппроксимирующая производную по-

рядка k.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Динамическую интегрированную систему моделей с учетом (2.4.6)

и априорной информации о параметрах ak ,bk можно представить в виде:

 

 

 

 

 

 

 

*

+ ξt ,

 

 

 

 

 

 

 

 

 

 

 

 

yt = Fya + Fxb

 

 

 

 

 

 

 

 

 

 

 

 

z(m1 ) (t0 ) =

z

,x(m2 ) (t0 ) =

x

,

 

 

(2.4.7)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a = R1a + η1,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b = R2b + η2 ,

 

 

 

 

 

 

 

 

 

 

где

Fy

= ( fk (z(t k)),t =

 

, k =

 

);

Fx = ( fk (x(t j)),t =

 

, j =

 

);

1, n

1, m1

1, n

1, m2

 

 

,

 

 

 

векторы дополнительных априорных

данных о параметрах;

a

b

R1 ,R2

– известные матрицы; z(m1) (t ) =(

 

,k =0,1,...,m 1)T ,

x(m2 ) (t ) =

z

 

 

 

 

 

 

 

0

 

k

1

 

0

 

=(

 

, j =0,1,...,m 1)T – векторы начальных условий.

 

 

 

x

 

 

 

 

 

 

 

 

j

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Для интегрированной системы моделей (2.4.7) приведем решение оптимизационной задачи по определению параметров a и b

 

 

 

 

 

 

 

 

 

 

a*,b* =arg min Φ(a,b) ,

 

 

 

 

 

 

 

 

 

 

(2.4.8)

 

 

 

 

 

 

 

 

 

 

 

 

 

a,b

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

используя комбинированный критерий качества

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Φ(a,b) =

 

 

 

y*t Fya Fxb

 

W

+β1

 

a R1a

 

W2 a

+β2

 

 

R2b

 

 

 

W2 .

 

 

 

 

 

 

 

 

 

 

 

b

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b

 

 

 

 

Введем обозначения

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

R

 

 

 

 

 

 

a

 

 

a

 

 

 

 

z(m1) (t )

 

 

 

z

 

 

 

 

 

 

 

 

 

 

U(t0 ) =

 

;U =

R12

 

 

1

; αab

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

=

 

 

= b ; Fyx = [Fy Fx ]; αab =

 

 

;

 

 

 

 

 

 

x ;

R

 

b

 

 

 

 

xm2

(t )

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

0

 

 

 

 

 

 

 

 

и представим интегрированную систему (2.4.7) в виде

37

y* = F α

 

+ξ

, U(t

) =

 

,

ab

U

 

t

yx

 

 

1

0

(2.4.9)

 

 

= R

 

α

 

+ η,

α

ab

12

ab

 

 

 

 

 

 

 

 

 

 

 

где R12 ,Fуx ,αab ,αab ,U(t0 ),U – совмещенные матрицы и вектора модели

объекта, моделей дополнительной априорной информации и начальных условий.

Для данной интегрированной системы моделей при использовании квадратичных критериев качества и комбинированного функционала качества

Φα = y*t Fyxαab W2 y +βαab R12αab W2 αb ,

алгоритм адаптации по аналогии с системой (2.1.2) сводится к решению системы линейных уравнений

(FyxT WyFyxT +βR12T WabR12 ) αab = (FyxT Wy y*t +β R12T Wabαab ) (2.4.10)

и решению соответствующей оптимизационной задачи по определению управляющего параметра β.

По аналогии с (2.4.7) имеют место динамические интегрированные системы идентификации, в основе которых используются дифференциальные уравнения в частных производных и дополнительная априорная информация.

В качестве примера рассмотрим интегрированную систему идентификации с использованием уравнения теплопроводности вида [24]

y(x,t)

= a(x,t)

2 y(x,t)

, y(x =0,t) = y

0

(t),

(2.4.11)

 

x

2

 

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y(x =l,t) = y1(t), t l, y(x,t = 0) = y0 (x).

 

 

 

 

 

 

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где a(x,t) = α j f j

(x,t) ;

 

j = Rij α j j ,i, j =

 

;

f j (x,t), j =

 

 

– из-

α

1,m

1,m

j=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

вестные функции;

α j j =

 

 

– неизвестные параметры;

 

j , j =

 

1,m

 

α

1,m

дополнительная априорная информация о параметрах, заданная с ошиб-

ками ηj , j =

 

; Rij ,i, j =

 

 

 

 

1,m

1,m

– известная матрица.

 

Задача идентификации

заключается в определении

параметров

αj j =

 

по результатам измерений выходной переменной

y(x, t) в мо-

1, m

менты времени ts = s t, s =0, 1, 2, ..., при значениях переменной x, рав-

m

ных xk =k x,k =0,1,..., l / x , y(xk ,ts ) = y(xk ,ts1)+αj f j (xk ,ts ) (y(xk+1,ts )

j=1

2y(xk ,ts ) + y(xk1,ts )) +ξ(xk ,ts ) и сводится к оценкам вида (2.1.4).

38

Глава3 НЕЛИНЕЙНЫЕИНТЕГРИРОВАННЫЕСИСТЕМЫИДЕНТИФИКАЦИИ

3.1.Нелинейныеинтегрированные системыидентификации

сучетомаприорнойинформацииопараметрахмоделиобъекта

Рассмотрим интегрированную систему моделей, основанную на нелинейной статической модели исследуемого объекта и линейной статической модели объекта-аналога, представляющего дополнительную априорную информацию о параметрах исходного объекта:

f (x1,α)

f(x,α) = f (x2,α) ,

f (xn,α)

 

 

 

*

=f(x,a) +ξ,

 

 

 

 

 

 

 

y

 

 

 

 

 

 

 

 

α=+η,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y1*

 

 

 

 

α1

 

 

 

 

 

1

 

 

 

 

 

α

 

y* = y2*

 

,

α=

α2

,

 

=

α2

 

,

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

αm

 

 

 

 

 

 

 

 

 

 

*

 

 

 

 

 

α

 

 

 

 

yn

 

 

 

 

 

 

 

 

 

 

m

 

 

ξ

 

 

 

η

 

(3.1.1)

 

ξ

1

 

 

 

1

 

ξ=

2

 

,

η=

η

 

,

 

2

 

 

 

 

 

 

 

 

 

ξn

 

 

ηm

 

 

 

 

 

 

 

 

 

 

где f (x,α) – вектор известной с точностью до вектора параметров α нелинейной функции f (x,α), вычисленной в точках xi ,i =1,n ; y* – вектор измеренных значений выхода объекта; α – вектор дополнительных априорных данных; R = (rij , i, j =1,m) – известная матрица; ξ, η– век-

торы случайных факторов (помех).

Для проектирования оптимальной структуры интегрированной системы идентификации необходимо определить частные критерии качества с учетом априорной информации о вероятностных характеристиках ошибок измерения выходной переменной объекта ξ, ошибок задания априорной информации η. Будем предполагать, что ошибки распределены по нормальному закону.

Тогда, по аналогии с рассмотренными во второй главе линейными интегрированными системами идентификации, задачу идентификации можно свести к оптимизационной задаче

α* (β) = arg min Φ(α),

(3.1.2)

 

 

α

 

 

 

 

 

 

 

 

 

 

 

Φ(α) = J(α) +β Q(α) =

 

y* f (x,α)

 

2

 

 

 

 

 

 

2 ,

 

 

+β

 

 

 

 

 

α

 

 

 

 

W

 

 

 

 

 

 

 

 

W

 

 

 

 

y

 

 

 

 

 

 

 

 

α

где J(α) и Q(α) – частные квадратичные формы с положительно определенными матрицами Wy и Wα , связанные с вероятностными характеристиками случайных ошибок ξ, η и вероятностными характери-

39

стиками ошибок ν измерений входных переменных x* = x + ν (в слу-

чае, если входные переменные измеряются с ошибкой ν).

Алгоритм адаптации, основанный на методе Гаусса–Ньютона.

Рассмотрим алгоритм решения оптимизационной задачи (3.1.2) на основе метод Гаусса–Ньютона, приведенного в приложении 2, суть которого заключается в разложении нелинейной функции f (x, α) в ряд Тейлора в окрестности некоторой точки α0 (начальное приближение параметров), ограничиваясь членами первого порядка малости:

f (x,α) =

f (x,α

0

) +

m

 

f (x,α) 0

 

α

0

) =

f (x,α

0

) +

 

 

 

 

j

j

 

 

 

 

 

 

 

 

 

 

 

(3.1.3)

 

 

 

 

j=1

 

αj

 

 

 

 

 

 

 

+( α f (x,α))T0 α0 .

Сучетом разложения критерия качества (3.1.3) модели исследуемого объекта J(α) представим в виде:

 

J(α) =

e0 D0

где e0 = y* f (x,α0 ),

 

f (x

 

, α)

, i

D0 =

 

 

i

 

 

 

 

∂α

j

 

 

 

 

 

 

 

α0 2 ,

Wy

 

 

 

 

0

 

 

 

 

 

 

– матрица ча-

=1, n , j =1, m

 

 

 

 

 

 

стных производных по параметрам αj , j =1, m, α0 = (αα0 ).

Используя разложение (3.1.3), перейдем от нелинейной интегрированной системы моделей (3.1.1) к линейной интегрированной системе моделей

e

 

= D

 

α

 

+ξ,

 

 

0

 

0

 

0

 

 

 

α = R α

0

+ η,

(3.1.4)

 

 

 

 

 

 

 

 

 

относительно приращения вектора параметров α0 ; α = α0 ,

m

R α0 = (rij α0j ,i =1,m)T .

j=1

Линеаризованной интегрированной системе моделей (3.1.4) соответствует комбинированный критерий качества

Φ( α0 ) =

 

 

 

e0 D0 α0

 

 

 

2 +β

 

 

 

 

 

R α0

 

 

 

2 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

(3.1.5)

 

 

 

 

 

 

 

 

Wy

 

 

 

 

 

 

 

Wα

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Далее определим приращение вектора параметров

 

α0 относитель-

ного начального приближения α0 и получим последующие приближения параметров по схеме Ньютона

αi =αi1 +h αi1, i =1, 2, 3, ...

(3.1.6)

i

 

40