
5ый семестр / 8. Системный анализ (complete)_1 / SA / не мое / ТС и СА_гр.447_2019 / Учебные пособия / СЕРГЕЕВ_МАКЕТ
.pdf
Для этой цели необходимо вычислить производные от функционала Ф(Δα0) по параметрам Δα0 и приравнять их к нулю
|
∂Φ( α0 ) |
|
|
|
0 |
|
|
T |
|
0 |
|
0 |
|
0 |
|
|
|
|
= |
|
0 Φ( α |
|
) = −2D W (e |
|
−D |
|
α |
|
) − |
|
|||
|
|
|
|
|
|
|
|
|||||||||
|
α0 |
|
α |
|
|
0 |
y |
|
|
|
|
|
|
(3.1.7) |
||
|
|
|
|
|
|
0 −R α0 ) = 0. |
|
|
|
|
|
|||||
|
|
− 2RT Wα ( |
|
|
|
|
|
|
|
|||||||
|
|
α |
|
|
|
|
|
|
||||||||
В результате получим систему линейных уравнений |
|
|
(DT Wy D +β RT WαR)i−1 αi−1 |
= (DT Wye +β RT Wα |
|
|
)i−1 , (3.1.8) |
|
α |
|||
относительно приращений вектора |
параметров αi−1 |
на шаге i −1, |
i =1, 2, 3, ... Индекс i −1 означает, что все переменные системы линейных уравнений вычислены при значениях α =αi−1, i =1, 2, 3, ...
Для обеспечения сходимости процедуры определения параметров
(3.1.6), (3.1.8), необходимо выполнение условия |
|
Φ(αi ) <Φ(αi−1) , i −1, i =1, 2, 3, ... |
(3.1.9) |
на каждом шаге итерационного процесса.
Для этой цели существует ряд методов, приведенных в приложении 3. В методе Гаусса–Ньютона выполнение условия сходимости (3.1.9) осу-
ществляется |
дроблением шага h (hi =1, i =1, 2, 3, ...) пополам |
hi = hi−1 / 2 , |
i =1, 2, 3, .... |
Рассмотрим интегрированную систему моделей, в которой априор- |
ная информация о параметрах модели объекта представлена системой нелинейных уравнений
|
* |
= f (x,α) +ξ, |
|
|
y |
|
(3.1.10) |
||
|
|
|
|
|
|
|
|
||
|
|
|
|
|
α = r(α) + η, |
|
где r(α) – вектор нелинейных функций (r1 (α), r2 (α), ..., rm (α))T . Используя разложение функции f (x,α) и r(α) в ряд Тейлора вида
(3.1.3), перейдем к линейной, |
относительно параметров α0 , интегри- |
|||||
рованной системе моделей вида: |
|
|
|
|
||
0 |
0 |
α |
0 |
+ξ, |
|
|
e f |
= D f |
|
|
|||
|
|
= D0 |
α0 + η, |
(3.1.11) |
||
|
||||||
e0 |
|
|||||
r |
r |
|
|
|
|
|
|
|
∂r |
(α) |
|
|
|
|
0 |
||
где |
D0r |
, i, j =1,m |
– квадратная матрица частных производных |
||||||||
= |
i |
|
|
|
|||||||
|
|
|
∂α |
j |
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
функции r(α) по параметрам α, e0f = y* −f (x,α0 ), e0r = α−r(α0 ), а D0f , α0 – определены в (3.1.3).
41
Для интегрированной системы моделей (3.1.11) по аналогии с (3.1.5) имеет место комбинированный критерий качества
Φ( α0 ) = |
|
|
|
e0f −D0f |
α0 |
|
|
|
2 +β |
|
|
|
|
|
−D0r |
α0 |
|
|
|
2 . |
|
|
|
|
|
|
|
|
|
e0r |
|
|
(3.1.12) |
||||||||||
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
Wy |
|
|
|
|
|
|
|
|
Wα |
|
В данном случае алгоритм адаптации с использованием метода Гаусса–Ньютона по аналогии с (3.1.6), (3.1.8) сводится к итерационной процедуре вида:
αi =αi−1 |
+h αi−1, |
|
|
|
|
|
|
|
|
||
|
|
|
i |
|
|
|
|
|
|
|
(3.1.13) |
|
T |
|
T |
i−1 |
i−1 |
T 0 |
T |
|
|
i−1 |
|
|
|
0 |
|||||||||
(Df |
WyDf +β Dr |
WαDr ) |
α |
=(D f Wyef |
+β Dr |
Wαer ) |
, i =1, 2, 3,... . |
||||
|
|
|
|
|
|
|
|
|
|
|
|
Важным моментов в алгоритмах адаптации (3.1.6) и (3.1.13) является определение управляющего параметра, который (в упрощенном варианте) может быть определен на первом шаге итерационного процесса путем решения оптимизационной задачи вида
β* =arg min( |
|
|
|
y* −f(x,α1 |
(β) |
|
2 |
+β |
|
|
|
|
|
−Rα1(β) |
|
2 . |
|
|
|
|
|
α |
|
||||||||||
β |
|
|
|
|
|
|
Wy |
|
|
|
|
|
|
|
|
Wα |
|
|
|
|
|
|
|
|
|
|
|
|
Полученное значение управляющего параметра β* может быть использовано на последующих шагах.
Рассмотрим интегрированную систему моделей, в которой априорная информация о параметрах модели объекта формируется на основе использования l объектов-аналогов:
|
* |
= f (x,α) +ξ, |
|
|||||
y |
|
(3.1.14) |
||||||
|
|
k = R |
α+ η |
, k = |
|
|
||
|
α |
1,l, |
|
|
||||
|
|
k |
k |
|
|
|
|
где Rk – известная матрица для k объекта-аналога; αk =(α1k ,α2k ,..., αmk ) –
вектор дополнительных априорных данных для k объекта-аналога. Поставим в соответствие данной интегрированной системе моделей
квадратичный функционал качества, предполагая, что случайные величины ξ и η распределены по нормальному закону
|
|
2 |
l |
|
|
|
2 |
|
Φ(α) = |
y* −f (x,α) |
W |
+∑βk |
αk −Rk α |
W . |
(3.1.15) |
||
|
|
y |
k =1 |
α |
|
Тогда алгоритм определения параметров α при использовании метода Гаусса–Ньютона по аналогии с (3.1.6), (3.1.8) сводится к рекуррентной процедуре
|
i |
=α |
i−1 |
+hj |
α |
i−1 |
, i =1, 2, 3, ... |
|
|||
α |
|
|
(3.1.16) |
||||||||
|
|
|
|
l |
|
|
|
l |
|||
(DT WyD+∑βk RTk Wαk Rk )i−1 |
αi−1 =(DT Wye +∑βk RTk Wαk |
|
k )i−1. |
|
|||||||
α |
|
||||||||||
|
|
|
|
k=1 |
|
|
|
k =1 |
|
||
|
|
|
|
|
|
|
|
Алгоритм адаптации, основанный на методе Ньютона–Рафсона.
Для решения оптимизационной задачи часто используется метод Ньютона, приведенный в приложении 2, основанный на использовании вто-
42

рых частных производных при разложении функционала качества Φ(α) в ряд Тейлора в окрестности точки α0
Φ(α) |
= |
Φ(α |
0 |
) |
+ |
α Φ(α )) |
0 |
α |
0 + |
( α |
0 T |
0 |
α |
0 |
, |
(3.1.17) |
|
|
( |
|
|
) H |
|
|
|
элементами |
|||||||
где H0 – матрица Гессе вторых частных производных с |
||||||||||||||||
(∂2Φ(α) / ∂αi ∂α j , i,j =1,m)0 , |
α0 = (α−α0 ) , а индекс «0» |
означает, что |
частные производные вычислены при α = α0 .
Необходимым условием минимума функционала (3.1.17) является
равенство нулю частных производных по |
|
α0 |
|
|
|
|
(3.1.18) |
||||||||||||||
где ( |
|
|
α0 Φ(α) =( α Φ(α ))0 +H0 α0 = 0, |
|
|
|
|
||||||||||||||
Φ(α))0 |
= ( T f W |
e0 |
+β RT W |
|
|
)0 |
, |
H0 = ( 2f W |
|
e0 |
+ T f |
f + |
|||||||||
α |
|
||||||||||||||||||||
α |
|
|
α |
y |
f |
|
|
α |
|
α |
y |
f |
|
α α |
|
|
|||||
+β RT W R)0 , |
|
f =(∂f(α) / ∂α |
, i = |
|
), 2f =(∂2f (α) / ∂α |
∂α |
, i, j = |
|
) , |
||||||||||||
1,m |
1,m |
||||||||||||||||||||
|
α |
α |
|
|
|
i |
|
|
|
|
|
α |
|
i |
|
|
j |
|
|
|
|
e0f = y* −f (x,α0 ), α=α−Rα0 .
Процесс определения параметров α в данном случае проводится по схеме:
αi =αi−1 +h αi−1, |
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
f W e |
0 |
T |
f |
W |
|
T |
W R) |
i−1 |
α |
i−1 |
= |
(3.1.19) |
|
( |
f |
+ |
f +β R |
|
|
||||||||||
|
α |
y |
α |
|
|
y α |
|
|
α |
|
|
|
|
|
|
|
|
= ( T f W e0 |
+β RT W α)i−1. |
|
|
|
|
|
|||||||
|
|
|
α |
|
y |
f |
|
α |
|
|
|
|
|
|
Преимуществом метода Ньютона–Рафсона (3.1.19) по сравнению с методом Гаусса–Ньютона является то, что он обеспечивает более высокую скорость сходимости. Недостатком является трудоемкость при вычислении матрицы вторых производных α2f.
Следует отметить, что в последнее время широкое практическое применение получили квазиньютоновские методы оптимизации (методы переменной метрики), приведенные в приложении 2, позволяющие строить различные аппроксимации матрицы Гессе.
3.2.Нелинейныеинтегрированные системыидентификации
сучетомаприорнойинформацииовыходеобъекта
Рассмотрим интегрированную систему моделей, основанную на нелинейной статической стохастической модели объекта и нелинейной модели дополнительной априорной информации о его выходе
(3.2.1)
где L – известный оператор (функция, функционал и т. д.); y* – векторы измеренных значений выхода объекта; y – дополнительные априорные
данные, полученные с «объекта-аналога»; f (x,α) – вектор нелинейной
43

функции f( x,α) вычисленной в точкахxi ,i =1,n ;ξ, η – векторы случай-
ных величин; L – диагональная индикаторная матрица.
Введем обозначения Ly = yГ , Ly = g(x,α) , с учетом которых интегрированную систему моделей (3.2.1) представим в виде:
|
* |
=f (x,α) +ξ, |
|
y |
|
(3.2.2) |
|
y |
|
=g(x,α) +η. |
|
|
Г |
|
|
|
|
|
Алгоритм адаптации, основанный на методе Гаусса–Ньютона.
Используя прием разложения нелинейных функций |
f (x,α) и |
g(x,α) |
||||||||||||||||||
в ряд Тейлора с точностью до членов первого порядка малости: |
|
|||||||||||||||||||
f (x,α) = f (x,α0 ) + α f (x,α0 )T α0, |
|
|
|
|
|
|
|
(3.2.3) |
||||||||||||
g(x,α) = g(x,α0 ) + αg(x,α0 )T α0, |
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|||||||||||||
приведем решение оптимизационной задачи |
|
|
|
|
|
|
|
|
||||||||||||
α*(β) =arg min Φ(α) = |
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
α |
|
|
|
|
|
|
|
(3.2.4) |
||||||||
= J(α) +βQ(α) = |
|
|
|
y* −f (x,α) |
|
2 +β |
|
|
|
|
|
Г −g(x,α) |
|
|
|
2 |
|
|
||
|
|
|
|
|
y |
|
|
|||||||||||||
|
|
|
|
|
|
Wy |
|
|
|
|
|
|
|
|
W |
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
y |
|
с использованием итерационной процедуры Гаусса–Ньютона по аналогии с алгоритмом адаптации (3.1.13). Для этой цели линеаризуем интегрированную систему (3.2.2)
|
0 |
|
0 |
α |
0 |
+ξ, |
||
e f |
= D f |
|
||||||
|
|
|
|
0 |
|
0 |
|
|
|
0 |
= D |
α |
+η, |
||||
e |
g |
g |
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
∂g(x |
,α) |
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|
||||
0 |
|
|
|
|
|
) , D0 |
|
|
|
|
|
|
|
|
|
|
|
и перейдем к ре- |
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
, i |
=1,n, j |
=1,m |
||||||||||||||||||||||||||||
где eg = yГ −g(x,α |
|
= |
|
|
i |
|
|
|
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
g |
|
|
∂αj |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
шению оптимизационной задачи |
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
||||||||||||
|
|
|
|
|
* |
|
|
|
|
0 |
|
|
0 |
|
0 |
|
|
0 |
|
|
|
|
|
|
|
|
0 |
|
0 |
|
|
|
|
|
||
|
|
|
|
α |
= arg min(Φ( |
α |
) = |
|
|
|
α |
|
+β |
|
|
|
0 |
|
α |
|
|
|||||||||||||||
|
|
|
|
|
|
e f |
−D f |
|
|
|
|
eg −Dg |
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
α |
|
|
|
|
|
|
|
|
|
|
|
Wy |
|
|
|
|
|
|
|
|
|
|
|
|
|
W |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
y |
для определения оптимального вектора приращений параметров α0 . В данном случае процедура уточнения параметров (по аналогии с процедурой (3.1.13)) имеет вид:
|
i |
=α |
i−1 |
+h α |
i−1 |
, |
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
α |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
T |
|
|
|
|
i |
T |
|
i−1 |
|
i−1 |
|
T |
|
|
T |
|
i−1 |
|
||
|
|
W D |
|
|
) |
α |
=(D |
W e |
|
) |
, (3.2.5) |
||||||||||
(D |
f |
+β D W D |
|
|
f |
f |
+β D W e |
|
|||||||||||||
|
|
f |
|
y |
|
|
g y q |
|
|
|
|
|
y |
g y g |
|
|
|
|
i =1, 2, 3, ... . |
|
|
Для получения (3.2.5) достаточно взять производные от функционала Φ( α0 ) по параметрам α0 и приравнять их к нулю.
Для интегрированной системы моделей, в которой априорная информация о выходе объекта получена с l объектов-аналогов
44

|
y* =f(x,α) +ξ, |
|
|
|
|
|
|
|
|
(3.2.6) |
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
=g |
|
(x,α) +η , |
k = |
|
|
|
|
|||||||
|
y |
|
Гk |
k |
1,l, |
|
|
||||||||||||
|
|
|
|
|
k |
|
|
|
|
|
|
|
|
|
|||||
процедура уточнения параметров (по аналогии с (3.2.5)) примет вид |
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
αi =αi−1 +h αi−1, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
l |
|
|
|
T |
|
|
|
i−1 |
|
|
i−1 |
|
(3.2.7) |
||||
|
T |
|
|
|
|
|
|
|
|
|
|||||||||
(D f WyD f +∑βk Dgk W |
yk Dgk ) |
|
|
α |
|
|
|
= |
|
||||||||||
|
k=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
T |
|
l |
|
|
|
T |
|
|
i−1 |
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
=(D f Wye f |
+∑βk Dgk W |
yk egk ) |
|
|
|
, i =1, 2, 3, ... . |
|
|||||||||||
|
|
|
|
|
k=1 |
в |
приложении |
|
|
2 методов |
оптимизации |
||||||||
На основе |
приведенных |
|
|
функций для интегрированной системы моделей (3.2.2) и (3.2.6) можно получить различные процедуры адаптации вектора неизвестных параметров α. Например, для интегрированной системы моделей (3.2.2) метод Ньютона–Рафсона (по аналогии с алгоритмом (3.1.19)) приводит к итерационной процедуре вида
αi =αi−1 |
+h αi−1, |
|
|
|
|
|
|
|
i |
|
|
|
|
|
(3.2.8) |
( α2f Wye0f +Tαf Wy αf +β DTg WαDg )i−1 αi−1 = |
|||||||
|
=( T f W e0 |
+β DT W |
|
e |
)i−1. |
|
|
|
|
|
|||||
|
|
||||||
|
α |
y f |
g |
y g |
|
|
3.3. Нелинейныекомбинированные интегрированные системыидентификации
Рассмотрим интегрированную систему моделей, основанную на нелинейной статической стохастической модели объекта и моделей объек- тов-аналогов, дающих дополнительную априорную информацию о параметрах и выходной переменной модели. Рассмотрим также класс объ- ектов-аналогов, представляющий дополнительную априорную информацию о выходе объекта в интегральном виде. Остановимся на интегрированной системе моделей вида:
y* =f (x,α) +ξ, |
|
|
||
|
|
|
|
|
α=r(α) +η1, |
|
(3.3.9) |
||
|
|
|
|
|
y =g(x,α) +η2 , |
|
|
||
|
∫ |
z(x,α)dx |
+η3 |
= s(α) +η3, |
|
||||
s = |
|
|||
|
Rm |
|
|
|
где f (x,α), f (α), f (x,α), z(x,α) – известные нелинейные функции (в общем виде функционалы); y*, α, y – соответственно, векторы измерен-
ных значений выхода объекта и априорных дополнительных данных о параметрах модели объекта и его выходе; s – дополнительная априор-
45

ная информация о выходе объекта, заданная в интегральной форме; ξ, η1, η2, η3 – векторы случайных величин.
От интегрированной системы моделей (3.3.9) перейдем к линеаризованной интегрированной системе моделей относительно приращений α0, где все нелинейные функции представлены рядом Тейлора в окрестности точки α0 с точностью до членов первого порядка малости:
0 |
|
0 |
|
α |
0 |
+ξ, |
|
|
|
||||
e f |
= Df |
|
|
|
|
|
|||||||
|
0 |
= D |
0 |
|
α |
0 |
+η |
, |
|
||||
e |
|
r |
|
|
|
(3.3.10) |
|||||||
r |
|
|
|
|
|
|
1 |
|
|
|
|||
|
0 |
= D |
0 |
|
α |
0 |
+η |
|
|
, |
|||
e |
g |
g |
|
|
|
|
|
||||||
|
|
|
|
|
|
|
2 |
|
|
||||
e0 |
= D0 |
|
α0 +η |
|
, |
|
|||||||
|
s |
|
s |
|
|
|
|
|
3 |
|
|
|
|
где D0f , D0g – матрицы частных производных от функций f, g соответст- |
венно по параметрам αj , j =1,m в точках xi , i =1,n при начальных зна-
чениях α = α0; |
D0r , D0s – векторы частных производных от функции r и |
|||
функционала s по параметрам αj , j = |
|
;e0f = y* −f (x,α0 ) ; |
||
1,m |
||||
e0 |
=α−r(α0 ) ; e0 |
= y −g(x,α0 ) ; e0 = s −s(α0 ) . |
||
r |
g |
s |
Интегрированной системе моделей (3.3.10) поставим в соответствие комбинированный взвешенный критерий качества, основанный на частных квадратичных функционалах качества:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Φ( |
α0 ) = J( |
α0 ) +∑βjQ j ( |
α0 ) , |
|
|
|
|
(3.3.11) |
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
j=1 |
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
2 |
|
|
0 |
0 |
0 |
|
2 |
|
|
|
|
|
0 |
0 |
|
|
|
|
|
|
|
|
0 |
0 |
|
|
|
|
0 |
0 |
|
||||||
где J( α)= |
|
; Q = |
|
0 |
|
|
|
Q = |
|
|
0 |
|
|
Q = |
0 |
|
|
||||||||||||||||||
e |
f |
−D α |
|
|
e |
−D |
α |
|
; |
e −D α |
|
; |
e |
−D α |
|
. |
|||||||||||||||||||
|
|
|
|
|
Wy |
1 |
|
r |
|
|
r |
|
|
W |
|
2 |
|
|
|
g |
r |
|
|
W |
3 |
s |
s |
|
|
W |
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
α |
|
|
|
|
|
|
|
|
|
|
y |
|
|
|
|
|
|
s |
В качестве оптимальных значений |
α* приращения параметров |
|
α0 |
||||||||||||||||||||||||||||||||
используем величину |
|
α* =arg min Φ( α0 ). |
|
|
|
|
|
|
|
(3.3.12) |
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Δα0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Для решения задачи (3.3.12) достаточно вычислить производные от |
|||||||||||||||||||||||||||||||||||
Φ( α0 ) до |
|
α0 и приравнять их к нулю |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
Φ( α0) =−2D0 W E |
f |
−2D0W E0 |
− |
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
f |
y |
|
|
r |
|
α |
r |
|
|
|
|
|
|
(3.3.13) |
||||||
|
|
|
|
|
|
|
|
−2D0W |
|
E0 −2D0W E0 |
=0, |
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
z |
|
y |
g |
|
|
s |
s |
s |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
где E =(e0 −D0 α0); |
E =(e0 |
−D0 α0), |
E =(e0 |
−D0 |
α0), E =(e0 |
−D0 α0). |
|||||||||||||||||||||||||||||
f f |
|
f |
|
|
|
r |
r |
|
|
|
r |
|
|
g |
|
g |
|
|
|
|
g |
|
|
|
s |
s |
|
|
s |
|
|
|
|||
Собирая члены c |
α0 |
|
из (3.3.13), получим систему линейных урав- |
||||||||||||||||||||||||||||||||
нений, которую запишем для произвольного вектора приращений |
|
αi−1 |
|||||||||||||||||||||||||||||||||
на шаге i – 1, начиная с |
α0 , |
i =1, 2, 3..., |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
Ai−1 |
αi−1 =Bi−1 , |
|
|
|
|
|
|
|
|
|
(3.3.14) |
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
46 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|

где
Ai−1 =(DTf WyDTf +β1DTr WαDr +β2DTg WyDg +β3DTs WsDs )i−1 Bi−1 =(DT Wye0f +β1DTr Wα e0r +β2DTz Wy e0g +β3DTs Ws e0s )i−1,
индекс i −1 означает, что все переменные вычислены при α=αi−1 . Основываясь на схеме Ньютона с учетом (3.3.13), процедура уточ-
нения параметров α примет вид
|
|
|
i |
=α |
i−1 |
+h α |
i−1 |
, |
|
|
|
α |
|
|
|
|
|||||
|
Ai−1 |
|
|
i |
|
|
(3.3.15) |
|||
|
αi−1 =Bi−1, |
i =1, 2, 3, ... . |
||||||||
|
|
|
|
|
|
|
|
|
|
|
Отметим, |
что |
при |
|
|
значениях управляющих |
параметров |
||||
β1 = β2 = β3 = 0 |
и Wy =I , |
алгоритм |
определения параметров (3.3.14) |
совпадает с методом Гаусса–Ньютона для идентификации модели объекта f (x,α).
Для интегрированной системы моделей вида:
y* |
= f (x,α) +ξ, |
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
= rk (α) +η1k , k =1,l1, |
|
|
|
|||||||||
αk |
|
, |
(3.3.16) |
|||||||||||
y |
|
=g |
|
(x,α) +η |
, k = |
|
|
|||||||
k |
k |
1,l |
, |
|||||||||||
s |
|
|
2k |
2 |
|
|
|
|||||||
|
= s(α) +η |
, k |
= |
|
|
|
|
|
||||||
|
1,l , |
|
|
|
||||||||||
k |
|
|
3k |
|
3 |
|
|
|
|
|
|
в которой дополнительная априорная информация получена c l1 +l2 +l3
объектов-аналогов, процедура уточнения параметров проводится по схеме, аналогичной (3.3.14), где
|
l1 |
|
|
|
l2 |
|
|
|
|||||
Ai−1 = (DTf WyDTf +∑β1k DTrk Wαk Drk + |
∑β2DTg W |
|
Dg + |
||||||||||
y |
|||||||||||||
k=1 |
|
|
k =1 |
|
|
|
|||||||
|
l3 |
|
WsDs )i−1 |
|
|
|
|
|
|
|
|
|
|
+ ∑β3DTs |
|
|
|
|
|
|
(3.3.17) |
||||||
|
k =1 |
|
|
|
|
|
|
|
|
|
|
|
|
l1 |
|
|
|
l2 |
|
|
|
l3 |
|
|
|
||
Bi−1 =(DT Wye0f +∑β1DTr |
Wα e0r |
+ |
∑β2DTz W |
|
e0g +∑β3DTs |
Ws e0s )i−1. |
|||||||
y |
|||||||||||||
k =1 |
|
|
|
k=1 |
|
|
|
k=1 |
|
|
|
Следует отметить, что дополнительные априорные данные могут быть известны только по некоторым компонентам векторов α и y .
3.4. Нелинейныединамическиеинтегрированныесистемыидентификации
Нелинейные динамические интегрированные системы идентификации рассмотрим на примере нелинейной динамической интегрированной системы моделей вида:
47

y* = F (α) +ξ |
, y(0) = |
|
(0), |
||
y |
|||||
t |
t |
t |
|
|
|
α= Rα+η, |
|
(3.4.1) |
|||
y |
= Hy + ν, |
|
|
|
|
|
|
|
|
|
|
где y*t – вектор измеренных в моменты времени t значений выхода объ-
екта yt Ft (α) =( f ( yt−1, yt , t, α, xt ), t =1,n) – вектор функция, полученная в результате конечно-разностной аппроксимации нелинейного дифференциального уравнения первого порядка (1.4.10); xt =(x1t , x2t , ..., xmt ) – зна-
чения входных переменных объекта в момент времени t, α – вектор неизвестных параметров; R,H – известные матрицы; ξt , η, ν – векторы
ошибок измерений выхода исследуемого объекта и ошибок задания априорной информации соответственно.
Представим в (3.4.1) функцию Ft (α) рядом Тейлора в окрестности
точки α0 с точностью до членов первого порядка малости. В результате получим линеаризованную интегрированную систему моделей относительно приращений α0,
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
= D |
0 |
|
|
α |
0 |
+ξ, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
e |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
α |
1 |
|
|
α0 +η, |
|
|
|
|
|
|
|
|
(3.4.2) |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
= R |
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
e0 = D02 α0 + v, |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
m |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
α=α−Rα0, R1 α0 =(∑rij1 |
α0j ,i |
= |
1,m |
)T , e0 = y −HFt (α0 ), D02 = HD10, |
|||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
0 |
|
|
∂f ( y |
−1 |
, y , t, α, x |
) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
= |
|
|
t |
|
t |
|
t |
|
, t =1,n , j = |
1,m |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
D1 |
|
|
|
|
∂αj |
|
|
. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
При использовании комбинированного критерия качества |
||||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
0 |
|
|
|
0 |
0 |
|
|
0 |
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
2 |
|
|
|
0 |
|
0 |
|
0 |
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
Φ( α |
) = |
e |
|
|
|
+β |
|
α−R α |
+β |
|
e |
−D |
α |
||||||||||||||||||||||||||||||||||
|
|
|
|
−D α |
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
Wy |
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Wα |
2 |
|
|
|
|
|
|
|
|
|
Wy |
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
алгоритм адаптации по определению вектора параметров α по аналогии с (3.1.6) , (3.2.7) сводится к итерационной процедуре вида:
αi =αi−1 +h |
αi−1, i =1, 2, 3, .... |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
T |
|
|
|
T |
|
|
|
|
|
T |
|
|
|
|
|
|
|
i−1 |
|
i−1 |
|
|
||
(D W D |
+ |
β R |
W R +β |
2 |
D |
W |
|
D |
) |
|
|
|
α |
|
= |
(3.4.3) |
|||||||||
|
|
|
|
|
|||||||||||||||||||||
|
1 |
y 1 |
|
1 |
|
α |
|
2 |
|
|
y |
2 |
|
|
|
|
|
|
|
|
|||||
|
= (DT |
W e0 |
+β RT W |
α |
+β |
DT |
W |
|
e0 )i−1. |
|
|||||||||||||||
|
|
|
|||||||||||||||||||||||
|
|
1 |
y |
|
1 r |
α |
|
|
|
|
|
2 |
|
|
1 |
|
y |
|
|
|
|
По аналогии с (3.4.3) проектируются алгоритмы адаптации для интегрированных систем идентификации, где в качестве модели объекта используются нелинейные интегральные уравнения вида (1.2.11).
48

Глава4 НЕПАРАМЕТРИЧЕСКИЕИНТЕГРИРОВАННЫЕ
СИСТЕМЫИДЕНТИФИКАЦИИ
4.1. Линейныенепараметрическиеинтегрированныесистемыидентификации
Рассмотрение непараметрических интегрированных систем идентификации начнем с простой интегрированной системы моделей первого уровня вида
y* =Fα+ξ, |
(4.1.1) |
||||
|
|||||
αj =φj (αj ) +ηj , j = |
|
|
, |
|
|
1,m |
|
||||
|
|
||||
где F – вектор известных функций f j (x), j = |
|
, |
вычисленных в точках |
||
1, m |
xi , i =1,n; y* = ( y1*, y2*,…, yn* )T – вектор измеренных значений выхода объекта у; α – вектор неизвестных параметров; αj , j =1,m – дополнительные априорные данные; φj (αj ), j =1,m – неизвестные однозначные
функции, связывающие параметры исследуемого объекта с выходными значениями объекта-аналога; ξ, ηj , j =1,m, – случайные величины,
представляющие ошибки измерения выхода объекта и ошибки задания априорной информации; Т – символ транспонирования.
Задача идентификации заключается в оценивании неизвестных параметров, когда относительно функций φj (α), j =1,m известны лишь
общие предположения, такие как непрерывность, ограниченность, существование производных и т. д.
Вданных условиях модель (4.1.1) представляет линейную, интегрированную систему, где дополнительная информация задана в непараметрической форме. Существует достаточно широкий класс объектов с непараметрическими моделями априорной информации:
1.Системы, где априорные данные неоднородны.
2.Системы, где недостаточно изучен механизм взаимодействия исследуемого объекта и объекта-аналога.
3.Системы с нестабильным взаимодействием исследуемого объекта и объекта-аналога (при одних условиях есть взаимодействие, при других условиях – нет) и т. п.
Вусловиях непараметрической априорной неопределенности о
структуре моделей объектов-аналогов, когда функции φj (α), j =1,l не-
известны, встает вопрос о методике формирования комбинированного функционала качества. Сформулируем критерии, необходимые для конструирования комбинированного функционала качества [12].
49

1. Критерий огрубления моделей объектов-аналогов
Действие критерия заключается в замене неизвестной функции
φj (α) известной в окрестности некоторой точки α0. В простейшем случае
вкачестве φj (α) может быть выбран вектор неизвестных параметров α.
2. Критерий значимости дополнительной информации
Данный критерий предусматривает введение правила «менее значимой дополнительной информации – меньший вес», что связано с введением некоторых весовых функций с центром в окрестности точки α0j ,
убывающих в зависимости от увеличения значений α0j −αj →∞ .
3. Критерий компенсации
В качестве компенсации за огрубление моделей дополнительных априорных данных, выбора начального приближения α0j параметра αj ,
|
|
|
α0 |
−α |
j |
|
|
вводится весовая функция с управляющим параметром h |
K |
|
j |
|
|
, |
|
|
|
h |
|
|
|||
|
|
|
|
|
|
|
таким образом, чтобы выполнялись условия Kh →0, h→0, Kh →C<∞,h→∞.
В качестве комбинированного функционала качества с учетом введенных выше критериев, будем использовать приближение
Φ(α) = J(α) +Q(α) = |
|
y* −Fα |
|
|
|
2 |
+ |
|
α−α |
|
K2 h , |
(4.1.2) |
|
|
|
|
|
||||||||
|
|
|
|
Wy |
|
|
||||||
|
|
|
|
|
|
|
|
|
|
где J(α) – взвешенный с матрицей Wy частный критерий среднего квадрата ошибок измерений выхода объекта и выбора модели; Q(α) – частный
|
|
|
|
|
α0 |
−α |
j |
|
критерий |
качества модели объекта-аналога; |
Kh =(diag(K( |
j |
|
), |
|||
|
h |
|
||||||
|
|
|
|
|
|
|
|
|
j = |
|
) – |
диагональная матрица весовых функций, h – управляющий |
|||||
1,m |
параметр.
Следует отметить, что аналогом данных весовых функций являются ядра в непараметрических оценках плотности распределения вероятностей и регрессии, приведенных в приложении 3.
Задача определения параметров α с учетом критерия (4.1.2) сводится к задаче оптимизации вида
α*(h) =arg min Φ(α). (4.1.3)
α
Для решения задачи (4.1.3) необходимо взять производные от функционала Φ(α) по параметрам α, используя формулы для производ-
ных по векторному аргументу, приведенные в приложении, и приравнять их к нулю:
∂∂Φα = αΦ= −2FT Wy (y* −Fα) −2Kh (α−α) = 0.
50