Скачиваний:
1
Добавлен:
18.07.2023
Размер:
3.44 Mб
Скачать

где αk – векторы столбцы дополнительных априорных данных, полученных с s1 объектов-аналогов с ошибками ηk ; yl – векторы столбцы дополнительных априорных данных с s2 объектов-аналогов, заданных с ошибками νk ; F – конечно-разностный оператор; yti = y(t i), xtj = x(t j) – начальные условия; Г1k , Г2l – индикаторные диагональные матрицы

вида (1.4.8).

3. Линейные непараметрические интегрированные системы моде-

лей. Линейные непараметрические интегрированные системы моделей основаны на линейных статических либо динамических моделях объекта и на непараметрических статических либо динамических моделях объектов-аналогов.

В качестве примера линейной непараметрической статической интегрированной системы моделей, в которой дополнительная априорная информации о параметрах модели и выходе объекта представлена классами непараметрических моделей, приведем уравнения:

 

*

= +ξ;

 

y

 

 

α = f1 (α) + η;

(1.4.13)

 

 

 

 

y = f2 (y) + ν,

 

где f1 , f2 –неизвестные, однозначные, ограниченные функции. Данная интегрированная система моделей является естественным

представлением моделей дополнительных априорных данных, поскольку часто не удается найти подходящее конечномерное параметрическое описание связи исследуемых объектов и объектов-аналогов.

4. Нелинейные непараметрические интегрированные системы мо-

делей. Нелинейные непараметрические интегрированные системы моделей основаны на нелинейных статических либо динамических моделях объекта и на непараметрических статических либо динамических моделях объектов-аналогов.

В качестве примера нелинейной непараметрической статической интегрированной системы моделей, по аналогии с (28), рассмотрим уравнения:

 

*

= f (x,α) +ξ;

 

y

 

 

α = f1 (α) + η;

(1.4.14)

 

 

 

 

y = f2 (y) + ν,

 

где f (x,α) – известная нелинейная функция регрессии.

21

5. Непараметрические интегрированные системы моделей. Непа-

раметрические интегрированные системы моделей основаны на непараметрических статических либо динамических моделях объекта и на непараметрических статических либо динамических моделях априорной информации. Непараметрическую статическую стохастическую систему с одним объектом-аналогом (модель двух черных ящиков) можно представить в виде:

y* = f1

(x) + ξ;

(1.4.15)

 

2 (x) + η,

Гy = f

 

где f1 , f2 – неизвестные однозначные функции; Г– известная индика-

торная матрица.

Данная интегрированная система моделей часто используется в случаях, когда объект слабо изучен либо достаточно сложный для его параметрического описания. С другой стороны и дополнительную априорную информацию о выходе объекта не удается представить в виде конечномерного параметрического описания. Классические методы непараметрического оценивания функций приведены в приложении 3.

1.5. Структураинтегрированнойсистемыидентификации

Под интегрированной системой идентификации понимается система разработки (проектирования) оптимальной, в смысле заданных критериев качества, интегрированной системы моделей. Структура интегрированной системы идентификации представлена на рис. 1.4.

Интегрированнаясистема идентификации

Интегрированная

 

Критериикачества

 

Алгоритмыадаптации(решение

системамоделей

 

иоптимальности

 

оптимизационныхзадач)

 

 

 

 

 

Рис. 1.4

Интегрированные системы моделей достаточно подробно изложены в предыдущем разделе, поэтому ниже рассматриваются только критерии качества и оптимальности интегрированных систем моделей и алгоритмы адаптации.

Критерии качества и оптимальности. Комбинированные крите-

рии качества интегрированной системы моделей, состоящие из комбинации частных критериев, предназначены для объединения (слияния) моделей объекта и моделей объектов-аналогов.

22

Частные критерии качества представляют меры близости измеренных значений выходных переменных исследуемого объекта и объектованалогов к их соответствующим значениям, полученным на основе моделей.

Вслучае одной выходной переменной для оценки близости объекта

иего модели, оценки близости дополнительных априорных данных их

моделям вводится функция (функционал) потерь r(U,V ) , обладающая свойствами расстояния:

1.r(U ,V ) > 0; U V.

2.r(U ,V ) = 0; U =V.

3.r(U ,V ) r(U , Z ) + r(Z,V ); U ,V , Z.

Например, средние потери от отклонения модели объекта y(t) от

соответствующих отклонений выхода объекта y* (t)

на интервале [0, T ]

будут равны

1

 

 

 

 

 

T

*

 

 

Q(α) =

 

r( y

 

(t), y(t))dt,

(1.5.1)

T

 

 

0

 

 

 

где y(t) = f (x(t),α) ; r – функция потерь.

В данном случае задача оптимизации заключается в определении вектора параметров α* модели объекта, который бы минимизировал средние потери

α* = arg min Q(α),

(1.5.2)

α Rm

 

гдеarg min Q(α) означаетточкуминимумафункционаласреднихпотерьQ(α).

α Rm

Сформулированный критерий оптимальности переводит процедуру определения параметров функции в задачу оптимизации. Функционал средних потерь часто называют критерием качества модели объекта либо просто критерием качества.

Предполагая аддитивный характер ошибок измерения выхода объекта

yi* = f (xi ,α) + ξi , i =1,n ,

функционал качества часто выбирают в виде

n

 

 

n

 

 

 

 

 

Q(α) = r( yi* f (xi ,α)) = ri ).

(1.5.3)

i=1

 

 

i=1

 

 

 

 

 

Выбор функции потерь r определяется вероятностно-статистическими

характеристиками случайных

ошибок

(помех)

ξi ,

i =

 

Например,

1,n

при независимости и нормальности ошибок ξi ,

i =

 

, имеющими ог-

1, n

раниченную дисперсию σi2

= σ < ∞,

i =

 

,

оптимальной является

1, n

 

23

 

 

 

 

 

 

 

 

функция потерь ri ) = ξi2 , i =1, n [15, 22], и критерий качества (1.5.3) переходит в широко используемый квадратичный критерий

n 2

Q(α) = ξi2 = y* f (x,α) = ξT ξ, (1.5.4)

i=1

где y* – вектор измеренных значений выхода объекта; f (x,α) – векторстолбец значений выхода объекта, полученный на основе модели объек-

та в точках; x – норма вектора x.

Часто используется взвешенный с весами wij , i, j =1,n квадратичный функционал качества

Q(α) =

 

 

 

y* f (x,α)

 

 

 

2 = (y* f (x,α))T Wy (y* f (x,α)) ,

(1.5.5)

 

 

 

 

 

 

 

 

 

 

 

 

Wy

 

где матрица Wy = (wij ,i, j =1,n) определяется статистическими характеристиками вектора случайных величин y*.

Если распределение плотности вероятности величины ξi , i =1,n

равно распределению Лапласа f (x) = σ2 exp(

 

x

 

/ 2σ2 ) ,

то оптималь-

 

 

ным является критерий качества [21]

 

n

 

Q(α) =

yi* f (xi ,α)

.

(1.5.6)

i=1

 

 

 

Частные критерии качества объектов-аналогов формируем по аналогии с рассмотренными функционалами качества. Например, для линейной интегрированной системы моделей с учетом априорной информации о выходе объекта и параметрах модели объекта

y* = + ξ;

α = + η1 ; (1.5.7)

y = Hy + η2 ,

частные квадратичные критерии качества объектов-аналогов равны

J1(α) =

 

α

 

2 , J2 (α) =

 

 

 

y Hy

 

 

 

2 .

(1.5.8)

 

 

 

 

 

 

При использовании данных критериев качества предполагается, что векторы ошибок задания дополнительных априорных данных η1 и η2 распределены по нормальному закону.

При наличии априорной информации о статистических характеристиках ошибок η1, η2 следует использовать взвешенные критерии вида

J1

(α) =

 

α

 

2W

, J2

(α) =

 

 

 

y Hy

 

 

 

W ,

(1.5.9)

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

y

 

24

где Wα , Wy – матрицы, связанные со статистическими характеристиками случайных величин α, y .

В качестве критерия качества интегрированной системы моделей будем использовать взвешенные частные критерии качества вида:

m

 

Φ(α) = Q(α) + βj J j (α) ,

(1.5.10)

j=1

 

где Q(α) – частный критерий качества модели исследуемого объекта; J j (α) – частные критерии качества моделей объектов-аналогов; βj

управляющие переменные, определяющие вес дополнительных априорных данных.

Следует отметить, что решение разнообразных задач обработки экспериментальных данных, идентификации, оптимизации и управления связано с использованием взвешенных критериев качества вида (1.5.10). Например, при решении задач оптимизации функций при наличии ограничений функционал типа Φ(α) называют функцией Лагранжа, а управляющие переменные βj имеют смысл множителей Лагранжа [19–20].

При решении обратных некорректно поставленных задач [19] функционал Φ(α) имеет смысл регуляризирующего (сглаживающего)

критерия, а частные функционалы J j , j =1,m имеют смысл стабилизи-

рующих функционалов, связанных с «гладкостью» искомого решения. Так, например, при определении ИПФ k(t) интегрального уравнения (1.2.8) в качестве стабилизирующего функционала используют [19]

T

dk(t)

2

J =

dt

 

dt.

0

 

 

 

Новым в приведенной структуре взвешенного функционала (1.5.10) является наличие механизма, позволяющего учитывать разнородную дополнительную априорную информацию.

Оптимальная структура интегрированной системы моделей определяется критерием вида

 

 

 

 

 

α* (β* ), f * ,

 

* = arg

min

 

 

Φ(α, f ,

 

,β) ,

 

 

f

f

(1.5.11)

 

 

 

 

 

 

 

 

α Rm , f F , f F ,β Rm

 

где f *

и

 

* представляют оптимальные функции из множества функ-

f

ций F,

 

 

, используемых, соответственно,

в качестве моделей иссле-

F

дуемого объекта и моделей объектов-аналогов; α* (β* ) – оптимальные

параметры модели объекта; β* – оптимальные значения управляющих параметров.

25

Получение оптимальной структуры интегрированной системы моделей (1.5.11) представляет достаточно сложную задачу проектирования, которую, как правило, решают последовательно:

1. При заданной структуре моделей исследуемого объекта и объек- тов-аналогов получают оптимальные оценки неизвестных параметров

α* (β) = arg min Φ(α, f ,

 

,β).

(1.5.12)

f

α Rm

 

2. Определяют оптимальные значения управляющих параметров

β* = arg min Φ(α, f ,

 

,β).

(1.5.13)

f

β R

 

3. Определяют оптимальные модели объекта и оптимальные модели объектов-аналогов

f *,

 

* = arg min

 

Φ(α*, f ,

 

,β* ).

 

f

(1.5.14)

 

f

 

 

f F , f F

 

26

Глава2 ЛИНЕЙНЫЕИНТЕГРИРОВАННЫЕСИСТЕМЫИДЕНТИФИКАЦИИ

2.1. Линейныеинтегрированныесистемыидентификациисучетом априорнойинформацииопараметрахмоделиобъекта

Фундаментальной проблемой, лежащей в основе решения многих практических задач, является создание интегрированной системы идентификации на основе линейных статических либо динамических интегрированных систем моделей с учетом дополнительной априорной информации. Остановимся на рассмотрении линейной статической стохастической интегрированной системы моделей с учетом дополнительной априорной информации вида:

 

 

 

 

 

 

 

 

 

y* = +ξ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= + η,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f

(x

 

),

 

 

 

f

2

(x

 

 

),

 

 

, f

m

(x

)

 

 

 

 

 

 

 

 

1

11

 

 

 

 

 

 

12

 

 

 

 

 

 

 

 

 

1m

 

 

 

 

 

F =

f1(x21),

 

 

f2 (x22 ),

 

 

, fm (x2m )

 

 

(2.1.1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f

(x

 

),

 

 

f

2

(x

2

),

 

 

, f

m

(x

)

 

 

 

 

 

 

 

 

1

n1

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

nm

 

 

 

 

 

y

*

 

 

 

 

α1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ξ1

 

 

 

η1

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

y* = y2*

,

α =

α2

,

 

 

 

=

 

α

2

 

,

ξ =

ξ2

, η=

η2

,

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

αm

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ξ

 

 

 

 

ηm

 

 

 

*

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

yn

 

 

 

 

 

 

 

 

 

 

 

 

 

αm

 

 

 

 

 

 

 

 

 

 

где F – матрица значений известных функций f (x) = ( f1 (x), f2 (x ),..., fm (x )) ,

вычисленных в точках xi ,i =1,n (предполагаем, что входные переменные объекта измеряются точно); y* = ( y1* , y2* ,, yn* )T – вектор измеренных значений выхода объекта; α – вектор неизвестных значений параметров; α = (α1, α2 ,, αm )T – вектор значений априорной дополнительной информации о параметрах модели объекта; R = (rij ,i, j =1, m) – из-

вестная квадратная матрица; ξ, η – векторы случайных величин, представляющие ошибки измерения выхода объекта и ошибки задания априорной информации; Т символ транспонирования.

Проектирование оптимальной структуры интегрированной системы моделей сводится к выбору критерия качества и синтезу алгоритмов адаптации, которые в данном случае заключаются в решении оптимизационных задач по определению вектора неизвестных параметров

α= 12 ,m )T .

27

Рассмотрим решение оптимизационной задачи с использованием частных квадратичных критериев качества, принимая в качестве оценки параметров α величину:

α* (β) = arg min (Φ = J +Q =

 

y* F α

 

2

+β

 

 

 

α

 

 

 

2W ) , (2.1.2)

 

 

 

 

 

 

α

 

 

 

Wy

 

 

 

 

 

 

 

 

α

где Ф – комбинированный взвешенный критерий качества интегрированной системы идентификации; J,Q – частные критерии качества модели исследуемого объекта и модели объекта-аналога; Wy и Wα – не-

которые неотрицательно определенные матрицы, β – управляющий параметр. Отметим, что задачу определения параметров α часто называют обратной задачей.

Для решения задачи (2.1.2) необходимо взять производные по параметрам α, используя формулы для производных по векторному аргументу, приведенные в приложении 1 и приравнять их к нулю:

Φα = αΦ = −2FT Wy (y* ) 2RT Wα (α) = 0.

В результате получаем систему линейных алгебраических уравнений

(FT W

F +βRT W R)α = (FT W

y* +βRT W α)

(2.1.3)

y

α

y

α

 

относительно вектора неизвестных параметров α.

Решение системы уравнений (2.1.3) можно представит в виде

α*(β) =(FTWy F+βRTWαR)1(FTWy y* +βRTWαα).

(2.1.4)

Следует отметить, что при использовании квадратичных критериев качества, оптимизационная задача (2.1.2) имеет аналитическое решение.

Линейные интегрированные системы идентификации в зависимости от выбора матриц R , Wy , Wα , вектора α и управляющего парамет-

ра β, с учетом имеющейся априорной информации, порождают достаточно широкий спектр алгоритмов идентификации. Приведем соответствующие примеры:

1.Обобщенные оценки метода наименьших квадратов (МНК). При

β= 0 из (2.1.4) следуют обобщенные оценки наименьших квадратов [1–4]:

α* = (FT Wy F)1 FT Wy y* ,

(2.1.5)

где под матрицей Wy = Vξ1 = (cov(ξi ξ j ),i, j =

 

)1

понимается обратная

1, n

корреляционная матрица случайных величин ξi ,i =1, n с нулевыми математическими ожиданиями ( Mξi = 0,i =1, n ).

28

При Wξ = I (где I – единичная матрица) и β = 0 из (2.1.4) следуют

оценки метода наименьших квадратов

 

α* = (FT F)1 FT y* .

(2.1.6)

2. Регуляризированные по Тихонову алгоритмы и Ridge-приближения.

Пусть в R = Wy = Wα = I и α= 0. Тогда оценка (2.1.4) совпадает с регу-

ляризированной по Тихонову оценкой

 

α* (β) = (FT F +βI)1 FT y*

(2.1.7)

для решения систем линейных уравнений (FTF)α = (FTy* ), полученной

при решении оптимизационной задачи вида

 

Φ = y* FTα 2 + β α 2 ,

(2.1.8)

где величина β α 2 играет роль стабилизирующего функционала, кото-

рый представляет уклонение решения от начала координат и позволяет получить устойчивые решения задачи идентификации линейных сис-

тем при вырожденной матрице FT F . Следует также отметить, что функционал (2.1.8) является частным случаем функционала для интегрированной системы моделей (2.1.1) в случае равенства нулю дополнительных данных о векторе оцениваемых параметров объекта. Оценка (2.1.7) получила название гребневой Ridge-оценки параметров линейной регрессии [15].

3. Байесовские оценки параметров линейных систем. ПриWy = Vξ1,

Wα = Vα1, R = Ι, α = M α, β =1, где Vα1 – обратная корреляционная мат-

рица априорного распределения случайного вектора параметров α оценка (2.1.4) примет вид

α* = (FT Vξ1F + Vα1 )1 (FT Vξ1y* + Vα1 M α) .

(2.1.9)

Приближение (2.1.9) представляет Байесовскую оценку параметров линейной регрессии, полученных методом максимума апостериорной вероятности приведенного в приложении 3, где в качестве априорной информации используются данные о среднем значении α= Mα случайного параметра α, распределенного по нормальному закону с известной корреляционной матрицей Vα.

Следует отметить, что Байесовская оценка параметров регрессии порождается интегрированной стохастической системой моделей вида

 

*

= +ξ,

(2.1.10)

y

 

Mα = α+ η

 

и использованием частных квадратичных критериев качества.

29

4. Алгоритмы метода статистической регуляризации. При R = I ,

Wy = Vξ1, α = M α:

α* (β) = (FT Vξ1F +βWα )1 (FT Vξ1y* +βWα M α) .

(2.1.11)

Приближение (2.1.4) представляет статистически регуляризированную оценку в условиях неполной априорной информации о корреляционной матрице априорного распределения Wα [20].

5. Алгоритмы идентификации при наличии ограничений на пара-

метры. При Wα = I и η = 0 (случайная составляющая в априорных данных отсутствует), оценка (2.1.11) соответствует решению задачи идентификации при наличии ограничений типа равенств α= :

α* (β,α) = (FT Vξ1F +βRT R)1 (FT Vξ1y* +βRTα) .

(2.1.12)

Следует отметить, что при наличии линейных ограничений типа

неравенств (αα)T R(αα) k

оценка параметров α является мини-

максной и имеет вид

 

 

α* (k) = (FT Vξ1F +

1

R)1 FT Vξ1 (y* FT α) + α.

(2.1.13)

k

 

 

 

Рассмотрим интегрированную систему моделей, где априорные сведения о параметрах модели объекта формируются с d объекта-аналога:

 

*

= +ξ

 

 

 

 

y

 

 

 

 

 

 

 

= R

α+ η

 

 

 

(2.1.14)

 

, k =1, d.

α

k

 

k

k

 

 

 

 

Для данной системы в качестве оптимальной оценки вектора неизвестных параметров α будем использовать величину:

α* (β) = arg min (Φ =

 

y* FTα

 

 

 

2

d

 

 

α

 

R

α

 

2 ) .

 

 

 

 

+ ∑ β

 

 

 

 

α

 

 

 

 

 

Wy

k =1

k

 

 

k

k

 

 

W

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

α

Вычисляя соответствующие производные и приравнивая их к нулю, получим систему линейных уравнений

d

d

(FT Wy F + βk RTk WαRk )α = (FT Wy y* + βk Rk Wααk ) (2.1.15)

k=1

k=1

для определения вектора параметров α.

Завершающим этапом адаптации линейной интегрированной системы моделей (2.1.1), (2.1.14) является задача определения оптимальных управляющих параметров

 

 

2W

d

 

 

2W ) . (2.1.16)

β* =arg min(Φ(α*(β )) =

y* F α*(β)

+βk

 

αk Rkα*(β)

β R

 

y

 

 

α

 

 

 

k=1

 

 

 

 

30