
5ый семестр / 8. Системный анализ (complete)_1 / SA / не мое / ТС и СА_гр.447_2019 / Учебные пособия / СЕРГЕЕВ_МАКЕТ
.pdf
где αk – векторы столбцы дополнительных априорных данных, полученных с s1 объектов-аналогов с ошибками ηk ; yl – векторы столбцы дополнительных априорных данных с s2 объектов-аналогов, заданных с ошибками νk ; F – конечно-разностный оператор; yt−i = y(t −i), xt− j = x(t − j) – начальные условия; Г1k , Г2l – индикаторные диагональные матрицы
вида (1.4.8).
3. Линейные непараметрические интегрированные системы моде-
лей. Линейные непараметрические интегрированные системы моделей основаны на линейных статических либо динамических моделях объекта и на непараметрических статических либо динамических моделях объектов-аналогов.
В качестве примера линейной непараметрической статической интегрированной системы моделей, в которой дополнительная априорная информации о параметрах модели и выходе объекта представлена классами непараметрических моделей, приведем уравнения:
|
* |
= Fα+ξ; |
|
y |
|
|
|
α = f1 (α) + η; |
(1.4.13) |
||
|
|
|
|
y = f2 (y) + ν, |
|
где f1 , f2 –неизвестные, однозначные, ограниченные функции. Данная интегрированная система моделей является естественным
представлением моделей дополнительных априорных данных, поскольку часто не удается найти подходящее конечномерное параметрическое описание связи исследуемых объектов и объектов-аналогов.
4. Нелинейные непараметрические интегрированные системы мо-
делей. Нелинейные непараметрические интегрированные системы моделей основаны на нелинейных статических либо динамических моделях объекта и на непараметрических статических либо динамических моделях объектов-аналогов.
В качестве примера нелинейной непараметрической статической интегрированной системы моделей, по аналогии с (28), рассмотрим уравнения:
|
* |
= f (x,α) +ξ; |
|
y |
|
|
|
α = f1 (α) + η; |
(1.4.14) |
||
|
|
|
|
y = f2 (y) + ν, |
|
где f (x,α) – известная нелинейная функция регрессии.
21

5. Непараметрические интегрированные системы моделей. Непа-
раметрические интегрированные системы моделей основаны на непараметрических статических либо динамических моделях объекта и на непараметрических статических либо динамических моделях априорной информации. Непараметрическую статическую стохастическую систему с одним объектом-аналогом (модель двух черных ящиков) можно представить в виде:
y* = f1 |
(x) + ξ; |
(1.4.15) |
|
2 (x) + η, |
|
Гy = f |
|
где f1 , f2 – неизвестные однозначные функции; Г– известная индика-
торная матрица.
Данная интегрированная система моделей часто используется в случаях, когда объект слабо изучен либо достаточно сложный для его параметрического описания. С другой стороны и дополнительную априорную информацию о выходе объекта не удается представить в виде конечномерного параметрического описания. Классические методы непараметрического оценивания функций приведены в приложении 3.
1.5. Структураинтегрированнойсистемыидентификации
Под интегрированной системой идентификации понимается система разработки (проектирования) оптимальной, в смысле заданных критериев качества, интегрированной системы моделей. Структура интегрированной системы идентификации представлена на рис. 1.4.
Интегрированнаясистема идентификации
Интегрированная |
|
Критериикачества |
|
Алгоритмыадаптации(решение |
системамоделей |
|
иоптимальности |
|
оптимизационныхзадач) |
|
|
|
|
|
Рис. 1.4
Интегрированные системы моделей достаточно подробно изложены в предыдущем разделе, поэтому ниже рассматриваются только критерии качества и оптимальности интегрированных систем моделей и алгоритмы адаптации.
Критерии качества и оптимальности. Комбинированные крите-
рии качества интегрированной системы моделей, состоящие из комбинации частных критериев, предназначены для объединения (слияния) моделей объекта и моделей объектов-аналогов.
22

Частные критерии качества представляют меры близости измеренных значений выходных переменных исследуемого объекта и объектованалогов к их соответствующим значениям, полученным на основе моделей.
Вслучае одной выходной переменной для оценки близости объекта
иего модели, оценки близости дополнительных априорных данных их
моделям вводится функция (функционал) потерь r(U,V ) , обладающая свойствами расстояния:
1.r(U ,V ) > 0; U ≠ V.
2.r(U ,V ) = 0; U =V.
3.r(U ,V ) ≤ r(U , Z ) + r(Z,V ); U ,V , Z.
Например, средние потери от отклонения модели объекта y(t) от
соответствующих отклонений выхода объекта y* (t) |
на интервале [0, T ] |
||||
будут равны |
1 |
|
|
|
|
|
T |
* |
|
|
|
Q(α) = |
|
∫ r( y |
|
(t), y(t))dt, |
(1.5.1) |
T |
|
||||
|
0 |
|
|
|
где y(t) = f (x(t),α) ; r – функция потерь.
В данном случае задача оптимизации заключается в определении вектора параметров α* модели объекта, который бы минимизировал средние потери
α* = arg min Q(α), |
(1.5.2) |
α Rm |
|
гдеarg min Q(α) означаетточкуминимумафункционаласреднихпотерьQ(α).
α Rm
Сформулированный критерий оптимальности переводит процедуру определения параметров функции в задачу оптимизации. Функционал средних потерь часто называют критерием качества модели объекта либо просто критерием качества.
Предполагая аддитивный характер ошибок измерения выхода объекта
yi* = f (xi ,α) + ξi , i =1,n ,
функционал качества часто выбирают в виде
n |
|
|
n |
|
|
|
|
|
|
Q(α) = ∑r( yi* − f (xi ,α)) = ∑r(ξi ). |
(1.5.3) |
||||||||
i=1 |
|
|
i=1 |
|
|
|
|
|
|
Выбор функции потерь r определяется вероятностно-статистическими |
|||||||||
характеристиками случайных |
ошибок |
(помех) |
ξi , |
i = |
|
Например, |
|||
1,n |
|||||||||
при независимости и нормальности ошибок ξi , |
i = |
|
, имеющими ог- |
||||||
1, n |
|||||||||
раниченную дисперсию σi2 |
= σ < ∞, |
i = |
|
, |
оптимальной является |
||||
1, n |
|||||||||
|
23 |
|
|
|
|
|
|
|
|

функция потерь r(ξi ) = ξi2 , i =1, n [15, 22], и критерий качества (1.5.3) переходит в широко используемый квадратичный критерий
n 2
Q(α) = ∑ξi2 = y* − f (x,α) = ξT ξ, (1.5.4)
i=1
где y* – вектор измеренных значений выхода объекта; f (x,α) – векторстолбец значений выхода объекта, полученный на основе модели объек-
та в точках; x
– норма вектора x.
Часто используется взвешенный с весами wij , i, j =1,n квадратичный функционал качества
Q(α) = |
|
|
|
y* − f (x,α) |
|
|
|
2 = (y* − f (x,α))T Wy (y* − f (x,α)) , |
(1.5.5) |
|
|
|
|
||||||
|
|
|
|
|
|
|
|
Wy |
|
где матрица Wy = (wij ,i, j =1,n) определяется статистическими характеристиками вектора случайных величин y*.
Если распределение плотности вероятности величины ξi , i =1,n
равно распределению Лапласа f (x) = σ−2 exp(− |
|
x |
|
/ 2σ2 ) , |
то оптималь- |
||
|
|
||||||
ным является критерий качества [21] |
|
||||||
n |
|
||||||
Q(α) = ∑ |
yi* − f (xi ,α) |
. |
(1.5.6) |
||||
i=1 |
|
|
|
Частные критерии качества объектов-аналогов формируем по аналогии с рассмотренными функционалами качества. Например, для линейной интегрированной системы моделей с учетом априорной информации о выходе объекта и параметрах модели объекта
y* = Fα+ ξ;
α = Rα+ η1 ; (1.5.7)
y = Hy + η2 ,
частные квадратичные критерии качества объектов-аналогов равны
J1(α) = |
|
α− Rα |
|
2 , J2 (α) = |
|
|
|
y −Hy |
|
|
|
2 . |
(1.5.8) |
|
|
|
|
|
|
При использовании данных критериев качества предполагается, что векторы ошибок задания дополнительных априорных данных η1 и η2 распределены по нормальному закону.
При наличии априорной информации о статистических характеристиках ошибок η1, η2 следует использовать взвешенные критерии вида
J1 |
(α) = |
|
α− Rα |
|
2W |
, J2 |
(α) = |
|
|
|
y − Hy |
|
|
|
W , |
(1.5.9) |
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
α |
|
|
|
|
|
|
|
|
|
y |
|
24

где Wα , Wy – матрицы, связанные со статистическими характеристиками случайных величин α, y .
В качестве критерия качества интегрированной системы моделей будем использовать взвешенные частные критерии качества вида:
m |
|
Φ(α) = Q(α) + ∑βj J j (α) , |
(1.5.10) |
j=1 |
|
где Q(α) – частный критерий качества модели исследуемого объекта; J j (α) – частные критерии качества моделей объектов-аналогов; βj –
управляющие переменные, определяющие вес дополнительных априорных данных.
Следует отметить, что решение разнообразных задач обработки экспериментальных данных, идентификации, оптимизации и управления связано с использованием взвешенных критериев качества вида (1.5.10). Например, при решении задач оптимизации функций при наличии ограничений функционал типа Φ(α) называют функцией Лагранжа, а управляющие переменные βj имеют смысл множителей Лагранжа [19–20].
При решении обратных некорректно поставленных задач [19] функционал Φ(α) имеет смысл регуляризирующего (сглаживающего)
критерия, а частные функционалы J j , j =1,m имеют смысл стабилизи-
рующих функционалов, связанных с «гладкостью» искомого решения. Так, например, при определении ИПФ k(t) интегрального уравнения (1.2.8) в качестве стабилизирующего функционала используют [19]
T |
dk(t) |
2 |
||
J = ∫ |
dt |
|
dt. |
|
0 |
|
|
|
Новым в приведенной структуре взвешенного функционала (1.5.10) является наличие механизма, позволяющего учитывать разнородную дополнительную априорную информацию.
Оптимальная структура интегрированной системы моделей определяется критерием вида
|
|
|
|
|
α* (β* ), f * , |
|
* = arg |
min |
|
|
Φ(α, f , |
|
,β) , |
|
|
f |
f |
(1.5.11) |
|||||||||||
|
|
|
|
|
|
|
|
α Rm , f F , f F ,β Rm |
|
|||||
где f * |
и |
|
* представляют оптимальные функции из множества функ- |
|||||||||||
f |
||||||||||||||
ций F, |
|
|
, используемых, соответственно, |
в качестве моделей иссле- |
||||||||||
F |
дуемого объекта и моделей объектов-аналогов; α* (β* ) – оптимальные
параметры модели объекта; β* – оптимальные значения управляющих параметров.
25
Получение оптимальной структуры интегрированной системы моделей (1.5.11) представляет достаточно сложную задачу проектирования, которую, как правило, решают последовательно:
1. При заданной структуре моделей исследуемого объекта и объек- тов-аналогов получают оптимальные оценки неизвестных параметров
α* (β) = arg min Φ(α, f , |
|
,β). |
(1.5.12) |
f |
|||
α Rm |
|
2. Определяют оптимальные значения управляющих параметров
β* = arg min Φ(α, f , |
|
,β). |
(1.5.13) |
f |
|||
β R |
|
3. Определяют оптимальные модели объекта и оптимальные модели объектов-аналогов
f *, |
|
* = arg min |
|
Φ(α*, f , |
|
,β* ). |
|
|
f |
(1.5.14) |
|||||||
|
f |
|||||||
|
|
f F , f F |
|
26

Глава2 ЛИНЕЙНЫЕИНТЕГРИРОВАННЫЕСИСТЕМЫИДЕНТИФИКАЦИИ
2.1. Линейныеинтегрированныесистемыидентификациисучетом априорнойинформацииопараметрахмоделиобъекта
Фундаментальной проблемой, лежащей в основе решения многих практических задач, является создание интегрированной системы идентификации на основе линейных статических либо динамических интегрированных систем моделей с учетом дополнительной априорной информации. Остановимся на рассмотрении линейной статической стохастической интегрированной системы моделей с учетом дополнительной априорной информации вида:
|
|
|
|
|
|
|
|
|
y* = Fα+ξ, |
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
= Rα+ η, |
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
α |
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
f |
(x |
|
), |
|
|
|
f |
2 |
(x |
|
|
), |
|
|
, f |
m |
(x |
) |
|
|
|
|||||||||
|
|
|
|
|
1 |
11 |
|
|
|
|
|
|
12 |
|
|
|
|
|
|
|
|
|
1m |
|
|
|
|
|||||||
|
F = |
f1(x21), |
|
|
f2 (x22 ), |
|
|
, fm (x2m ) |
|
|
(2.1.1) |
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
f |
(x |
|
), |
|
|
f |
2 |
(x |
2 |
), |
|
|
, f |
m |
(x |
) |
|
|
|
||||||||||
|
|
|
|
|
1 |
n1 |
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
nm |
|
|
|
|
|||||||
|
y |
* |
|
|
|
|
α1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ξ1 |
|
|
|
η1 |
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
||||||||||||||||||||
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
α |
|
|
|
|
|
|
|
|
|||||||||||
y* = y2* |
, |
α = |
α2 |
, |
|
|
|
= |
|
α |
2 |
|
, |
ξ = |
ξ2 |
, η= |
η2 |
, |
||||||||||||||||
α |
||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
αm |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ξ |
|
|
|
|
ηm |
|
|||||
|
|
* |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
yn |
|
|
|
|
|
|
|
|
|
|
|
|
|
αm |
|
|
|
|
|
|
|
|
|
|
где F – матрица значений известных функций f (x) = ( f1 (x), f2 (x ),..., fm (x )) ,
вычисленных в точках xi ,i =1,n (предполагаем, что входные переменные объекта измеряются точно); y* = ( y1* , y2* ,…, yn* )T – вектор измеренных значений выхода объекта; α – вектор неизвестных значений параметров; α = (α1, α2 ,…, αm )T – вектор значений априорной дополнительной информации о параметрах модели объекта; R = (rij ,i, j =1, m) – из-
вестная квадратная матрица; ξ, η – векторы случайных величин, представляющие ошибки измерения выхода объекта и ошибки задания априорной информации; Т – символ транспонирования.
Проектирование оптимальной структуры интегрированной системы моделей сводится к выбору критерия качества и синтезу алгоритмов адаптации, которые в данном случае заключаются в решении оптимизационных задач по определению вектора неизвестных параметров
α= (α1,α2 ,…,αm )T .
27

Рассмотрим решение оптимизационной задачи с использованием частных квадратичных критериев качества, принимая в качестве оценки параметров α величину:
α* (β) = arg min (Φ = J +Q = |
|
y* −F α |
|
2 |
+β |
|
|
|
α− Rα |
|
|
|
2W ) , (2.1.2) |
|
|
|
|
|
|
||||||||
α |
|
|
|
Wy |
|
|
|
|
|
|
|
|
α |
где Ф – комбинированный взвешенный критерий качества интегрированной системы идентификации; J,Q – частные критерии качества модели исследуемого объекта и модели объекта-аналога; Wy и Wα – не-
которые неотрицательно определенные матрицы, β – управляющий параметр. Отметим, что задачу определения параметров α часто называют обратной задачей.
Для решения задачи (2.1.2) необходимо взять производные по параметрам α, используя формулы для производных по векторному аргументу, приведенные в приложении 1 и приравнять их к нулю:
∂∂Φα = αΦ = −2FT Wy (y* −Fα) −2RT Wα (α− −Rα) = 0.
В результате получаем систему линейных алгебраических уравнений
(FT W |
F +βRT W R)α = (FT W |
y* +βRT W α) |
(2.1.3) |
|
y |
α |
y |
α |
|
относительно вектора неизвестных параметров α.
Решение системы уравнений (2.1.3) можно представит в виде
α*(β) =(FTWy F+βRTWαR)−1(FTWy y* +βRTWαα). |
(2.1.4) |
Следует отметить, что при использовании квадратичных критериев качества, оптимизационная задача (2.1.2) имеет аналитическое решение.
Линейные интегрированные системы идентификации в зависимости от выбора матриц R , Wy , Wα , вектора α и управляющего парамет-
ра β, с учетом имеющейся априорной информации, порождают достаточно широкий спектр алгоритмов идентификации. Приведем соответствующие примеры:
1.Обобщенные оценки метода наименьших квадратов (МНК). При
β= 0 из (2.1.4) следуют обобщенные оценки наименьших квадратов [1–4]:
α* = (FT Wy F)−1 FT Wy y* , |
(2.1.5) |
||
где под матрицей Wy = Vξ−1 = (cov(ξi ξ j ),i, j = |
|
)−1 |
понимается обратная |
1, n |
корреляционная матрица случайных величин ξi ,i =1, n с нулевыми математическими ожиданиями ( Mξi = 0,i =1, n ).
28

При Wξ = I (где I – единичная матрица) и β = 0 из (2.1.4) следуют
оценки метода наименьших квадратов |
|
α* = (FT F)−1 FT y* . |
(2.1.6) |
2. Регуляризированные по Тихонову алгоритмы и Ridge-приближения.
Пусть в R = Wy = Wα = I и α= 0. Тогда оценка (2.1.4) совпадает с регу-
ляризированной по Тихонову оценкой |
|
α* (β) = (FT F +βI)−1 FT y* |
(2.1.7) |
для решения систем линейных уравнений (FTF)α = (FTy* ), полученной
при решении оптимизационной задачи вида |
|
Φ = y* −FTα 2 + β α 2 , |
(2.1.8) |
где величина β α
2 играет роль стабилизирующего функционала, кото-
рый представляет уклонение решения от начала координат и позволяет получить устойчивые решения задачи идентификации линейных сис-
тем при вырожденной матрице FT F . Следует также отметить, что функционал (2.1.8) является частным случаем функционала для интегрированной системы моделей (2.1.1) в случае равенства нулю дополнительных данных о векторе оцениваемых параметров объекта. Оценка (2.1.7) получила название гребневой Ridge-оценки параметров линейной регрессии [15].
3. Байесовские оценки параметров линейных систем. ПриWy = Vξ−1,
Wα = Vα−1, R = Ι, α = M α, β =1, где Vα−1 – обратная корреляционная мат-
рица априорного распределения случайного вектора параметров α оценка (2.1.4) примет вид
α* = (FT Vξ−1F + Vα−1 )−1 (FT Vξ−1y* + Vα−1 M α) . |
(2.1.9) |
Приближение (2.1.9) представляет Байесовскую оценку параметров линейной регрессии, полученных методом максимума апостериорной вероятности приведенного в приложении 3, где в качестве априорной информации используются данные о среднем значении α= Mα случайного параметра α, распределенного по нормальному закону с известной корреляционной матрицей Vα.
Следует отметить, что Байесовская оценка параметров регрессии порождается интегрированной стохастической системой моделей вида
|
* |
= Fα+ξ, |
(2.1.10) |
y |
|
||
Mα = α+ η |
|
и использованием частных квадратичных критериев качества.
29

4. Алгоритмы метода статистической регуляризации. При R = I ,
Wy = Vξ−1, α = M α:
α* (β) = (FT Vξ−1F +βWα )−1 (FT Vξ−1y* +βWα M α) . |
(2.1.11) |
Приближение (2.1.4) представляет статистически регуляризированную оценку в условиях неполной априорной информации о корреляционной матрице априорного распределения Wα [20].
5. Алгоритмы идентификации при наличии ограничений на пара-
метры. При Wα = I и η = 0 (случайная составляющая в априорных данных отсутствует), оценка (2.1.11) соответствует решению задачи идентификации при наличии ограничений типа равенств α= Rα:
α* (β,α) = (FT Vξ−1F +βRT R)−1 (FT Vξ−1y* +βRTα) . |
(2.1.12) |
|||
Следует отметить, что при наличии линейных ограничений типа |
||||
неравенств (α−α)T R(α−α) ≤ k |
оценка параметров α является мини- |
|||
максной и имеет вид |
|
|
||
α* (k) = (FT Vξ−1F + |
1 |
R)−1 FT Vξ−1 (y* −FT α) + α. |
(2.1.13) |
|
k |
||||
|
|
|
Рассмотрим интегрированную систему моделей, где априорные сведения о параметрах модели объекта формируются с d объекта-аналога:
|
* |
= Fα+ξ |
|
|
|
|
|
y |
|
|
|
|
|
||
|
|
= R |
α+ η |
|
|
|
(2.1.14) |
|
, k =1, d. |
||||||
α |
k |
||||||
|
k |
k |
|
|
|
|
Для данной системы в качестве оптимальной оценки вектора неизвестных параметров α будем использовать величину:
α* (β) = arg min (Φ = |
|
y* −FTα |
|
|
|
2 |
d |
|
|
α |
|
−R |
α |
|
2 ) . |
|
|
|
|
+ ∑ β |
|
|
|
|
|||||||
α |
|
|
|
|
|
Wy |
k =1 |
k |
|
|
k |
k |
|
|
W |
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
α |
Вычисляя соответствующие производные и приравнивая их к нулю, получим систему линейных уравнений
d |
d |
(FT Wy F + ∑ βk RTk WαRk )α = (FT Wy y* + ∑βk Rk Wααk ) (2.1.15) |
|
k=1 |
k=1 |
для определения вектора параметров α.
Завершающим этапом адаптации линейной интегрированной системы моделей (2.1.1), (2.1.14) является задача определения оптимальных управляющих параметров
|
|
2W |
d |
|
|
2W ) . (2.1.16) |
β* =arg min(Φ(α*(β )) = |
y* −F α*(β) |
+∑βk |
|
αk −Rkα*(β) |
||
β R |
|
y |
|
|
α |
|
|
|
|
k=1 |
|
|
|
|
30 |
|
|
|
|
|