Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Идентификация и диагностика систем

.pdf
Скачиваний:
262
Добавлен:
05.06.2015
Размер:
1.19 Mб
Скачать

ε 0 lim P[β b ε]= 0;

N →∞

3. оценка будет эффективной, если β имеет наименьшую дисперсию по сравнению с любыми другими оценками γ данного параметра:

cov[β] = M[{β b}{β b}T ] M[{γ b}{γ b}T ] = cov[γ ].

4.оценка является достаточной, если для всех остальных оценок

γусловная плотность вероятности P(γ / β) не зависит от b.

Для того, чтобы полученные оценки β обладали желательными свойствами, делаются следующие допущения о случайных ошибках

ε :

1. ошибки εi , i =1,2...N являются случайными величинами;

2. математическое ожидание ошибок εi , i =1,2...N равно нулю:

M [ε]= 0 ;

3. дисперсия ошибок εi , i =1,2...N постоянна D[εi ]=σ 2 ; 4. различные значения εi независимы друг от друга:

0,

при

i j

cov(εi ,ε j ) =

, при

i = j.

σ 2

 

 

 

Рассмотрим общую задачу построения процедуры параметрической идентификации линейной модели в случае выборочных измерений непрерывной функции времени.

Пусть выходной сигнал объекта у состоит из аддитивной смеси отклика на входное воздействие u и шума η:

y( j) = y(u,η,b, j)

j =1,2,...N.

(4.1)

Здесь b = [b0 ,b1 ,...bm ]T – вектор параметров объекта размерностью [(m +1) ×1]; j – номер наблюдаемого измерения выходной величины у; N – размер выборки измерений (N m +1).

Будем считать, что сигналы u и у могут быть измерены точно, помеха η характеризуется нулевым математическим ожиданием M [η]= 0 и ковариационной матрицей H:

71

 

M [η ×η

 

]=

M [η(1) η(1)]

...

M [η(k) η(1)]

 

cov[η]=

T

 

...

 

 

= H.

 

 

...

 

 

 

 

 

M [η(1) η(k)]

M [η(k) η(k)]

 

(4.2)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пусть в результате эксперимента имеется выборка измерений

входного

u = [u(1),u(2).......u(N)]T

и

выходного

сигналов

y = [y(1), y(2).......y(N)]T .

Для получения на основе эксперименталь-

ных

данных

 

числовых

оценок

β = β{u(1),u(2),...,u(N), y(1), y(2),..., y(N)}

искомых параметров ис-

пользуется модель, аналогичная (4.1):

 

 

 

 

yM ( j) = yM (u,0, β, j)

j =1,2,...N,

(4.3)

где β = [β0 , β1,...βm ]T -

вектор параметров модели размерностью

[(m +1) ×1].

В дальнейшем, будем рассматривать способы получения оценок параметров линейных моделей, определяемых зависимостью:

m

 

 

yM ( j) = βiui ( j)

j =1,2,...N ,

(4.4)

i=0

 

 

которая в векторной форме принимает вид

 

yM =Uβ ,

 

(4.5)

где матрица U представляет совокупность значений входных воздей-

ствий на объект:

 

 

 

 

 

 

u0 (1)

... um (1)

 

U = ...

 

 

 

.

 

 

(N)

u

 

 

 

u

0

m

(N)

 

 

 

 

 

4.2 Оценивание параметров объектов по методу наименьших квадратов.

Наиболее распространенным методом оценивания параметров, служащим базовым подходом к параметрической идентификации, является метод наименьших квадратов, который в предположении ли-

72

нейности и дискретности во времени объекта приводит к наиболее простым и универсальным решениям. Задача состоит в следующем: по имеющимся выборочным данным наблюдений за входным и выходным сигналами с интервалом дискретизации t требуется оценить значения параметров, обеспечивающих минимум величины функционала невязки между модельными и фактическими данными

N

 

J = ( y Uβ)T ( y Uβ) = eT e = e2 ( j) .

(4.6)

j=1

 

Здесь величина

 

e( j) = y( j) yM ( j), j =1,2...N ,

(4.7)

представляет невязку, определённую как разность между выходом

исследуемого

объекта y = [ y(

t), y(2

t),..y(N t)]T

и реакцией, вы-

численной

по

математической или

физической

модели объекта

yM =[ yM (

t), yM (2 t),..., yM (N

t)]T . Невязка складывается из неточ-

ностей структуры модели, погрешностей измерений и неучтённых взаимодействий среды и объекта. Однако, независимо от происхождения возникающих ошибок, МНК минимизирует сумму квадратичной невязки для дискретных значений.

В принципе, МНК не требует никакой априорной информации о помехе. Но для того, чтобы полученные оценки обладали желательными свойствами, будем предполагать, что помеха является случайным процессом типа белого шума.

Оценка по МНК β* , минимизирующая критерий (4.6), находится из условия существования минимума функционала:

J = min J = J

 

β=β* .

(4.8)

 

β

 

 

 

 

 

 

Важным свойством оценок по МНК является существование только одного локального минимума, совпадающего с глобальным. Поэтому оценка β* является единственной. Ее значение определяется из условия экстремума функционала (4.6):

J

 

= 2U T ( y Uβ* ) = 0 ,

(4.9)

 

β

 

β=β*

 

 

 

 

73

откуда следует соотношение, определяемое систему нормальных уравнений:

U TUβ* =U T y .

(4.10)

В общем случае, если U TU является невырожденной матрицей, оценки β* по методу наименьших квадратов получаются решением

матричного уравнения (4.10):

 

β* = [U TU ]1U T y.

(4.11)

В некоторых случаях, когда матрица U является квадратной матрицей, что имеет место, например, если размер выборки равен числу оцениваемых параметров, или при использовании регрессионного

МНК, и имеет

обратную матрицу, то с учетом соотношения

[U TU ]1U T =U 1,

вектор оценок может быть определен более про-

стым способом

 

 

 

β* =U 1 y .

(4.12)

Во многих случаях функции достаточно общего вида могут быть разложены в ряд по системе ортонормальных функций:

ui (t)u j (t)dt = δij , где δij = 0,

i k - символ Кронекера.

T

 

 

0

1,

i = k

В этом случае U TU = I , где I – единичная матрица, и оценки по МНК в базисе ортонормальных функций получаются проще β* =U T y .

Во многих реальных ситуациях процедура параметрической идентификации производится на основе использования конечного числа экспериментальных данных о значениях входного и выходного сигналов. В этом случае для оценивания параметров объекта целесообразно использовать дискретные формы его описания, например АРСС-модель (2.16), (2.20) или дискретную передаточную функцию (2.18), (2.21). При необходимости, от значений параметров дискретных моделей несложно перейти к параметрам непрерывных описаний.

Будем считать, что процедура структурной идентификации выполнена на предшествующем этапе и порядки числителя и знамена-

74

u(k) = [u(0),u(1),..., (N 1)]T

теля передаточной функции модели n и m однозначно заданы. Пусть измерения выполнены на интервале из (n+N) моментов времени и, следовательно, имеются выборки из N измерений для входного и выходного сигналов: и y(k) = [ y(n), y(n +1),..., y(n + N )]T . На их основе по каждым k экспериментально сделанным измерениям входного и выходного сигналов можно приближенно рассчитать (предсказать) следующее k+1 значение выходной величины. Такое предсказанное значение можно считать его некоторой оценкой, сделанной на основе k предшествующих измерений для последующего k+1 момента времени.

Введем следующие обозначения:

u(k), y(k)- экспериментальные данные для входного и выходного воздействий соответственно, полученные в k-ый момент времени; yˆ(k) - предсказанное значение выходного сигнала в k момент времени, рассчитанное по совокупности k-1 предшествующих измерений.

Запишем АРСС-модель идентифицируемого объекта при заданных порядках n и m. Будем рассматривать объект без запаздывания, т.к. учет запаздывания не вносит принципиальных особенностей в решение задачи и не меняет размерности расширенного вектора данных и вектора параметров модели, а лишь приводит к появлению задержки в управляющем сигнале на целое число d периодов квантования. Для каждого момента k предсказанное значение выходного сигнала yˆ(k) определяется зависимостью:

yˆ(k) = a1 y(k 1) +... + an y(k n) +b1u(k 1) +... +bmu(k m). (4.13)

На основе (4.13) система соотношений для предсказаний для всей временной выборки из N измерений имеет вид:

75

yˆ(n)

 

y(n 1)

...

 

+

 

 

y(n)

...

yˆ(n

1)

 

...

 

 

...

 

 

 

 

 

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

+

 

 

 

 

 

yˆ(n

N)

y(n + N 1) ...

Здесь

 

столбец

ˆT

(k) = [ yˆ(n)

 

Y

y(0)

u(m)

...

u(1)

 

a1

y(1)

u(m +1) ...

u(2)

 

 

...

 

 

 

 

 

 

 

 

 

 

 

 

 

a

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

b

 

 

 

 

 

1

 

 

 

 

 

 

...

y(N) u(m + N ) ..

u(N +

 

 

 

 

1)

bm

 

 

 

 

 

(4.14)

yˆ(n +1) ... yˆ(n + N )] представляет

вектор предсказанных значений выходного сигнала; матрица

 

y(n 1)

y(n 2)

...

y(0)

u(m)

u(m 1)

...

u(1)

 

 

y(n)

y(n 1)

...

y(1)

u(m +1)

u(m)

...

u(2)

 

 

...

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ψ =

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y(n + N 2)

...

y(N )

u(m + N )

u(m + N 1)

...

u(N +

 

y(n + N 1)

1)

(4.15)

представляет определенным образом сформированный массив экспериментальных данных наблюдений за входным и выходным сигналами; β = [a1 ... an b1 ... bm ]T - вектор параметров модели.

В матричной форме соотношение (4.14) имеет вид:

 

ˆ

 

(4.16)

 

Y (k) = Ψ(k)β.

 

Разность между векторами измеренных значений выходного сиг-

нала

Y (k) и предсказанных по модели (4.13)

ˆ

образует ошибку

Y (k)

аппроксимации, состоящую из погрешностей измерений выходного сигнала и неточностей значений параметров модели:

ˆ

(4.17)

e(k, β) =Y (k, β) Y (k, β).

На основе (4.17) формируется функционал среднеквадратичной

ошибки:

 

n+N

 

J (β) = eT (β) e(β) = e2 (k, β).

(4.18)

k =n

76

Так же, как и

 

ранее, из

условия существования

минимума

J (β)

 

= 0

определяется выражение для оценки, минимизирую-

 

β

 

 

β=β*

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

щее функцию ошибки:

 

 

 

 

 

 

 

 

a1

 

 

yˆ(n)

 

 

 

 

 

 

...

 

 

yˆ(n +1)

 

 

 

 

 

 

 

 

 

 

 

...

 

 

 

 

 

a

n

 

=[ΨT Ψ]1

 

 

(4.19)

 

 

 

 

 

 

* ΨT

 

,

 

 

 

 

b

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

...

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

bm

 

yˆ(n + N)

 

которое в матричной форме имеет вид:

 

 

 

 

 

 

 

 

 

 

β =[ΨT Ψ]1 * ΨTY.

(4.20)

Полученные выражения (4.19) или (4.20) представляют в явной форме оценку параметров модели методом наименьших квадратов на основе обработки результатов измерений по полной выборке, когда сначала собирается весь объем исходных экспериментальных данных, после чего производится ретроспективная процедура идентификации.

Следует отметить, что изложенный подход обладает существенными недостатками. Во-первых, необходимо проведение сложных вычислительных операций (например, выполнение процедуры обращения многомерных матриц), требующих большого объема оперативной памяти ЭВМ. Во-вторых, невозможно оперативно обрабатывать исходные данные по мере их поступления.

Вследствие этого, получили широкое применение рекуррентные вычислительные схемы [19, 39, 57, 58, 71], свободные от указанных недостатков. Сущность рекуррентных процедур состоит в получении оценки вектора параметров βˆ(k +1) на каждом k+1-м шаге путем корректировки оценки на предыдущем k-м шаге. Построение текущей оценки производится на основании k+1 наблюдений и результатов вычисления оценки βˆ(k) на предыдущем шаге схемы [19, 35, 39]:

77

β(k +1) = β(k) +γ(k)[ y(k +1) U (k +1)βˆ(k)],

(4.21)

где U (k +1), y(k +1) - вновь поступающие данные, соответствующие k+1-му наблюдению входного и выходного сигналов; γ(k) - вектор коррекции предыдущей оценки на основании текущих данных, вычисляемый следующим образом:

γ(k) =

P(k) U T (k +1)

,

(4.22)

I +U (k +1)P(k) U T (k +1)

где I - единичная матрица соответствующей размерности. Вспомогательный вектор P(k) , содержащий текущие значения

входного сигнала, должен быть рассчитан заранее для подготовки к каждому очередному шагу в соответствии с соотношением:

P(k +1) = [I γ(k)U (k +1)]P(k).

(4.23)

Размерность P(k) не зависит от размера выборки и номера наблюдения и равна [n ×n] или [(n + m) ×(n + m)] при использовании модели (4.5) или (4.16) соответственно.

При использовании АРСС-модели вектор или матрица исходных данных U заменяется на матрицу входо-выходных данных (4.15), и соответствующие формулы рекуррентного МНК приобретают вид:

 

 

 

(4.24)

β(k +1)

= β(k) +γ(k)[y(k +1) − Ψ(k +1)βˆ(k)],

γ(k) =

P(k) ΨT (k +1)

,

(4.25)

I + Ψ(k +1)P(k) ΨT (k +1)

P(k +1) =[I γ(k)Ψ(k +1)]P(k).

 

(4.26)

Конструктивная реализация рекуррентного алгоритма вычисления вектора параметров на основе МНК сводится к следующим этапам.

Задаются начальные приближения вектора оценок β(0) и вспомогательного вектора P(0). Начальные значения могут быть рассчитаны для некоторого l номера наблюдений на основе стандартной процедуры МНК:

P(l) =[UlTUl ]1; β(l) = P(l)UlT yl ,

78

где Ul , yl - выборка из l экспериментальных данных входного и выходного сигналов. Можно выбрать β(0) произвольно, или используя имеющуюся априорную информацию. Например, можно использовать следующие значения:

β(0) = 0; P(0) =αI,

где α >>1- достаточно большое число.

1.На очередном цикле измерений производится регистрация входного и выходного сигналов и формируется новый вектор данных

U T (k +1), y(k +1) или Ψ(k +1) .

2.Вычисляется вектор коррекции γ(k) предыдущей оценки с учетом вновь поступивших данных по формуле (4.22) или (4.25).

3.Определяется вектор новых оценок параметров β(k +1) по

формуле (4.21) или (4.24).

4. Производится подготовка к следующему циклу, вычисляется вектор P(k +1) по формуле (4.23) или (4.26).

Этапы 1 – 4 повторяются на каждом такте процедуры идентификации.

Рассмотрим применение полученных алгоритмов реализации МНК для решения некоторых типичных задач идентификации объектов управления.

4.3 Использование метода наименьших квадратов в задачах идентификации

4.3.1 Идентификация статического объекта регрессионным МНК.

Исходными данными для задачи идентификации являются конечный ряд экспериментальных значений входных величин объекта xi и соответствующие значения выходных переменных y j . Математиче-

ская модель функциональной связи между входными и выходными переменными задается в виде уравнения регрессии [21, 23]:

yM = f (x),

(4.27)

79

где f (x) - некоторая аналитическая зависимость, в качестве которой наиболее часто применяются степенные полиномы:

y

M

= a

0

+ a x + a

2

x2 +... + a

m

xm .

(4.28)

 

 

1

 

 

 

 

Задача идентификации ставится как нахождение таких оценок

неизвестных параметров

ai , i = 0,1,...m,

при которых заданная урав-

нением (4.28) аналитическая зависимость будет наилучшим образом аппроксимировать экспериментальные данные.

В качестве критерия близости используется минимум квадратичной невязки J значений фактических переменных y j и модельных,

рассчитанных по уравнению регрессии (4.28):

 

N

N

(y j yM

j )2 =

J (ai ) = e2j

=

 

j =1

j =1

 

 

 

N

 

 

 

2 +... + am x j m ))2 min , (4.29)

= ( y j (a0

+ a1x j + a2 x j

j =1

где y j – экспериментальное значение выходной переменной, полученное в j-ый момент времени; yM j – модельное (расчётное) значение

в тот же момент времени.

Для нахождения коэффициентов регрессии составляют уравнения наличия экстремума по каждому параметру ai :

J

= 0, i = 0,1,...m.

(4.30)

a

 

 

i

 

 

Совокупность соотношений (4.30) образует систему уравнений относительно оценок m+1 коэффициентов уравнения регрессии (4.28), решение которой определяет искомые коэффициенты.

Для выбора полинома используются общие графические представления о характере экспериментальной зависимости (4.27), а также дополнительные косвенные соображения. Однако, универсальные методики обоснования выбора вида и порядка полинома m отсутствуют.

Пример 4.1 Проиллюстрируем применение метода для решения задачи идентификации в случае аппроксимации опытных данных

80