Скачиваний:
1
Добавлен:
18.07.2023
Размер:
3.44 Mб
Скачать

Условие 3. Случайные величины ξ и η взаимно независимы

Cov(ξi ηj ) = M (ξi Mξi )(ηj Mηj ) = 0,i =1,n, j =1,m .

Условие 4. Ошибки измерения вектора входных переменных х малы, и их действием можно пренебречь (x* = x + x , где M x =0, D x <<1).

Условие 5. Ранг матрицы планирования FT F равен размерности вектора оцениваемых параметров m, Rank(F) = m. Определитель и собст-

венные числа λj , j =1,m матрицы FT F не равны нулю.

Условие 6. Объем выборки n вектора измерений выхода объекта не меньше числа оцениваемых параметров, n m.

Дополнительно будем считать, что элементы матрицы F и параметры модели исследуемого объекта α – неслучайные величины.

Для упрощения расчетов перейдем от интегрированной системы моделей (5.1.3) к ортонормированной интегрированной системе моделей вида

 

 

*

= +ξ,

 

 

y

 

(5.1.4)

 

γ =

γ+η,

 

 

где WT W = Λ = diag(λ,λ ,...,λ )

 

– диагональная матрица с элементами

1

m

 

 

 

 

на главной диагонали, равными собственным значениям матрицы FT F; W =FPT , γ = ,P – ортогональная матрица ( PT P = I ).

Для модели (5.1.4) при использовании квадратичных критериев качества, по аналогии с рассмотренными во второй главе линейными интегрированными системами идентификации нетрудно получить оценку

вектора параметров γ:

 

γ*(K) =(WT W +K)1(WT y* +Kγ) ,

(5.1.5)

y

 

где K =diag(K1, K2, ..., Km ) – диагональная матрица весовых функций, учитывающих влияние дополнительных априорных сведений γ.

Отметим, что при K = 0 из (5.1.5) следует оценка метода наименьших квадратов γ*(0) =(WT W)1WT y* .

Сформулируем теоремы, определяющие СКОА оценок (5.1.5) и оптимальную структуру весовых функций K =diag(K1, K2, ..., Km ) .

Теорема 1. При выполнении приведенных выше стандартных условий функционирования системы среднеквадратическая ошибка аппрок-

симации оценки (5.1.5) примет вид

 

 

 

 

 

 

 

m

λ σ2

+K 2

η2

+ε2 )

 

 

δγ*(K) =

j

ξ

j

 

 

j

,

(5.1.6)

 

j +K j )

2

 

j=1

 

 

 

 

 

где εj = Mγj γj – величина смещения дополнительных априорных данных γj относительно истинного значения оцениваемого параметра

61

(λ j + K j )2

γj j , j =1,m – собственные значения (числа) матрицы FT F; σξ2 и σ2η

дисперсии случайных величин ξ и η соответственно.

При K =0 из (5.1.6) следует дисперсия оценок метода наименьших квадратов

m σ2

δγ*(0) = Dγ*(0) =ξ , (5.1.7)

j=1 λj

которая является минимально возможной, достигающей нижней границы неравенства Рао-Крамера (см. приложение 5 ) в классе линейных несмещенных оценок.

Для доказательства теоремы 1 достаточно вычислить дисперсию и квадрат смещения оценки γ*(Κ) (5.1.5), которую с учетом усло-

вияWTW = Λ =diag(λ , λ

2

, ..., λ

m

) представим в виде

 

1

 

 

 

 

 

 

 

 

 

 

γ*j (K) =

(WTy*)

j

+(Kγ)

j

 

 

 

 

, j =1,m.

( 5.1.8)

 

 

λj + K j

 

 

 

 

 

 

 

 

 

 

 

Учитывая, что D(WTy*) j =(WT WDy*) j = λjσξ2 , D(K, γ) j = K 2j σ2η, j =1,m , приведем выражение для дисперсии оценок (5.2.8)

 

λ

σ2

+ K 2σ2

 

 

 

*j (K) =

j

ξ

j

η

, j =1,m ,

(5.1.9)

j

+ K j )2

 

 

 

 

 

 

 

где λ j , j =1, m – собственные числа матрицы FTF .

Для определение квадрата смещения оценки (5.1.5) достаточно вычислить величину

(Mγ*

 

)2

 

M(WTy*)

j

+M(Kγ)

 

2

 

 

 

 

(K) γ

 

, j =1,m

(5.1.10)

=

 

 

γ

 

 

 

 

j

j

 

 

λj + K j

 

j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

с учетом, что случайные величины ξ и η имеют нулевые математические ожидания. После несложных преобразований получим

 

K 2

(M (γ

) γ

)2

 

 

(M γ*j γj )2 =

j

j

j

 

.

(5.1.11)

 

j + K j )2

 

 

 

 

 

 

Полагая M (γj ) γj =εj , получим выражение для среднеквадратической оценки аппроксимации

δγ* (K) = λ j σξ

+ K j

(ση j )

,

m

2

2

2 2

 

j=1

что и доказывает теорему 1.

62

Теорема 2. Существуют такие оптимальные значения весовых функций K 0j , j =1,m , при которых выполняется неравенство

K 0j

= arg min

 

K j

δγ* (K0 ) ≤ δγ* (0)

(5.1.12)

σ2

δγ* (K) = ξ , j =1,m. (ση2 2j )

Эффективность оценок параметров интегрированной системы моделей с учетом априорной информации определяется соотношением

 

 

 

 

δγ* (0)

 

 

 

σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ej *j (0), γ* (K 0j )) =

 

j

 

 

=1+

 

 

ξ

 

 

, j =1, m. .

(5.1.13)

δγj (K

0

)

λj

2

 

2

)

 

 

 

 

 

 

η

+εj

 

 

 

 

Из формулы

видно,

что

 

при

определенных

значениях

σξ2, ση2 , ε2j , λj , j =

 

,

оценки

параметров

линейной интегрированной

1,m

модели могут быть эффективнее оценок метода наименьших квадратов. Следует также отметить, что при оптимальных значениях весовых

функций

K 0

 

σξ2

 

 

 

 

 

=

 

, j =1,m

(5.1.14)

η2 +

ε2j )

j

 

 

 

 

 

оценки γ*(K0 ) параметров, полученных на основе использования ин-

тегрированных моделей, не могут ухудшать свойства классических оценок метода наименьших квадратов, они могут их только улучшать.

Доказать теорему 2 нетрудно по следующей схеме: 1. Находим оптимальные значения весовых функций

K 0j

= arg min δγ*j (K j ), j =

1, m

. .

 

K j

2. Находим среднеквадратическую ошибку аппроксимации при оптимальных весовых функциях (5.1.12)

 

 

λ

σ2

+(K 0 )2

2

+ε2 )

 

δ0 γ*

(K 0 ) =

j

ξ

j

 

 

η

j

.

 

 

 

0

)

2

 

j

j

 

 

 

 

 

 

 

 

 

j + K j

 

 

 

3. Находим отношение ошибок

e j =

δ0 (0)

, j =1,m,

δ0 γ*j (K 0j )

где δ0 (0) – СКОА оценок параметров метода наименьших квадратов, δ0 γ*j (K 0j ) – СКОА оценки (5.1.5) при оптимальных весовых функциях.

63

Для иллюстрации поведения среднеквадратической ошибки аппроксимации (5.1.6) рассмотрим в качестве примера простую интегрированную систему моделей вида:

 

 

*

= γ+ξ,

 

y

 

(5.1.15)

 

γ

= γ + ε + η,

 

 

 

 

 

где полагаем, что дисперсия ошибок измерения выхода объекта равна единице ( σξ2 = 1), дисперсия ошибок задания дополнительной информа-

ции о параметре объекта γ равна σ2η =0,3 ; квадрат смещения значения

дополнительной информации о параметре модели исследуемого объекта γ относительно оцениваемого значения γ равен ε2 =0,25 ; объем измере-

ний выхода объекта равен двум (n = 2) – для зависимостей, представленных на рис. 5.1. Для зависимостей, представленных на рис. 5.2, объем измерений выхода объекта равен пяти (n = 5).

Для интегрированной системы моделей оценка параметра γ согласно (5.1.5) примет простой вид:

 

n

 

 

 

γ*(K) =

yi* + Kγ

,

n = 2.

(5.1.16)

i=1

n + K

 

 

 

 

При значении весовой функции К = 0

оценка совпадает с оценкой

метода наименьших квадратов, в данном случае с выборочным средним

 

 

n

 

 

 

γ*(0) =

yi*

, n = 2.

(5.1.17)

 

i=1

 

 

n

 

 

 

 

 

При значении дополнительной информации о параметре, равном

нулюγ=0 , оценка (5.1.11) совпадает c Ridge-оценкой

 

 

 

n

 

 

 

γ*(K) =

yi*

 

, n = 2.

(5.1.18)

i=1

 

n + K

 

 

 

 

 

 

Выражения для среднеквадратической ошибки

аппроксимации

приведенных выше оценок согласно формуле (5.1.6) примут соответствующий вид:

δγ*(K) =(nσξ2 + K 2 η2 + ε2 )) / (n + K)2 ,

(5.1.19)

δγ* (0) = σξ2 / n ,

(5.1.20)

δγ* (K) = nσξ2 /(n + K)2.

(5.1.21)

На рис. 5.1 и 5.2 приведены зависимости, отражающие поведение среднеквадратических ошибок аппроксимации, оценки параметра ин-

64

тегрированной системы моделей (5.1.19), (5.1.21) в зависимости от значений весовой функции К.

Из рис. 5.1 и 5.2 видно, что существуют оптимальные значения весовой функции K 0 = 2 и K 0 =1, при которых достигается максимальная точность оценок (2.2.21). Оценка (5.1.19), учитывающая дополнительную информацию, имеет пологий минимум и остается эффективнее оценок метода наименьших квадратов и Ridge-приближений в достаточно широкой области изменения весовой функции K. Условно назовем данную область значений весовой функции K = K2 К1 (K1 < K0 < K2) – областью эффективности оценок, где точность оценок меняется незначительно относительно наименьшего, оптимального значения. Фактически оптимальные свойства оценок сохраняются при значительном изменении весовой функции K.

δ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,90

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,80

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,70

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,60

 

 

 

 

 

 

 

 

 

 

 

 

 

3

0,50

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

0,40

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

0,30

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,20

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,10

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,00

 

 

 

 

 

 

 

 

 

 

 

 

 

14 K

0

1

2

3

4

5

6

7

8

9

10

11

12

13

Рис. 5.1. Зависимость поведения точности оценок (5.1.19) – (5.1.21) от значения весовой функции К при объеме выборки n = 2:

1 – среднеквадратическая ошибка аппроксимации (СКОА) оценки метода наименьших квадратов; 2 – CКОА Ridge-приближения; 3 – СКОА оценки с учетом дополнительной априорной информации об оцениваемом параметре

При увеличении объема выборки до пяти значений n = 5 (рис. 5.2) точность всех рассматриваемых оценок повышается. Оптимальные значения весовых функций не меняются, а область эффективности оценок K сужается, особенно для Ridge-приближения.

Следует также отметить, что в области эффективности K всего при двух измерениях выхода объекта оценка с учетом дополнительной априорной информации обладает такой же точностью (см. рис. 5.1, линия 3), как и оценка метода наименьших квадратов при пяти измерениях (см. рис. 5.2, линия 1).

65

δ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,60

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,50

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,40

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,30

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,20

 

 

 

 

 

 

 

 

 

 

 

 

 

K

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,10

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0,00

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

Рис. 5.2. Зависимость поведения точности оценок (5.1.19) – (5.1.21) от значения весовой функции К при объеме выборки n = 5:

1 – среднеквадратическая ошибка аппроксимации (СКОА) оценки метода наименьших квадратов; 2 – CКОА Ridge-приближения; 3 – СКОА оценки с учетом дополнительной априорной информации об оцениваемом параметре

Рассмотрим вопросы точности рассмотренных в третьей главе оценок параметров нелинейных интегрированных систем моделей вида

 

*

=f (x,a) +ξ,

 

y

 

(5.1.22)

α=α+η.

Известно, что для данной модели алгоритм определения вектора неизвестных параметров α c использованием метода Гаусса–Ньютона сводится к последовательному решению систем линейных уравнений (3.1.6), (3.1.8) на основе рекуррентной процедуры:

 

i

=α

i1

+h

α

i1

,

 

 

 

 

 

 

 

 

 

 

α

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

(5.1.23)

 

 

T

 

 

 

 

 

i1

 

i1

 

T

 

 

 

i1

 

 

 

β Wα)

α

= (D

Wye +β Wα

α)

(D WyD +

 

 

 

 

, i =1, 2, 3, ... .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Под точностью оценок (5.2.23) будем понимать среднеквадратиче-

скую ошибку аппроксимации δα* , где под α* будем понимать приближение αi с номером i , попавшее в область, для которой справедливо линейное разложение функции f (x,a) в ряд Тейлора в окрестности истин-

ного значения параметра αи

m

f (x* ,α) и

 

 

*

*

 

 

 

∂α

 

 

(α j −αи j ) ,

(5.1.24)

f (x,α ) f (x,αи ) +

j

 

 

j=1

 

 

 

 

где индекс «и» у частных производных означает, что они вычислены в точке αи . С учетом (5.2.24) представим нелинейную интегрированную

систему моделей (5.2.22) в линеаризованном виде относительно вектора приращений параметров α

66

 

 

 

*

= Dи

 

α+ξ,

(5.1.25)

 

 

e

 

 

 

 

 

 

α=

α+η,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e* = y* f (x,αи), D = f (xi ,α)

,

i =

 

, j =

 

 

 

– матрица частных про-

1,n

1,m

и

 

αj

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

αj ,

j =

 

 

 

и

 

изводных по параметрам

 

 

1,m

,

вычисленная в точке

αи , α=(ααи) , α=ααи .

 

 

 

 

 

 

 

 

 

 

 

Введем ортогональные преобразования

 

 

 

V = DиPT ,

 

b = P α,

(5.1.26)

где Р – некоторая ортогональная матрица, и перейдем к ортонормированной линеаризованной интегрированной системе моделей

 

*

 

 

e

= V b +ξ,

(5.1.27)

 

 

 

= b +η,

 

b

 

 

 

 

 

 

где VT V = Λ = diag(λ,λ1 ,...,λm )

 

– диагональная матрица с элементами на

главной диагонали, равными собственным числам матрицы V .

По аналогии с оценкой параметров линейной системы (5.1.4) нетрудно получить соответствующие выражения и для оценок параметров b :

b*(K) =(VTW V +K )1(VW e* +K

 

) .

(5.1.28)

b

y

y

 

С учетом (5.2.24) оценку параметров нелинейной интегрированной системы (5.1.22) можно представить в виде

α*(K) =αи +PT b*(K) .

(5.1.29)

Таким образом, в случае достаточной близости параметров α* к истинным значениям αи в области, где справедливо разложение (5.1.24),

задача определения параметров нелинейной интегрированной системы моделей аналогична задаче определения параметров линейной интегрированной системы.

В этой связи имеют место и условия нормального функционирования системы, при выполнении которых выражение для СКОА линейных и нелинейных оценок совпадают и равны (5.1.6).

5.2.Критериикачестваинтегрированныхсистемидентификации

вэкстремальныхситуациях

Проведенный в предыдущем параграфе анализ точности и эффективности характеризует качество оценок параметров интегрированных систем моделей с учетом дополнительной априорной информации в стандартных условиях нормального функционирования системы. В реальных условиях при возникновении определенных экстремальных ситуаций стандартные допущения могут частично либо полностью не выполняться.

67

В экстремальных ситуациях многие оценки теряют свою эффективность и часто становятся неработоспособными. Например, оптимальные в стандартных условиях оценки метода наименьших квадратов только при нарушении шестого условия из группы условий, приведенных в предыдущем параграфе, становятся неэффективными и неработоспособными в силу плохой обусловленности матрицы FTF .

Причинами нарушения шестого условия нормального функционирования системы могут быть достаточно много ситуаций, которые заранее трудно предвидеть и, следовательно, проконтролировать. Это могут быть причины, связанные с ошибками округления, реализацией численных методов на вычислительных машинах, недостаточным объемом экспериментальных данных и рядом других причин.

В реальных условиях функционирования систем при возникновении определения экстремальных ситуаций, стандартные предпосылки могут частично либо полностью не выполняться.

Для сравнения эффективности оценок параметров при нарушении условий нормального функционирования системы вводится условная относительная точность

*

*

 

(δα1* ) / A(k)

 

 

e(α1

,α2

,k,l) =

 

,

(5.2.1)

*

 

 

 

(δα2 ) / A(l)

 

 

где (δα1* ) / A(k) и (δα*2 ) / A(l)

– СКОА оценок α1* и α*2

при выполнении

комплекса условий A(k) и A(l) соответственно. Компоненты вектора k =(k1, k2 , ..., km ) принимают значения ноль ( ki =0) либо 1. Компоненты вектора l =(l1, l2 , ..., lm ) также принимают значения ноль (li =0) либо 1. При ki =0, (li =0) условие Ai комплекса условий А выполняется. При ki =1, (li =1) условие Ai не выполняется.

Величины k2 и l2 характеризуют степень выполнения условий. При k2 = l2 =0 все шесть условий выполняются, и условная относи-

тельная точность e(α*, α*

, 0, 0)

=

δα*

/ A(0)

совпадает с эффективностью

1

 

δα*2 / A(0)

1 2

 

 

 

оценок (5.1.2).

При k2 = l2 = 6 все условия нормального функционирования сис-

темы не выполняются.

Пример 1

A(1,6)= A1,6 – комплекс условий, в котором первое и шестое условие не выполняются, а все остальные выполняются.

68

Пример 2

A (0,...,0) = A(0) = A0 – комплекс стандартных условий нормально-

6

го функционирования системы. Условия A(k) будем считать экстремальными, если хотя бы одно условиеki =1, i 1,6 комплекса условий k =(k1, k2 , ..., km ) не выполняется.

Используя определения условной относительной точности оценок, введем критерии качества оценок в нестандартных экстремальных ситуациях.

1. Критерии устойчивости (стабильности) оценок

В качестве меры устойчивости

(стабильности) оценки

α1* будем

считать

 

 

 

 

 

 

 

 

*

 

 

α1* ) / A(k)

 

 

e(α1

,k, 0)

=

 

 

 

 

< C < ∞.

(5.2.2)

*

) / A

 

 

 

 

α

0

 

 

 

 

 

1

 

 

 

 

Данный критерий характеризует меру потери точности оценки α1*

вС раз при переходе от стандартных условий A0 в экстремальные A(k) .

2.Критерий эффективности оценок α1* и α*2 в (нестандартных) экстремальных идентичных условиях:

e(α*, α*

, k) =

δα* / A(k)

.

(5.2.3)

1

δα*2 / A(k)

1

2

 

 

 

3. Примером условной

относительной

эффективности

может

быть относительная эффективность оценки α1* в нестандартных условиях относительно оценки метода наименьших квадратов α*0 в стандартных условиях:

e(α1* ,α*0 ,k,0) =

δα* / A(k)

,

(5.2.4)

1 *

/ A0

 

δα0

 

 

где α*0 – оценка метода наименьших квадратов.

Комплексные критерии качества. Сформулируем комплексные критерии качества оценок в виде следующих определений.

Определение 1. Оценка

α*

качественнее оценки α* , если она ус-

 

 

 

 

 

2

 

 

 

 

 

1

тойчивее оценки α* и эффективнее в экстремальных ситуациях:

1

α* ) /

A(k)

 

 

 

α*) / A(k)

 

e(α* ,k,0) =

<e(α*,k,0) =

<C <∞, (5.2.5)

2

 

 

 

 

1

 

α* ) / A

 

 

α*) / A

 

2

0

 

 

 

1

0

 

 

2

 

 

 

 

 

 

1

 

 

e(α*,α* ,k)

=

α*) / A(k)

>1.

 

(5.2.6)

 

1

 

 

 

α*2 ) / A(k)

 

 

1

2

 

 

 

 

 

 

 

 

 

 

 

 

 

69

 

 

 

 

Следствие 1. При выполнении условий (5.2.5), (5.2.6) немедленно следует условие эффективности оценок в классическом (узком) смысле

 

 

e(α*,α* ,0) =

α*) /

A

0

 

>1.

(5.2.7)

 

 

1

 

 

 

 

α*2 ) / A0

 

 

1 2

 

 

Если оценка

α*

стабильнее и точнее α*

в экстремальных условиях

 

2

 

 

 

1

 

оценки α*

A(k) , она и точнее (эффективнее в классическом смысле)

1

в стандартных условиях. Обратное утверждение неверно.

Следует отметить, что часто проверяется условие эффективности в узком смысле (5.2.7), выполнение которого ничего не говорит о стабильности, а следовательно, и о качестве оценок.

 

Определение 2. Оценка α* среди устойчивых оценок α*j , j =

 

на-

 

1,m

зывается качественной, если выполняются условия:

 

 

 

 

 

e(α*,k,0) = α*) / A(k) <C <∞,

(5.2.8)

 

 

 

 

α*) / A0

 

 

1

 

 

 

 

 

 

 

 

 

δα* / A(k)

 

 

 

 

 

 

 

 

 

 

 

e(α*, α*j , k) =

 

j

 

 

>1,

j =1,m,

(5.2.9)

 

 

 

δα* / A(k)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e(α*,α*

,0) =

δα*

/ A

0

=C ,

(5.2.10)

 

 

0

 

 

 

 

 

 

 

 

 

 

0

 

 

δα* / A0

2

 

 

 

 

 

C =1,α*

– оценка метода наименьших квадратов.

 

 

 

2

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Оценка является качественной, если она устойчива, эффективна в экстремальных ситуациях и не уступает по эффективности оценке метода наименьших квадратов. При C2 >1 оценку будем называть высокока-

чественной.

Живучесть оценок. Введем понятие живучести оценок. Качество оценок связано с величиной r (1r m ), где r – количество не выполняющихся условий нормального функционирования системы (количество экстремальных, одновременно имеющих место, ситуаций). Чем больше r, при которых выполняются условия качества оценок (5.2.8), (5.2.10), тем более качественная оценка. Оценка обладает максимальным качеством, если она стабильнее и точнее любых других оценок при максимальном числе экстремальных условий r =m.

Пусть R(r) – множество всех качественных оценок α*, для кото-

рых выполняются условия (5.2.8).

Определение 3. Оценка α* называется живучей, если

α* R(r) при r 1,

(5.2.11)

где r – уровень живучести.

70