Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

6552

.pdf
Скачиваний:
8
Добавлен:
13.02.2021
Размер:
1.3 Mб
Скачать

11

y(t)= A2 (x(t)), т. е. закон, в соответствии с которым система, текущее состояние которой описывается вектором переменных состояния x(t) ={x1 (t),x2 (t),...,xn (t)}, вырабатывает выходной

сигнал.

·····························································

Результатом этого этапа является формулировка математической модели изучаемого объекта, процесса.

Следующим этапом является этап постановки экспериментов и выполнения достаточно большой серии из N измерений входного и выходного сигна-

лов.

На

этом

этапе

осуществляется

выбор

значений

u(i) = u(t(i) )={u1 (t(i) ),...,ul (t(i) )},

i =1,2,...,N переменных, которые подаются на

вход системы в каждом из опытов с номером (i) , и измеряются значения выходного сигнала y(i) = y(t(i) )={y1 (t(i) ),..., yk (t(i) )}.

Имея уравнения модели системы и располагая результатами измерений входного u(i) = u(t(i) )={u1 (t(i) ),...,ul (t(i) )}, i =1,2,...,N и выходного

y(i) = y(t(i) )={y1 (t(i) ),..., yk (t(i) )} сигналов системы, можно приступать к решению задачи параметрической идентификации, т. е. оценке неизвестных параметров модели θ ={θ1,...,θm} . Учитывая, что результаты измерений содержат по крайней мере случайные ошибки, эта задача не столь проста, как может показаться на первый взгляд. Основные особенности этой проблемы рассмотрим далее при обсуждении метода максимального правдоподобия.

·····························································

Крайне важным и необходимым этапом идентификации лю-

бой системы является оценка адекватности модели и границ её применимости, которая выполняется после получения оценки параметров и может потребовать пересмотра модели в целом, если эти результаты окажутся неудовлетворительными.

·····························································

Ряд проблем, связанных с оценкой параметров моделей систем по результатам измерений входного и выходного сигналов, рассмотрим на примере идентификации простейших систем методом максимального правдоподобия. Метод максимального правдоподобия является одним из основных методов

12

идентификации параметров моделей систем. Кроме того, знание этого метода важно для понимания многих других методов идентификации и зачастую является их составной частью.

Метод последовательной идентификации также рассматривается в этой главе, так как его можно рассматривать как модификацию метода максимального правдоподобия, позволяющую обойти проблему обращения информационной матрицы при оценке параметров модели, что несколько повышает скорость расчетов. Кроме того, при последовательной идентификации не требуется хранения всех результатов измерений входного и выходного сигналов, что дает экономию памяти при идентификации многомерных систем.

1.2 Измерение скалярной физической величины

Рассмотрим простейшую задачу – непосредственное измерение одной (скалярной) физической величины u (например, высоты двери, силы тока, напряжения и т. п.). Выполнив N измерений, каждое из которых связано по

крайней мере

со случайными погрешностями, получим набор значений

u(1) ,u(2),...,u(N )

(верхний индекс в скобках – номер опыта) и будем вынуждены

задаться вопросом, а что же считать истинным значением этой величины? В теории измерений принимается, что такое истинное значение существует. Обозначим его символом u0 . Тогда ошибка измерений будет равна δ =u u0 .

·····························································

Далее примем основную гипотезу теории измерений, в соответствии с которой случайные ошибки и результаты измерений

искомой величины u распределены по нормальному закону (распределение Гаусса).

·····························································

Тогда плотность вероятности распределения величины u

определяется

формулой:

 

 

 

 

 

 

 

 

p(u)=

1

 

(uu0 )2

 

 

 

2

,

(1.1)

 

 

 

e

 

σ

 

 

 

 

 

с математическим ожиданием, равным истинному значению u0 , дисперсией

D(u)=σ2 , и измерения выполняются в одинаковых условиях со средней ошиб-

кой σ, т. е. принимается гипотеза о равноточных измерениях. Среднее арифметическое совокупности измерений равно математическому ожиданию u0 , то

13

есть истинному значению измеряемой величины. Ряд экспериментальных значений {u(1),u(2),...,u(N )} измеряемой величины u рассматривается как случайная

выборка. Закономерен вопрос: как по этой выборке наиболее точно оценить истинное значение u0 измеряемой величины и достоверность полученного результата? Ответ является итогом следующих рассуждений.

Результаты измерений можно рассматривать как взаимно независимые, поэтому плотность вероятности реализации в N экспериментах всей выборки

{u(1),u(2),...,u(N )} равна произведению плотностей вероятностей появления каж-

дого из значений u(i) , i =1,2,..., N :

1

(

N

1

(

N

 

 

1

 

 

 

 

1

 

N

i

 

2

 

p(u( ),...,u

 

) )= p(u( ) )...p(u

 

) )=

 

 

 

 

exp

 

 

(u

(

) u0 )

 

. (1.2)

 

 

 

 

 

 

 

N

 

2

 

 

 

 

 

(σ

)

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

Этот результат замечателен тем, что позволяет четко определить то, что можно считать наилучшей оценкой измеряемой величины u . Очевидно, что цель измерений – оценить неизвестное истинное значение u0 и при этом обес-

печить минимальную ошибку, мерой которой является дисперсия D(u)=σ2 . На этом основании можно принять, что наибольшую точность оценки неизвестной величины u по выборке {u(1),u(2),...,u(N )} при минимальной погрешно-

сти σ может обеспечить выбор u0 , при котором будут выполнены необходимые условия экстремума функции:

 

1

 

 

 

1

 

N

(i)

2

 

 

 

 

 

 

 

 

 

p(u0)=

 

 

 

 

 

 

 

(u

 

u0 )

 

 

 

 

 

N

exp

 

2

 

.

(1.3)

 

 

 

 

 

 

(σ 2π)

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

Необходимое условие экстремума функции двух переменных p(u0) позволяет записать следующую систему уравнений относительно неизвестных величин u0 , σ:

1 dp

 

 

1

 

N

 

i

2

 

 

 

 

 

 

=

 

 

(u( ) u0 )

=0,

p du

 

σ2

0

 

 

 

 

 

i=1

 

 

 

(1.4)

1 dp

 

 

 

 

 

 

1

 

N N

 

 

 

 

 

 

 

 

=−

N

+

∑∑(u(i) u0 )2 =0.

 

 

 

 

 

 

p dσ

 

3

 

 

 

σ σ

i=1 i=1

 

Из уравнений (1.4) следует, что выборке {u(1),u(2),...,u(N )}, которая реализовалась в N опытах, будет поставлено в соответствие наибольшее значение

14

плотности вероятности p(u0), если в качестве оценки измеряемой величины принять:

 

 

1

N

(i)

 

u0 = uср

=

u

(1.5)

 

 

 

 

N i=1

 

 

при любом значении σ, а соответствующая оценка дисперсии дается формулой:

 

 

1

N

 

 

σ2 = σ2N

=

(u

(i) u0 )2.

(1.6)

 

 

 

N i=1

 

 

Итак, при нормальном законе распределения ошибок измерения наиболее вероятной оценкой измеряемой величины u0 является среднее арифметическое

выборки {u(1),u(2),...,u(N )}, а наилучшей оценкой средней ошибки измерений яв-

ляется среднеквадратическое отклонение.

Метод, которым получены формулы (1.5)–(1.6), называют методом максимального правдоподобия.

1.3 Косвенные измерения нескольких величин

Рассмотрим формулы метода максимального правдоподобия для оценки параметров системы с одним выходным у = y(u) и несколькими входными

сигналами u(t) = {u1 (t),...,ul (t)}, математическая модель которой имеет вид:

 

 

 

 

 

 

m

(u)θ j ,

 

 

у = y(u) = ( f

(u))= fj

(1.7)

 

 

 

 

 

 

j=1

 

 

 

где вектор-функция

f (u) = { f (u), f

2

(u),..., f

m

(u)}

– известного вида функция

 

 

1

 

 

 

 

 

 

своих аргументов,

которая

выбирается

экспериментатором по

результатам

 

 

 

 

 

 

 

 

 

 

 

предварительного изучения

системы, а

вектор

 

θ ={θ12,...,θm

} – вектор-

столбец неизвестных параметров, которые требуется найти по результатам измерений входного и выходного сигналов, ( f (u)) – скалярное произведение

векторов.

Функции f1 (u), f2 (u),..., fm (u) называются базисными функциями модели и выбираются экспериментатором на этапе предварительного изучения объекта исследования. Например, эти функции могут быть заданы в виде полинома, тригонометрической функции и т. п.

Важно отметить, что запись уравнения (1.7) является результатом очень ответственного этапа идентификации, на котором производится оценка количе-

15

ства выходных и входных, и при этом контролируемых, измеряемых переменных, выбор необходимого количества базисных функций, вида этих функций. Неудачный выбор этих функций в конечном итоге приводит к необходимости пересмотра первоначальной гипотезы.

·····························································

Уравнение (1.7) представляет собой простейшую линейную

относительно

неизвестных

параметров

(коэффициентов)

θ ={θ12 ,...,θm}

математическую

модель (пока

– гипотетически)

изучаемого объекта. Надо отметить, что модель называется линейной по виду зависимости от коэффициентов, тогда как базисные функции могут быть достаточно произвольного вида.

·····························································

Следующим этапом идентификации параметров модели является постановка опытов, результатом которых являются набор значений вектора входных переменных u(i), i =1,2,...,N и соответствующие значения выходного сигнала системы y(1), y(2) ,..., y(N ) в серии из N измерений. Здесь верхний индекс, взятый в скобки, использован для указания номера опыта, а нижние индексы – для указания номера компоненты вектора.

Результаты измерений скалярного выходного сигнала системы в серии из N опытов удобно записывать в векторной форме, поэтому введем вектор результатов измерений выходного сигнала y ={y(1), y(2) ,..., y(N )}.

Так как результаты измерений содержат, по крайней мере, случайную ошибку, вектор результатов измерений y ={y(1), y(2) ,..., y(N )} и значения вектора

входного сигнала u(i), i =1,2,...,N, в каждой экспериментальной точке будут связаны не точной зависимостью (1.7), а стохастической зависимостью:

 

 

m

 

у(i) = y0(i) + µ(i) = (f

(u(i) ))= fj (u(i) )θ j , i =1,2,...,N,

(1.8)

j=1

где у(i) – измеренный в эксперименте с номером i выходной сигнал, y0(i) – предполагаемое точное значение выходного сигнала, µ(i) – случайная ошибка измерений этой величины в i-м эксперименте, u(i) ={u1(i),u2(i),...,un(i)} – измеренный входной сигнал.

16

Следует отметить, случайные ошибки µ(i) выделены в этих уравнениях как отдельные слагаемые, чтобы подчеркнуть факт понимания их принципиального влияния на результаты расчетов, но их оценки – отдельная задача.

Систему уравнений (1.8) целесообразно записать в матричной форме. Для этого определим следующие матрицы:

·····························································

Матрица вида

u(1)

...

u(1)

 

 

1

 

l

 

 

 

U = (u(ji) )= ...

...

...

 

,

(1.9)

(N )

...

(N )

 

 

u1

ul

 

 

 

которая содержит значения всех входных переменных во всех опытах называется матрицей плана эксперимента. Номер строки этой матрицы соответствует номеру опыта, а номер столбца – номеру компоненты вектора входного сигнала.

Матрица вида

f1 (u(1) )

 

 

F = (fj (u(i) ))= ...

 

(u(N ) )

f1

...

fm (u(1) )

 

 

 

 

 

 

 

...

...

 

,

(1.10)

 

 

 

 

 

... fm (u(N ) )

которая содержит значения всех базисных функций модели во всех

опытах называется расширенной матрицей плана эксперимен-

та. Номер строки этой матрицы соответствует номеру опыта, а номер столбца – номеру базисной функции линейной модели (1.7).

·····························································

Систему уравнений (1.8) можно записать в матричной форме:

 

Fθ = у.

(1.11)

·····························································

Система уравнений (1.11) (и, что то же самое, (1.8)) является следствием уравнения модели (1.7) и записана по результатам

измерений с учетом неизбежных случайных ошибок. Эта система называется исходной системой уравнений для оценки парамет-

ров линейной модели.

·····························································

 

 

17

Нетрудно

заметить, что для получения оценки параметров

 

 

 

θ ={θ12,...,θm

}

модели на основе решения этих уравнений, во-первых, необ-

ходимо, чтобы количество опытов N (и количество уравнений в системе (1.11) соответственно) было по крайне мере не меньше, чем количество неизвестных

коэффициентов θ ={θ12,...,θm }, N m , а во-вторых, надо ответить на вопрос, какую же оценку считать правильной, когда появление любого нового результата измерений с очевидностью будет давать другую оценку этих величин.

·····························································

Так как (1.11) – это система линейных алгебраических урав-

нений, то её решение, которое дает оценку искомых коэффициен-

тов модели (1.7), имеет вид:

 

 

ɶ

 

(1.12)

θ = ,

где T – неизвестная пока матрица размера m × N.

Оценка θɶ называется наилучшей линейной несмещенной оценкой, если она имеет наименьшие дисперсии D(θi )=(σ(i))2 сре-

ди всех возможных оценок вида (1.12).

·····························································

Таким образом, задача оценки коэффициентов модели (1.7) на основе решения исходной системы уравнений (1.11) сводится к поиску матрицы T в выражении (1.12), которая обеспечит минимальную дисперсию коэффициентов.

Для решения этой задачи системы уравнений (1.8), (1.11) запишем в виде:

m

 

 

 

f j (u(i) )θ j

= у(i),

(i =1,2,...,N ).

(1.13)

j=1

 

 

 

Непосредственно разрешить

эту

систему относительно

неизвестных

θ j , ( j =1,2,...,m) нельзя, так как вместо точных значений y0(i) правые части со-

держат значения выходного сигнала y(i) = y0(i) +µ(i) со случайными ошибками измерений. Но если количество опытов N больше количества неизвестных m (N > m), то по результатам измерений y(i) и u(i) на основании принципа наибольшего правдоподобия можно найти такую совокупность значений

θ ={θ12,...,θm }, которая с наибольшей вероятностью удовлетворяет уравнениям (1.13). С этой примем допущение о том, что дисперсии во всех опытах одинаковы, (σ(i))2 =(σ)2 , а также основную гипотезу теории измерений, т. е. пред-

18

положение о нормальном распределении плотности вероятности случайных величин y(i) :

i

 

 

1

 

 

 

1

 

i

i

 

2

 

 

 

p(y(

) )=

 

 

 

 

exp

 

 

(y(

) y0(

) )

 

,

(i =1,2,...,N ).

(1.14)

 

 

 

 

2

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Тогда для плотности вероятности реализации случайной выборки значений y ={y(1), y(2),..., y(N )} имеет место формула:

p(y(1), y(2),..., y(N ) )= p(y(1) )p(y(2) )...p(y(N ) )=

 

 

 

1

 

 

 

 

1

N

m

2

 

(1.15)

=

 

 

exp

y

(i) f j (u(i)

)θ j

.

 

 

 

 

N

2

 

(σ 2π )

 

 

 

 

 

i=1

j=1

 

 

 

 

 

 

 

 

 

Эту функцию будем рассматривать далее как функцию многих переменных θ j , ( j =1,2,...,m), σ :

p = p(θ12 ,...θm) =

1

 

 

 

 

(σ

 

)N

exp −

1

 

N

m

2

 

 

 

y

(i) fj (u(i) )θ j

 

. (1.16)

 

2

 

i=1

j=1

 

 

 

 

 

 

Величина p(θ12 ,...θm) может достигать максимума при выполнении необходимых условий экстремума функции многих переменных, т. е. при условии одновременного обращения в нуль всех её частных производных по переменным θk , (k =1,2,...,m), σ. На этом основании приходим к следующим уравнениям для оценки величин θ j , ( j =1,2,...,m), σ :

 

1

 

p

 

 

1

N

m

 

 

 

 

 

 

 

 

 

=

 

y(i) fj (u(i) )θ j fk (u(i) )= 0, (k =1,2,...,m).

(1.17)

 

 

2

 

p ∂θk

 

σ i=1

j=1

 

 

 

 

 

 

 

 

 

 

 

 

1

p =

N

 

1

 

 

N

 

m

2

 

 

 

 

 

 

 

 

 

y(i) fj (u(i) )θ j

 

= 0.

(1.18)

 

 

 

 

 

 

3

 

 

 

 

 

p ∂σ σ σ

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

j=1

 

 

 

Уравнения (1.17) сводятся к следующей системе линейных алгебраиче-

ских уравнений относительно оцениваемых параметров

θ j , ( j =1,2,...,m) ли-

нейной модели (1.7):

 

 

 

 

 

m

N

 

N

 

 

fk (u(i) ) fj (u(i) ) θ j

= fk (u(i) )y

(i) .

(1.19)

j=1

i=1

 

i=1

 

 

В свою очередь эти уравнения принято записывать в матричной форме:

 

 

 

 

 

(1.20)

 

Mθ = Y .

 

 

19

·····························································

Систему уравнений (1.20) принято называть нормальной си-

стемой уравнений метода максимального правдоподобия, а сим-

метричная относительно главной диагонали матрица М в этих

уравнениях называется информационной матрицей.

·····························································

Элементы информационной матрицы и вектора правых частей уравнений (1.20) вычисляются по формулам:

M jk = Mkj = N fk (u(i) ) f j (u(i) )= N f j (u(i) ) fk (u(i) ),

i=1

i=1

(1.21)

N

 

 

 

Yk = fk (u(i) )y(i),

( j,k =1,2,...,m).

 

i=1

Решение уравнений (1.20), полученное каким-либо известным методом решения систем линейных алгебраических уравнений, дает наилучшую линей-

ную несмещенную оценку вектора θɶ

коэффициентов модели. Это решение при-

нято записывать в виде:

 

 

 

 

 

,

(1.22)

θɶ

= M 1Y

где M 1 – матрица, обратная к информационной матрице.

·····························································

Сравнивая формулы (1.10), (1.12), (1.19)–(1.22) нетрудно за- метить, что матрица T в определении наилучшей линейной несме-

щенной оценке коэффициентов имеет вид:

 

 

 

 

T = (FT F )1

FT ,

(1.23)

где F – расширенная матрица плана эксперимента, FT

– транспо-

нированная матрица.

 

 

 

·····························································

Уравнение (1.18) дает следующую оценку дисперсии σ для случая равно-

точных измерений:

 

 

 

 

1

N

m

2

 

σɶ2 =

y

(i) fj (u(i) )θɶj ,

(1.24)

 

 

N i=1

j=1

 

 

где θɶj , ( j =1,2,...m) – оценки параметров, найденные по формуле (1.22).

Учитывая практически очевидный факт, что нельзя получить скольконибудь достоверный результат, пока количество опытов N не превысит коли-

20

чество оцениваемых коэффициентов m (иначе в исходной системе (1.13) уравнений меньше, чем неизвестных), внесем в эту формулу соответствующую поправку и запишем её в виде:

 

 

 

N

 

m

2

 

 

 

 

 

y

(i) f j (u(i) )θɶj

 

 

σɶ

2

=

i=1

 

j=1

 

.

(1.25)

 

 

 

N m

 

 

 

 

 

 

 

 

 

Метод максимального правдоподобия дает ответ на вопрос, как найти матрицу Т и наилучшую линейную несмещенную оценку в случае гауссовского распределения случайных ошибок измерении. В свою очередь, теорема Гаусса – Маркова и её следствия позволяют утверждать, что метод максимального правдоподобия (см., например, [3–7]) дает наилучшую линейную оценку коэффициентов и для других законов распределения ошибок измерений.

Метод максимального правдоподобия дает результат, который минимизирует сумму квадратов ошибок:

N

2

N

 

m

2

 

(ε(i) )

 

= y

(i) f j (u(i) )θɶj .

(1.26)

i=1

 

i=1

 

j=1

 

 

Поэтому второе название метода – методом наименьших квадратов.

1.4 Теорема Гаусса – Маркова

При обосновании метода максимального правдоподобия для получения наилучших оценок параметров θ =12 ,...,θm} модели вида (1.7), зависящих от случайных ошибок, на основании результатов N экспериментов по совокупности измерений выходного сигнала y = {y(1), y(2),..., y(N )} было принято предпо-

ложение, что случайные ошибки распределяются по нормальному закону. Однако доказано, что оценки по максимального правдоподобия имеют минимальную погрешность независимо от типа распределения. Доказательство этого факта и способ получения наилучшей линейной несмещенной оценки коэффициентов линейной модели (1.7) дает теорема Гаусса – Маркова [3, 4].

·····························································

Теорема Гаусса – Маркова (1). Для линейной модели вида (1.7):

у(i) = (f (u(i) ))+ µ(i) =

m

(1.27)

= f j (u(i) )θ j

+ µ(i), (i =1,2,...,N )

 

j=1

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]