Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Загребаев Методы обработки статистической информации в задачах контроля 2008

.pdf
Скачиваний:
92
Добавлен:
16.08.2013
Размер:
7.77 Mб
Скачать

наименьших квадратов), а на участках (−∞,η0 ) , (η1,) – модульная (метод наименьших модулей).

Рис. 3.12. График оптимальной функции потерь

Для определения η0 , η1 и k в формуле (3.5.66) воспользуемся

условиями теоремы Хубера (3.5.52) и (3.5.53). Запишем их для приближенно нормального распределения помехи:

 

 

 

 

1

=

 

1

 

×

 

 

 

 

 

 

 

 

 

1− α

(2πση2 )1/2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−η2

 

 

 

 

−η2

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

1

 

 

 

 

η

 

 

 

 

 

e

2σ2

 

 

 

 

2σ2

 

 

×

1 e−η2 /2σ2 dη+

η + e

 

η

 

,

(3.5.67)

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

η0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

η

 

k

или

kση2

 

η

 

при

 

 

 

 

 

 

 

 

2ση2

 

 

 

 

η0 ≤ η ≤ η1 .

 

 

 

 

 

 

 

 

(3.5.68)

 

 

 

 

 

 

 

 

 

 

 

 

 

Из условия (3.5.68) получаем значения η0 и η1 :

η

= −η = −

= −kσ2

или k =

/ σ2 .

(3.5.69)

0

1

η

 

η

 

Подставим (3.5.69) в условие (3.5.67):

1

 

1

e

η2

=

2ση2

dη+

1− α

(2πση2 )1/2

 

 

 

261

 

 

2ση2

2

 

 

 

 

 

 

 

 

 

2σ2

 

+

 

 

 

e

η .

(3.5.70)

(2πση2 )1/2

 

 

 

 

 

Введем обозначения:

 

2

 

 

 

 

 

x

=

; ξ =

/ ση .

(3.5.71)

 

 

 

ση

 

 

 

 

Тогда уравнение (3.5.70) можно преобразовать к виду

1

ξ

1

e

x2

2

e

1

ξ

2

 

=

2

dx +

2

.

(3.5.72)

1−α

2π

2πξ

 

−ξ

 

 

 

 

 

 

 

 

Достоинством последней записи является то, что она не зависит от параметра ση2 .

Полученное уравнение не может быть решено аналитически и решается численно. Результаты решения, соответствующие различным α, приведены в табл. 3.7.

 

 

 

 

 

 

 

Таблица 3.7

 

 

Результаты решения для различных α

 

 

 

 

 

0

 

 

 

0,1

 

 

 

 

α

0,01

0,02

0,03

0,3

 

0,5

ξ

2,0

1,7

1,1

1,1

0,9

 

0,4

 

Преобразуем выражение (3.5.65) и (3.5.66), используя обозначе-

ния (3.5.69):

(1− α)

f *(η) = (1− α)

(1− α)

1

e

ση2

 

η+

 

 

,

 

η≤ −

;

 

 

 

 

2

 

 

2πση

 

 

 

 

 

 

 

 

 

 

 

 

 

1

e

1

 

η2

 

 

 

 

 

 

 

 

2ση2

,

 

η

 

;

(3.5.73)

 

 

 

2πση

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

ση2

 

 

 

 

 

 

 

e

 

 

 

η−

2

 

,

η≥

;

2πση

 

 

 

 

 

 

 

 

 

 

 

 

 

262

 

 

 

 

 

 

 

1 2

 

 

 

 

 

 

ε −

,

ε < − ;

 

 

 

 

 

 

 

 

ση2

2 ση2

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

ε2

 

 

 

 

 

 

 

 

F *(ε) =

 

 

 

 

,

 

 

ε

<

;

(3.5.74)

2ση2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

2 ,

 

 

 

 

 

 

 

ε −

 

ε >

,

σ2

2

 

 

 

 

σ2

 

 

 

 

 

 

η

 

 

 

 

 

η

 

 

 

где = ξ ση .

Запишем теперь рекуррентный алгоритм, соответствующий этой функции потерь для идентификации параметров линейного регрессионного объекта. Для этого воспользуемся абсолютно оптимальным рекуррентным алгоритмом, полученным в предыдущем разделе (см. формулы (3.4.61а) и (3.4.61б)), подставив в качестве f (η)

оптимальную на классе плотность распределения f * (η) , опреде-

ляемую соотношениями (3.5.73). Произведя несложные преобразования, получим:

 

ˆ

 

ˆ

 

 

ˆ

 

 

 

b

(i) = b (i 1)

+ Γ(i)d(ε(i,b (i 1)))u (i) ,

Γ(i) = Γ(i 1)

Γ(i 1)

u

(i)

u

т (i)Γ(i 1)

,

(I F* )1 +

u

т (i)Γ(i 1)

u

(i)

 

 

Γ(0) = λI , λ >>1

 

 

ˆ

 

 

ˆ

 

 

 

 

, b (0)

= b0 ,

 

где

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

dF *(ε(i,b

(i 1)))

 

 

 

 

 

d(ε(i,b (i 1)))

=

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

dε

 

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ε=ε(i,b (i1))

(3.5.75а)

(3.5.75б)

 

, ε(i) ≤ −

;

 

 

 

 

 

 

 

 

ˆ

 

− ≤

 

ε(i)

 

;

(3.5.76)

 

 

 

 

 

= ε(i,b (i 1)),

 

 

 

,

 

ε(i) ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

263

I F* – фишеровская информация, соответствующая оптимальной на классе плотности распределения f * (η) (3.5.73), которая определяется формулой [4].

 

 

 

I*

 

 

1

 

 

 

 

 

 

 

= 2(1

− α)

 

Φ

 

,

(3.5.77)

 

 

2

 

 

 

 

F

 

 

 

 

 

 

 

 

 

 

 

 

ση

 

ση

 

 

 

 

 

 

 

 

 

 

 

 

где Φ

 

 

– интеграл вероятности Лапласа [5].

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

η

 

 

 

 

 

 

 

Подставляя полученное выражение для фишеровской информации в рекуррентные соотношения (3.5.79), запишем окончательную форму рекуррентного алгоритма для оценивания параметров регрессионного объекта при условии, что на систему действует случайная помеха, имеющая приближенно нормальный закон распределения:

 

ˆ

 

ˆ

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

(3.5.78а)

 

b (i) = b (i 1) + Γ(i)d(ε(i,b (i 1)))u (i) ;

 

 

 

 

 

 

 

Γ(i) = Γ(i 1)

 

 

 

 

 

 

Γ(i 1)

u

(i)

u

т(i)Γ(i

1)

;

(3.5.78б)

 

 

1

 

 

 

 

1

 

т

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2(1

− α)

Φ

 

 

 

+

u

(i)Γ(i 1)

u

(i)

 

 

σ2

 

 

 

 

 

 

 

 

ση

 

 

 

 

 

 

 

 

 

 

 

 

 

η

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Γ(0) = λI ,

 

λ >>1,

 

ˆ

ˆ

 

 

 

 

 

ˆ

 

b (0) = b0 .

 

 

 

 

 

 

 

определяется по формуле (3.5.76).

Параметр d(ε(i, b (i 1)))

Для инициализации рекуррентного процесса используются на-

чальные приближения оцениваемого параметра ˆ

b (0) и матрицы Γ(0) . Окончание рекуррентного процесса связано с прекращением

нормального функционирования объекта идентификации, в частности, с получением достоверной информации от датчиков.

Для тестового примера был выбран регрессионный объект

y(i) = b1u1(i) +b2u2 (i) +b3u3 (i) + η(i)

с параметрами

b1 = 4 ; b2 = 6,5 ; b3 =8 .

264

Входные воздействия u1(i) , u2 (i) , u3 (i) имели нормальный закон распределения: Mu1 = 2 , σu21 =100 ; Mu2 = 4,5 , σu22 =100 ; Mu3 = 6 ,

σu2

=100 . Шум, действующий в объекте η(i) , имел приближенно

3

 

 

 

 

 

 

 

 

 

 

нормальный закон распределения:

f (η) = (1− α) fN (η) + αg(η) , где

f N (η) – нормальныйзаконраспределения:

 

 

 

 

 

1

 

 

e

1

η2 ,

 

 

fN (η) =

 

 

 

2ση2

 

 

(2π)1/2

 

 

 

 

 

 

 

 

ση

 

 

 

 

а g(η) – также нормальный закон распределения

 

 

 

1

 

 

1

η2

 

 

 

 

 

2σ2

 

 

g(η) =

 

 

 

e

 

η выбр .

 

 

 

 

 

 

 

(2π)1/2 ση выбр

 

 

 

 

Оценка эффективности алгоритма Хубера по сравнению с обычным рекуррентным алгоритмом с квадратичной функцией потерь проводилась при следующих статистических характеристиках распределений:

1.ση = 0,5; α = 0,1; σηвыбр = 10;

2.ση = 0,5; α = 0,1; σηвыбр = 50;

3.ση = 0,5; α = 0,1; σηвыбр = 100;

4.ση = 0,5; α = 0,3; σηвыбр = 10;

5.ση = 0,5; α = 0,3; σηвыбр = 50;

6.ση = 0,5; α = 0,3; σηвыбр = 100.

На рис.2.2.5 представлены графики сходимости сглаженной ошибки оценки по двум алгоритмам: алгоритм с использованием теоремы Хубера и рекуррентный алгоритм, соответствующий методу наименьших квадратов.

Из графиков видно, что эффективность использования рекуррентного алгоритма с использованием теоремы Хубера возрастает с увеличением вероятности выброса α и с увеличением интенсивности выброса. При больших α и σηвыбр (рис. 3.13) обычный рекуррентный алгоритм практически неработоспособен, тогда как алго-

265

ритм Хубера обеспечивает достаточно хорошую сходимость оценок к истинным значениям параметров.

α = 0,1, ση = 0,5, σηвыбр = 10: а – линейный алгоритм; б – алгоритм Хубера а)

α = 0,1, ση = 0,5, σηвыбр = 50: а – линейный алгоритм; б – алгоритм Хубера б)

Рис. 3.13. Зависимость сглаженной ошибки оценки от номера измерений

(см. также с. 267 – 268)

266

α = 0,1, ση = 0,5, σηвыбр = 100: а – линейный алгоритм; б – алгоритм Хубера в)

α = 0,3, ση = 0,5, σηвыбр = 10: а – линейный алгоритм; б – алгоритм Хубера г)

Рис. 3.13. Продолжение

267

α = 0,3, ση = 0,5, σηвыбр = 50: а – линейный алгоритм; б – алгоритм Хубера д)

α = 0,3, ση = 0,5, σηвыбр = 100: а – линейный алгоритм; б – алгоритм Хубера е)

Рис. 3.13. Окончание

268

3.6. Применение методов оценивания параметров при обработке реакторной информации

3.6.1. Метод максимума правдоподобия при аппроксимации макрополей нейтронов

Многоточечная информация о плотности потока нейтронов, снимаемая N внутриреакторными датчиками, расположенными в

точках с координатами r1, ..., rN , обрабатывается с целью представления поля нейтронов [10] в виде:

G

k

G

(3.6.1)

ϕ(r ) = Aiψi (r ) ,

i=1

где {ψi (rG)} – набор известных линейно независимых функций; {Ai } – набор коэффициентов, подлежащих определению.

Отметим, что согласно теоретическим и экспериментальным исследованиям представление (3.6.1) справедливо не для самого поля нейтронов, а лишь для его отклонения от какого-либо начального или заданного распределения, т.е. достаточно хорошо линейным

набором функций {ψi (rG)} можно описать лишь функцию

δϕ(rG,t) = ϕ(rG, τ + t) − ϕ(rG,t) = k Aiψi (rG) ,

i=1

что и необходимо при исследовании динамических свойств объекта и системы регулирования. Подразумевая это обстоятельство, в дальнейшем будем говорить о восстановлении поля нейтронов.

Итак, требуется определить неизвестный вектор A , если набор функций {ψi (rG)} известен и выбран таким образом, чтобы линейная комбинация функций ψi (r ) давала возможность описать лю-

бое распределение плотности потока нейтронов, встречающееся при эксплуатации реактора. Отметим, что специфика внутриреакторнойG информации состоит в том, что вектор показаний датчиков

C носит, вообще говоря, случайный характер. Задача сводится к нахождению оценки вектора A по однократной реализации случайного вектора C . Плотность вероятности этого случайного век-

269

тора в предположении, что он имеет нормальныйG закон распределения при данном значении параметра A , есть

 

 

G G

 

 

1

 

 

 

 

 

 

 

1

G

G *

ˆ 1

G

G

 

 

 

f (C A)=

 

 

 

 

 

 

 

exp

2

(C

−μ)

K

(C

−μ)

,

 

 

 

 

 

 

(2π)

N

 

K

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Aiψi

(rG1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

G

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

...

 

 

– вектор математического ожидания, компонен-

где μ =

 

 

 

 

k

 

G

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ai

ψi (rN )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

тами которого являются математические ожидания плотности потока

 

ˆ

K

...

K

 

 

 

11

 

1N

 

 

нейтронов в соответствующих точках;

K = ...

...

...

 

– сим-

 

 

 

...

 

 

 

 

 

...

KNN

 

ˆ

метричная корреляционная матрица измерений; K – определитель

корреляционной матрицы.

Следуя принципу максимума правдоподобия, необходимо подобрать вектор μ так, чтобы плотность вероятности наблюдаемой

совокупности значений c1, ..., cn была максимальной, т.е.

G

G

 

ln f (C

A)= 0, p =1, ..., k.

Ap

Отсюда получается система линейных уравнений максимума правдоподобия

 

G

G *

ˆ 1

G

G

 

 

 

Ap

ln (C

−μ)

K

(C

−μ)

= 0,

p =1, ..., k.

 

 

 

 

 

 

 

 

 

Для получения системы уравнений относительно вектора A

G

G *

ˆ 1

G

G

представим билинейную форму (C

−μ)

K

(C

−μ).

В виде скалярного произведения двух векторов:

 

G

G *

ˆ 1

G

G

 

 

(C

−μ)

, K

(C

−μ) .

 

 

 

 

 

 

 

270