Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Загребаев Методы обработки статистической информации в задачах контроля 2008

.pdf
Скачиваний:
92
Добавлен:
16.08.2013
Размер:
7.77 Mб
Скачать

[QDη1/2 Dη1/2U ]× U т (Dη1/2 )т (Dη1/2т )U 1

×

 

 

 

 

 

 

× U т (Dη1/2 )т (Dη1/2 )т

Qт

 

= QU U т (Dη1 )тU 1U тQт .

 

 

 

 

 

 

Так как QU = I , то можем записать

QDηQт U тDη1U 1 .

Учитывая (3.3.43) и (3.3.53), можем записать

ˆ − ≥ ˆ var(bL b ) var(bMV b ) ,

что и требовалось показать. Очевидно, линейная оценка минимальной дисперсии (3.3.51) обладает, кроме доказанного свойства минимальности дисперсии, теми же свойствами, что и оценка наименьших квадратов.

3.3.6. Метод максимума правдоподобия

 

 

~

 

В том случае, если известна

p( y / c = c ) , т.е. плотность распре-

деления вероятности выхода y

( y – конкретная реализация выхо-

да) при условии, что оцениваемый параметр

~

, естественно

c = c

попытаться найти такую оценку

ˆ

 

 

cMP , которая максимизирует эту

плотность вероятности. Такие оценки получили название – оценки максимального правдоподобия, а метод – максимума правдоподобия.

Таким образом,

~

 

~

 

(3.3.55)

J (c ) = p( y / c ) ,

или, что эквивалентно

~

 

~

(3.3.56)

J (c ) = −ln( p( y / c )) .

 

~

 

 

 

 

Функция ln( p( y / c )) называется функцией правдоподобия. Та-

ˆ

 

 

 

ким образом, cMP является корнем уравнения:

 

 

 

p( y / c )

 

= 0 ,

(3.3.57)

 

 

 

 

 

c

 

 

 

 

ˆ

 

 

 

 

c

=cMP

 

201

или

 

 

 

ln p( y / c )

 

= 0

(3.3.58)

 

c

 

 

ˆ

 

 

c

=cMP

 

Если выход объекта в каждый i-й момент времени является аддитивной функцией возмущений η(i) , т.е.

y(i) = Ψ(z (i),c ) + η(i) ,

(3.3.59)

где z(i) – вектор наблюдений, и известна функция распределения шума η − f (η(i)) , то нетрудно заметить, что

p( y(i) / c = c ) = f (η(i)) η(i)=y(i)−Ψ(z (i),c )(i) .

Если измерения некоррелированны, то для N взаимно некоррелированных измерений можно записать

N

N

 

 

p( y / c = c ) = p( y(i) / c = c ) = f (η(i))

 

η(i)(i) . (3.3.60)

 

i=1

i=1

 

 

В том случае, когда измерения коррелированны, плотность рас-

~

 

пределения p( y / c = c ) не может быть представлена в виде про-

изведения (3.3.60), и необходимо использовать формулу

 

p( y / c ) = f (η = ε(c )) ,

(3.3.61)

где ε – вектор невязок, сформированный по N измерениям. Рассмотрим частный случай решения задачи максимального

правдоподобия при нормальном законе распределения вероятности ошибок измерений

 

1

 

 

1

 

т

1

 

 

f (η) =

 

exp

 

η

 

Dη η .

(3.3.62)

(2π)N / L (det D )1/2

2

 

 

 

 

 

 

 

 

 

 

η

 

 

 

 

 

 

 

 

Согласно (3.3.56), (3.3.61) и (3.3.62), критерий качества будет иметь вид:

J (c ) = ln[(2π)N /2 (det Dη)1/2 ] + 12 εт(c )Dη1ε(c ) .

~

Так как первое слагаемое последнего выражения от c не зависит то можно записать:

J (c ) = εт(c )Dη1ε(c ) ,

ε ~

или, подставляя вместо (c ) его выражение, получим:

202

 

 

 

т

D

1

 

(3.3.63)

 

J (c ) = ( y − Ψ(c ))

 

 

( y − Ψ(c )) .

 

 

 

 

η

 

 

Как видно, последнее выражение соответствует критерию качества метода наименьших квадратов при R = Dη1 .

3.3.7. Метод максимума апостериорной вероятности

Пусть наряду с плотностью распределения

~

 

 

p( y / c ) известна

 

 

 

 

~

 

априорная плотность распределения вероятности

p(c = c ) .

Тогда, используя формулу Байеса, можно записать апостериор-

ную плотность распределения

 

 

~

 

 

 

 

 

 

 

p(c = c / y) :

 

~

 

 

 

 

 

 

 

~

 

 

 

 

 

 

 

 

 

~

p( y / c )P(c

= c )

 

 

p(

c

= c / y) =

 

 

 

 

 

 

 

 

 

 

.

(3.3.64)

 

 

 

p( y)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

Оценка cMAP , обеспечивающая максимальное значение апосте-

риорной плотности распределения = ~ , называется оцен- p(c c / y)

кой максимального правдоподобия.

Таким образом, в качестве критерия в методе максимума апостериорной вероятности может быть использована функция:

 

~

 

~

 

 

J (c ) = −ln p(c / y) .

(3.3.65)

Подставляя в (3.3.65) формулу Байеса, и принимая во внимание,

~

, можно критерий записать в виде:

что p( y) не зависит от c

~

 

~

 

 

~

(3.3.66)

 

J (c ) =

(ln P( y / c ) ln P(c )) .

 

 

ˆ

является корнем уравнения

 

Таким образом, cMAP

 

 

 

 

 

 

(ln p( y / c ) ln p(c ))

 

= 0 .

(3.3.67)

 

 

 

c

 

 

ˆ

 

 

 

 

 

 

 

c

=cMAP

 

В общем случае, решение задачи (3.3.67) не может быть получено в явном виде.

Рассмотрим решение этой задачи для линейной системы (3.1.6) при нормальном законе распределения ошибок измерений η и

нормальном законе априорной плотности распределения p(b ) :

203

 

 

 

 

1

 

 

 

 

 

 

 

 

1

 

т

1

 

 

 

 

 

 

 

 

f (η) =

 

 

 

 

 

 

exp

 

 

η

 

Dη η

,

 

 

 

(3.3.68)

 

(2π)N /2 (det D )1/2

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

η

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p(

 

) =

 

1

exp

1

 

(

 

т μ

 

)D1(

 

μ

 

)

 

. (3.3.69)

b

b

 

b

 

 

 

 

 

b

b

 

 

 

 

(2π)m/2

(det D )1/2

 

2

 

 

 

 

 

 

 

 

b

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Принимая во внимание, что при линейном объекте и аддитивной

помехе p( y /

b

) = f (η)

 

 

 

 

 

 

 

, можно записать

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

η=yUb

 

 

 

 

N +m

 

 

 

 

 

 

 

 

 

 

1/2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1/2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ln p( y / b ) ln p(b ) = ln (2π)

 

 

(det Dη

det Db )

+

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

т

 

1

 

 

 

 

 

 

 

 

1

 

 

 

 

 

т

 

1

 

 

 

 

 

 

 

 

+

 

( y Ub )

 

Dη

( y Ub ) +

 

 

 

(b

μb )

 

Db

(b

μb ) . (3.3.70)

 

 

 

 

 

 

2

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Подставляя (3.3.70) в (3.3.67) и учитывая, что Dη и Db

не зави-

сят от оценки, получаем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

т 1

 

 

 

 

 

 

 

1

 

 

 

 

 

т 1

 

 

 

 

 

 

 

 

 

=0. (3.3.71)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(y Ub)

Dη

(y Ub) +

 

 

 

(b

 

μb)

Db

 

(b

μb)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

 

Введем следующие обозначения:

 

 

 

 

 

 

 

bbMAP

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

U

 

 

 

 

 

 

 

 

 

 

y

 

 

 

 

D1

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y* =

 

R* =

 

η

 

 

 

 

 

 

,

(3.3.72)

 

 

 

 

 

 

U* =

I

 

;

 

 

μ

 

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

 

 

 

 

 

b

 

 

 

 

 

 

0

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Db

 

 

 

 

где Im – единичная матрица размера m × m .

Используя обозначение (3.3.72), выражение (3.3.71) можно переписать в виде:

 

 

т

 

 

 

 

 

 

 

 

 

 

 

 

 

( y * U *b )

 

R *( y * U *b )

 

 

= 0 .

 

 

 

 

 

 

 

 

 

ˆ

 

b

 

 

 

 

 

 

 

b

=bMAP

 

Производя дифференцирование и разрешая полученное матрич-

ˆ

ное уравнение относительно bMAP , найдем

ˆ

т

*

1

т

(3.3.73)

bMAP = (U *

R U *)

 

U * Ry * .

Нетрудно заметить, что форма уравнения (3.3.73) совпадает с формой уравнения (3.3.13), однако в данном случае используется расширенная матрица входа U * и расширенный вектор измерений

204

y * , причем вектор математического ожидания μb рассматривают-

ся как дополнительные измерения. Подставляя (3.3.72) в (3.3.73), запишем формулу для оценки в ином виде:

bMAP = (Db

+U

 

Dη U )(U

 

Dη

y + Db μb ). (3.3.74)

ˆ

1

 

т

1

D

т

 

1

 

 

1

Нетрудно заметить,

что

 

R*

1

 

0

, можно трактовать

 

=

η

 

D1

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

b

 

как матрицу дисперсий объединенного вектора ошибок измерений

 

 

η

 

η* =

 

 

. Тогда оценка (3.3.73 ) является оценкой минималь-

b μb

 

ной дисперсии по отношению к линейному объекту вида: y* =U *b + η* .

Ковариационная матрица ошибок оценки, согласно формуле (3.3.55), может быть записана следующим образом

 

ˆ

 

 

*т

*

*

1

 

 

var (bMAP b ) = U

 

R U

 

,

 

 

 

 

 

 

 

 

или, подставив обозначения (3.3.75 ) и произведя несложные преобразования, получим

 

ˆ

 

1

+U

т

1

1

.

 

 

var (bMAP b ) = (Db

 

Dη U )

 

Отметим, что в случае отсутствия априорной информации о параметре, дисперсия оцениваемого параметра Db = ∞ . Тогда

 

 

 

ˆ

 

 

 

1

 

т

 

 

1

 

 

 

 

1

(U

т

 

1

1

 

 

 

bMAP

= Dlim→∞(Db

 

+U

 

 

Dη

U )

 

 

Dη

y + Db μb )=

 

 

 

 

 

b

= (U

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

т

 

1

 

 

 

1

U

т

 

1

y

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

Dη U )

 

 

 

 

Dη

 

= bLS .

 

Наоборот, при достоверном знании

значения параметра

 

,

b

Dη = 0 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ˆ

 

 

 

1

 

т

 

 

1

 

1

(U

т

 

1

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

bMAP

= Dlim0 (Db

+U

 

Dη U )

 

 

 

 

 

Dη

y

+ Db

μb )= μb . (3.3.75)

 

 

 

 

b

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

205

3.3.8. Байесовские оценки

Можно заметить, что методы оценивания, описанные ранее, представлены в порядке возрастания априорной информации, необходимой для их реализации. Так, для использования метода наименьших квадратов не требуется никаких дополнительных сведений ни о статистических характеристиках шумов измерений или помех, ни о плотности распределения самого оцениваемого параметра. Конечно, статистические свойства полученной оценки зависят от этих характеристик. Для реализации метода максимума правдоподобия требуется знание плотности распределения

~

p( y / c ) , а для метода максимума апостериорной вероятности на-

~

ряду с p( y / c ) должна быть известна и априорная плотность рас-

~

пределения p(c ) .

Для получения байесовских оценок, кроме функций распреде-

~ ~

ления p( y / c ) , p(c ) , p( y) , необходимо знание и некоторой

 

 

~

 

 

 

 

 

 

 

 

 

 

 

 

 

функции штрафа ϕ(c c ) ; при этом байесовская оценка миними-

зирует условное

 

математическое ожидание функции

штрафа

~

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M{ϕ(c c ) / y} при конкретной реализации выхода y . Так как

 

 

 

 

~

 

~

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(3.3.76)

M{ϕ(c c ) / y} =

ϕ(c c ) p(c / y)dc ,

то байесовская оценка

 

−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

сˆ

 

 

 

 

 

 

 

~

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

c

ϕ(c c ) p(c / y)dc .

(3.3.77)

B

= arg min

 

 

~

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞

При квадратичной функции штрафа (3.2.23) функционал (байесовский риск) принимает вид:

 

~

 

 

 

~

 

 

 

 

~

 

 

 

 

 

 

 

 

 

 

т

 

 

 

 

 

 

 

 

 

J (c ) =

 

R(c c ) p(c / y)dc .

(3.3.78)

(c c )

 

−∞

Оценка cˆB , обеспечивающая минимум критерия (3.3.78), по сути, является оценкой с минимальной среднеквадратической ошиб-

206

кой при данной выборке

y . Ее можно найти, приравняв к нулю

градиент

~

 

 

~

и решив уравнение

 

J (c ) по переменной c

 

 

J (c )

 

= 2

ˆ

(3.3.79)

 

 

 

 

 

 

c

 

R(c cMV )P(c / y)dc = 0

 

 

ˆ

−∞

 

 

 

 

c

=cB

 

 

 

относительно cˆB . Равенство (3.3.79) можно переписать в виде:

сˆB P(c / y)dc = cP(c / y)dc .

−∞ −∞

Учитывая теперь, что функция P(c / y) является плотностью

распределения и, следовательно, P(c / y)dc =1, получаем форму-

−∞

лу для оценки

ˆ

cP(c / y)dc = M{c / y}.

(3.3.80)

cB =

−∞

Нетрудно показать [14], что рассмотренная процедура минимизации действительно приводит к минимально возможному значению байесовского риска (3.2.23). Очевидно, выражение (3.3.80) представляет собой условное математическое ожидание M{c / y}

параметра c при конкретной реализации выхода y , т.е. оценка cˆB

совпадает с апостериорным средним значением параметра c . Рассмотрим более подробно задачу нахождения байесовской

оценки параметров линейного регрессионного объекта (3.1.6) при нормальных законах распределения f (η) и p(b ) , которые описы-

ваются формулами (3.3.68) и (3.3.69). В качестве функции штрафа будем использовать квадратичный критерий (3.3.78). Как было по-

казано, в этом случае ˆ представляет собой апостериорное сред- bB

нее (3.3.80), т.е.

ˆ

 

b p(b / y)db = M{b / y}.

(3.3.81)

bB =

−∞

207

Апостериорная плотность распределения p(b / y) может быть определена по формуле Байеса:

p(

 

/ y) =

( p( y /

b

) p(

b

))

.

(3.3.82)

b

 

 

 

 

 

 

 

 

p( y)

 

В этой формуле p(b ) (априорная плотность распределения оцениваемого параметра) имеет, по условию, нормальный закон распределения, p( y / b ) = f (η) η=yUb – также представляет собой

нормальный закон распределения. Кроме того, учитывая, что объект линейный относительно параметра b и шума η , и исходя из

свойств нормального закона распределения [5], можно заключить, что P( y) – нормальный закон распределения с параметрами:

 

 

 

 

+ η} =Uμ

 

;

var{y} =UD U т + D .

M{y} = M{Ub

b

 

 

 

 

 

 

 

 

 

 

 

 

b

 

η

Таким образом:

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

p( y) =

 

 

 

 

 

 

 

 

 

 

×

 

 

 

 

(2π)

N / 2

det(UD U

т

1/ 2

 

 

 

 

 

 

 

+ D )

 

 

 

 

 

 

 

 

 

 

 

 

 

b

 

η

 

 

×exp

1

( y Uμ

)т ×(UD U т

+ D )1( y Uμ )

 

. (3.3.83)

 

 

 

2

 

 

b

 

 

b

 

 

η

 

b

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Подставляя в (3.3.82) выражение для p( y / b ) , p(b ) , p( y) , определяемые формулами (3.3.68), (3.3.69) и (3.3.83), получим:

[det(UDbU т + Dη)]1/ 2 p(b / y) = (2π)m / 2[det Db det Dη]1/ 2 ×

×exp 1 ( y Ub )т D1( y Ub ) (b μ )т D1(b μ ) +

η b b b

2

+ ( y Uμ )т(UD U т D )1( y Uμ ) .

b b η b

Раскрывая скобки в показателе экспоненты и приводя подобные члены, можно записать:

208

p(b / y) =

×exp

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

×

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

det D

det D

 

 

 

 

 

 

 

 

 

 

 

 

2

 

(2π)m / 2

 

 

 

 

 

 

 

b

 

 

 

η

 

det(UD U т + D )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

b

 

 

 

 

η

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

т

 

т

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(b

ξ )

 

G

 

(b ξ )

,

(3.3.84)

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где введены следующие обозначения:

 

 

 

= (D1

+U тDη1U )1(U тDη1 y + D1μb );

(3.3.85)

ξ

 

 

b

b

 

 

 

 

G = (Db1 +U тDη1U ).

(3.3.86)

Как и следовало ожидать, p(b / y) имеет нормальный закон

распределения с параметрами:

M{b / y} = ξ ; var{b / y} = G 1 .

Таким образом, учитывая (3.3.81), можно заключить:

 

 

 

ˆ

 

 

 

 

 

 

 

 

 

 

 

= M{b / y} =

 

 

 

 

bB

 

 

= (Db1 +U тDη1U )1 (U тDη1 y + Db1μb );

(3.3.87)

 

ˆ

 

 

 

1

+U

т

1

(3.3.88)

 

 

 

var {bMV b} = Db

 

Dη U .

Сравнивая последние выражения с оценкой максимума апостериорной вероятности для линейного объекта при нормальных зако-

нах распределения b и η , можно заметить, что эти оценки полностью совпадают.

3.4. Рекуррентные сходящиеся алгоритмы при полной априорной информации о помехе

3.4.1. Метод стохастической аппроксимации для решения скалярных стохастических уравнений

Метод стохастической аппроксимации был предложен в 1951 г. Робинсоном и Монро [14] для решения скалярных стохастических уравнений вида

209

ψ(c,η(i)) y(i) = 0 , i =1,2,...,

(3.4.1)

где с – искомый параметр; η(i) – случайная последовательность с характеристиками

M{η(i)} = 0 , cov{η(i),η( j)} = ση2 δk (i j) .

Для нахождения корня стохастического уравнения (3.4.1) было предложено использовать рекуррентную последовательность

cˆi+1 = cˆi − γi+1(ψ(cˆi ) y(i +1)) .

(3.4.2)

Задача состоит в подборе такого коэффициента γi+1 , который

обеспечивал бы состоятельность оценки в среднеквадратичном, а именно:

lim M{(cˆ c)2} = 0 .

(3.4.3)

i→∞ i

Запишем математическое ожидание квадрата ошибки оценки на (i + 1)-м шаге через математическое ожидание квадрата ошибки оценки на i-м шаге:

M{(cˆi+1 c)2} = M{[cˆi − γi+1(ψ(cˆi ) y(i +1)) c]2} =

= M{(cˆi c)2} + M{γi2+1(ψ(cˆi ) y(i +1))2}

2M{γi+1(cˆi

c)(ψ(cˆi ) y(i +1))} .

(3.4.4)

Введем обозначения:

 

 

 

 

 

 

 

 

 

 

 

 

ξ

 

= M{(cˆ

 

c)2} ;

 

(3.4.5а)

 

 

i+1

 

 

i+1

 

 

 

 

 

ξ

i

= M{(cˆ

c)2 };

 

 

 

 

 

 

 

i

 

 

 

 

 

e = M

{[ψ(cˆ ) y(i +

1)]2};

(3.4.5б)

i

 

 

 

 

 

i

 

 

 

 

 

di = M{(cˆi c)(ψ(cˆi ) y(i +1))} .

(3.4.5в)

Используя эти обозначения, запишем (3.4.4) в виде:

 

ξ

i+1

= ξ

i

+ γ2

e 2γ

d

.

(3.4.6)

Так как ξi , ξi+1 , ei

 

 

i+1 i

 

i+1 i

 

 

больше нуля, то для того, чтобы ошибка

оценки на каждом шаге в принципе могла уменьшаться, необходимо выполнение условия:

γi+1di > 0 .

(3.4.7)

В противном случае, математическое ожидание квадрата ошибки оценки будет монотонно увеличиваться.

210