Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Растригин Л.А. Автоматная теория случайного поиска

.pdf
Скачиваний:
7
Добавлен:
23.10.2023
Размер:
8.71 Mб
Скачать

ПОИСК БЕЗ САМООБУЧЕНИЯ

111

1)

для

Nsz:n

 

 

 

 

 

 

0 ••• 0

• 00 • • 00

• 0 • • 01

00 • • 00

 

 

0 • • 0 * 00 • • 00 ] 0 ' • 01 ' 00 • • 00

 

 

0 • • 0 . 10 • • 00 . о • • 00 00 • • 00

 

 

 

 

 

 

т

 

 

 

 

 

 

2

 

 

0 • • 0

• 00 ••• 01

• 0 • • 00

00 • • 00

 

 

0 • • 0 . 00 • • 00 . 0 • • 00 . 10 • • 00

 

 

0 • • 0 • 00 • • 00 • 0 • • 00 • 00 • • 01

 

 

0 • • 0

10 • • 00 0 • • 00 00 • • 00

 

 

 

 

 

 

N

 

 

0 • • 0

10 • • 00 0 • • 00 00 • • 00

 

 

т

т

 

 

n-N

 

 

Т

i

 

 

2)

для

N>n

 

 

 

(1.9.12)

 

 

 

 

 

 

• 100 •••оо

т

 

 

 

 

 

 

 

 

 

 

100 • •00

 

Т

 

 

 

 

].

 

 

 

0 '

100 • •00

'

0

 

 

 

 

 

 

m

 

 

 

• 010 • •01

 

2

 

 

 

•.

 

 

 

• 100 • •00

 

(1.9.13)

 

 

 

 

 

 

0

 

 

0

 

 

 

'

100 • •00

 

 

 

ГЛАВА I

112-

где нулями обозначены блоки, элементы которых равны нулю.

Предельные вероятности цепи Маркова равны ее пол­ ным вероятностям на JV-M шаге при N>n:

 

О

при

t'= 1, . . .

т

 

 

 

 

2 '

 

m/2+l

т+п

ри

i= у + 1;

Pi=PiN(N>n)

=

 

 

 

 

 

j = l

j=m+l

т

 

 

pi (0)

при

 

 

i = — +2,

 

о

при

t = m + 1, . . . , т + п.

 

 

 

 

(1.9.14)

Средний штраф рабочих шагов равен

 

III

(1.9.15)

Рср. р

0.

2=1

Среднее смещение в направлении градиента определя­ ется по формуле (1.9.9) с использованием вероятностей (1.9.14):

 

 

m/2+l

т+п

 

 

 

M[AQ]=-

[(

£р}М+

^ Р ^ ) ( а 1

+

а2+-

 

 

j =

l

j = m+l

 

 

 

— + ап)

+p2+mhm(ai

+ a2+---

 

 

••• + an-i-an)

+рг+т/2{0)

(ai + a2 H

\-an-z~

— a„ - i + a„) + p4 +m/2( 0 > (oci + a2 H

 

H an-2 — «n-i —

— ccn) 4

 

r p m - i ( 0 )

( a i - a 2

a n - i + a n ) +

+

Pm{0)(ai-a2-

~an-\

— an)

 

(1.9.16)

Для двумерного случая (л = 2) по формулам (1.9.14) и (1.9.16) получаем:

ПОИСК БЕЗ САМООБУЧЕНИЯ

113 — —

Pi = Р2 = 0; рг=pi<°> +р2<°> + р 3 ( 0 )

р 4 = р 4 ( 0 ) ; Р5 = Ре = 0;

Af[AQ]= - [ W 0 ' + р2<°> + Р з ( 0 ) + р 5 + p 4 ( 0 ) ( a i - a 2 ) ] .

+ р 5 ( 0 ) + Рб( 0 ) ;

(1.9.17)

( 0 ) + р 6 ( 0 > ) (а, + а 2 ) + (1.9.18)

§ 1.10. С О П О С Т А В Л Е Н И Е Н Е П Р Е Р Ы В Н О Г О И А В Т О М А Т Н О Г О

А Л Г О Р И Т М О В С Л У Ч А Й Н О Г О П О И С К А

Непрерывный вариант случайного поиска характеризуется тем, что шаг в n-мерном пространстве параметров определяется как радиус-вектор, конец кото­ рого равномерно распределен по поверхности «-мерной гиперсферы, а начало лежит в ее центре.

В многоканальных оптимизаторах [11, 43] использу­ ется дискретный, т. е. автоматный, вариант случайного поиска, при котором конец радиуса-вектора распределя­ ется равномерно только по вершинам n-мерного гипер­

куба, а

начало вектора по-прежнему лежит в центре

«-мерной

гиперсферы, описывающей гиперкуб.

Рассмотрим, как введение дискретности повлияет на эффективность и статистические свойства поиска [44].

Под эффективностью поиска будем понимать его быстродействие [3], измеряемое средней величиной бла­ гоприятного приращения функции качества объекта, приходящейся на один шаг поиска. Быстродействие по­ иска характеризует скорость смещения к экстремуму функции в направлении ее градиента. Быстродействие поиска будем исследовать, используя линейную модель функции качества

Q ( X ) = Q ( 0 ) + [ g r a d Q ( X ) , X ] ,

(1.10.1)

где X n-мерный вектор параметров; [gradQ(X),X] скалярное произведение вектора гра­

диента на вектор X.

8 — 2014

ГЛАВА I

114

Интересующее нас приращение функции качества за один шаг легко вычисляется на основании (1.10.1):

AQf = Q(X1 + AXi ) - Q(X<) = [grad Q(X),||ДХ4 1cos

 

 

 

 

 

(1.10.2)

Здесь |gradQ(X) | и

|АХ|

— модули

gradQ(X) =

= (аи...,ап)

и вектора

шага

A X J ; ф*

угол между

направлением градиента и направлением

шага.

Из формулы (1.10.2) следует, что эффективность слу­ чайного поиска определяется «удачностью» выбора на­ правления случайного шага (при фиксированных |gradQ(X)| и | Д Х , | ) .

Так, при поиске maxQ(X) шаги будут удачными, если coscpi>0. При неудачном шаге происходит автоматичес­ кий возврат в предыдущую удачную точку и снова опре­ деляется случайное направление шага. При удачном шаге также делается случайный шаг, что отличает про­ цедуру нелинейного алгоритма. В линейном алгоритме за неудачным шагом следует повторение шага в том же направлении.

Таким образом,

эффективность алгоритмов

обоего

вида

существенно

зависит от

результативности

одного

случайного

шага. Поэтому изучим свойства

автоматного

случайного

поиска на одном случайном шаге.

 

При

расчете эффективности

случайного

шага, для

того чтобы получить оценку в сопоставимых единицах, необходимо, как принято выше, полагать, что

| g r a d Q ( X ) | = l ;

[АХ[ =

1.

(1.10.3)

Тогда координаты вектора шага

A X j = (Ахц,..., Ax,„)

имеют вид

 

 

 

Ах< t — +

—=•

 

 

 

 

( / - I . *

») .

 

( u a 4 )

Другими

словами,

вектор

АХг- есть

вершина п-мерного

гиперкуба и случайный механизм выбора шага заклю­ чается в выборе любой вершины этого гиперкуба равно­ вероятно, т. е. с вероятностью 1/2".

Так же без ограничения общности можно положить, что производится поиск maxQ(X) и задача заключается

ПОИСК БЕЗ САМООБУЧЕНИЯ

115

в том, чтобы найти условное математическое ожидание смещения к цели

т

г=1

где т — число неблагоприятных направлений шага АХ.

В варианте

случайного поиска

на

гиперсфере M[AQ]

не зависит от выбора направления gradQ. Но при дис­

кретном варианте ситуация резко меняется. Например,

при выборе координат градиента для случая п ^ 2

в виде

аг .= 1; a j

= 0

 

 

 

 

(1.10.6)

 

 

( t ^ / = l , 2 , . . . , n )

 

 

 

 

 

имеем

2 n

M значений AQi = \/~)fn, 2п~х

значений

AQi =

= — 1/Уя

и M[AQ] = l/(2yn) —т*. При выборе

координат

градиента

в виде

 

 

 

 

 

a ^ a j = - ~ - ah = 0

 

 

 

{ 1 Ж 7 )

 

 

 

( £ = 1 , 2 , . . . , п ;

кф1ф\)

 

 

имеем 2"~2 чисел Д@*=2/У2п, 2п~2

чисел

AQi=-2/i2n,

2" - 1 чисел AQi = 0 и M[AQ]=

М{2рл)

= т * .

 

 

Докажем ,что при п ^ 2

 

 

 

 

 

m*^M[AQ]s^m*.

 

 

 

(1.10.8)

Оценка сверху получается следующим образом. Пред­

ставим

M[AQ]

как среднее

арифметическое

2п

чисел:

м ^

= 4

г

2 ^ = т 2 ~ п

2 ^ -

 

(1ло-9)

 

 

A Q i ^ O

г=1

 

 

 

 

Последнее равенство справедливо ввиду того, что для каждого AQi>0 в силу симметричности вершины Х£

8*

116 ГЛАВА I

гиперкуба и линейности объекта имеется равное по мо­ дулю, но обратное по знаку приращение A Q ' i . Используя известное неравенство, имеем

M [ A Q ] = l 2 - « ^ T

| A Q i

| S = ^ 2 - «

/ J^AQ; 2 , (1.10.10)

 

 

i = l

 

 

 

/

г=1

 

причем

равенство

достигается

только тогда,

когда все

| A Q i | ,

кроме одного, равны

нулю. Легко проверить, что

такая

ситуация

возможна

лишь при выборе

градиента

Q ( X )

в виде (1.10.6). Для нахождения оценки

снизу не­

обходимо рассмотрение

A f [ A Q ]

как

среднего

арифмети­

ческого т положительных чисел AQc

 

 

 

 

 

 

 

 

т

 

 

M [ A Q ] = 4п

S A

& =

т2-п

y^Qu

(1.10.11)

 

AQt>0

 

 

 

г=1

 

 

для которого известно другое неравенство:

 

 

 

 

in

 

 

 

 

 

M [ A Q ] > m 2 -

 

П AQt-

 

 

(1.10.12)

 

 

 

 

 

 

Здесь

равенство

достигается

при

условии,

что все

A Q i равны друг другу.

Несложно

показать, что равен­

ство возможно

лишь при выборе градиента Q ( X ) в виде

(1.10.7). Таким

образом,

неравенства (1.10.8)

доказаны.

В работе [3] потери на поиск ka

определены следующим

образом:

 

 

 

 

 

 

 

 

max

 

 

 

 

 

/ .

, л i о \

 

 

 

 

 

 

 

 

( 1 Л 0 Л З )

*П = М А О Г

где / — число определений функции качества на один рабочий шаг.

При случайном поиске с пересчетом, который был рассмотрен выше, 1=1, а при градиентном методе по­ иска l = n+l. С учетом (1.10.2) и (1.10.3) для случайного поиска имеем

A Q m a x = J g r a d Q ( X ) J | А Х г | = 1 И к а = щ щ .

ПОИСК БЕЗ САМООБУЧЕНИЯ

117

Теперь сравним потери на поиск при различных мето­ дах оптимизации. Как показано в работе [3], потери на

поиск

равны:

kn=n+l;

а)

для метода градиента

б) для варианта случайного поиска с пересчетом при

шаге,

равномерно

распределенном

по гиперсфере,

ka=

; г

,

(1.10.14)

где Г (га) гамма-функция.

Для варианта случайного поиска на гиперкубе исполь­ зуем оценки (1.10.8).

На рис. 1.10.1 видно, что максимальные потери слу­ чайного поиска на гиперкубе меньше потерь при исполь­ зовании градиентного метода для п > 6 .

Рис. 1.10.1. Потери на поиск:

/ — метод градиента; 2 — непрерывный случайный поиск; зона потерь случайного поиска на гиперкубе заштрихована.

ГЛАВА I

118

Рассмотрим некоторые вероятностные характеристики •случайного поиска на гиперкубе. Отметим тот факт, что Af[AQ] при равномерном распределении направлений градиента совпадает с математическим ожиданием при­ ращения функции качества случайного поиска на гипер­ сфере. Это вытекает из того, что случайная величина фг из (1.10.2) будет иметь точно такое же распределение, как и при случайном поиске на гиперсфере. Однако если направление градиента зафиксировано, то распределе­ ние угла ф; при случайном поиске на гиперкубе дис­ кретно и зависит от выбора направлений градиента, что непосредственно видно из выражения для cos ф,:

п

c o s Ф<=

^ , V M I A V

|

i = 2j

a ^

(1 . Ю . 15)

 

| g r a d Q ( X ) | | A X 1

3=1

 

 

 

 

 

 

 

 

( i = l , 2 , . . . , 2 » ;

/ = 1 , 2 , . . . , / г ) .

Вид закона распределения угла ф зависит от направ­ ления градиента Q(X). Так, при выборе координат гра­ диента в виде (1.10.6) имеем:

СОЗф1=-)=-; Р(ф,) = - 1 ;

\п 2

 

 

l

 

1

(1.10.16)

• с о з ф 2 =

\п

Я(ф2 ) =

— - .

 

 

 

 

2

 

При

выборе

координат градиента

в виде (1.10.7)

имеем 2п~2

чисел созф! = 2/У2п, 2 n _ 1

чисел созф 2 = 0 и

2п-2 Ч И С е л cos ф 3 = — 2/у2/г, т. е.

 

cosq>i=—1=;

/ > ( Ф 0 =

4 " :

 

 

 

\2п

 

4

 

с о з ф 2

= 0;

Р ( ф 2 ) = - 1 - ;

 

(1.10.17)

, С 0 5 ф з =

; Р ( ф 3 ) = — .

 

 

 

]/2д

 

4

 

ПОИСК БЕЗ САМООБУЧЕНИЯ

119

 

Если выбрать координаты градиента в виде

 

ai = a 2 = " - = a n = - т г ,

(1.10.18)

то будет иметь место следующий закон распределения угла <jp:

 

 

(п-т)~т

 

Спт

п

 

0 Ч

coscpm =

п-

= 1

п

; ^ ф т )2п= —

,

 

(1.Ю.19)

В

последнем случае число разных по величине

углов

ф т

между векторами

шагов и вектором градиента

равно

п + 1

, т. е. увеличивается

с ростом Ли Попутно

можно от­

метить, что при оптимизации n-мерной функции каче­ ства ситуация, при которой выполняется условие (1.10.6) г

может иметь место 2п раз, ситуация, когда

выполняется

 

 

 

п - 1

условие

(1.10.7),

будет

иметь место 4

r — 2n(n— 1)

раз и ситуация, когда выполняется условие

(1.10.18), мо­

жет встретиться

2п раз,

т. е. при больших п условие

(1.10.18)

является

наиболее возможным.

 

Случайный поиск на гиперкубе, при котором на каж­ дом шаге производится случайный равновероятный выбор одного из множества дискретных направлений по­ иска, можно считать своего рода аппроксимацией слу­ чайного поиска на гиперсфере. Качество аппроксимации-

можно оценивать,

например, по величине среднеквадра-

тического

отклонения

функции распределения

Р*(ф) слу­

чайной величины угла

ф при случайном поиске на гипер­

кубе от

функции

распределения -Р(ф) при

случайном

поиске на гиперсфере, т. е.

 

б = У

(Фт) [F* т) - F (фт) р .

(1.10.20)

 

т

 

 

 

 

Здесь

т

^ * ( ф т ) = / 5 ( 0 ^ ф < ф т ) = ^ Я ( ф А )

к=1

ГЛАВА I

122

матрицей полного факторного эксперимента типа 2™ и обладает свойством ортогональности [45]:

2

О при j=f=k;

(1.10.26)

 

г=1

•—- при \ — k.

 

•Следовательно,

 

 

(1.10.27)

я в силу условия (1.10.3)

D[AQ}= ~

- M 2 [ A Q ] .

(1.10.28)

Отсюда

при / г ^ 2 из неравенств

(1.10.8) следуют

оценки (1.10.22).

 

Из рис. 1.10.3 видно, что в принятых

терминах потери

на поиск неравенства (1.10.22) можно интерпретировать так: минимальным потерям соответствует минимальная дисперсия, а максимальным потерям — максимальная дисперсия.

Рис. 1.10.3. График зависимости от п среднеквадратических отклонений ве­ личины относительного смещения к цели. Кривая / — метод непрерывного

.случайного поиска.

Соседние файлы в папке книги из ГПНТБ