Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

5Л_СтохастическоеПрогр

.pdf
Скачиваний:
15
Добавлен:
01.06.2015
Размер:
1.19 Mб
Скачать

В методе поиска с парными пробами предполагается четкое разделение между пробным и рабочим шагами. Направление рабочего шага выбирается после двух пробных шагов из исходной точки X0 в точки X1 и X2 вдоль случайного направления :

X1 X 0 g , X 2 X 0 g ,

где g—величина пробного шага; — равномерно распределенный единичный случайный вектор

Для рабочего шага поиска принимается направление, соответствующее наименьшему значению целевой функции; это направление выбирается исходя из следующих

условий:

X 0

a

при W ( X1) W ( X 2 ),

 

 

X

a

при W ( X1) W ( X 2 ),

 

X 0

где a—величина рабочего шага поиска, обычно a<g.

Метод поиска по наилучшей пробе характеризуется проведением m случайных пробных шагов из исходной точки Xj-1 , в точки X1, X2,..., Xm так, что

X1 X j 1 g (1) , X 2 X j 1 g (2) ,...,X m X j 1 g (m) ,

и выбором шага, соответствующего наибольшему уменьшению целевой функции

W (X j 1 g *) min W (X j 1 g (k) ) , k 1, 2,...,m,

где * — направление наилучшей пробы; g — величина пробного шага поиска;(k) — равномерно распределенные единичные случайные векторы

Рабочий шаг делается в направлении наилучшей пробы

Идея самообучения при поиске экстремума сводится к накоплению в ходе поиска информации об оптимизируемой системе, выработке и уточнению в ходе поиска некоторых вероятностных гипотез о наилучшем направлении смещения центра зоны поиска и к использованию этих гипотез при формировании очередных шагов

Предыдущие шаги рассматриваются три этом как результаты испытаний системы, дающие представление о благоприятном направлении оптимизации.

Вектор в этом случае перестает быть равновероятным и в результате самообучения приобретает некоторые преимущества в направлении наилучшего шага

Обучение обычно начинается в обстановке равновероятного поиска, а затем по мере накопления информации о системе приобретает некоторые сведения в виде оценок наилучшего направления движения системы к экстремуму. По мере накопления опыта дисперсия этих оценок должна уменьшаться. Введение случайности в этом случае играет роль средства прощупывания системы с целью определения наиболее эффективного направления оптимизации. В ряде случаев производится изменение структуры алгоритма обучения («переучивание»), если изменились условия функционирования системы или обучение было неточно

Поиск с обучением по одной попытке. Случайность вводится после повторного неудачного шага. Смещение на каждом шаге поиска производится следующим образом: X j 1 X j i . При удачном шаге j 1 j . После первого неудачного шага центр зоны поиска смещается в направлении, противоположном неудачному, т.е. j 1 j , а при следующем неудачном шаге направление смещения выбирается случайным

Рассмотренный алгоритм напоминает поиск с «наказанием» случайностью и является

алгоритмом «жесткого» обучения по одной попытке

«Нежесткое» обучение по одной попытке предусматривает автоматическое изменение

масштаба, т.е. при удачном шаге

 

j 1

d

 

j 1

 

 

,

 

1 j , а при неудачном шаге

 

(1 d

2 ) j

причем d1 d2 1 .

 

 

 

 

 

 

 

 

Существуют также разновидности алгоритмов поиска с самообучением по нескольким шагам и непрерывного обучения

Улучшенная сходимость методов направленного случайного поиска с элементами самообучения по сравнению с методом ненаправленного случайного поиска достигается за счет снижения универсальности метода

Метод поиска экстремума по статистическому градиенту. В методе статистического

 

 

 

 

~

 

m

 

 

 

 

 

 

 

 

k

) (F ( X

k

h j ) F ( X

k

)) j

градиента по m пробам составляется векторная сумма F ( X

 

 

 

 

 

 

 

 

 

 

 

 

j 1

 

 

 

 

являющаяся статистической оценкой градиента ЦФ. Рабочий шаг осуществляется в

 

 

 

 

 

 

~

 

 

 

 

 

 

 

 

 

направлении градиента:

X k 1

X k h

F ( X k )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

~

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

F ( X k )

 

 

 

 

 

 

 

 

 

При m→∞ направление статистического градиента стремится по вероятности к направлению

градиента . При m=n, где n – число переменных ЦФ, а m – число неслучайных ортогональных проб 1 (1,0,0,..,0), 2 (0,1,0,..,0),..., m (0,0,..,0,1) , рассматриваемый алгоритм

вырождается в детерминированный метод градиента. ДГМ на каждом шаге требует (n+1)

вычисление, а СГМ достаточно вычислить ~F( X k ) . График удельных потерь (результат

деления потерь на успех):

ДМГ

n+1

МСГ

n

Методы случайного поиска с адаптацией

Адаптацией называется целенаправленный процесс изменения различных параметров поиска (например, шага) для повышения его эффективности. Процесс адаптации можно вводить и в детерминированные методы

Адаптация величины рабочего шага. От размера шага зависит сходимость метода: большой шаг дает быстрое приближение к экстремуму, но появляется вероятность «блуждания» около него. Малый шаг не позволяет быстро достигнуть экстремума, но удобен для работы внутри его окрестности. Поэтому целесообразно вводить процедуру автоматического изменения шага. На значительном расстоянии от ext шаг должен увеличиваться, а по мере приближения к ext он должен уменьшаться. Изменение шага может осуществляться по результатам одной или нескольких попыток

 

hk

 

 

 

1 hk

удачный шаг - коэффициент роста

 

1

 

 

h

неудачный шаг - коэффициент сброса

 

 

 

 

 

2

здесь 1 1,

2

1.

 

k

 

Доказано, что если вероятность удачного шага Р*, то оптимальные

значения 1 и 2

 

связаны соотношением: 1P* 2P* 1

Структурная адаптация осуществляется за счет параметризации структуры алгоритма, т.е. введения параметров, которые определяют структуру алгоритма поиска

Если {Fi} – конечное множество возможных алгоритмов поиска, тогда их линейная

комбинация

q

образует поиск, параметрами которого являются числа ui

F ui Fi

 

i 1

q

 

 

0,1 , то получим F=F т.е. какой-то конкретный

Например, если сумма ui

1 и

ui

 

 

 

 

 

i

i 1

алгоритм. Если же снять эти ограничения, то получим гибридную структуру алгоритма

Рассмотренных методы направленного случайного поиска носят локальный характер и имеют малую эффективность в задачах с многоэкстремальной целевой функцией

Уменьшение риска потери глобального экстремума требует равномерного и достаточно полного просмотра всей области определения целевой функции (т е. использования элементов ненаправленного случайного поиска)

В зависимости от того, как производится такой просмотр, различают независимые, блуждающие и комбинированные методы глобального поиска экстремума

Независимые методы представляют собой некоторые модификации ненаправленного случайного поиска. Улучшение сходимости поиска достигается в результате последовательного сужения зоны ненаправленного случайного поиска после просмотра его исходной зоны и нахождения вероятных областей глобального экстремума. Такое сужение зоны поиска обеспечивается соответствующим изменением законов распределения случайных величин

Блуждающие методы поиска сходны с методами направленного случайного поиска, но отличаются от них введением случайных воздействий на направление поиска и повышением «инерционности» метода, т.е. его способности двигаться в ранее выбранном направлении при изменении ситуации

Принцип их таков: берется детерминированный метод, например градиентный, и на него накладывается случайный вектор хk 1 xk f ( X k ) g . Во время блуждания попав в локальные минимумы целевой функции поиск задерживаемся в них тем дольше, чем меньше значение функции в соответствующем экстремуме. Если при этом плавно уменьшать значение коэффициента при случайном векторе, то точка исследования попадет в глобальный min и никогда от туда не выйдет

Комбинированные методы поиска характеризуются сочетанием элементов ненаправленных

методов поиска с целью выявления вероятных областей глобального экстремума и методов направленного случайного поиска (или их регулярных аналогов), обеспечивающих достаточно быструю сходимость. В ряде задач можно эффективно использовать комбинированные методы, основанные на сочетании методов ненаправленного случайного поиска для розыгрыша начальных точек поиска с методом градиента, наискорейшего спуска, направленного случайного поиска и случайного поиска с самообучением

При решении задач определения глобального экстремума поиск может производиться любым из методов направленного случайного поиска, но каждый раз из случайно выбранных начальных состояний. Локальный экстремум, полученный в результате каждого этапа поиска, запоминается и сравнивается с локальными экстремумами последующих этапов. Из них и выбирается наименьший (наибольший)—глобальный минимум (максимум)

Пример. Требуйся найти значения x1>0 и x2.>0, соответствующие минимальному значению

целевой функции W 140x0,93 150x0,86

, если5x0,9 10x0,85 3200

, 24x0,94

6x0,93 16000 ,

 

 

 

 

 

1

2

1

 

2

1

2

8x0,88

14x0,89

5050,

x1 x2

1000 . После третьего подряд неудачного шага рабочий шаг

1

 

2

 

 

 

 

 

 

 

 

 

 

 

уменьшить в 10 раз.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Решение. Примем сначала за длину

Номер

 

Значение

 

(i)

(i)

 

Выполнение

W (i)

 

 

 

 

 

 

 

 

 

 

 

 

испытания

 

шага a

x1

x2

 

ограничений

 

 

рабочего шага а=100, координаты исходной

 

 

 

 

 

 

 

 

 

 

0

 

 

 

990

10

 

1

86626

 

точки поиска х10=990, х20=10. Значение

1

 

-100 0,6

 

930

70

 

1

86482

 

целевой функции в исходной точке

 

 

 

 

 

 

 

 

 

 

2

 

-100 0 6

 

870

130

 

1

85702

 

 

 

 

 

W0=86626. Последовательность случайных

 

 

 

 

 

 

 

 

 

 

3

 

-100 0,6

 

810

190

 

1

84633

 

 

 

 

 

чисел ζ , равномерно распределенных в

 

 

 

 

 

 

 

 

 

 

4

 

-100 0,6

 

750

250

 

1

83369

 

 

 

 

 

 

 

 

 

 

 

интервале (-1, 1): -0,6; -0,28; 0,48; 0,1; 0,98;

5

 

-100 0,6

 

690

310

 

1

81960

 

 

 

 

 

 

 

 

 

 

 

 

 

 

6*

 

-100 0,6

 

630

370

 

0

 

 

-0,25; 0,6; 1.

 

 

7

 

-100 0,28

 

602

398

 

1

81244

 

Первый шаг поиска осуществляется в

 

 

 

 

 

 

 

 

 

 

8

 

-100 0,28

 

574

426

 

1

80529

 

 

 

 

 

случайном направлении. Вычисляем

 

 

 

 

 

 

 

 

 

 

9*

 

-100-0,28

 

546

454

 

0

 

 

 

 

 

 

 

 

 

 

 

 

координаты точки Х1:

 

10*

 

100 0,48

 

594

406

 

1

81751

 

 

 

 

 

 

 

 

 

 

 

 

х1

1 -аζ1=990-100*0,6=930;

11*

 

100 0,1

 

504

496

 

1

80790

 

1

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

12*

 

10 0,98

 

513,8

486,2

 

1

80780

 

х21=1000-930=70. Значение целевой

 

 

 

 

 

 

 

 

 

 

13*

 

-10 0,25

 

511,3

488,7

 

0

 

 

функции в найденной точке W1=86482.

 

 

 

 

 

 

 

 

 

 

14*

 

10 0,6

 

517,3

482,7

 

1

80685

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

15*

 

1 1

 

518,3

481,7

 

1

80555

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Поскольку W1 – W0 <0, шаг следует считать удачным. Поэтому следующие шаги делаются в том же направлении до первого неудачного шага

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]