Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Downloads / 0177413_EC0A1_batishev_d_i_neymark_e_a_starostin_n_v_primenenie_genetiches

.pdf
Скачиваний:
49
Добавлен:
20.05.2015
Размер:
778.59 Кб
Скачать

61 2.3. Операторы ГА, не зависящие от типа представления

этапе схемы пропорциональной селекции или схемы линейной (или нелинейной) ранговой селекции соответственно. Тогда особь ait Rt

репродуцирует свою точную копию в популяцию Pt+1 в том случае, если случайно выбранное число ξ [0,2π ] попадает в сектор, который соответствует i-ой кодировке. Каждый раз выбирается единственная копия для новой популяции Pt+1 . В связи с этим алгоритм отбора повторяется столько раз, сколько кодировок генерируется вновь. При G = 1 (поколенческая стратегия формирования Pt+1 ) алгоритм отбора повторяется ν раз, при G =ν 'ν (стратегия устойчивого состояния формирования Pt +1 )

алгоритм отбора повторяется ν ' раз (в частом случае один раз для ν ' =1).

Метод “вращения рулеточного колеса” (или стохастический выбор с возвращением) в сочетании со схемой пропорциональной селекции можно представить в виде следующей процедуры.

1. Вычислить суммарную приспособленность особей ait Rt :

|Rt |

F= åμi .

i=1

2. Вычислить вероятность выбора каждой особи ait Rt в качестве копии, репродуцируемой в популяцию Pt+1 :

p(ait ) = μFi , i = 1,| Rt | .

3. Вычислить совокупную вероятность для каждой особи ait Rt :

i

pi = å p(alt ) .

l=1

4.Случайным образом по равновероятному закону выбирается действительное число ξ [0,2π ].

Глава 2. Основы генетического поиска

62

5. Если ξ < p , то в популяцию Pt+1

копируется особь at

, иначе для

1

 

1

 

копирования в популяцию Pt+1 выбирается особь

atj , для которой

выполняется условие:

 

 

 

p j−1 < ξ ≤ p j .

 

 

(2.31)

При использовании этого алгоритма для формирования популяции Pt +1 выбор очередной копии производится каждый раз из всего множества решений, образующих репродукционное множество Rt . При этом одно и то же решение может быть репродуцировано более одного раза.

Алгоритм вероятностного отбора, который позволяет определить все ν копий, репродуцируемых из Rt в популяцию Pt +1 с помощью единственного «вращения колеса», реализуется в виде однофазного алгоритма, называемого стохастическим универсальным выбором.

v

1. Определяется N := ånit .

i=1

2. Осуществляется отображение всех решений из Rt в смежные отрезки на оси действительных чисел [0, N ) так, чтобы сегмент i-го

решения равнялся величие его ожидаемого числа копий nit .

3.Случайным образом с равной вероятностью генерируется ν чисел (ξ1,ξ2, ...,ξv ), каждое из которых принадлежит интервалу [0, N ).

4.Для каждого i-го решения из Rt выбирается столько копий, сколько случайных чисел из (ξ1,...,ξv ) попало в i-й сегмент на

интервале[0, N ).

В качестве алгоритмов вероятностного отбора, основанных на информации о совокупности ожидаемого числа копий nit , i = 1,v , отметим следующие алгоритмы.

63

2.3. Операторы ГА, не зависящие от типа представления

Остаточный стохастический выбор с возвращением

1. Пусть

nt = [nt ]×{nt },

i =

 

, где

[nt ]

целая часть числа;

{nt }

1,v

 

i

i

i

 

 

 

i

 

i

 

дробная часть числа nit , являются действительными числами, определенными на первом этапе оператора селекции.

Целочисленная фаза.

2. Детерминированно в популяцию Pt+1 репродуцируется

[nit ] копий для каждого решения из репродукционного множества

Rt .

3.Определяется число недостающих копий v , необходимых для заполнения популяции Pt+1 полностью ν копиями:

v= v åv [nit ].

i=1

4.Если v = 0 , то алгоритм завершает свою работу.

Дробная фаза.

5. Определяется N := åν {nit }.

i=1

6. Осуществляется отображение всех решений из Rt в смежные отрезки на оси действительных чисел [0, N ) так, чтобы каждый

сегмент i-го решения равнялся дробной части {nit } его ожидаемого числа копий nit .

7.Случайным образом с равной вероятностью генерируется число

ξ [0, N ).

8.В качестве копии выбирается то решение, в отрезок которого попало число ξ .

9.Процедура стохастического выбора с возвращением повторяется с шага 7 до тех пор, пока не будет получено v копий.

Глава 2. Основы генетического поиска

64

Остаточный стохастический выбор без возвращения

Этот алгоритм вероятностного отбора состоит, так же как и предыдущий алгоритм, из двух фаз: целочисленной и дробной.

1.Выполняются шаги 1-4, включая целочисленную фазу предыдущего алгоритма.

2.Выполняются шаги 5-8 дробной фазы предыдущего алгоритма.

3.Для выбранного в качестве копии i-го решения его ожидаемое число копий nit принимается равным нулю (этим решения в течение

дробной фазы предохраняются от многократного выбора).

4. Процедура стохастического выбора с возвращением повторяется с шага дробной фазы предыдущего алгоритма до тех пор, пока не

будет получено v копий.

При использовании этого алгоритма для формирования популяции Pt +1 выбранное однажды для копирования решение удаляется из репродукционного множества Rt . Таким образом, популяция Pt +1 не содержит повторяющихся копий.

Детерминированный выбор

Этот алгоритм, так же как и два предыдущих, состоит из двух фаз: целочисленной и дробной.

Целочисленная фаза.

1. Детерминированно в популяцию Pt+1 репродуцируется [nit ] копий для каждого решения из репродукционного множества Rt .

2.Определяется число недостающих копий v , необходимых для заполнения популяции Pt+1 полностью ν копиями.

3.Если v = 0 , то алгоритм завершает свою работу.

Дробная фаза.

65

2.3. Операторы ГА, не зависящие от типа представления

4. Решения репродукционного множества Rt упорядочиваются в порядке уменьшения дробной части {nit } их ожидаемого числа копий

nit .

5. Детерминированно в популяцию Pt+1 отбираются первые v копий упорядоченных на 4-м шаге решений. После этого алгоритм заканчивает свою работу.

Оператор селекции включает в себя по одному алгоритму из следующих двух групп: группы алгоритмов селекции (схемы пропорциональной селекции; схемы линейной ранговой селекции; схемы нелинейной ранговой селекции) и группы алгоритмов вероятностного отбора (стохастический выбор с возвращением; стохастический универсальный выбор; остаточный стохастический выбор с возвращением; остаточный стохастический выбор без возвращения; детерминированный

выбор), что позволяет использовать при формировании популяции Pt+1 комбинированные схемы операторов селекции, реализующих принцип естественного отбора.

2.3.3. Масштабирование

Как отмечалось ранее, при решении задачи поиска (1.2) схема

пропорциональной селекции при наличии в репродукционном множестве

Rt суперкодировок приводит к преждевременной сходимости. Это объясняется тем, что ожидаемое число копий суперкодировки при

поколенческой стратегии формирования популяции будет на втором этапе

оператора селекции захватывать значительную часть популяции Pt+1 следующего поколения. При этом поиск начинает концентрироваться в

окрестности суперкодировки в силу потери генетического разнообразия хромосомного набора популяции Pt +1 , игнорируя обработку других кодировок репродукционной группы, находящихся в других частях пространства поиска S.

Однако, даже сохраняя значительное хромосомное генетическое разнообразие, схема пропорциональной селекции может привести к потере конкуренции между кодировками репродукционной группы в том случае, когда значение средней приспособленности μср (t) близко к значениям

Глава 2. Основы генетического поиска

66

функции

приспособленности

совокупности

особей

ai Rt (где

μ(ai ) μср (t) ). Это объясняется тем, что

кодировки,

имеющие

приблизительно равные значения функции приспособленности, будут иметь почти одно и то же ожидаемое число копий в следующем поколении. Такая ситуация, называемая интенсивностью конкуренции, приводит к тому, что оператору селекции трудно предпочесть одну кодировку другой и выделить среди них наиболее приспособленную.

Компромисс между преждевременной сходимостью и выравниванием интенсивности конкуренции можно обеспечить с помощью методов масштабирования, которые преобразуют необработанную

функцию приспособленности μ в масштабируемую функцию приспособленности μМ .

Наиболее часто в генетических алгоритмах используется линейное динамическое масштабирование:

 

 

μМ (a) = αt μ(a) + βt ,

(2.32)

где αt > 0

(для

задачи

максимизации);

βt коэффициент

масштабирования.

 

 

 

Коэффициенты

αt и βt

выбираются в каждом t-м поколении по

информации

о значениях

функции приспособленности μ для

обрабатываемых кодировок s Rt , исходя из следующих двух условий.

1.Среднее значение масштабированной функции приспособленности для множества Rt :

 

tМ

=

1

 

åμМ (a)

(2.33)

μ

t

 

 

 

 

| R

| a Rt

 

должно равняться среднему значению необработанной функции приспособленности (2.3) для множества Rt

 

tМ = μср (t) .

(2.34)

μ

67

2.3. Операторы ГА, не зависящие от типа представления

Учитывая (2.32), получим:

αt μср (t) + βt = μср (t) .

(2.35)

Выполнение равенства (2.35) гарантирует, что каждая кодировка

s Î Rt , имеющая значение функции приспособленности

совпадающее со значением средней приспособленности по популяции, при использовании схемы пропорциональной

селекции репродуцирует в среднем одну ожидаемую копию в популяцию Pt+1 .

2.Наибольшее значение масштабируемой функции приспособленности μM+ должно находиться в следующем

отношении со средним значением необработанной функции приспособленности:

μ +

 

 

М

= c ,

(2.36)

μср (t)

 

 

где с = const, c Î[1.2;2.0] ожидаемое число копий для особи,

которая имеет максимальное значение необработанной функции приспособленности в Rt .

Выполнение равенства (2.36) гарантирует, что «наилучшая»

кодировка множества Rt репродуцирует при использовании схемы пропорциональной селекции в среднем c ожидаемых копий в популяцию

Pt+1 .

Таким образом, решая уравнения (2.34) – (2.36), получаем, что для масштабируемой функции приспособленности (2.32) в каждом t-м поколении коэффициенты αt и βt должны вычисляться согласно

следующим выражениям:

αt =

(c -1) × μср (t)

;

(2.37)

μ + (t) - μср (t)

 

 

 

Глава 2. Основы генетического поиска

68

βt =

μср (t) × (μ + (t) - c × μср (t))

.

(2.38)

μ + (t) - μср (t)

 

 

 

 

Здесь μ + (t) значение функции приспособленности «наилучшей» особи в

Rt .

Рис. 2.4. Зависимость μМ от μ для c = 2 и μМ³ 0

Зависимость значений масштабируемой функции приспособленности μМ от значений необработанной функции приспособленности μ приведена на рис. 2.4.

Одно из требований, предъявляемых к необработанной функции приспособленности μ , состоит в том, что она должна принимать неотрицательные значения для всех s S . Это требование должно сохраняться и для масштабируемой функции приспособленности:

 

 

μМ (s) ³ 0 "s Î S .

 

(2.39)

Однако

для

некоторых

репродукционных

множеств

Rt масштабируемая функция приспособленности (2.36) с коэффициентами αt и βt из выражений (2.37) и (2.38) может принимать отрицательные

значения (см. рис. 2.5). Такая ситуация возникает обычно, когда большинство кодировок репродукционного множества Rt являются

69 2.3. Операторы ГА, не зависящие от типа представления

наиболее приспособленными, и их значения необработанной функции приспособленности μ(s) отличаются друг от друга очень мало, в то время

как ряд кодировок этого же множества Rt имеет значения необработанной

функции приспособленности значительно ниже среднего значения приспособленности μср (t) .

Рис. 2.5. Зависимость μМ от μ для c = 2 и μМ< 0

Для решения проблемы исключения отрицательных значений масштабируемой функции приспособленности (2.32) потребуем, чтобы она удовлетворяла следующим двум условиям:

1)

 

tМ = μср (t) ;

 

 

 

 

μ

 

 

 

 

2)

μМ= 0

значение

масштабированной

функции

приспособленности «наихудшей» кодировки.

С учетом этих условий находим, что коэффициенты αt и βt ,

обеспечивающие неотрицательные значения масштабируемой функции приспособленности, должны вычисляться согласно следующим выражениям:

Глава 2. Основы генетического поиска

70

 

αt

=

μср (t)

 

;

 

μср (t) - μ

(t)

 

 

 

 

 

βt

=

μср (t) × μ (t)

.

 

μср (t) - μ

(t)

 

 

 

 

Зависимость

значений

масштабированной

приспособленности

μМ

 

от значений необработанной

приспособленности приведена на рис. 2.6.

(2.40)

(2.41)

функции

функции

Рис. 2.6. Зависимость μМ от μ для c = 2 и μМ = 0

Учитывая выражение (2.32), условие (2.39) для «наихудшей» кодировки из Rt можно записать в следующем виде:

αt μ + βt ³ 0

или

μ ³

βt

.

(2.42)

 

 

αt