Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ГА.doc
Скачиваний:
1
Добавлен:
01.05.2025
Размер:
1.1 Mб
Скачать

Скрытый параллелизм га

Предположим, что имеем дело со строками длины . Каждая строка представляет схем.

Например, строка 1101 имеет длину 4, и ,следовательно, представляет 24 =16 следующих схем:

1100, 110*, 11*0, 11**, 1*00, 1*0*, 1**0, 1***, *100, *10*, *1*0, *1**, **00, **0*, ***0, 0***, ****.

Популяция из строк удовлетворяет следующему неравенству:

,

где - общее число схем.

Так как каждая строка может представлять много схем, то это значит, что ГА операторы, работающие с популяцией строк, тем самым работают с еще большим числом схем. Это свойство называется свойством скрытого параллелизма ГА (implicit parallelism of GA).

Рассмотрим следующую задачу. Пусть некоторая схема S имеет число ее представителей в популяции в момент времени t, равное . Вычислим, сколько ее представителей появится в следующей генерации популяции, т.е.

= ?

Это число зависит от ГА операторов репродукции, кроссовера и мутации. Ответ на этот вопрос дается в следующей фундаментальной теореме Холланда.

Теорема схем (Schema Theorem): фундаментальная теорема ГА

Схемы растут экспоненциально, если они имеют высокие значения функции пригодности, короткие определяющие длины и малый порядок, т.е.

где:

- число представителей схемы S в момент времени t ;

- среднее значение функции пригодности для схемы S;

- среднее значение функции пригодности для всей популяции;

- вероятность оператора кроссовера;

- длина строки (хромосомы);

- определяющая длина схемы S;

- порядок схемы S;

- вероятность мутации.

Основное следствие из теоремы: популяция представителей с высокими значениями функции пригодности растет экспоненциально во времени.

Теорема доказывает сходимость ГА решений к глобальному оптимуму.

В заключение этого параграфа обсудим основные различия между классическими методами оптимизации и га. Основные различия между классическими методами оптимизации и га

  1. Классические методы оптимизации представляют собой класс методов, базирующихся на вычислении производной оптимизируемой функции (derivative - based methods). В отличие от них ГА-оптимизация не требует производных значений (derivative-free optimization) функции пригодности. Таким образом, ГА могут использоваться как для непрерывных, так и для дискретных оптимизационных проблем.

  2. Классические методы оптимизации работают с параметрами данной задачи оптимизации. ГА оперирует с популяцией закодированных параметров. Таким образом, параметры проблемы (оптимизации) должны быть закодированы строками конечной длины. Строки могут представлять последовательности из любых символов. Обычно в ГА используются бинарные символы (0 или 1). Выбор метода кодирования параметров – очень важен.

  3. ГА-оптимизация осуществляется на множестве строк с использованием вероятностного механизма и вычисления значений пригодности строк.

  4. ГА может работать без привлечения каких-либо знаний о пространстве поиска.

  5. ГА обеспечивает средствами поиска оптимального решения в плохо изученных и дискретных пространствах (in poorly understood and irregular spaces).