- •3. Внедрение свойств обучения и адаптации в интеллектуальные системы управления Генетические алгоритмы для глобальной оптимизации
- •3.1 Основные этапы и блок-схема га Этап 0: Кодирование(Coding)
- •Этап 1: Построение начальной популяции (Initial population construction)
- •Кроссовер оператор
- •Оператор мутации
- •Пример оптимизации, основанной на га
- •Кодирование и оценка (Coding and Evaluation)
- •(B) Селекция (Selection)
- •(C) Кроссовер (Crossover)
- •(D) Мутация (Mutation)
- •3.2 Теоретические основы га
- •Скрытый параллелизм га
- •В заключение этого параграфа обсудим основные различия между классическими методами оптимизации и га. Основные различия между классическими методами оптимизации и га
- •3.3 Примеры применения га в задачах управления
- •Задача 2: поиск оптимальных постоянных коэффициентов усиления пид регулятора
- •Задача 3: поиск оптимальных переменных коэффициентов усиления пид регулятора для нечеткого регулятора
Скрытый параллелизм га
Предположим, что имеем дело со строками
длины
.
Каждая строка представляет
схем.
Например, строка 1101 имеет длину 4, и ,следовательно, представляет 24 =16 следующих схем:
1100, 110*, 11*0, 11**, 1*00, 1*0*, 1**0, 1***, *100, *10*, *1*0, *1**, **00, **0*, ***0, 0***, ****.
Популяция из строк удовлетворяет следующему неравенству:
,
где
- общее число схем.
Так как каждая строка может представлять много схем, то это значит, что ГА операторы, работающие с популяцией строк, тем самым работают с еще большим числом схем. Это свойство называется свойством скрытого параллелизма ГА (implicit parallelism of GA).
Рассмотрим следующую задачу. Пусть
некоторая схема S имеет
число ее представителей в популяции
в момент времени t,
равное
.
Вычислим, сколько ее представителей
появится в следующей генерации
популяции, т.е.
= ?
Это число зависит от ГА операторов репродукции, кроссовера и мутации. Ответ на этот вопрос дается в следующей фундаментальной теореме Холланда.
Теорема схем (Schema Theorem): фундаментальная теорема ГА
Схемы растут экспоненциально, если они имеют высокие значения функции пригодности, короткие определяющие длины и малый порядок, т.е.
|
где:
-
число представителей схемы S
в момент времени t
;
- среднее значение функции пригодности
для схемы S;
- среднее значение функции пригодности
для всей популяции;
- вероятность оператора кроссовера;
-
длина строки (хромосомы);
-
определяющая длина схемы S;
-
порядок схемы S;
- вероятность мутации.
Основное следствие из теоремы: популяция представителей с высокими значениями функции пригодности растет экспоненциально во времени.
Теорема доказывает сходимость ГА решений к глобальному оптимуму.
В заключение этого параграфа обсудим основные различия между классическими методами оптимизации и га. Основные различия между классическими методами оптимизации и га
Классические методы оптимизации представляют собой класс методов, базирующихся на вычислении производной оптимизируемой функции (derivative - based methods). В отличие от них ГА-оптимизация не требует производных значений (derivative-free optimization) функции пригодности. Таким образом, ГА могут использоваться как для непрерывных, так и для дискретных оптимизационных проблем.
Классические методы оптимизации работают с параметрами данной задачи оптимизации. ГА оперирует с популяцией закодированных параметров. Таким образом, параметры проблемы (оптимизации) должны быть закодированы строками конечной длины. Строки могут представлять последовательности из любых символов. Обычно в ГА используются бинарные символы (0 или 1). Выбор метода кодирования параметров – очень важен.
ГА-оптимизация осуществляется на множестве строк с использованием вероятностного механизма и вычисления значений пригодности строк.
ГА может работать без привлечения каких-либо знаний о пространстве поиска.
ГА обеспечивает средствами поиска оптимального решения в плохо изученных и дискретных пространствах (in poorly understood and irregular spaces).
