Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебное пособие 400202.doc
Скачиваний:
24
Добавлен:
30.04.2022
Размер:
3.47 Mб
Скачать

Ограничения типа неравенств

Ограничения типа неравенств (S=SH) образует обычно область размерности n. Выход за границу этой области (C S) является сигналом о необходимости учета ограничений S. При случайном поиске это можно осуществить множеством способов. Рассмотрим наиболее эффективный из них.

С пособ возврата заключается в том, что нарушение ограничений S отождествляется с неудачным шагом, т. е. c не убыванием показателя качества ( ), для чего вводится оператор возврата. Таким образом, в процессе поиска различаются лишь две ситуации удачного и неудачного шагов:

: (C S) ( Q<0), : (C S) ( Q 0) (23.14)

т.е. удачным шагом считается случай , когда ограничения не нарушены и одновременно уменьшился показатель качества. Неудачным шагом считается тот, при котором нарушены ограничения или увеличился показатель качества. Реакцией на является возврат в предыдущее состояние ( C[N+1]=- C[N]) и случайный шаг. ( C[N+2]=a ). На удачу – можно реагировать по-разному. При случайном спуске (см. П. 15.3.2) - повторять удачный шаг ( C[N+1]= C[N]). При алгоритме с возвратом (п. 15.3.1) - вводить случайный шаг ( C[N+1]=a ).

Ограничения типа равенств

Учет ограничений типа равенств (S=SG) в процессе случайного поиска связан с организацией движения вдоль этих ограничений. Это можно осуществить различными путями. Простейшим из них является введение “коридора”, т.е. переход к ограничениям типа неравенств:

||gj(C)||<e, f= (23.15)

При этом величина – должна стремиться к нулю в процессе поиска.

Ограничения типа неравенств и равенств

Учет такого рода ограничений (SH SG) в процессах случайного поиска осуществляется путем прямого комбинирования методов, используемых в двух рассмотренных выше случаях.

Дискретные ограничения

Простейшая схема следующего поиска в случае ограничений SD опирается на случайный выбор новой точки в e - окрестности исходной точки. Пусть e - окрестность исходной точки С[N] имеет вид

||C-C[N]|| e (23.16)

и пусть для простоты множество Sp образовано целочисленными векторами С. Это означает, что все координаты этих векторов имеют целочисленные значения (более общий случай легко сводится к этому). Пусть De[N] - множество целочисленных точек, попавших в --окрестность, т.е. удовлетворяющих условию. Так, например, при e=1 таких точек будет 2n.

Тогда процедура случайного поиска на (N+1)-м шаге будет связана со случайным выбором такой точки множества De[N], для которой выполняются очевидные условия

Q(C[N+1])<Q(C[N], C[N+1] De[N]. (23.17)

Можно точки, удовлетворяющие этому условию, сделать неравномерно распределенными и изменять их вероятности в соответствии с выбранным законом самообучения, например, увеличивая вероятности тех векторов смещений, которые на предыдущем шаге дали уменьшение критерия качества (с последующим нормированием, разумеется). Процесс самообучения здесь естественно дополнить условием запоминания уже проверенных точек с тем, чтобы не повторять проверку условия в одной и той же точке. Критерием остановки процесса является отсутствие такой точки при достаточно большом e. Очевидно, что этот процесс можно варьировать в широких пределах. Например, изменять характер меры в неравенстве или адаптировать ее в процессе поиска. Большинство существующих эффективных методов решения дискретных задач оптимизации в той или иной степени используют изложенное.