Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Сольницев Р. И. Автоматизация проектирования систем автоматического управления.doc
Скачиваний:
220
Добавлен:
02.05.2014
Размер:
10.46 Mб
Скачать

Метод случайного поиска

Достоинства:

  1. Пригодность для любой функции Q(x) независимо от того, является она унимодальной или нет.

  2. Вероятности успеха поиска оптимального решения не зависит от размерности пространства независимых переменных х.

  3. Достаточно просто учитывает ограничение на область поиска в виде неравенств:

а)

б)

Случайный поиск с адаптацией шага

(1)

Знаки имеют место при поиске минимума

–случайный вектор , составляющей которого являются случайные числа, равномерно распределенные от -1 до +1

а– рабочий шаг поиска

- удачный шаг

- неудачный шаг

позволило определить диапазон изменения и

получили

Вблизи экстремума желательно уменьшить до 0,5.

Если , то система

Приблизительно величины выбираем такими:

Метод Келли -Уиллинга

После того как задана начальная точка, строится случайная траектория для последовательности шагов по следующему алгоритму:

- величина шага поиска

- вектор предыстории, указывающий среднее направление поиска на предыдущих шагах

- единичный вектор отклонений , реализуемый генератором псевдослучайных чисел по нормальному закону

- коэффициент, измеряемый в процессе поиска

- постоянный весовой множитель

- вектор масштабных множителей для масштабирования

Случайный поиск с самообучением.

Растригин-Рипа

Алгоритм случайного поиска с непрерывным самообучением, способным настраиваться на соседние более благоприятные направления, что повышает его мобильность, по сравнению с покоординатными алгоритмами обучения.

Алгоритм записывается в виде рекуррентной формулы.

- вектор предпочтительного направления, величина которого ограничена величиной «С»

- смещение независимых переменных на (i+1) шаге

- приращение функции качества на (i+1) шаге

- величина рабочего шага поиска

, ,- постоянные коэффициенты

- вектор случайных чисел, равномерно распределенный от -0,5 до +0,5

учитывает изменение функции качества на предыдущем шаге

- на начальном шаге поиска оптимальные параметры

Метод Даниленко-Каган

Алгоритм реализует пробные перемещения из точки в точкупо алгоритму:

- вектор случайных чисел, равномерно распределенный от -0,5 до +0,5

- величина рабочего шага поиска

Где - коэффициент меньше 1

r- число запоминаемых предыдущих направлений

l- текущий номер запоминаемого предыдущего направления

- рабочий шаг.

Минимальный шаг поиска

- вектор предполагаемого направления, с каждым шагом теряет ценность

Метод Трахтенбергп

Алгоритм с самообучением:

- шаг поиска

M– шкальные коэффициенты (масштабные)

- разница между приращениями

- число, следующих подряд неудачных шагов

В процессе решения задачи, значения коэффициентов ,,могут быть изменены

Экстраполяционный случайный поиск с адаптирующимся шагом

Эффектом средств повышения быстродействия поиска оказывается линейная экстраполяция. Экстраполяция распространяется на случайную последовательность локальных передвижений в пространстве независимых переменных.

На i–м этапе предлагаемого метода формула экстраполяции определяется в соответствии со следующим выражением:

W- некоторый метод поискабез правила остановки, состоящий изm– идентичных итераций ω; Первая из которых действует на точку с координатами. На начальном этапе (i=0)задается произвольно. Если точкаудовлетворяет заданному критериюk, то она рассматривается в качестве исходной для итерации ω и :

В противном случае, экстраполяция считается неудачной и может переводится в состояние .

В качестве критерия допустимости экстраполяции kзадается неравенство:

В качестве итераций ω использован алгоритм случайного поиска с адаптирующим шагом, состоящий в следующем:

из каждой точки производится два движения:

где равномерно распределен на единичной сфере, если на протяженииS– поток не было ни одного удачного движения, то величина шага уменьшается. итерация ω считается оконченной в случае хотя бы одного удачного движения. Конкретные значения параметров алгоритма:

Эмпирические рекомендации по выбору алгоритм мало чувствителен к выборувдали от экстремума, вблизи ассиметрично расположенного экстремума следует уменьшениедо 0,1. Эксперименты показывают. что величинаSне должна превосходитьb, а по отношению кm>1, алгоритм достаточно устойчив.