Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
shpory1.docx
Скачиваний:
1
Добавлен:
01.05.2025
Размер:
1.55 Mб
Скачать

35. Безградиентные методы n-переменных

Эти методы используются для поиска оптимума как при наличии аналитического выражения функции п-переменных, так и без него.

1.Метод прямого поиска (метод последующего изменения переменных) он по сути аналогичен методу релаксации с разницей что в этом методе не определяется осевое напряжение вдоль которого значение целевой функции изменяется наиболее сильно ,а поочередно изменяются все независимые переменные( а не производные как в градиентных методах), так чтобы по каждой из них достигалось наименьшее или наибольшее значение целевой функции.

Очередность варьирования независимых переменных устанавливается произвольно в начале поиска и не изменяется. Изменение одной переменной варьируется до тех пор пока не будет найден минимум. Достоинства метода- простота и небольшой объем измерений.

Одним из наиболее эффективных методов оптимизации позволяющим решать задачи нелинейного программирования при наличии ограничений является

2. Метод Хука-Дживса при его использовании определяется каждая точка полученная а процессе поиска принадлежащей области ограничений. Если каждая ,то целевая функция рассчитывается обычным путем, если нет то целевой функции присваивается значение и поиск будет осуществляться снова в допустимой области по напряжению ,минимум точки в этой области.

Алгоритм поиска

  1. Выбирается некоторый базисный пункт b1 и шаг h1.

  2. Определяем значение R(b1).

  3. По 1-ой переменной делаем шаг и рассчитываем целевую функцию R(b1+h1*e1) e1-одиночный вектор в направлении оси x1.

  4. Если R(b1+h1*e1)<R(b1), то базовым становится пункт b1+h1*e1

  5. Если это условие не выполняется то делается шаг и рассчитывается функция R(b1-h1*e1)<R(b1).

Функция с наименьшим значением по 1-ой переменной, например R(b1-h1*e1) начинаем изменять другую переменную, и рассчитываем R(b1-h1*e1+ h2*e2)

Когда не один из пунктов по 1-ой функции не уменьшил R, то базовым останется пункт b1.Перебрав таким образом все переменные определяем новый базовый пункт b2 и так далее.

С помощью этого метода невозможно двигаться вдоль границы области ограничений, та как сходимость достигается в 1-ой же точке границы где и находится решение

36. Методы случайного поиска

Эти методы основаны на переборе случайных значений переменных. Существует несколько методов случайного поиска общим для которых является –использование случайных чисел .Перебор идет не хаотически, а по некоторому правилу (числа Фибоначчи). Обычно при выборе случайных чисел каждое последующее число получается из предыдущего. Кроме чисел Фибоначчи для получения последовательности случайных чисел можно использовать метод произведения.

Метод произведения –выбирается 2 числа с одинаковым количеством определяющих чисел(11 , 15) и находим их произведение (165) далее из произведения выбираем m чисел(m=2) находящихся в середине произведения(82,83) эти числа и будут следующими случайными и так далее.

К методам случайного поиска можно отнести 2 метода –это метод слепого поиска и метод случайных направлений.

Метод слепого поиска случайно выбирается пункт где рассчитывается целевая функция R(Xk), с использованием случайных чисел выбираются координаты другого пункта и рассчитывается R(Xk+1).

Если R(Xk+1)< R(Xk), то это пункт запоминается и делается новый шаг. Рассчитываются целевые функции в новых пунктах и сравнивается R(Xk+2) и так далее.Расчет идет до тех пор пока не будет найдено Rmin.

Метод случайных направлений –из пунктов где рассчитывается целевая функция делается шаг h в случайном направлении. Направление вектора поиска Ak, выбирается по случайным числам. В итоге находится пункт Xk+1=Xk+h*Ak.

Если R(Xk+1)< R(Xk) , то пункт Xk+1 принимается за базовый и из него делается новый шаг.

Если R(Xk+1)> R(Xk) , то новый шаг делается из пункта Xk пока не будет найдено значение при котором R(Xk+1)< R(Xk)

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]