Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Бокарев Д.И. САПР в сварке_интернет.doc
Скачиваний:
1
Добавлен:
01.05.2025
Размер:
3.49 Mб
Скачать

5.2.7. Сравнение методов одномерной оптимизации

Для сравнительно простой функции рассмотренные методы обеспечивают сравнительно одинаковое время поиска. Исключением является последний метод, имеющий время поиска примерно в 2,5 раза меньше, однако в большинстве случаев для гладких функций дает заметный выигрыш во времени вычислений, без перенастройки программ обнаруживает как максимумы, так и минимумы, причем даже за пределами первоначально заданного интервала поиска.

П реимущество метода золотого сечения перед методами поразрядного приближения и дихотомии при простых F(x) не выявляется, поскольку программная реализация первого метода сложнее и необходимо выполнение ряда вспомогательных операций. Для сложных зависимостей метод золотого сечения может давать существенное сокращение времени расчетов. Для поиска экстремумов пользуются также методом с числами Фибоначчи, однако, особым преимуществом перед методом золотого сечения он не обладает.

5.3. Методы безусловной минимизации

функций многих переменных

Задача безусловной оптимизации состоит в нахождении минимума (максимума) функции в отсутствии каких-либо ограничений. Несмотря на то, что большинство практических задач оптимизации содержит ограничения, изучение методов безусловной оптимизации важно с нескольких точек зрения. Многие алгоритмы решения задачи с ограничениями предполагают сведение ее к последовательности задач безусловной оптимизации. Другой класс методов основан на поиске подходящего направления и последующей минимизации вдоль этого направления. Обоснование методов безусловной оптимизации может быть естественным образом распространено на обоснование процедур решения задач с ограничениями. Рассмотрим основные методы многомерной оптимизации.

5.3.1. Многомерный поиск без использования

производных

Данные методы решения минимизации функции нескольких переменных опираются только на вычисление значений функции и не используют вычисление производных, т.е. являются прямыми методами оптимизации. Важно отметить, что для применения этих методов не требуется не только дифференцируемости функции, но даже ее аналитического описания. Нужно лишь иметь возможность вычислять или измерять значения функции в произвольных точках. Такие ситуации часто встречаются в практически важных задачах оптимизации.

5.3.1.1. Метод циклического покоординатного спуска

В этом методе в качестве направлений поиска используются координатные векторы. Метод осуществляет поиск вдоль направлений d1,…,dn, где dj – вектор, все компоненты которого, за исключением j – ого, равны нулю. Таким образом, при поиске по направлению dj меняется только переменная xj, в то время как все остальные переменные остаются зафиксированными. Выполняется поочередный поиск минимума по координате x1, затем x2 и т.д. Поиск ведется с одинаковым шагом, который уменьшается после нахождения всех значений x1m, x2m,…,xnm.Таким образом, алгоритм реализации этого метода подобен алгоритму метода поразрядного приближения и лишь дополняется циклом задания переменных x1m, x2m,…,xnm, внутри которого оценивается погрешность нахождения xim для каждой переменной.