Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
_Исаметова готовый шпор.docx
Скачиваний:
2
Добавлен:
01.07.2025
Размер:
1.65 Mб
Скачать

3.2.Параметрическая оптимизация определение?

Параметрическая оптимизация

Средства оптимизации, встроенные в САПР, как правило, не являются интерактивными (и в этом смысле не похожи на отношения базы знаний, описанные выше). Запрос на оптимизацию инициируется пользователем при необходимости. Однако сама задача оптимизации представляется в виде инженерного конструктивного элемента, который является частью геометрической модели, поэтому ее не приходится каждый раз формулировать заново. Задача оптимизации задается с помощью: целевого параметра (это может быть произвольный инженерный или геометрический параметр); указания направления оптимизации (минимизировать целевой параметр, максимизировать его, или приблизить к задан' ному целевому значению); выбора среди всех параметров модели тех, значения которых можно изменить для оптимизации цели; опционального указания для каждого параметра оптимизации диапазона, в рамках которого можно менять его значение; опционального задания списка дополнительных ограничений оптимизации; выбора алгоритма оптимизации и настройки его параметров. Запуск оптимизации осуществляется по команде пользователя. Оптимизация может быть прервана в любой момент, при этом пользователь увидит лучшее из найденных за время работы алгоритма решений. Как правило, существует возможность изучить графики работы алгоритма – как менялось значение целевой функции во время поиска оптимума. Для этих целей можно записать историю работы оптимизации в таблицу в формате Microsoft Excel. После окончания оптимизации и получения результатов (которые состоят из набора новых значений для выбранных параметров оптимизации) пользователь может принять решение или отказаться от него. В последнем случае модель вернется к состоянию, в котором она находилась до запуска оптимизации.

Важно отметить, что в такой постановке задача оптимизации не содержит никаких существенных данных о предметной области – все они берутся из геометрической модели. Например, целевой параметр оптимизации может быть связан нженерными отношениями с другими параметрами (в частности, выражен формулой, связывающей его с массой некоторого твердого тела), в этом случае эти отношения будут автоматически учитываться во время работы алгоритма оптимизации. Сам алгоритм (виды которого мы разберем в следующей лекции) состоит в последовательном изменении значений параметров оптимизации, за которыми следует цикл обновления модели конструктивных элементов. В результате обновления модели устанавливается новое значение для целевого параметра, которое в свою очередь анализируется алгоритмом оптимизации.

3.3.Опишите метод координатного и градиентного спуска в применении к непрерывным и дискретным областям.

Методы поиска и оптимизации решения

Классификация методов поиска и оптимизации решения Алгоритмы можно разделить на два больших класса: алгоритмы редукции области поиска и алгоритмы оптимизации внутри заданной области. Кроме того, многие методы могут применяться только к задачам с непрерывными областями (представляемыми отрезками вещественной прямой) и гладко дифференцируемыми функциями, в то время как другие применяются только к задачам в дискретной постановке (где важным понятием является конечный набор соседей у любой точки в многомерном пространстве).

Метод координатного спуска Идея метода координатного спуска проста – зафиксировав текущие значения всех переменных, кроме одной, свести задачу минимизации функции нескольких переменных к задаче минимизации функции одной переменной. Последняя задача хорошо изучена и имеет много классических методов решения – метод Фибоначчи, метод золотого сечения, метод Ньютона и другие. Более того, если после замены всех переменных, кроме одной, на константные значения и приведения подобных слагаемых целевая функция приобретает вид многочлена пятой или меньшей степени, то задача ее минимизации и вовсе имеет аналитическое решение. Метод координатного спуска (называемый также релаксацией) состоит в итеративном применении вышеописанных фиксаций и однопеременных оптимизаций для каждой переменной по очереди. После завершения цикла по всем переменным процесс начинается снова с текущей точки. Метод имеет линейную скорость сходимости в окрестности решения, поэтому не может быть использован для эффективного поиска решения с высокой точностью – для этого необходимо применять методы второго порядка

Метод градиентного спуска

Градиентный метод, как и метод координатного спуска, является методом первого порядка с линейной скоростью сходимости к решению (при условии попадания в достаточно малую его окрестность). Он основан на вычислении градиента целевой функции и движении в направлении, обратном градиенту. Заметим, что градиент может вычисляться как аналитически, так и численно – в зависимости от вида целевой функции. Величина смещения в направлении антиградиента может быть задана как эвристически, так и вычислена аналитически или численно путем минимизации целевой функции вдоль градиента. В последнем случае мы опять имеем дело с задачей минимизации функции одной переменной (характеризующей смещение от текущей точки вдоль градиента), как и в методе координатного спуска. Метод градиентного спуска, пожалуй, – самый популярный оптимизационный алгоритм и является, например, основным инструментом оптимизационного пакета системы CATIA V5 – Product Engi' neering Optimizer.