Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Optim_Glava_1-1.doc
Скачиваний:
3
Добавлен:
01.04.2025
Размер:
782.85 Кб
Скачать

1.6 Методы условной оптимизации

Решение практических задач, как правило, связано с оптимизацией целевой функции J(X) при наличии некоторого количества ограничений на поисковые параметры. Такими ограничениями, например в электронике СВЧ, могут быть: ограничения на полную длину прибора, напряжение и ток электронного потока, условия устойчивости и согласования полей в каскадах и т.д. Такие ограничения существенно уменьшают размеры области, в которой производится поиск оптимума. На первый взгляд может показаться, что уменьшение размеров допустимой области должно упростить процедуру поиска оптимума. Между тем, напротив, процесс оптимизации становится более сложным, поскольку в точке условного минимума целевой функции градиент от нее уже не равен нулю.

Ограничения на диапазон изменения поисковых параметров можно исключить проведя замену переменных, например:

Xi =(Ximax+Ximin)/2+(Ximax-Ximin)*Sin(Xi,new), (1.6.1)

или видоизменив саму процедуру поиска оптимума, куда включить проверку на нахождение поисковых параметров в заданном диапазоне значений и не допускать их выхода вне этого диапазона.

В этом разделе будем рассматривать ограничения на поисковые параметры только в виде равенств, т.е. V(X)=0, где V - r-мерный вектор. Ограничения в виде неравенств всегда можно свести к ограничениям в виде равенств путем введения дополнительных поисковых параметров, например, если есть неравенство (X)<0, то его можно заменить равенством вида (X)+Xn+12=0, введя новый поисковый параметр Xn+1.

В общем случае задача условной оптимизации может быть сформулирована следующим образом: минимизировать J(X) при ограничениях V(X)=0, где X - n- мерный вектор поисковых параметров, а V - r- мерный вектор ограничений, причем r<n.

Все методы решения задач условной оптимизации подразделяются на два основных вида [22]. Это методы видоизменения целевой функции таким образом, что задача условной оптимизации сводится к задаче безусловной оптимизации, и методы явного или неявного исключения переменных. В принципе задача условной оптимизации может быть решена как задача безусловной оптимизации, полученная путем исключения из целевой функции r независимых переменных с помощью заданных равенств. Наличие ограничений в виде равенств фактически позволяет уменьшить размерность исходной задачи с n до n-r. Однако метод прямого исключения переменных применим лишь в тех случаях, когда уравнения, определяющие ограничения, можно разрешить относительно некоторого конкретного набора независимых переменных. При наличии большого числа ограничений в виде равенств процесс исключения становится весьма трудоемкой процедурой, а при наличии нелинейности в ограничениях вообще явно исключить r переменных становится невозможно. Рассмотрим сначала методы видоизменения целевой функции.

1.6.1 Метод множителей Лагранжа

С помощью метода множителей Лагранжа по существу устанавливаются необходимые условия оптимальности в задачах условной оптимизации. При этом задача с ограничениями преобразуется в эквивалентную задачу безусловной оптимизации, в которой фигурируют некоторые неизвестные параметры, называемые множителями Лагранжа. Преобразованная целевая функция имеет вид:

(1.6.2)

где - r- мерный вектор множителей Лагранжа.

В оптимальной точке градиент от этой функции по параметрам X и должен обращаться в ноль, т.е.

(1.6.3)

(1.6.4)

Решение в общем случае нелинейной системы уравнений (1.6.3) и (1.6.4) n+r -того порядка с n+r переменными X и определяет стационарную точка функционала . Решение такой системы уравнений представляет собой достаточно сложную задачу, которая в свою очередь может быть решена с помощью методов безусловной оптимизации по n+r параметрам. Кроме того можно получить не минимум целевой функции , а максимум или седловую точку. Поэтому впрямую метод множителей Лагранжа в нелинейном случае на практике не применяется.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]