Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
2_Оптимизация_проектных решений-3.doc
Скачиваний:
1
Добавлен:
01.07.2025
Размер:
1.19 Mб
Скачать

Выпуклая оптимизация. Условие выпуклости. Субградиентный метод выпуклой оптимизации. Метод растяжения пространства. Метод эллипсоидов.

Основная задача выпуклого программирования

Пусть задано выпуклое и замкнутое множество . Рассмотрим множество

.

где ( ) — вогнутые (выпуклые вверх) непрерывные на скалярные функции. В теории математического программирования каждый элемент принято называть допустимым планом, а само множество Xмножеством допустимых планов.

Формальная постановка задачи выпуклого программирования

Задачу

,

где выпукла, а X определяется вышеприведенными условиями, называется основной задачей выпуклого программирования.

означает, что ставится задача:

Если существует минимальное значение функции на множестве X, то среди всех допустимых планов найти оптимальный план , для которого

при этом число называют значением задачи.

Если оптимального плана не существует, то требуется

  • либо найти значение задачи как точную нижнюю грань значений функции на множестве X:

  • либо убедиться, что неограничена снизу на множестве X;

  • либо убедиться в том, что множество допустимых планов X пусто.

Для решения предложенной оптимизационной задачи следует выполнить следующие действия:

  • Определить множество .

  • Определить вектор-функцию и вектор .

  • Определить множество допустимых планов .

  • Привести задачу к стандартной форме основной задачи выпуклого программирования и определить оптимизируемую функцию .

  • Проверить, является ли полученная оптимизационная задача ЗВП, для этого

  • проверить на выпуклость множество X;

  • проверить на выпуклость функцию .

В случае успеха п. 

  • Построить функцию Лагранжа полученной ЗВП.

  • С помощью дифференциальных условий Куна-Таккера найти седловые точки построенной функции Лагранжа.

В случае неудачи п.  попытаться найти другие методы решения задачи.

Методы субградиентной оптимизации. Эти итеративные процедуры формируют последовательность векторов . Начиная с некоторого начального значения l0 эти вектора меняются по следующему правилу

,

где xk — оптимальное решение задачи , а tk — размер шага. Фундаментальный теоретический результат заключается в  том, что

.

Размер шага  на практике обычно выбирают, следуя,

,

Где — скаляр, и — верхняя граница для n(D). Обычно получают эвристикой для P. В методе ветвей и границ — текущий рекорд. Последовательность , как правило, начинается с и затем делится пополам, через фиксированное число итераций, зависящее от размерности задачи.

89

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]