
- •Предисловие к конспекту лекций 2-го семестра по методам оптимизации
- •План конспекта лекций 2-го семестра
- •Лекция 1 (и 1-ая консультация, если не успеваю) Классификация задач условной оптимизации. Функция Лагранжа
- •1. Напомним необходимые сведения из анализа.
- •2. Классификация задач и методов
- •3. Краткое напоминание материала 1-го семестра.
- •Достаточные условия для точки локального минимума (максимума) функции общего вида, дифференцируемой, без ограничений
- •4. Классическая задача условной оптимизации и методы ее решения
- •Метод множителей Лагранжа (ммл). Необходимые условия в классической задаче условной оптимизации. Функция Лагранжа
- •Достаточные условия в классической задаче условной оптимизации
- •5. Классическая задача условной оптимизации, как задача о нахождении седловой точки функции Лагранжа
Моп_Л1_2сем_ПМ.doc из "Лекция 01.doc" и "Лекция 2_1.doc" 2011-2012 учебный год 12 лекц. – ПМ-САУ, 6 лекц.- ИНФ
Предисловие к конспекту лекций 2-го семестра по методам оптимизации
В пределах раздела или лекции нумерация формул – сплошная. При ссылке на формулу другого раздела, номер формулы предваряется номером раздела, например, 3.11. Ссылки на формулы и теоремы из других лекций начинаются с № лекции: Л2.3.11. Ссылки на источники даются внутри каждой лекции. В работе использованы более двух десятков «бумажных» и электронных источников. Многие уже стали классикой жанра у нас и за рубежом. Поэтому считаю полезным и удобным сохранять обозначения каждого из них там, где это не вызывает путаницы.
План конспекта лекций 2-го семестра
Моп_Л1_2сПМ.doc Классификация задач условной оптимизации. Функция Лагранжа.
Моп_Л2_2сПМ.doc Сходимость и обзор непрямых методов.
Моп_Л3_2сПМ.doc* Элементы выпуклого анализа.
Моп_Л4_2сПМ.doc* Конусы релаксационных и возможных направлений.
Моп_Л5_2сПМ.doc* Выпуклое программирование.
Моп_Л6_2сПМ.doc* Линейное программирование и специальные задачи математического программирования.
Моп_Л7_2сПМ.doc Проекция градиента. Метод Кели.
Моп_Л8_2сПМ.doc Приведенный градиент. Методы возможных направлений. Метод Зойтендейка.
Моп_Л9_2сПМ.doc Аппроксимирующее программирование. Обзор.
Моп_Л10_2сПМ.doc* Геометрическое программирование с ограничениями.
Моп_Л11_2сПМ.doc* Декомпозиция задач большой размерности.
Моп_Л12_2сПМ.doc Многокритериальные задачи. Пакеты программ.
В связи с сокращением количества часов для специальностей ИНФ, помеченные «*» лекции могут быть пропущены или отнесены в «консультации» без ущерба для практического применения методов и алгоритмов. Для них остался курс „ad usum ddelphini”. ПМ и СА курс читается в полном объёме. В основном, изложение соответствует источнику:
Сухарев А.Г., Тимохов В.А., Федоров В.В. Курс методов оптимизации. –М. : Наука, 1985. – 341с.
Лекция 1 (и 1-ая консультация, если не успеваю) Классификация задач условной оптимизации. Функция Лагранжа
1. Напомним необходимые сведения из анализа.
Далее x и
оба означаютn-мерный
вектор-столбец; xT
– строку. Скалярное произведение
обозначается как (a,b),
либо aT∙b.
||.|| - норма.
Градиент как линейное локальное приближение.
Скалярная функция f(x), х Rn (краткая запись f: Rn R1 ) называется дифференцируемой в точке х, если найдётся вектор f(x), называемый градиентом функции такой, что
f(x+y)=f(x)+(f(x),y)+о(у), yRn,
где о(y)
обозначается величина, удовлетворяющая
соотношению о(y)/0
при
0. Градиент определяется
однозначно, при этом
.
Другие обозначения: gradf(x),
f
(x).
Величина называется производной по направлениюy функции
f (x) в
точке x.
Вторые производные. Квадратичное представление.
Скалярная функция f(x) на Rn называется дважды дифференцируемой в точке x, если она дифференцируема в этой точке и найдется симметричная nn матрица 2f(x), называемая матрицей вторых производных (матрицей Гессе), такая что
f(x+y) = f(x) + (f(x),y) + (2f(x)y,y)/2 + o(||y||2) , y Rn
2. Классификация задач и методов
Ранее мы познакомились с задачами безусловной оптимизации вида
(в
дальнейшем, для определенности, min)
и методами их решения, включая численные. Здесь En обозначает n-мерное линейное пространство. Если хотят подчеркнуть, что это – обычное вещественное эвклидово пространство, то пишут: Rn
Однако, во многих проблемах
требуется отыскивать экстремум функции
с условием, что аргумент может
принимать значения только из некоторого
множества
.
В литературе также часто используются
обозначения:X
или
Rn.
Итак, пусть
– множество из
,
функция
определена на
.
Задача минимизации функции
на множестве
называетсязадачей
на условный минимум.
При этом множество
принято называтьдопустимой
областью, точки
–допустимыми,
функцию
–целевой функцией
(критерием)
задачи. Задачу обычно записывают в виде:
Для анализа и решения этой
задачи существенно то, как задано
множество
.
В частности, далее рассмотрим два
варианта:
1) допустимая область задана при помощи системы уравнений;
2) допустимая область задана при помощи системы неравенств.
Пусть на
заданы функции
,
.
Положим
.
Если определить на
вектор-функцию
,
то для краткости, можно писать
.
Таким образом, множество
представляет собой некоторую поверхность
в
.
Для условной оптимизации
– собственное подмножество в
.
Это - так называемаяклассическая
задача на условный минимум
или задача с ограничениями в виде
уравнений.
Если хотя бы одно из ограничений имеет вид неравенства, то говорят о задаче математического программирования. Если хотя бы одна из функций fi нелинейна, то это – задача нелинейного программирования, в противном случае говорят о задаче линейного программирования (ЗЛП), которая обычно изучается в курсе «исследование операций». Так сложилось исторически. В прикладных курсах, связанных с экономикой, ее часто называют «линейным планированием», а допустимые решения – «планами».
Задачи нелинейного программирования редко можно решить аналитически в конечном виде. Большинство методов – численные; их анализу посвящены последующие лекции.
В общем случае численные методы решения задач нелинейного программирования можно разделить на прямые и непрямые.
Прямые методы оперируют непосредственно с исходными задачами оптимизации и генерируют последовательности точек {x[k]}, таких, что f(х[k+1]) < f(x[k]). В задачах на минимум такая последовательность {x[k]} часто называется релаксационной, а сами такие методы – методами спуска.
Математически
переход на некотором k-м
шаге (
k
0,
1, 2, ...) от точки х[k]
к точке
x[k+1]
можно записать в следующем виде: x[k+l]
x[k]
+ akp[k],
где р[k] — вектор, определяющий направление спуска; аk — длина шага вдоль данного направления. При этом в одних алгоритмах прямых методов точки х[k] выбираются так, чтобы для них выполнялись все ограничения задачи, в других эти ограничения могут нарушаться на некоторых или всех итерациях.
Таким образом, в прямых методах при выборе направления спуска ограничения, определяющие допустимую область G, учитываются в явном виде.
Непрямые методы сводят исходную задачу нелинейного программирования к последовательности задач безусловной оптимизации некоторых вспомогательных функций. При этих методах ограничения исходной задачи учитываются в неявном виде.
Далее в этой лекции рассмотрим непрямые методы для задач с ограничениями-равенствами.