- •1. ОСНОВНЫЕ ПОНЯТИЯ
- •2.1. Формализация геометрической задачи
- •2.2. Аппроксимация экспериментальных данных
- •2.3. Выбор места расположения управляющей вычислительной машины на производстве
- •2.4. Выбор места расположения УВМ в производственном здании
- •2.5. Определение оптимальных настроек АСР
- •2.6. Распределение нагрузки между параллельными агрегатами
- •2.7. Оптимизация температурного режима реактора периодического действия
- •3. ОСНОВНЫЕ ПОНЯТИЯ АЛГЕБРЫ И АНАЛИЗА
- •3.1. Общие сведения о множествах
- •Рис.2. Графическое представление операций над множествами
- •3.2. Евклидово пространство
- •3.3. Функция нескольких переменных и ее свойства
- •4. ПОСТАНОВКА ЗАДАЧИ ОПТИМИЗАЦИИ В ЕВКЛИДОВОМ ПРОСТРАНСТВЕ. УСЛОВИЯ ОПТИМАЛЬНОСТИ
- •4.1. Целевая функция. Локальный и глобальный оптимумы
- •4.2. Разрешимость задачи оптимизации
- •4.3. Задачи оптимизации без ограничений
- •4.4. Задачи оптимизации с ограничениями типа равенств. Метод неопределенных множителей Лагранжа
- •4.5. Задачи с ограничениями типа неравенств
- •5. ВЫПУКЛЫЕ ЗАДАЧИ ОПТИМИЗАЦИИ
- •5.1. Постановка задачи
- •5.2. Условия оптимальности в выпуклых задачах
- •6. МЕТОДЫ РЕШЕНИЯ ОПТИМАЛЬНОЙ ЗАДАЧИ ДЛЯ ФУНКЦИИ ОДНОЙ ПЕРЕМЕННОЙ
- •6.1. Необходимые и достаточные условия экстремума функции одной переменной
- •6.2. Алгоритм аналитического метода
- •7. ИТЕРАЦИОННЫЕ МЕТОДЫ ОПТИМИЗАЦИИ
- •7.1. Алгоритм итерационного метода
- •7.2. Метод сканирования
- •7.3. Определение унимодальной функции
- •7.4. Метод дихотомии
- •7.5. Метод золотого сечения
- •7.6. Одномерный градиент
- •7.7. Методы полиномиальной аппроксимации
- •7.8. Метод Пауэлла
- •7.9. Метод ДСК
- •7.10. Метод квадратичной интерполяции
- •7.11. Метод кубической аппроксимации
- •7.12. Метод Фибоначчи
- •7.14. Методы поиска безусловного экстремума невыпуклых функций
- •7.15. Метод тяжелого шарика
- •8. ЗАДАНИЯ
- •8.1. Исследование функции на выпуклость (вогнутость)
- •8.2. Варианты задач безусловной оптимизации
- •8.3. Варианты задач условной оптимизации
- •9. КОНТРОЛЬНЫЕ ВОПРОСЫ
- •10. ЛИТЕРАТУРА
4. ПОСТАНОВКА ЗАДАЧИ ОПТИМИЗАЦИИ В ЕВКЛИДОВОМ ПРОСТРАНСТВЕ. УСЛОВИЯ ОПТИМАЛЬНОСТИ
4.1. Целевая функция. Локальный и глобальный оптимумы
Оптимизационная задача в евклидовом пространстве Rn представляет собой отыскание наименьшего или наибольшего значения некоторой скалярной функции
u = f (x), x Ω Rn,
на заданном множестве G Ω.
Эта задача записывается следующим образом
f (x)→min (max), x G, |
(4.1) |
при этом функцию f называют целевой функцией или критерием оптимальности, множество G – множеством возможных (допустимых) решений задачи (4.1), а точки х G – ее допустимыми точками.
Задача (4.1) называется задачей без ограничений или задачей безусловной оптимизации, если G=Rn и задачей с ограничениями или задачей условной оптимизации, если G≠Rn.
Решить задачу (4.1) означает найти точку х* (а также соответствующее значение f (х*)) такую, что
f (x* ) ≤ f (x) ( f (x*) ≥ f (x)) x G
или установить неразрешимость этой задачи. Решение х* называют оптимальным (или точкой экстремума), а значение f (х*) – оптимумом (или экстремумом) функции f на множестве G.
Задачи
f (х) → min, х G и f (х) → max, х G,
называют соответственно задачей минимизации и максимизации функции f на множестве G.
Оптимальное решение х* доставляет на множестве G минимум
30
(наименьшее значение) в задаче минимизации и максимум (наибольшее значение) – в задаче максимизации.
Тот факт, что решение х = х* оптимально, записывают в виде
f (x*) = min f (x) − в задачах минимизации
x G
и
f(x*) = max f (x) − в задачах максимизации.
xG
Заметим, что задачу максимизации функции f (x) можно свести к задаче минимизации, заменив f (x) на противоположную по знаку функцию G(х) = –f (x). Это означает, что оптимальные решения задач f (x)→max и G(x)→min совпадают, а экстремальные значения функций равны по модулю (|f (x0)| = |G(x0)|). Поэтому далее, в основном, будут рассматриваться задачи минимизации. Все результаты, полученные для задач минимизации легко переформулировать применительно к задачам максимизации.
Теория оптимизации предусматривает рассмотрение двух видов оптимумов: локальный и глобальный.
Говорят, что точка х0 доставляет функции f локальный (строгий локальный) минимум на множестве G, если существует ε-окрестность U(х0,ε) точки х0 такая, что
f (x0 ) ≤ f (x) ( f (x0 ) < f (x)) x G ∩U (x0 ,ε) . |
(4.2) |
Глобальный (строгий глобальный) минимум функции f на множестве G доставляет точка х*, если
f (x*) ≤ f (x) ( f (x* ) < f (x)) x G . |
(4.3) |
В соответствии с приведенными определениями точку х0 называют точкой локального минимума, а x* – точкой глобального минимума.
Точка локального минимума не всегда является точкой глобального минимума.
Например, функция одной переменной y=f (x), x [a,b], график которой изображен на рисунке 4, имеет две точки локального минимума х'
31
и х" и одну глобального минимума х'.
y
x
O |
a |
х' |
х" b |
Рис.4. График функции одной переменной y=f (x), x [a,b]
Все определения для максимума функции получаются заменой в выражениях (4.2) и (4.3) знака неравенства на противоположный.
4.2. Разрешимость задачи оптимизации
Вопрос о существовании решения является одним из основных при рассмотрении задач оптимизации. Если допустимое множество G конечно, то решение задачи (4.1) существует, – достаточно перебрать все точки из G и выбрать среди них точку х*, удовлетворяющую условию (4.3). В случае, когда множество G бесконечно, задача минимизации функции f на G может не иметь решения. Например, функция одной переменной
1, |
x = 0 |
f (x) = |
x [−1,0) (0,1] |
x2 , |
не достигает наименьшего значения ни в одной точке отрезка [-1,1]. Теорема Вейерштрасса (4.1), определяет широкий класс задач оп-
тимизации, для которых решение существует:
32
Теорема 4.1:
Если функция u=f (x) определена и непрерывна на замкнутом ограниченном множестве G Rn, то x', x'' G такие, что
f (x') = min f (x) |
и |
f (x") = max f (x) |
x G |
x G |
В теории оптимизации иногда удобно рассматривать более общую задачу оптимизации, в которой понятие решения определяется таким образом, что оно существует всегда. Для того чтобы сформулировать эту обобщенную задачу, понадобится определение точной нижней грани и точной верхней грани функции.
Число f 0 (или символ −∞) называют точной нижней гранью или инфинумом (от латинского infinum – наименьшее) функции f на множестве G, если неравенство f 0 < f (x) справедливо для x G, кроме того, для любого числа λ > f 0 найдется точка х' G такая, что для f (x')<λ.
Тот факт, что f 0 – точная нижняя грань функции f на множестве G, записывают в виде
f 0 = inf f (x) .
x G
Число f * (или символ +∞) называют точной верхней гранью или супремумом (от латинского supremum – наибольшее) функции f на множестве G, если неравенство f * > f (x) справедливо для x G, и для любого числа λ < f * найдется точка х' G такая, что f (x') > λ. Для точной верхней грани используют обозначение:
f * = sup f (x) . |
|
x G |
|
В рассмотренном выше примере: |
|
f 0 = inf f (x) = 0 |
, |
x G |
|
но нельзя указать точку, в которой точная нижняя грань достигается. В таких случаях, задача оптимизации записывается в виде
f (x) → inf, (f (x) → sup), x G.
33