Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Методы и теория оптимизации.-1

.pdf
Скачиваний:
2
Добавлен:
05.02.2023
Размер:
1.03 Mб
Скачать

а11 x1

a12 x2

 

a1n

 

b1

0

 

 

 

 

 

 

 

 

 

 

 

 

 

a21 x1

a22 x2

a2n

b2

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

3

 

 

 

 

 

3

 

 

 

 

 

L x

, x

2

, x

3

,

1

,

2

 

x

j

y

2

a

x

j

b

2

a

2 j

x

j

b

 

1

 

 

 

 

 

 

 

j

1 j

 

1

 

 

2

 

 

 

 

 

 

 

 

 

 

j 1

 

 

 

j

1

 

 

 

 

j 1

 

 

 

 

 

L

0

 

 

 

 

 

x1

 

 

 

 

 

 

 

L

 

0

 

 

 

 

5 условий дают систему линейных уравнений

 

x2

 

 

 

 

 

 

 

 

 

 

 

 

L

 

 

0

 

 

 

 

 

 

2

 

 

 

 

 

 

 

Нелинейное программирование (НЛП).

f x1 , , xn

min

gi x1 , , xn 0, i

1, , m

hк x1 , , xn

0

f , gi , hк - заданные функции нелинейные

f

 

x

 

min

 

 

 

 

 

 

 

 

НЛП

g x

0

 

 

 

 

 

 

 

h x

0

Рассмотрим g x1 , x2 0

x2

g(x1, x2 ) 0

x1

Пример:

x2

x2

4

 

 

1

2

 

 

 

g x , x

2

4 x2

x2

0

1

 

1

2

 

x2

x1

31

В случае системы неравенств пересечение всех областей. Если g > 0, то ограничение неравенства – неактивно (точку можно смещать).

Если точка точно на границе, то говорят, что ограничение активно.

Рассмотрим случай:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

аТ х

а х

а

2

х

2

0

 

 

 

 

 

 

 

 

 

 

 

 

1

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Если

задано

линейное ограничи-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a

 

 

 

 

вающее неравенство,

то вектор а направ-

 

 

 

 

 

 

 

 

 

лен

внутрь

допустимой области. Если

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

аТ х

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0 , то вектор а

будет направлен из

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

допустимой области.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Если аТ х b , то граница проходит не через начало координат. Необходимые условия:

f x1 , x2

min

a1 x1 a2 x2

b

a

1. Если локальный минимум внутри допустимой области, то gradf 0 ;

2.Если точка локального минимума точно на границе, то gradf a , точка является точкой локального, если gradf a и 0

 

 

 

 

 

 

 

 

 

 

a1

 

 

 

 

 

 

 

 

 

 

- вектора нормали к соответ-

 

 

 

 

а1 , а2

a2

 

 

 

ствующей плоскости.

 

 

 

 

1 , 2

0

 

 

 

 

 

 

 

 

 

В общем случае:

32

f

 

x

 

 

 

 

 

 

 

 

min

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g1

 

 

x

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g m x

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

h1

 

 

x

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

hm m

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

а)

gradf

 

x

h1 gradg 1 x

hm gradg m x

1 gradh1 x

 

p gradh p

x ;

 

1

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

б)

 

 

 

 

 

 

 

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

в)

Если hк

0 , то к

0 . Если hк 0 , то

к 0 . Т.е.

к

hк 0, к

1, , р .

Условие дополняющей нежесткости.

Все 3 условия в совокупности называются условиями Куна-Таккера (условия оптимальности первого порядка).

 

 

 

 

 

 

 

 

 

Ограничения неравенства

f x

min

 

 

 

 

 

 

ti

hi x

0

 

 

 

 

 

 

 

 

 

 

 

g x

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

h x

0

ti

hi

x

0, ti 0

 

 

 

 

 

 

 

 

 

Можно записать и так:

 

 

 

f x

min

g x 0

х 0

Поскольку постановка задачи h x 0

Основные результаты:

Область п-мерного пространства называется выпуклой если вместе с 2-ми точками, она содержит весь отрезок, соединяющий эти 2 точки.

33

Пример:

Функция нескольких переменных f x называется выпуклой если ее матрица Гесса положительно определена.

2

f

; хТ Нх 0

H

 

 

xi

x j

 

 

Если мы рассматриваем неравенство f x C , то данное неравенство определяет выпуклую область.

область будет выпуклой

Th: Пусть дана задача НЛП, если целевая функция этой задачи – выпуклая, и область целевых решений так же выпукла, то локальный оптимум совпадает с ее глобальным оптимумом задачи (задачи выпуклого программирования).

1случай – когда все ограничительные неравенства являются не активными.

2случай – когда точка лежит на границе.

 

 

Методы решения НЛП.

 

Нулевого по-

Первого порядка

Второго

порядка.

рядка – поисковые ме-

аналогичны градиентным

Ньютоновские

методы.

тоды (безусловные ори-

методам. Условно гради-

Они являются специаль-

ентиры похожи на это).

ентные методы. Исполь-

ными вариантами мето-

Используется

только

зуется и Z и вектор гра-

дов Ньютона для опти-

значение

целевой

диента (grad Z).

мизации. Используется Z,

функции (Z).

 

 

grad Z и матрица Гесса

 

 

 

(Н)

 

(*)

 

(**)

(***)

 

 

 

 

xK 1

 

xK

(**)

1случай – вектор grad направлен по нормали;

2случай – идет под углом (надо спроецировать поверхность следовательно она будет показывать направление)

Если мы внутри, двигаемся как в (*), а далее (**). Это более эффективный метод.

34

(***)

Рассмотреть отрезок, это может дать нам еще один отрезок.

35

Занятие № 7. ЗАДАЧИ ЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ

Z C T x

C

0

min

 

 

 

Ax

 

b

- стандартная форма задачи ЛП

x0

Вобщем случае, если Ax b , то допустимая область представляющая собой многогранник в пространстве.

В случае Ax b, x 0 - многогранник, имеющий неполную размерность.

Допустим, имеется некоторое выпуклое множество. Тогда в любой граничной точке этого множества, всегда можно провести опорную гиперплоскость, т.е. такую гиперплоскость которая имеет с множеством только одну общую точку, и все множество находится по одну сторону от гиперплоскости.

Если –grad является нормалью к гиперплоскости и плоскость не опорная, то можно двигаться под острым углом к –grad, тем самым улучшая значение функции. Такое движение невозможно, если антиградиент определяет опорную плоскость. Следовательно в этом случае это точка локального минимума, который является и глобальным.

Геометрически, чтобы найти точку локального минимума, необходимо найти такую вершину глобального множества, что плоскость которая является нормальной к антиградиенту является опорной.

Рассмотрим Ax b, x 0 , т – ограничений равенств, п – число переменных. n

m A

Первые m столбцов линейно независимы. rank B m , det B 0 .

36

n n-m

A =

B

N

m

 

 

 

Базисная матрица

Ax A1 x1

A2 x2

An xn , A1 , A2 , , An - столбцы матрицы

A

 

B

x

xB

- базисные переменные

 

 

 

 

 

N

 

xN

Тогда систему ограничений равенств можно записать

 

B

 

 

xB

 

b ;

 

 

 

N xN

 

 

 

 

 

 

 

 

BxB NxN

b

 

BxB

NxN

b;

Для В существует обратная матрица B 1 xB

B 1 NxN B 1b ;

xB

B 1 NxN

B 1b

 

Если для данного базиса зафиксируем не базисные переменные в нуле, то получим точку, которая является вершиной многогранника.

Вершины многогранника множества характеризуемые тем, что небазисные переменные равны 0.

Что делать если вершина не точка оптимума.

Рассмотрим целевую функцию:

 

CB

T

xB

 

 

 

 

 

 

 

 

 

Z C T x

 

C T x

 

С T x

 

C T

B 1 Nx

 

B 1b C T x

 

 

 

 

B

N

N

N

 

CN

 

 

B

N

B

 

N

 

 

xN

 

 

 

 

 

 

 

 

CBT B 1 NxN

CBT B 1b CNT xN

CNT

CBT B 1 N xN CBT B 1b

 

 

 

 

T

 

 

 

 

 

 

 

C

 

N T B T C

 

x

 

bT B

T C

 

B T

BT

1

N

B

N

B

 

 

 

 

 

 

 

 

 

 

d

 

 

 

d0

 

 

 

 

d – показывает суммарное влияние небазисных переменных на целевую функ-

цию

d0 – множители Лагранжа или относительные оценки небазисных переменных.

 

Z CT x d T x

N

Z

0

 

 

 

 

 

 

 

Z

 

 

 

 

X N

 

 

 

X B

Точка будет точкой оптимума, если все d 0 .

37

Если имеется один отрицательный коэффициент.

Z d1 xN 1

d j xN

j dn xN n Z0

d j 0 следовательно можно

увеличить

xN , тогда целевая функция начнет

улучшаться.

 

 

xB i 0 , если xB j 0 , то дальше xN увеличивать нельзя xNj и xBj меняются местами.

38

МЕТОДЫ И ТЕОРИЯ ОПТИМИЗАЦИИ

Методические указания к практическим занятиям по дисциплине «Методы и теория оптимизации» для магистрантов 6

курса, обучающихся по направлению 221000.68 "Мехатроника и робототехника" по магистерской программе "Проектирование и исследование мультикоординатных электромехатронных систем движения"

Составитель Щербинин Сергей Васильевич

Подписано к печати Формат 60x84/16. Бумага офсетная Печать RISO. Усл.печ.л. Уч.-изд.л.

Тираж 50 экз. Заказ . Бесплатно

39