Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Сапрыкин Г.С. Исследование операций в энергетических расчетах учеб. пособие для слушателей фак. повышения квалификации преподавателей теплотехн. каф., аспирантов и студентов специальности 0305

.pdf
Скачиваний:
5
Добавлен:
23.10.2023
Размер:
5.03 Mб
Скачать

та позволяет найти лишь необходимые условия существования услов­

ного экстремума. Исследуемые функции, к тому же, должны быть не­ прерывны, как и их производные.

Рассмотрим пример.. Пусть необходимо определить минимальное

значение целевой функции

 

 

 

U

- - 1X i

 

 

 

 

 

при наличии ограничения

 

 

 

 

 

 

Сначала определим минимальное значение Ц,

 

при отсутствии

ограничений. Производные

 

 

 

 

 

 

 

 

 

Щ - Ц - о -

 

 

 

 

 

откуда

Х * ^ = 0

 

u J -0

 

 

Л соответствии

с

Решим эту же задачу с учетом ограничений.

(3 -1 2 )

составим

функцию Лагранжа

 

 

 

 

 

 

 

 

р = ( х а+^а) + Л ( у - а - В х 1)

 

 

Систем а уравнений

ля

определения

X

У

имеет

вид

 

 

 

=2х-2М Х = 0,

 

 

 

 

 

 

 

 

 

 

 

 

3 u = 2 t f * X - 0 ,

 

 

 

 

 

 

 

 

3F_.

 

 

 

 

 

Из решения системы следует

 

 

^minг-а

 

 

 

Х .= -0 ,^ ::О)

 

 

Таким.образом, влияние ограничений заключается в снижении ка­

чества

оптимума,

т .е .

по сравнению со

случаем

отсутствия ограни­

чений

значение минимума будет

увеличиваться, а значение максиму­

ма -

уменьшаться.

 

 

В связи с этим необходимо

отметить

следующее. Вид ограниче -

ний по-разному сказывается на

качестве

оптимума. Например, при

оптимизации энергоустановки в

условиях постоянной и переменной

электрической мощности электрогенератора будут получаться различ­ ные численные значения минимума целевой функции - расчетных зат­ рат и значений решений . Но эти ограничения диктуют­

ся действительными условиями и поэтому бытующее иногда представ­ лю .

ленке о целесообразности оптимизации при ограничениях, обеспе -

чипающих наименьшие расчетные затраты,по крайней мере, не оче - видно.

Особый случай встречается при оптимизации линейной функции цели с ограничениями в виде линейных равенств или неравенств. В

математике

для этого

разработан специальный метод

. называемый

методом л и н е й н о г о

п р о г р а м м и р о в а н и я

.

И задачах

линейного

 

программирования оптимизируется функция

 

 

 

и . ч )ас( +сгэс1 + . . , + с п х (1

 

( з -w )

При т .

ограничениях

 

 

 

 

j

 

 

a„x,

 

 

 

 

 

 

 

0-21

+ Q22 *£(2+ ' •* +^2tl

 

0 1 5 ) ,

 

 

 

 

 

 

 

 

___

 

Q-m<X)+ CL2mXi+ -.-+QfttnXft^fim

 

и условии

X ( > 0

;

OC^S-Oi. . . , X ^ Q .

 

 

Задача оптимизации сводится к нахождению таких неотрицатель­

ных значений переменных

, Х г

, X Sv. ^которые

удовлетворяют ли

нейпым ограничениям

 

(3 -1 5 )

и при которых функция (3 -1 4 ) обраща -

стоя в минимум (максимум).

 

 

 

 

Рассмотрим геометрическую интерпретацию'данного метода,Пусть

необходимо максимизировать

функцию

 

 

 

 

 

M

. 2 X

t 4 4 X t

 

 

ПрИ

 

 

&Х,+5Хг«200,

 

 

 

 

 

7 Х , + 5 , 6 ^ « « 6 .

 

 

 

 

 

5 Х ( + 7 Х 2 « т

 

 

и3C,aQ, X ^ Q .

Если построить график уравнения

B X j + 5 X 2 =2DQ

, то

полу

-

чим линию, делящую плоскость

на две

области

(р и с.3 - 3 ) .

Для обла

-

сти, включающей начало координат, справедливо неравенство

 

 

8 Х , + 5Х г <200 , , для второй

области

ЙХ<+5 X 1 *2 0 0

. Остальные

два неравенства делят плоскость аналогичным образом.

 

 

 

Если считать, что Еыбор значений

Х^ и

X j- представляет

 

собой выбор точки н а ‘плоскости, то

эта

точка

должна лежать

внут­

 

ри области ОАЬС

или на её

границах.

 

Поскольку

линия

 

7 Х ,+ 5 ,8 Х г Ч 9 6

лежит вне

пределов этой области, то это

огра­

 

ничение является

избыточным.

Основной результат теории линейно-

 

 

 

 

 

 

 

 

41

 

 

 

 

 

го

программирования за­

 

 

 

 

ключается в

утверждении,

 

 

 

 

что точка ( X ,

, Хг ) ,

в

 

 

 

 

которой функция И дости­

 

 

 

 

гает

максимума, должна

 

 

 

 

находиться в одной из

 

 

 

 

вершин многоугольника

 

 

 

 

ОАВС

 

.

Координаты

 

 

 

 

 

этих

точек:

0

(0 ;0 )

;

 

 

 

 

А

(0 ;2 5 ) ;

В C I6.23

;

 

 

 

 

1 2 ,9 );

С (2 5 ;

О ): Со­

 

 

 

 

ответствующе

значения

 

 

 

 

функции

 

U

■’

Ид=0

; 1

 

 

 

 

Цд =

35;

 

Ц в =38,39

и

 

 

 

 

U.c =30.

 

Следовательно,

 

 

 

 

максимального

значения

 

 

 

 

функция

 

Ц

достигает

 

 

 

 

в

точке

 

 

В

при

 

 

 

 

 

 

ОС, =16,93

и Ха = 12,9 .

Легко проверить, почему точка ( DC, л

 

) ,

в

 

которой дости­

гается максимум функции

U

, должна находиться в

вершине мно­

гоугольника.

Если сохранить

значение

U

постоянным (например,

Ц = 2 0 ),то при изменении

X ,

и Х а

уравнение

 

 

 

 

 

 

 

 

11= 1 ,2 X , + tyDCj

 

 

 

 

 

 

 

 

 

должно представлять линию. Выбирая другое значение

U

(напри

-

мер,25) получим параллельную линию,

отстоящую дальше от

начала

координат, чем первая лилия

и т .д . Максимальное

значение

U

при­

надлежит линии, наиболее отдаленной от точки

0

 

 

,

но имеющей по

крайней мере

одну точку,

лежащую внутри или

на границе

многоуголь

ника JJA B t

. Такая линия проходит через

точку

В

 

 

 

Задачи линейного программирования возникают в экономических

исследованиях

- при планировании в условиях

ограниченных ресур­

сов , оптимизации планов поставок и т .д . Число независимых пере­ менных в таких'задачах очень велико, поэтому их целесообразно решать на ЭЦВМ, для чего разработаны специальные методы, напри­ мер, симплексный, потенциалов и другие.

Если операция естественным образом расчленяется на ряд эта­

пов, шагов, а показатель

эффективности Ц

выражается

суммой

показателей эффективности

на каждом

этапе ,

то для решения опти­

мальной задачи может быть

применен

м е т о д

д и н а м

и ч е -

42

ск о р о п р о г p a ' i i и и р о в а в i я ,

Предположим, что в нашем распоряжении находится какое-то ко­ личество ресурса X (мощностей, денег,людей, топлива и т .д . ) , которое можно использовать Ц различными способами. Каждому спо­ собу соответствует функция полезности ( X t ) , выражающая до­ ход (прибыль, рентабельность) от этого способа. Общий доход явля­ ется суммой доходов от использования каждого способа

 

 

 

ЦН(Х1

 

• • + Ч п ( Х п ) } .

(3 -1 6 )

Оптимизация сводится к нахождению

 

 

 

 

 

 

 

 

U

 

 

 

 

 

 

 

max U„(x)*ijnazLL 4L(Х*)3=/„ (х)

 

(3 -1 7 )

при условиях

 

 

 

 

 

 

 

 

 

x = X r ^ t * - . . * X n , .

 

(3 -1 8 )

 

 

 

Х , * 0 , Х2М ),...Х ^ 0 .

 

Очевидно,

что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(3 -1 9 )

 

Получим систему рекуррентных соотношений ( в которой последую­

щие

соотношения зависят от

предыдущих),

связывающих

j K 0 0

и

 

/к„

(X)

. Пусть

Х к -

количество

ресурса, используемого К'

-

опособом.

Для остальных (

) способов остается

( Х ~ Х К )

ре­

сурса. Так как оставшимся ресурс»» необходимо распорядиться ваи -

лучшим образом, то доход от него

составит

j

(

X _ Х К

) ,

а Хк

нужно выбрать

так,

чтобы максимизировать

суммарный доход от

К -о го

и от первых

(

К-<

) способов,

т .е .

 

 

 

 

1

 

 

 

 

 

 

 

 

 

(3 -г о )

для

К = 2 , 3 , . . . , И .. *

 

 

 

 

 

 

При выводе

этих

рекуррентных соотношений

использовался

п р и н ­

ц и п о п т и м а л ь н о с т и ,

который утверждает, что

если не

выбирается наилучшее решение в данный момент,

то

последствия это­

го нельзя исправить

в будущем,или что для любого

первоначального

состояния и этапа решения последующие решения должны быть опти - мальныыи по отношению к состоянию, к которому пришли в результате • начального решения.Этот очевидпый факт впервые в явном веде сфор­ мулирован в [гб]- : " Оптимальные управления обладают та» свойст­ вом, что каково бы ни было начальное состояние и начальное управ­ ление, последующее управление должно быть оптимальным по отноше-

43

нив к состоянию, подучающемуся б результате действия начального

управления " . Здесь у п р а в л е н и е - решение

по распре­

делению

и перераспределению

средств (ресурса) . о п т и м а л ь ­

н о е

у п р а в л е н и е

- управление, при котором

критерий

эффективности всей операции достигает максимума. Таким образом, метод динамического программирования сводится к определению оптимальных решений с учетом ограничений на каждом этапе опера­

ции. Основная идея метода - свести решение одной

сложной задачи

к решению нескольких, во более простых задач.

 

истоды в а р и а ц и о н н о г о исчисления

используются

в том случае, если критерий оптимальности представляется в виде

функционала. Если М

- множество

функций и к каждой функции lf(X )

принадлежащей

M W )0 € M )

, относится

определенное число

, то

говорят, что на множестве-

М

задан

функционал [2 7 ] .

Вариа­

ционное исчисление устанавливает

условия,

при которых функциона­

лы достигают своего

экстремума.

Решение

оптимальной задачи

по -

лучается не в виде совокупности значений конечного числа перемен­

ных, а как совокупность функций,

в щ которых

заранее

не

известен.

Пример задачи вариационного

исчисления -

задача о брахмсто -

хроие. В вертикальной плоскости

даны две точки 0

и &

(рис.

3 - 4 ) , По какой линии должна

скатиться тяжелая материальная

точ­

 

ка, оставаясь в этой плоскости, из

 

верхней точки в нижнюю за наимень­

 

шее время, Задача сводится к отыс-

 

каниюш минимума функционала

 

 

t . f j& g x f

fa .

 

 

В общем случае функционал представ­

 

ляется в виде

 

 

 

,Хг

 

 

 

 

3 ^ ) = )

F fX .lj.ip d X ,

(3 -2 1 )

 

гд е , р(Х,Ц 1 “

заданная функция

пере­

 

менных ЗС®

и

, a I J ( lj') -есть

 

функции независимой переменной X .

Рис. 3 -4

На неизвестные,

искомые функ­

ции, как и на функции классического анализа , могут быть наложе­ ны ограничения, чаще всего в форме дифференциальных уравнений.

Еоли какая-либо операция описывается системой нелинейных обык­ новенных дифференциальных уравнений или уравнений в частных произ­ водных, то для оптимизации может быть применен п р и н ц и п

44

и а к с и ы

у

м a f 2в]. Он используется в случае

решения вариацион­

ных задач,

но

решения не принадлежат к классу

непрерывных функций,

а на переиенные наложены ограничения в форме неравенств. Принцип максимума имеет большое значение при рассмотрении проблем автома­ тического регулирования, различных технологических процессов и

т .д . [28,2$].

Если ни один из вышеперечисленных методов не дает возможности решать оптимизационную задачу, то используются методы н е л и - п е й н о г о п р о г р а м м и р о в а н и я . Поэтому их еще

называют

п р

я м ы м и м е т о д а м и . Они применяются,когда

функция

цели

нелинейна и присутствуют, ограничения (линейные и не­

линейные)

в форме равенств и неравенств.

При использовании методов нелинейного программирования непос­ редственно вычисляется функция цели, изменение величины которой и служит мерой эффективности приближения к оптимуму. Соотношения, определяющие критерий оптимальности, не обязательно должны записы­ ваться в явном виде. Задачи ясланейиого программирования могут быть решены только численными методами и поэтому требуют примене­ ния средств вычислительной техники.

Целевую функцию

 

 

можно рассматривать

как функцию, определенную в

Ц -мерном про -

странотве

переменных ; зависимость целевой функции от YI управ -

ляющих переменных образует п о в е р х н о с т ь

о т к л и к а

в ( ПН

) - мерном

пространстве. Для двух переменных поверхность

отклика представляет собой поверхность в трёхмерном пространстве,

как показано

на рис. 3-5

, заимствованном из

(351 .

Линии, соеди­

няющие равные

значения

целевой

 

ЗДДЬ 5Ц7

 

Функции

5

(

М,

. . . .

 

d|, ...> = 0 ^ ,

 

 

 

 

 

 

 

 

образуют, линии равного уровня

 

 

 

 

 

целевой функции (например, СЦ со­

 

 

 

 

 

ответствует

значению целевой

 

 

 

 

 

функции

48,23

тыс.руб/год ) ,

 

 

 

 

 

В общем случае

при отыска­

 

 

 

 

 

нии оптимума целевой функции не--

 

 

 

 

 

обходимо определить такие' значе-

 

 

 

 

 

ния параметров

X ,

, X;,

 

, . . . , ко­

’2Ц

26

-52

56

Т.ММ

торые обеспечивали

бы 'наименьшее

Рио.3 -5 . Расположение линий

(наибольшее)

значение

Ц (Х )во

равного

уровня в окрестностях

оптимума для двух дискретных

всей области

допустимых

значений

параметров: марки металлам и

параметров

X

 

 

 

диаметра

труб

пароперегревате­

 

 

 

ля О. котла блока

800 МВт.

 

 

 

 

 

 

 

45

Оптим ум ,

для

к о т о р о го

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

U O O s U ( X ) f . а

Х 0 Х ,

 

 

 

 

СЭ- ? 2)

назы вается

 

глобальны м ; если

условие ( 3 - 2 2 )

вы полняется в

точке

Л к

в некоторой

окрестности

Х

т

для

точек

Х

т

 

,

т . е .

 

 

 

 

 

 

 

 

 

 

 

U ( X K) * U ( X m) , a х т е х т е х ,

 

 

 

 

 

 

 

т о оптимум буд ет локальным.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Точка гл об а л ь н ого

оптимума обозначена

через

.

Q

 

на

р и с . 3 -5

и с о о т в е т с т в у е т

значению

целевой

функции

в

3 4 , 6 6

т ы с .р у б ./ г о д .

Из

рисунка видно

такж е ,

что

исследуемая допустимая

область изменения

параметров

 

М

 

н

d

 

является невы пуклой.

Это

следует

из

рассм от­

рения значений целевой функции в точ к а х пересечения коорд инат.

 

Большинство методов нелинейного программирования основано

на

движении

в

 

 

( И - Ч

)

-

мерном пространстве

в

направлении

оптим ум а.

При этом

из

н е к о то р о го

исход ного

с о с то я н и я ,

 

ха рактери зуем ого .сово ­

купностью

параметров

 

5ск , производится переход

к ' состоянию Х к+(

 

изменением

 

вектора

Х к

на

величину

 

д Х к

, та к

что

 

 

 

 

 

 

 

 

 

 

 

 

 

Х К+1 = Х К + ДХц;

,

 

 

 

 

 

 

 

 

 

 

 

гд е

й

Х

к

- шизмененияа г

вектора

Х

к

 

 

.

 

 

 

 

 

 

Хк

,

В

части

методов

ш аг опред еляется как

функция

состояния

т . е .

 

 

 

 

 

 

 

 

 

 

-

 

_

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

й Х *.=

(Х^)

 

 

 

 

 

 

 

 

 

 

 

н новое

состояние

за

шаг

 

д Х к

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= Х К + д Х х ( Х к)

 

 

 

 

 

 

 

 

( 3 - 2 3 )

В д р у го й

части

методов

шаг

дХ«,

опред еляется

как

функция

н е -

скольких

предшествующих

состояний

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Д Х К =& Х к (Х к ,

 

 

 

, Х к_6) ,

 

 

 

 

 

 

 

 

 

 

а

Х к+(= х к + д Х <( Х к, х , . ь

. . . , х к. а) ,

 

 

 

( 3 - 2 4 )

 

 

 

 

 

 

 

 

 

 

В

зависимости

о т

способа определения

ш ага

д Х к методы

нелиней­

н о го

программ ирования

можно

разделить

на

три

группы

[

2 9 ,

30 ]

 

град иентны е, безградиентны е н методы случайного

поиска .

 

 

 

 

Градиентом назы вается производная целевой функции

по

нормали

к п оверхности

отклика

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Цех) =vll(X) = ^

^

 

 

 

 

(з-25)

Составляющие град и ента равны частным производным целевой функции по со о тв е тс тв ую ц ш управляющим переменным, т . е .

46

 

 

 

i t u a w i t o t i i ,

(3 -2 6 )

 

 

 

 

9 « 1

 

 

 

 

 

 

 

 

 

 

7nU ( x ^ M

i

 

 

 

 

 

оха

 

 

Кроне того,

вектор градиента целевой функции совпадает по

направлению с направлением нанохорейюего возрастания целевой

функции.

 

 

 

 

 

 

В г р а д и е н т н ы х

м е т о д а х поиск «тк н у т оояо-

ваи на вычислении н анализе производных целевой функции, А так'

как вид зависимости Ц(Х\

и производные

могут получать­

ся

настолько

оложными, что могут не иметь шспжой практической

ценности, то обычно пользуются приближенным соотношением

аиш, дат , цех.....,Xi^i,->xrt)-uoc,„-)Xi,.x,)j о-г?)

~ Щ

а - ,

 

и ~ ~

 

где

дХ( -

приранение независимой переменной

 

 

Один из градиентных методов -

метод релаксации-заключавтел

в отыскании

о с е в о г о

(по осям координат)

направления,вдоль

которого целевая функция уменмаетоя наиболее сильно(при воноке минимума). В начальной точке Хн (рко.Э-б а) для этого опреде­

ляются производные 1ИХ) по воем переменным. Нанбольному зна­ чению производной (по модулю) будет соответствовать и какбыотрей-

шее

убывание функции Ц (X)

. Шага осуществляются во направле­

нию

убывания целевой функция (

при прочих постоянных перемен­

ных ) до тех пор, пока не будет достигнуто минимальное значение

по забранному направлению. После этого снова определяются произ­ водные по всем переменным, за исключением той, по которой осу -* ществлядся спуск, снова определяется направление наискорейшего убывания целевой функции, осуществляются шаги по этому осевому направлению и т .д .

В другом методе-методе градиента - каждый шаг совершается не­ посредственно в направлении наибыстрейшего уменьшения функции це­ ли (р и с.3 -6 б ). В начальной точке также вычисляются значения част­

ных производных по всем независимым параметрам, осуществляется шаг в направлении наибыстрейшего убывания функции 11(Х) . При выполнении шага одновременно изменяются значения всех независи - мыхпеременных, причем эх приращения выбираются пропорциональны­ ми составляющей градиента по данной оси.

Следующий градиентный метод » метод наискорейшего спуска - со­ четает идеи метода релаксации и градиента. После нахождения гра­ диента и определения направления наискорейшего убывания функции

1Х(Х) в

исходной точке,

шаг делается в “этом направленииСрис.З-бв).

Если значение

функции в

этом

направлении

уменьшилось, то произ­

водится

шаг в

том же направлении ( л

до тех пор,

пока в этом

н а ,

правлении Не достигается

минимум ) ;

после

этого

вычисляется

гра­

диент

(производные по всем

переменным )

и определяется новое на­

правление, Как и в релаксационном методе, в методе наискорейше - го спуска каждое новое направление движения к оптимуму ортого -

надьно предшествующему, но не ориентировано относительно системы координат, Это увеличивает скорость сходимости:к оптимуму. По сравнению с методом градиента, эта скорость также увеличивается за счет сокращения вычисления производных в конце каждого шага.

Понятие градиента может быть использовано в задачах с целе­

выми функциями, имеющими несколько локальных экстремумов

для

поиска глобального

экстремума.

 

 

 

 

Например, метод " тяжелого шарика п основан на исследовании

процесса движения

тела

с массой

jc

("тяжелого

шарика ")

в сре­

де с вязкостью

 

под действием

силы

VU(X)

:

 

 

 

 

 

+ V

J ^ + v U (X ]rQ ,

 

(з -2 8 )

где

{ - время.

 

_

 

 

 

 

Целевая функция

Ц(Х)

, она же сила, зависящая от место -

положения

тела (

X

)

и времени,

определяется

интегрированием

уравнения

(3 - 2 8 ).

 

 

 

 

 

 

■ .

 

Наличие массы

 

р

позволяет благополучно

"проскакивать"

4 8

локальные

минимумы функции ШХ)

-

" Регулируя

" значения

р

и

^ можно гарантировать

нахождение глобального оптимума

целевой функции..

 

 

 

В

б с з г р а д и е н т п ы х

 

м е т о д а х

анализируются

не производные целевой функции, а

сравниваются значения самих

функций после выполнения очередного шага. Применяются при отсут­ ствии математического описания объектов оптикинации, чаще всего уже действующих. .

В методе покоординатного спуска (методе Гаусса-Зайделя) по - очередно изменяются все независимые переменные так , чтобы по каж­

дой из

них достигалось

наименьшее ( наибольшее ) значение функции

U (X)

. Очередность

изменения переменныхпроизвольна; поиск

минимума по каждой переменной - любой, например, метод поиска экстремума функции одной переменной»

В методе сканирования поочередно просматривается критерий оп­ тимальности в ряде точек, принадлежащих области изменения незави­

симых переменных; среди них находится

точка, в

которой достигает­

ся оптимум. При достаточной " густоте

" течек

гарантируется до­

стижение глобального оптимума.

 

 

Идея симплексного метода заключается в нахождении направления наибольшего уменьшения критерия оптимальности по известным значе­ ниям целевой фуккдаи. в вершинах выпуклого многограпикка-симплекса. Под симплексом понимается многогранник, имеющий в И. - мерном

пространстве ( II Ч

) вершин.

Симплексом в двухмерном пространст­

ве ( на плоскости•)

является,

таким образом, треугольник (р и с.3 -D .

Свойство сииши-кса заключается в том, что против любой из вершин

симплекса (например, 0,

)

расположе­

 

на только одна грань (

) ,

на

 

которой можно построить новый симп­

 

лекс, отличаюа|ийся от прежнего рас­

 

положения новой вершины

СЦ ,

тогда

 

как остальные вершины обоих симплек­

 

сов совпадают.

 

 

 

 

 

 

При поиске наименьшего значения

 

целевой функции ( в нашем примере

 

двух переменных) вычисляются ее зна­

 

чения в точках

0.

, В

и

С .

Из

Р и с,3 -7 . Поиск оптимума

найденных значений

целевой функции

выбирается наибольшее

( на рис.3-7

симплексным методом

это течка а

) .

Затем

стооится

но­

 

вый симплекс

-

вершина

d

замеая-

 

Соседние файлы в папке книги из ГПНТБ