Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Цирлин, А. М. Основы оптимального управления конспект лекций

.pdf
Скачиваний:
9
Добавлен:
19.10.2023
Размер:
6.17 Mб
Скачать

во

о с

о с

Рис. К 4 &

57

Глава П Задачи управления о дискретно изменяющимися переменными.

Оптимизация многостадийных процессов..

§ 9. Задачи с марковской структурой. Линамичэское

программирование. • Выше никак не оговаривалась форма, в которой та или иная

доставляющая решения

входит в уравнения рвязей.

Методы нелинейного

программирования, изложенные, выше, об-

яадают больной общностью, но столь же больной трудоемкостью. Прячем эта трудоемкость быстро растет.о ростом размерности -У . |ля задач со специфической структурой овяаей эти общие методы юлателъно конкретизировать и упростить.

9 . 1 . Одна из самых распространенных структур изображена на рис.9.1. Здесь стрелками показаны связи, характеризующие влия­ ние одних переменных на другие. Кружочками обозначены функцио­ нальные преобразователи. Наконец, все составляющие вектора pe-t

иния

У

разбиты

аа ДЕО группы,

первая

из которых обозначе­

на черев

, а

вторая-череэ

Ц.

обозначения под­

черкивают

различие

этих составляющих.

 

Как

видно из рисунка

 

 

части.Как упоминалось

,

каждая из переменных, входящих в

19.1), может быть векторной.

Связь в этом случае выражена сис­

темой

 

 

32 .

 

 

 

 

 

 

 

i)= 1,2,

. . .

m.

 

 

Здесь важно то, что размерность векторов ,Х£- и

 

 

суще­

ственно меньше общей

раамернооти

1/ .

 

 

 

 

 

 

Простейшим примером такого рода овнаей

является

цепь,

сос­

тавленная ив шарнирно соединенных звеньев

(рис.9.2). Положение

каждого из

парннров

^

зависит

от

положения

предыдущего

шар­

нира

чУ^_|

и от

наклон о.

( I - I ) - r o

авена

^ L - i . Меняя

ная-

лон

i -го

звена,

мы изменим положение

всех последующих

звень­

ев цепи.

 

 

 

 

 

 

 

'

 

 

 

 

Объекты,

ооотояние

которых в момент

t

не

эавиоит

от

всех

предшествующих состояний,кроме

({ - 1) - го,

были изучены

А.А.

Марковым.

 

 

 

 

 

 

 

 

 

 

 

 

Последовательности переменных, связанных друг о другом зави­ симостями типа (9.1), часто называют марковскими цевяын. Зада­ чи со связями такого вида еотеотвенво назвать задачами о мар­ ковской структурой.

9.2. Расчет последовательности химических реакторов приво­ дит к задаче оптимизации о марковской структурой. Вектор сос­

тояния

I -го

реактора (обычно вектор концентраций

на его вы-.

ходе)

вависи* от

ооотояяия

(г -1)-го

реактора

и от режима

U t . 4 ' l

-то

реактора

(температура,

давление

,

объем и

т . д . ) .

 

 

 

 

 

 

 

 

• По аналогии

о подобными задачами «У; называют

переменны­

ми состояниями,

a

-

управляющими

переменными, ил»

 

 

 

 

 

 

 

 

оостояниями г управлениями.

Структура целевой функции также не произвольна. Чаще всего

•она новет быть приведена к аддитивной форме

83

Так, для последовательности реакторов функция цехи часто зави­ сит лишь от оостояния (концентраций) выходного потока батареи, т . е . в выражении (9.2) вое слагаемые, кроне первого, равны нуле.

В марковской форме может быть представлена и задача рас ­ пределения нагрузок между параллельными агрегатами. Исходная постановка этой задачи

may £ 0,YyJ,

(Э.а)

ожет быть заменой переменных

(9.4)

преооразожана к виду

а

причем

9.8. В задачах со связями (9.1) последовательность управ­ лений ^ 'ТАL j при фиксированных начальных условиях целиком определяет изменение переменных состояния и значение целевой функции. Часто пакую последовательность управлений называют стратегией. Алгоритм динамического программирования основан

84

на сформулированной Р.Беллманом принципе оптимальности.

 

 

Оптимальная стратегия обладает тем свойством, что

какова

 

бы но была последовательность управление

}'U.i

I ,

г

• О т 2

, .

приводящая к

состояния ^

. дальнейшее

.управление

одтимад)

но по отношению д

этому оостоянии.

 

 

 

 

 

Этот принцип,

по существу,не«ребуе*

доказательства.

Однако

 

его стоит обсудить подробнее. Вспомню, как были получены необ­ ходимые уоловия максимума функций. Предполагалось, что некото­ рое значение аргумента оптимально, и из уоловия максимума выте­ кало поведение функции t окреотнооти предполагаемого решения

(на

множестве оравнения).

8деоь подход иной. Стоящая перед на

ми

задача - ёайти макоимук

целевой функции

 

•Л

~

J

t

l № .

4

{ )

 

(9.2)

при уоломн

 

 

. ,

4

 

 

ч

 

 

Ui

G

Vu

)

Ус

£

V>

 

( 9 Л )

я

заданном

начальном

состоянии

У0

- относится в более общее)

клаооу задач об оптимизации целевой функции

 

со

связями 4 9 . 1 ) ,

для

любых

эначеплй

V , лежащих между 0 и Л,

в

произвольных

состояний

 

 

\у •

Опрашивается, есть

ли

смысл в такой замене? Не является ли

решение множества

вспомо­

гательных задач более трудным, чем рзшение задачи исходной?

Подобные сомнения

не лишены оонований, однако, как это

доказано

ниже ',

яш

некоторых задач такой подход цблеоообрааен, а

иногда

может

быть использован в комбинации о другими методами.

9.4.

Воспользуемся принципом оптимальности для решения прос­

тоя задачи о выборе оптимального пути в оотевом графике

(рис.9.3).

 

На рисунке

показаны возможные варианты проведения некоторой

многостадийной операции. Кружками отмечены основные этапы, и цифры, проставленные над соединяющими кружки линиями, соответ­ ствуют затратам на очередном этапа. Требуется найти путь, со­

ответствующий минимальный ветра там, при переходе от

точки Н к

точке

К. Перемс-нкой ооотоянин

в данном охучае

является

номер

кружка, в которым мы попали

после i -

атавоэ,

а управ­

лением - выбор направления после

очередного

этапа.

Воспользу­

емся принципом оптимальности и зафиксируем последовательность рассуждений.

1. Для последнего этапа из каждого СОСТОЯНИЯ ведет в К

яивь одна озрглка. Значит, управление единственно, оно же оп­ тимально. Соответствующие минимальные затраты отметим цифрой гнутрк круяко, а оптимальную траекторию - пунктирной ливней.

Назовем их соответственно уодовно-оптнмальвнми затратами и условно-оптимальным управлением,

2. На следующей этапе для кагдоге ооотояння перебираем

все управления. Находим то из них,для которого суша затрат ва предпоследнем этапе и минимальных затрат, подсчитанных

нами для последнего атапа, минимальна. Эту оуиму, как и ранее,

вносим внутрь кружка, а соответствующую траекторию подчерки­ ваем пунктиром. Еолн затраты оказались равными для двух управ­ лений, выбираем любое за них.

3. Так продолжаем до тоади Н. Та условно-оптимальная

 

ЭР

 

 

 

 

 

траектория, которая

придет в

Н,

и является

одним us

решении,

а соответствующие ей

аатраты

минимально

возможными.

 

9.5. Обобщим нопоньаовааную

процедуру

на

задачу

(9.1),

(9,,2) и получим формальную запись алгоритма динамического прот. рашировання.

Обозначим

оптимальное ( для определенности максимальное)

значение целевой функции, полученной па отрезке

от

I -ой

до последней

отадии

процесса,череа

^

. Естественно,

это

вначевие

должно зависеть от

У('

,

так

как оно

получено

при

условии,

что

в результате предыдущих управлений процесс

ока­

зался в

ооотоянин

. Тогда

принцип

оптимальности

позволяет

вычислить

 

( У i - i )

и

оптимальное управление

 

OC'-i) ив

уравнения

 

 

 

 

 

 

 

 

^

(у.,)

-

 

Я

^

Ш

^

У

О

*

 

 

 

 

 

 

при

условии

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

o ^ j f c - i , * - , , ^ - . ;

 

 

 

 

 

 

 

о . ! )

Заметим, что именно так мы и поступали

в рассмотренном выше

примере, записывая внутрь кружков функцию

 

( ^ t ' - i )

и запоми­

ная

оптимальное

управление

W j . , («У,- . t

)

с

помощью

пунктир­

ных

линий.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Уравнение

(9.8)

называют уравнением

Беллмааа,

а

функцию

^ -

функцией Беллмана. Оно позволяет,

задай

L

^ m ,

(V*HI) О,

последовательно

рассчитать

оптимальные

значения

функции

цели

^

 

для всех возможных состояний процесса

и

зависимость

опти­

мального управления

от

номера

t

и состояния

у .

. Причем

каждую из полученных функций приходится держать в памяти машиш до самого последнего этапа расчета. Чем больше возможных

ооотояний, тем больше требуется объем памяти. Этот фактор осо­ бенно сильно сказывается при увеличении размерности вектпра У .,

Вато мы получаем

в качестве решения управление,

обеспечивающее

абсолютный максимум

jf0

. Более того, мы в качестве

"побочно­

го продукта" получаем

синтез

оптимального управления,, i . s ,

его вавиоиыооть

от состояния. Зная синтез, мы мокеи подавать

sa управляющее

устройство состояние оистемы

а

асдучать

ооответотвуюцее

ему

оптимальное

управление.

 

 

22

§10. Достаточные уодовия оптимальности для дискретных аадач и следующие из них алгоритмы -

10,1. Алгоритм динамического программирования пра воем своем яеоокненноы изяществе обладав* одним существенным недостатком. Недостаток атот осстоит в том, что он никак не вытекает (во всяком случае на первый взгляд) из методов нелинейного програм­ мирования, между тем рассмотренная в § 9 задача есть чаотный случай задачи нелинейного программирования. Ниже мы. будем рас ­ сматривать дискретную задачу как задачу нелинейного программи­ рования. Эта точка врзння полевна не только из-аа своей общности, но в потому, что позволяет естественным образом перенести пред­ ставление о оедловоа точки фу акции Лагранжа, связанные о ним методы получения оценок решения и поиска условного максимума, на важный класс оптимальных задач. Покажем также, ч?о иа этого подхода, в частности, одедует и алгоритм динамического програм­ мирования.

Итак, вернемоап к

зада*) о максимуме

целевой

функции

 

 

 

 

 

(ЮЛ)

при условиях

несколько более общего вида, чем

ранее

 

 

 

 

 

(IB.2)

У €• VK

;

U. € V«_ ; i / ,

2У .. .

п

и получим для нее достаточные условия оптимальноеги. При

этом мы воспользуемся логикой п.

6.6 [ / 5 ] f з

котором для задачи

условного максимума

было сформулировано

достаточное условие че­

рез расширенную функцию Лагранжа

R, .

 

 

S3

 

Чтобы у*(г £ )

 

была решением аадачи достаточно, утверждалось

там,

найти

такую

функцию jfty) ,

чтобы!?, достигала

абсолютного

максимума,

на

V y

в

точке

 

.

 

И предлагался

такой

метод

•выбора

ji

( ^

) ,

чтобы максимум

R

 

по

свободным

составляющим

не зависел от значения остальных составляющих. Тот хе подход

применим

и к

задаче

( Ю Л ) ,

(10.2).

 

 

 

 

 

 

 

 

 

Специфика

этой

задачи

соотоит

в

том,

что уравнение

(10.2)

содержит

не

 

только Si

и

 

И'к

,

входящие

в

Ь £

• слагаемое фун­

кционала

(ЮЛ) ,

но и

Si

-|

. Если

 

бы этого не

было,

задачу

можно было бы сильно облегчить, максимизируя каждое иа слага­

емых

 

I

(

 

Si,

 

 

 

)

по

Si

 

и К,-

без учета

их

влияния

 

 

 

ч/о

 

 

I

'

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

на остальные слагаемые, о учетом

лишь связи

между

ними.

 

 

Условия

 

оптимальности

 

 

 

 

 

 

 

 

 

 

 

 

 

Схема

получения

условий

 

оптимальности

такова:

 

 

 

 

I.Образуем

функционал

 

^

/

равный

I и содержащий под

зна­

ком

оуммы,кроме

/ ь (

I

,

 

Si

 

,

tCc

) , еще функции,

зави­

сящие

от S-L к

 

Si-±.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2.

Эти функции

нужно

выбрать

так,

чтобы

максимум по

Si,

S(.

|

каждого

ив

слагаемых, стоящих под знаком сунны, не за4

висел

от

значения

переменных,

входящих в другие

слагаемые

(

Si

или Si_{

) .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3.

Если

точка

максимума

функционала

*S

окажется

на множе­

стве J),

определяемом

условиями

(10.2),

то

все

в порядке, ре ­

шение

получено.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Приступим к

реализации

этой программы, Запишем

 

 

 

i = '

Проведя суммирование, легко заметить, что для любых ограни-