Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

6251

.pdf
Скачиваний:
2
Добавлен:
13.02.2021
Размер:
1.43 Mб
Скачать

mx

= lims

G(s)

.

(3.3.17)

 

 

1+ kc0 (mx ,σx )W(s)

 

s0

 

 

Для спектральной плотности центрированной составляющей x справедливо уравнение

 

(ω)= Sn

(ω)

 

 

1

 

2

 

 

 

 

S

 

 

 

.

 

 

 

 

1

+ kc1(mx

,σx )W(jω)

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Дисперсию сигнала x найдем из последнего выражения по формуле (3.2.16) с учетом того, что дисперсия центрированного процесса равна среднему квадрату

 

= σ2x =

1

Sn (ω)

 

1

 

2

 

 

 

 

 

Dx

 

 

dω .

(3.3.18)

 

 

1+ kc1(mx ,σx )W(jω)

 

 

π 0

 

 

 

 

Таким образом, получили два уравнения – (3.3.17) и (3.3.18) относительно четырёх неизвестных: kc0, kc2, mx и σx. Остальные два уравнения для определения этих неизвестных – это уравнения, полученные в результате статистической линеаризации, заданные формулами (3.3.12), (3.3.13) или (3.3.15) в зависимости от применяемого критерия. Решать совместно эти нелинейные уравнения можно методом последовательных приближений или графически. В результате решения получаем значения коэффициентов статистической линеаризации kc0, kc1, среднее значение mx и среднеквадратичное отклонение σx.

201

Так как помеха n(t) не имеет постоянной составляющей, найденное среднее значение mx характеризует установившуюся ошибку системы, обусловленную задающим воздействием, при наличии помех.

Случайная составляющая ошибки определяется по спектральной плотности составляющей сигнала на выходе системы, связанной с помехой аналогично тому, как это сделано в выражении (3.2.13)

 

(ω)= S

(ω)

 

k W(jω)

 

2

 

 

 

 

 

S

 

c1

 

 

.

(3.3.19)

 

+ kc1W(jω)

y

n

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Дисперсию случайной ошибки найдем с помощью интеграла (3.2.16)

2

 

1

 

k W(jω)

 

2

 

 

 

Dy = σy

=

 

Sn (ω)

 

 

 

 

dω .

π

1+ k W(jω)

 

 

 

0

 

c1

 

 

Средний квадрат общей ошибки, очевидно, будет равен

ε2 = mx2 + σ2y .

Из последнего выражения следует, что общая ошибка в системе при наличии детерминированного задающего воздействия и случайной помехи с нулевым среднем может быть представлена (аналогично формуле (3.2.13)) в виде суммы составляющей ошибки, обусловленной полезным сигналом, и составляющей сигнала y, обусловленной помехой.

Сделаем некоторые выводы.

1.В реальных ситуациях роль случайностей (случайных сигна-

лов, помех, случайных изменений параметров системы и проч.)

202

чрезвычайно важна.

2.Исследование стохастических процессов в САУ в большинстве случаев основано на предположении (впрочем, часто обоснованном) о стационарности и эргодичности случайных процессов.

3.Для большого класса практических задач статистической динамики САУ достаточно пользоваться математическим ожиданием и корреляционной функцией, то есть проводить исследования в рамках корреляционной теории.

4.Многие формулы, применяющиеся для исследования стохастических процессов в САУ, упрощаются при переходе в частотную область с применением спектральной плотности, являющейся Фурье-преобразованием корреляционной функции.

5.Анализ случайных ошибок в линейных САУ позволяет не только с успехом определять оптимальные в смысле статистической точности значения параметров, но и находить оптимальную передаточную функцию системы.

6.Если при рассмотрении статистической динамики линейных систем применяют усреднение по времени, то в нелинейных системах используют усреднение по реализациям.

7.Ввиду сложности точного исследования случайных процессов в нелинейных САУ широкое распространение получил метод статистической линеаризации.

8.Применение метода статистической линеаризации основано на предположении о нормальности закона распределения и о его неискажении после прохождения через нелинейное звено.

203

4. ОПТИМАЛЬНЫЕ СИСТЕМЫ.

4.1.Понятие об оптимальных системах.

Слово «оптимальные» означает наилучшие в определённом смысле. С оптимальными системами мы уже сталкивались в разделе статистической динамики САУ, когда речь шла об оптимальных параметрах линейных систем и об оптимальной весовой функции линейной системы. Перейдём теперь к более подробному изучению теории оптимальности и оптимальных процессов.

Большим толчком к развитию теории и практики систем управления с обратной связью явилась вторая мировая война. Далее следует небольшой период спячки в пятидесятых годах прошлого столетия и опять бурное развитие подобных систем, связанное с нуждами автоматизации промышленности и ещё большим развитием космической, авиационной, атомной и вычислительной техники.

Проектирование современных систем управления стало очень сложным ввиду стремления управлять в широком диапазоне внешних условий, из-за нелинейных характеристик, свойственных объектам, работающим в таких условиях, а также из-за чрезвычайно высоких требований к качеству таких систем.

Теория оптимизации предлагает специалистам по системам управления способы борьбы с указанными трудностями проектирования современных систем и служит хорошим примером использования понятий линейного векторного пространства.

204

Философия теории оптимизации – построение наилучшей системы. Это, конечно, подразумевает наличие некоторого критерия или показателя качества для суждения о том, что означает «наилучшая». Выбор надлежащего показателя качества зачастую представляет отдельную (нередко непростую) задачу. Обоснование выбора того или иного критерия оптимальности связано с конкретными технико-экономическими условиями работы САУ и в теории оптимального управления не рассматривается.

Различия между этими критериями дают основания для классификации оптимальных систем по оптимизируемым показателям качества. Это системы:

оптимальные по быстродействию,

оптимальные по расходу ресурсов,

оптимальные по производительности,

с минимальными потерями от управления и т.д.

Следующий вариант классификации оптимальных систем – по характеру процессов, протекающих в системах. С этой точки зрения системы делятся на системы:

непрерывные,

дискретно-непрерывные,

дискретные.

Можно проводить классификацию и по типу дифференциальных уравнений, описывающих систему: линейные, нелинейные, с распределёнными параметрами (уравнения в частных производных) и т.д.

Наконец, можно классифицировать системы по характеру критерия оптимальности. В этом случае получаем системы:

205

равномерно оптимальные (наилучшие в каждом отдельном случае, то есть при каждом проведённом эксперименте),

статистически оптимальные (наилучшие в среднем, то есть при усреднении многих экспериментов),

минимаксно оптимальные (системы, дающие наилучший результат

внаихудших условиях).

По сравнению с менее строгими методами проектирования замкнутых САУ особенности теории оптимизации состоят в следующем.

1.Процедура проектирования является более чёткой, так как включает в едином показателе проектирования все существенные аспекты качества.

2.Очевидно, что проектировщик может ожидать получения наилучшего результата только в соответствии с выбранным показателем качества. Поэтому для каждой задачи указывается область ограничений.

3.Часто можно обнаружить несовместимость ряда требований качества.

4.Получающаяся в результате проектирования система управления будет адаптивной, если в процессе работы показатель качества меняется, и попутно снова вычисляются параметры регулятора.

5.Работа с нестационарными оптимальными процессами не вносит каких-либо дополнительных трудностей.

6.Непосредственно рассматриваются и нелинейные объекты управления, правда, при этом возрастает сложность вычислений.

Основные этапы построения оптимальных систем состоят в следующем.

206

1.Построение математических моделей физических процессов, подлежащих управлению, а также критериев качества.

2.Вычисление оптимальных управляющих воздействий.

3.Синтез регулятора, реализующего оптимальное управление. Теория оптимизации продолжает интенсивно развиваться, пытаясь

преодолеть трудности, присущие этой теории. Перечислим их.

1.Формирование значимого на языке математике критерия качества из различных требований проектирования – непростая задача. Часто на этом пути применяется метод проб и ошибок.

2.Результирующий критерий качества системы часто является очень чувствительным к различного рода ошибочным предположениям и (или) к изменениям параметров регулируемого процесса.

3.Существующие в настоящее время алгоритмы управления в случае нелинейных систем требует сложных программ вычислений и, часто, большого количества машинного времени.

4.Хорошо работающие методы проектирования регуляторов, разработанные для малых областей фазового пространства (вблизи траекторий, соответствующих номинальным режимам), сразу же оказываются неприемлемыми применительно к большим областям фазового пространства в случае нели-

нейных систем.

Основные методы, используемые в теории оптимизации, это:

классическое вариационное исчисление,

принцип максимума Понтрягина,

динамическое программирование Беллмана,

алгоритмы Винера-Колмогорова и Калмана-Бьюси,

207

функциональный анализ,

метрический анализ.

4.2. Вариационное исчисление в оптимальных системах

4 . 2 . 1 . Постано вка задач вариацио нно го исчисления

Вариационное исчисление – это раздел математического анализа, связанный с проблемой оптимизации при условиях более общего характера, чем те, которые рассматриваются в обычной теории нахождения максимума или минимума некоторой функции. Вариационное исчисление имеет дело с максимумом или минимумом функционалов, когда требуется определить не одно значение функции, а целую функцию.

Функционал – это переменная величина, зависящая от некоторой функции, например, функционалом является Q:

Q = TG(u(t), y(t))dt.

0

При этом каждой функции G, взятой из некоторого класса функций, соответствует определённое значение функционала Q.

Вариационное исчисление разработано более 150 лет назад известным русским математиком Эйлером и находит применение во многих областях науки и техники, среди которых – теория управления, классическая механика, электромагнетизм, гидродинамика, оптика, аэродинамика и т.д.

В вариационном исчислении тремя основными проблемами традиционно считаются:

задача Лагранжа,

208

задача Майера,

задача Больца.

Задача Лагранжа с одной независимой переменной связана с определением функции u(t), которая обеспечивает минимум интеграла от этой функции. Формализуем постановку задачи.

Дано.

1.Система дифференциальных уравнений

xɺ

= f

(x,u,t), i = 1,2,...,n ,

(4.2.1)

i

i

 

 

где x = [x1, x2 ,...xn ]T n

мерный вектор-столбец, u = [u1,u2 ,...ur ]T

r-

мерный вектор-столбец.

 

 

 

2.Система начальных условий

xi (t0 )= ai , i = 1,2,...,n .

(4.2.2)

3. Критерий оптимальности

 

t f

 

I = F(x,u,t)dt ,

(4.2.3)

t0

 

где функция F предполагается непрерывной по своим аргументам. Необходимо найти функцию u(t), доставляющую минимум функцио-

нала (4.2.3) среди всех функций u(t), удовлетворяющих уравнениям (4.2.1) с начальными условиями (4.2.2).

Задача Майера заключается в определении функции u(t), минимизирующей известную функцию, вычисляемую в конечной точке и содер-

209

жащую некоторые переменные, конечные значения которых заранее не заданы.

Дано.

1.Система дифференциальных уравнений (4.2.1).

2.Начальные условия (4.2.2).

3.Конечные условия

xj (tf )= bj , j A {1,2,...,n},

(4.2.4)

при этом tf заранее не известно.

4.Критерий оптимальности

I = G(x,u,t)

 

t f .

(4.2.5)

 

 

 

t0

 

 

 

 

Необходимо из всех функций u(t), удовлетворяющих уравнениям (4.2.1) с начальными (4.2.2) и конечными (4.2.4) условиями найти функцию u(t), минимизирующую критерий (4.2.5).

В частном случае, когда критерий оптимальности имеет вид

I = G(x,u,t) tt0f = t tt0f = tf t0 ,

задача Майера сводится к переходу от заданного начального состояния к желаемому конечному за минимальное время.

Задача Больца связана с определением функции u(t), минимизирующей сумму, состоящую из интеграла от некоторой функции и функции, вычисляемой в конечной точке, при этом конечные значения некоторых переменных этой функции могут быть заранее не заданы.

210

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]