Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Пугачев, В. С. Основы статистической теории автоматических систем

.pdf
Скачиваний:
15
Добавлен:
22.10.2023
Размер:
12.95 Mб
Скачать

X 1 —

Д/ + T \ 2 f t + 1

 

 

2т3k

 

/ Д< + Т \ 2 * + 2 '

+

Т + т

 

 

(Д/ + т)2

V Г + X J

+

 

r*(k+\)

 

 

L1

( - r

i f f *

3])-

<з л м >

(2/г + 3) (Л/ +

т)3

Функция

 

 

т—м

 

 

 

 

 

 

 

 

 

 

 

 

X

М *. т, г , Д0 =

0

0

0

 

 

 

S')

 

 

0

 

бф

 

 

 

X Аа£> (£) D (£') 6 (s -

g) б (s' -

 

 

s') ds ds' d ^ d f .

Г) д ^ }- S (s -

 

 

 

 

 

 

 

 

 

 

(3.195)

В результате вычисления этого интеграла получим

 

h = k2

(А - О2

 

/

М + т \2*+1

 

(2А+ 1) (Д< + х)

\

Г + т

 

 

 

 

t'J

 

 

 

х(А-

1)

 

_

/

Д<^ + Тт

\?*+2у

+

 

 

 

(Д/ + т)2

 

 

\

7 4 -т )

 

 

 

 

 

 

 

 

 

т2(* +

I)2

 

 

Д/ + т \2*+з

(3.196)

+ (2А + 3) (Д/ + т)2

 

Г + т ) ’

JJ

 

 

В вышеприведенных формулах при А/ < т необходимо прини­ мать А/ = т. Это объясняется тем, что полет не может быть управ­ ляемым в течение времени т, меньшего времени инерционности дви­ жения относительно центра массы.

Суммированием квадрата математического ожидания (3.181) и дисперсии (3.191) определяется второй начальный момент промаха. Исследование зависимости второго начального момента промаха от обобщенного коэффициента усиления показывает, что существует экстремальная точка, обеспечивающая минимум среднего квадрата промаха (с^)т1п при оптимальном коэффициенте усиления.

=

Рассмотрим числовой пример при следующих данных

[50, 61];

Gg = 0, бф =

6,28-10~6

рад2-с;

m

=

1; а

= 2 ;

п =

j

ig\ g = 9,81 м/с2;

m

= m . = 0:

ст

= 100

м;

<т. =

10

«и

пц

 

850

ч

^

=

500

м -с"1:

v

«о

Уо

м -с"1: v =

м-с

 

v

=

350

м -с"1;

D„ = 5000

 

 

 

14,28

с;

DB= 75

м,

ч

DB/vr = 0,21

с;

х =

0,2 с;

м; Г = Da/vr =

Д/ =

/ т = е т = 0 Т = 0 ц Т = 0 .

графики

второго

 

начального

момента

промаха

ракеты

 

На рис.

3.12 показаны

 

в зависимости от обобщенного коэффициента усиления к, условий стрельбы и пара­ метров ракеты.

Анализ графиков показывает, что существует оптимальное значение обобщен­ ного коэффициента усиления, обеспечивающее минимум среднего квадрата промаха. Оптимальное значение коэффициента усиления незначительно изменяется при раз­ личных условиях стрельбы в рассматриваемом диапазоне изменения параметров.

Г л а в а 4

МЕТОДЫ АНАЛИЗА

 

НЕЛИНЕЙНЫХ НЕПРЕРЫВНЫХ СИСТЕМ

4.1. Задачи анализа нелинейных систем

Динамические процессы в нелинейных системах существенно слож­ нее процессов, происходящих в линейных системах. Это опреде­ ляется наличием нелинейности и структурой системы. Нелиней­ ности, имеющие безынерционные нелинейные функциональные за­ висимости между переменными на входе и выходе, в отличие от ли­ нейных элементов преобразуют характер случайных процессов, изменяют их законы распределения.

При наличии нелинейностей в замкнутых системах при опреде­ ленных начальных условиях возможно возникновение и устойчивого колебательного процесса, называемого автоколебаниями. Автоко­ лебания имеют определенную частоту повторения. При случайных возмущениях автоколебания в нелинейной системе нарушаются, движения приобретают сложный хаотический характер.

Динамические процессы в нелинейных системах при действии случайных возмущений претерпевают сильные качественные и коли­ чественные изменения. Чтобы охарактеризовать эти процессы, не­ достаточно знать только математические ожидания и корреляцион­ ные функции входных и выходных переменных. Для исследования нелинейных преобразований случайных функций и нелинейных ди­ намических систем, находящихся под воздействием случайных воз­ мущений, используют законы распределения входных и выходных сигналов. Эта задача достаточно сложна и сводится к интегрирова­ нию дифференциальных уравнений в частных производных относи­ тельно функции плотности вероятности. В практических инженер­ ных оценках она может быть заменена определением числовых ха­ рактеристик — вероятностных моментов высших порядков перемен­ ных системы.

Задачи анализа нелинейных динамических систем, находящихся под воздействием случайных возмущений, состоят в определении за­ конов распределения или вероятностных числовых характеристик всех или только выходных переменных, в исследовании зависимости этих характеристик от параметров системы, а также числовых ве­ личин входных сигналов, в определении точности воспроизведения или преобразования полезных сигналов. Одной из основных задач среди перечисленных является задача оценки математических ожи­ даний и корреляционных функций выходных переменных. Эта задача включает также оценки математического ожидания и . корреляцион­ ной функции ошибки воспроизведения системой полезного или задан-

Ш

ного сигнала, т. е. основную задачу точности. Общая постановка этой задачи аналогична постановке, сформулированной в гл. 2, п. 1 для линейных систем. Однако решение задачи для нелинейных замкну­ тых систем связано со значительными трудностями вычислитель­ ного характера. При этом для произвольных нелинейных систем не существует общего точного метода определения интересующих нас вероятностных характеристик. Поэтому большое значение имеют приближенные методы решения задач анализа, в том числе и задач определения точности нелинейных систем, основанные на применении обычной и статистической линеаризации функциональных зависимо­ стей. Если функциональные зависимости линеаризованы, то прибли­ женно анализ нелинейных систем может быть проведен методами ли­ нейной теории. К приближенным методам относится также метод эк­ вивалентных возмущений, основанный на аппроксимации выходных переменных любой динамической системы полиномами по случайным параметрам, если входные случайные возмущения представлены в па­ раметрическом виде через случайные параметры [23, 31].

Приближенные методы дают возможность определить числовые характеристики случайных процессов в нелинейной системе — ве­ роятностные моменты, основными из которых являются математиче­ ские ожидания и корреляционные функции.

4.2. Преобразование случайных функций нелинейностями

Простейшей нелинейной системой является безынерционная не­ линейность. Значение функции Y на выходе безынерционной нели­ нейности ср определяется только значением функции X на входе в тот же момент времени t:

У (0 = Ф [X (*)].

(4.1)

Нелинейное безынерционное преобразование случайного процесса, так же,как и линейное пропорциональное, не вносит дополнительных вероятностных связей. Это означает то, что, если процесс на входе безынерционного преобразования полностью характеризуется «-мер­ ным распределением, то процесс после преобразования (на выходе нелинейности) также характеризуется распределением /г-го порядка. Например, если случайный процесс на входе в нелинейность пред­ ставляет собой белый шум, то на выходе он также является белым шумом. Однако в отличие от линейного безынерционного преобразо­ вания при нелинейном преобразовании изменяется вид закона рас­ пределения.

Задача анализа применительно к заданному преобразованию (4.1) состоит в определении закона распределения функции Y (t) при заданном законе распределения функции X (t). Для опреде­ ления закона распределения функции Y(t) необходимо существова­ ние обратного функционального преобразования

X (t) = ф (Y (*)).

(4.2)

112

Если обратное преобразование (4.2) однозначно и задача функции плотности вероятности f (х, t) распределения процесса X (t), то плот­ ность вероятности к {у, t) процесса Y (t) определяется на основании

следующих рассуждений. Вероятность того,

что функция X (t) за­

ключена в интервале х 0, х 0 + dx,

равна / (х,

t) dx. Вероятность того,

что У (t) заключена в интервале у 0, у 0 +

dy,

равна к (у, t) dy. В силу

однозначной детерминированной зависимости между Y и X вероят­

ность к (у, t) dy = / (х, I) dx.

 

 

 

Разделив правую и левую части этого равенства на dy, получим

к (у, t) =

f(x, 0 - ^ - .

(4.3)

Из формулы (4.3) следует, что необходимо существование произ­

водной от обратной функции ~

^ .

Кроме того, так как плот­

ность вероятности не может быть отрицательной, в формуле (4.3) необходимо учитывать модуль производной. Окончательно формула для плотности вероятности выходной переменной принимает вид

h{y, = t) ~dy (4.4)

Если обратное преобразование неоднозначно, то в формуле (4.4) необходимо осуществить суммирование по каждой ветви неоднознач­ ной характеристики ф (у).

В общем случае при определении «-мерной функции плотности вероятности на выходе безынерционной нелинейности получаем фор­

мулу

[45,

56,

68]

 

 

^ (d ll

• • -1

Уги

^1> ■■• I

k

■• • •) %nkI ^1> ■• ■>tn) JП> (4-5)

 

 

 

 

 

где xik = ф* (xit . .

т _ d (xik.......xnk)

j n

Уп)

d {‘Jv

yn) — ветвь неоднозначного преобразования; - якобиан обратного преобразования вида

dipi

дУп

дфп

дуг дуп

суммирование осуществляется по всем ветвям обратного преобразо­ вания. При этом, если определяют m-мерный закон распределения на

выходе к {уг, . . ., ут, tlt . . ., tm) и т < « ,

то в

формуле (4.5)

якобиан вычисляют только для т переменных,

а для

определения

к (уи . . ., у,п, tlt . . ., t,n) выражение (4.5) необходимо

проинтег­

рировать по переменным хт+1, . . ., хп. Если

т >

п,

то т п

переменных у{ функционально связаны с остальными,

а функция рас­

пределения

/Н—Л

 

^ (Уи • • •> Упи ^1> • ••> ^т)

{^.Уи • • ч Уги

^ Уп+l® ( Ф/)-

 

1 = \

 

8 В. С. Пугачев

113

Вычисление плотностей вероятности по приведенным формулам достаточно просто для однозначных обратных преобразований. Однако на практике часто обратное преобразование многозначно пли в некоторых случаях имеет бесконечное число значений, а ее произ­ водные терпят разрыв. В этих случаях для определения одномерных функций распределения необходимы специальные приемы, а опреде­ ление многомерных функций распределения становится весьма гро­ моздким [24].

Практически валено, однако, определение одномерных моментных функций любого порядка, а также второго двумерного центрального момента — корреляционной функции на выходе нелинейности. Эта задача более простая для определения одномерных моментных функ­ ций, причем для определения одномерного момента любого порядка случайной функции на выходе произвольной нелинейности необ­ ходимо знать закон распределения входной функции:

СО

М {[К(*)]*} =

J

[ф (*)]*/(*. t)dx.

(4.6)

 

— СО

 

 

k =

1,

2.......

 

В частном случае полиноминальной характеристики ср (х) формула для k-ro момента переменной Y (t) выражает этот момент через мо­ менты переменной X (t) для того лее момента времени и может быть получена из формулы (4.6), если в нее подставить выралеение

 

 

 

N

 

 

Ф(*) = 2

 

В результате получаем

i=i

 

 

 

м

[КА] =

S

Иг • -с1кМ [Х''1+-+Ч

(4.7)

где

‘Т..... £*=1

 

 

 

 

 

 

 

 

 

со

 

 

Л4 [Хг1+-"+П] =

j х'4+-”+'*f(x, t)dx

 

 

 

 

— со

 

есть гх + • . . +

//.-начальный момент случайной функции

X (t)

для момента времени t. Из формулы (4.7) следует, что момент /е-го порядка выходной случайной функции выралеается линейно через высшие моменты входного процесса, начиная с момента /е-го порядка до момента kN-vo порядка.

Так как всякая однозначная нелинейность практически любым способом может быть аппроксимирована полиноминальной характе­ ристикой, то сформулированное выше правило для моментов выход­ ной переменной является общим для нелинейных безынерционных преобразований.

114

Более сложной является задача определения корреляционной функции или второго начального момента выходной переменной нелинейности:

СО

0 0

— со — со

где / (xlt х2, t ! , t2) — двумерная функция плотности вероятности слу­ чайного процесса на входе. Из формулы (4.8) следует, что для опре­ деления второго начального корреляционного момента ( t lt t2) необходимо знать двумерный закон распределения входной перемен­ ной. Непосредственно вычислить интеграл (4.8) сложно. Для его вычисления разработаны два общих метода: прямой метод и метод контурных интегралов (Райса). Для нормальных случайных про­ цессов применяют метод производных, который по существу является

методом контурных интегралов.

плотности

Прямой

метод основан на представлении двумерной

/ (хь х2, t u

t2) процесса на входе в нелинейность в виде

двойного

функционального ряда по ортогональным полиномам

 

/ (Xi, Х2, ti, t2)

f (XL, tx) f (x2, t 2) n, m—0 anm {tl,

^2)

X

Qn (•*!> ^l) Qm {X2, ^2)1

(4.9)

где / (х, t) — одномерная плотность вероятности; Q„ (х, t) — поли­ номы, которые удовлетворяют условию ортогональности

Коэффициенты апт t2) можно заранее рассчитать по формулам

CO CO

— 00——0000

n, m = 0, 1, 2, . . .

Подставляя выражение (4.9) в формулу (4.8), получаем

00

Г// (^i ^2) —

S

&пт (^1» ^2) Сп(^l) Cm(^2)1

где

п, т—О

 

 

 

со

 

Сп (0 =

J ф (х,

1) Qn (х, t) f (х, t) dx.

—00

 

8*

115

Метод контурных интегралов основан на преобразовании характе­ ристики нелинейности при определенных условиях [77 ] с помощью контурного интеграла вида

(4.10)

L

где

СО

q (iu) = J ф (х) е~'Л" dx

— переходная функция нелинейности [19, 77]. Подставляя вы­ ражение (4.10) в формулу (4.8) и производя преобразования, получим

Г, fo, t 2) =

JqJ(t%) q ( i u 2) g (иъ u 2, 1Ъ t %) d u ± d u 2, (4.11)

 

L L

где g ( u lt u 2, t lt t 2) — двумерная характеристическая функция про­ цесса на входе в нелинейность. Представляя характеристическую функцию в виде двумерного ряда по ортогональным полиномам, аналогично выражению (4.9) запишем

СО

g (M l, U-2 , t-2) = ё (Wli ^2) X ^ пт It ^2) X n, m= 0

x

P„(ult Ц Р т(и2, i2),

(4,12)

где Pn (и, t) — ортогональные полиномы;

 

СО

с о

^l) X

ЬПт (4>^2) = J

{ё ( и ъ u2i h , 1 г ) Р п ( и и

СО — с о

хр п (и1, t j p m(ut, ti)du1diu.

Подставляя соотношение (4.12) в формулу (4.11), после преобразований получим

ГЛ^1,

^2) —

с оX Ьп т (1ъ

t 2)

d n (t2) d m (i2),

 

 

n, m=0

 

 

где

 

ЯJUu) Pn (u,

 

 

d n (0

=

t)

P,„ (u, t) d u .

L

Здесь L — контур интегрирования, соответствующим образом вы­ бранный в комплексной плоскости и [77].

В ряде случаев нелинейность в диапазоне изменения входной пе­ ременной можно линеаризовать, представив в виде отрезка ряда Тей­ лора относительно математического ожидания входной переменной

тх (см. гл. 1 п. 8):

cp (X) = ср (тх) + ср' (тх)Х°.

116

В этом случае для получения вероятностных характеристик про­ цесса на выходе нелинейности применима теория преобразования случайных функций линейным безынерционным элементом (см. гл. 2,

п. 1).

Приближенно можно также определить вероятностные характе­ ристики случайного процесса на выходе безынерционного элемента, если нелинейность линеаризовать статистически, т. е. представить в виде выражения

ф W = Фо + /гД 0.

В этом случае также применима линейная теория. Однако ста­ тистическая характеристика ср0 и коэффициент /ех зависят от параме­ тров одномерного закона распределения процесса на входе в нели­ нейность и определяются по формулам (1.78), (1.79), (1.80). При этом вероятностные моменты случайного процесса на выходе нелинейности вычисляют по следующим формулам:

М [Y (0] = ср0;

 

М([У° (/)]"} = /ei!M([X° (о]л);

(4.13)

Ку (^Ъ ^2) —^1 (^l)^1 0*2) Кх(^1, ^2) •

Изложенные методы определения законов распределения и вероят­ ностных моментов случайного процесса на выходе безынерционного нелинейного элемента требуют знания законов распределения для входного процесса или его вероятностных моментов высших порядков по сравнению с определяемым.

4.3. Метод передаточных функций

Как известно, любую нелинейную систему можно рассматривать состоящей из безынерционных нелинейностей и линейных инерцион­ ных частей. Для приближенного вероятностного анализа применим линеаризацию нелинейностей относительно центрированных слу­ чайных функций в соответствии с приемами, описанными в п. 1.8. При этом в общем случае уравнения системы останутся нелинейными относительно математических ожиданий переменных и линейными относительно центрированных случайных составляющих с коэффи­ циентами, зависящими от математических ожиданий (обычная линеа­ ризация) или от математических ожиданий и корреляционных мо­ ментов (статистическая линеаризация) переменных на входе в нели­ нейность. Линеаризация уравнений дает возможность применить для вероятностного анализа теорию линейных преобразований слу­ чайных функций, изложенную в гл. 2. Для стационарных устойчивых систем, находящихся под действием стационарных случайных воз­ мущений, при анализе только установившегося режима во многих случаях удобно применить метод передаточных функций (п. 2.4).

Рассмотрим прежде всего одномерную стационарную систему с одним входом и одним выходом (см. рис. 1.1). Пусть на входе си­

117

стемы задана сумма неслучайного полезного сигнала ти н стацио­ нарной случайной помехи (/), имеющей равное нулю математиче­ ское ожидание:

U (0 = ти (t) + Я° (t).

Система управления должна удовлетворять определенным тре­ бованиям, например требованиям воспроизведения на выходе по­ лезного сигнала ти (t) в случае следящей системы или получения некоторой линейной функции этого сигнала и его производных, как в линейной системе. При этом систему в целом проектируют как линейную, а нелинейности типа ограничения, зон нечувствительности и другие учитывают при анализе динамики и точности ее работы. В некоторых случаях систему проектируют как нелинейную. Задача таких систем состоит в воспроизведении входного сигнала или в под­ держании постоянного значения выходной переменной. В установив­ шемся режиме рассматриваемая нелинейная система должна иметь некоторый выходной желаемый сигнал уТ (I), связанный с входным полезным сигналом некоторым идеальным оператором L (2.33). Ошибка системы управления при этом выражается формулой

Е = Y Lmu.

Пусть нелинейная система содержит один нелинейный безынер­ ционный элемент и описывается уравнением вида

(р) Y = Н г (р) ср (X);

F2 (р) X = Н2 (р) [U - Y], (4.14)

где Fx (р), F2 (р), # х (р), Я2

(р) — полиномы относительно р с по­

стоянными коэффициентами; ср — нелинейная функция. На рис. 4.1 изображена структурная схема рассматриваемой системы. Предпо­ ложим, что функция ср является гладкой дифференцируемой и воз­ можна ее линеаризация:

ср (X) = ср (щх) + ср' (пгх) Х°.

(4.15)

Подставляя выражение (4.15) в уравнение (4.14)

и отделяя мате­

матические ожидания и центрированные составляющие, получим уравнения для математических ожиданий

Fi (р) гпу = Н 1 (р) ср (mx); F2 (р) пгх = Я2 (р)

[пги т„\

(4.16)

и уравнения для центрированных составляющих

 

 

(р) К° = Я, (р) ср' (т,) Х°;

F2(р) X» = Я2 (р) [У0 - П .

(4.17)

Если нелинейность нечетная,

то можно принять 4>(mx)= k 0(tnx) X

X тх. В установившемся режиме, если такой

в системе

суще-

Рнс. 4.1. Структурная схема одномерной системы

118

ствует, величина тх — const. Тогда уравнения (4.16) и (4.17) яв­ ляются стационарными. Пользуясь уравнением (4.16), определяем передаточные функции для ту и тх соответственно:

ф_________ Нi (s) 7/о (s) /г0 (тх)_______ .

W F, (s) F2(s) + Н, (s) Н2 (s) kB(тх) ’

ф

/ р \

___ ___________________Т / 2 ( s ) Fo (s)__________________

 

ox( J

F1 (s)F2(s) + Hi(s)H2(s)k0 (mx) '

Используя выражение для передаточной функции Ф0ЛГ (s), на основании формулы (2.31) получаем

со

тх = ^ тр Фсы (0, тх)т {иг) (/). г=о

Эту формулу следует рассматривать как уравнение относительно тх. Разрешая его любым способом, определяем тх, а затем величины /г0 (пгх) и cp' (m.v). Далее на основании той же формулы (2.13) опре­ деляем

СО

 

Щ = 2 7Г < ’ (°.

(0.

где Фоу (0, тх) г-я производная передаточной функции Фо,, (s,

тх) по s.

Математическое ожидание ошибки системы определяют на осно­ вании формулы (2.34). В данном случае

СО

Ше = £ СГт\Р (/), /■=0

где Сг — коэффициенты ошибок, определяемые формулами (2.34). Пользуясь уравнением (4.17), определяем передаточную функцию

для переменной Y 0:

Ф м

_________Hi (s) Я 2 (s) ф' (тх)

(4.18)

iu W

~ Fl (s) р 2

(s) + Hl (s) H2

(s) cp' (mx)

 

Заменяя s = iсо в формуле (4.18), вычисляем частотную характе­ ристику линеаризованной системы в установившемся режиме. Для определения дисперсии выходной переменной применим формулу

(2.41):

СО

 

Dy = J | Фад (ив) |* SN(со) dco.

(4.19)

Интеграл в формуле (4.19) вычисляют при помощи таблиц (при­ ложение 2), если спектральная плотность SN(со) представлена дробно­ рациональной функцией частоты, а подынтегральное выражение приведено к выражению (2.45).

Так как в рассматриваемом случае полезный сигнал является неслучайным, то дисперсия ошибки совпадает с дисперсией выходной переменной D в = Dy.

119

Соседние файлы в папке книги из ГПНТБ