Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

1200

.pdf
Скачиваний:
6
Добавлен:
15.11.2022
Размер:
11.69 Mб
Скачать

Отсюда находим, что постоянную k надо выбрать следующим образом:

k = V <J« ? r -

о 26)

В качестве другого критерия для выбора наилучшего приближения возьмем критерий минимума среднего квадратического отклонения двух функций:

<\f(u)— ku |2> = мин.

Дифференцируя левую часть по k и приравнивая производную нулю, получим следующую формулу для k :

<Ци)и>

(127)

< ц * >

Вообще говоря, формулы (126) и (127) дают различные значения постоянной k. Существенно, что эта постоянная зависит от параметров распределения выходного процесса, которые, в свою очередь, являют­ ся неизвестными. Если q(t) — нормальный случайный процесс и если нелинейность достаточно мала, то можно предположить, что выходной процесс u(t) мало отличается от нормального. Тогда для одномерной плотности вероятности можно взять приближенное выражение

р(и)

1

(128)

/2 л а ц

 

 

где ol — неизвестная дисперсия процесса u(t).

Выражения, входящие

в формулы (126) и (127), определяются как:

 

оо

</*(“)> = § f2 (и) Р(и) du\

оо

</(«)«>= $ f{u)up(u)du.

— оо

Таким образом, коэффициент k в уравнении линеаризированной си­ стемы

LQи + 1xku = q (t)

(129)

зависитЪт неизвестной дисперсии а«. Рассматривая дисперсию как за­ данный параметр или заданную функцию, методами статистической ди­ намики линейных систем находим корреляционную функцию или спектральную плотность на выходе линейной системы (129). На за­ ключительном этапе вычислений составляем и решаем уравнение отно­ сительно дисперсии выходного процесса.

Рассмотрим, например, стационарное случайное воздействие на стационарную нелинейную систему. Применяя к уравнению (129) фор-

мулу (97), найдем связь между спектральными плотностями на входе

ивыходе:

Вправую часть входит неизвестная дисперсия of. Выразим эту диспер­

сию через спектральную плотность. Тогда для определения получаем соотношение

оо

(130)

—00

Для широкого класса функций S9((o) и L0(ia) интеграл в правой час­ ти уравнения (130) может быть вычислен в конечном виде. В резуль­ тате мы придем к трансцендентному или алгебраическому уравнению относительно аи. Уравнение (130) может быть решено также по методу последовательных приближений или графически.

Применим метод статистической линеаризации к уравнению Дуффинга (116), предполагая, что внешнее воздействие является «белым шумом». Для уравнения Дуффинга f(u) = и3. Принимая, что выход, ной процесс распределен нормально, найдем, что

</■(«)> = <ыв >=15а°;

</(ы)и> = <ы*> = За2.

Таким образом, коэффициент k в линеаризированном уравнении (129)

оказывается равным k = аа«. Числовой множитель а составляет

если линеаризацию проводить по критерию равенства дисперсий. Если же использовать критерий минимума среднего квадратического откло. нения, то получается, что а = 3. В литературе по теории автоматичес­ кого управления можно встретить рекомендации о том, что при опре­ делении дисперсии выходного процесса в качестве расчетного значе­ ния коэффициента линеаризированной системы надо принимать сред, нее из двух значений. В основе этих рекомендаций неявно лежит пред, положение о том, что два способа линеаризации берут точное значение дисперсии «в вилку». Убедительные основания для такого вывода отсут­ ствуют. Более того, можно привести примеры, в которых точное зна­ чение дисперсии оказывается лежащим вне интервала, ограниченного приближенными значениями. Один из таких примеров будет указд,, ниже (§ 1.11).

Продолжим вычисления. Подставляя найденные значения коэффд. циента k и оператора L0 в формулу (130), приведем ее к виду

ОО

I (DQ-f-

| о

Интеграл в правой части при

S q((o) = const вычисляется элементар­

но. По аналогии с формулой (100) получим

а« =

(131)

(®^ + цаа2)

Мы получили относительно

квадратное уравнение. Его единствен­

ный положительный действительный корень дает искомое значение дисперсии выходного процесса. Если нелинейность достаточно мала,

точнее, если р.ао^

©о,

то можно применять приближенную форму­

лу

 

 

 

 

о 5 «

( 1 —

(132)

 

 

2<UQ8 ^

2а>о е J

Формулы (131) и (132) можно использовать для приближенного вычисления дисперсии и в следующем случае. Если демпфирование в системе достаточно мало (е < со0), а спектральная плотность вход­ ного процесса S g(co) изменяется достаточно медленно, то система яв­ ляется фильтром для воздействий, частота которых близка к со0. Дис­ персию выходного процесса найдем, подставляя в указанные формулы значение спектральной плотности S q = Sg(co0), соответствующее час­ тоте (О0.

Нетрудно обобщить метод статистической линеаризации на более

широкий класс нелинейных систем и внешних воздействий.

Здесь мы

ограничимся системами типа*

 

L0u + \if{u, u ) = q

(133)

При этом мы откажемся от предположения о том, что процесс q(t) яв­

ляется центрированным. Кроме того, на функцию f(u, и) не будем на­ кладывать никаких ограничений, кроме условия однозначности. В рас­ сматриваемых процессах будем различать регулярную и флуктуационную составляющие:

Q = < Q > + Q ; и = { и ) + и у

а функцию f(u, и) будем линеаризировать в окрестности ее математи­ ческого ожидания:

f(u, и) « < / (и, u)) + ku' + k1u.

(134)

Для математического ожидания выходного процесса имеем уравнение

£ о < ' « > + К / ( « . «)> = < </>•

(135)

* Здесь (а также, где это удобно, и в дальнейшем) дифференцирование по времени обозначается точкой.

Флуктуациоиная часть удовлетворяет стохастическому дифферен­ циальному уравнению, которое после линеаризации принимает вид

L0 и + [iku+ ц ^ Ъ — ~q.

(136)

Неслучайные постоянные k и /гх можно определить разными способами. Применим критерий минимума среднего квадратического отклонения:

< |/ (и, u) — (f{u, 'u)) — k и k^m 2 ) = мин.

Раскрывая выражение, стоящее в левой части, и дифференцируя его по параметрам k и klt придем к формулам:

(и, й ) и ) .

<«2>

(137)

£ _ <f(u,U)u )

1 ч

Применение формул (137) требует задания совместной плотности вероятности для процесса u(t) и его первой производной. Обычно ис­ пользуется гипотеза нормальности, т. е. полагается, что

 

Р

(«, и)

1

ехр

( и —а)2

 

2паиа-и

К

 

 

 

 

 

 

 

 

 

Здесь

и а- — дисперсии процесса u(t) и его производной соответст­

венно, а — математическое ожидание процесса u(t). После решения линеаризированной задачи неизвестные параметры распределения лег­ ко вычисляются.

Метод статистической линеаризации широко применяется не толь­ ко к системам с малой и аналитической нелинейностью, чо и к сущест­ венно нелинейным системам. Рассмотрим, например, нелинейную функ­ цию

/ (и, и) = с sign w + f i sign и-

Первый член может быть интерпретирован как взятая с обратным зна­ ком сила упругости в пружине с большим предварительным натягом; второй член соответствует силе сухого трения. Такая нелинейность является аналитически нелинеаризируемой. Попытаемся, тем не менее, заменить ее на множестве случайных движений линейной функцией

f (и, и) я? ku + kx и.

Предполагая, что выходной процесс является нормальным с матема­ тическим ожиданием, равным нулю, легко получим

1 __ с < 1и \ > __ а с

~ <и2> ~ ои

(138)

k — ci ^ 1“ I) __ <*Ci <а2> ~~

Числовой коэффициент а в формулах (138) равен единице, если лине­ аризацию проводить из условия равенства дисперсий. Если же поль­ зоваться формулами (137), то получим

Несмотря на то, что линеаризация такого неаналитического вы­ ражения является довольно смелой операцией, она приводит к разум­ ным результатам при определении дисперсии. Объясняется это тем, что при стохастических движениях неаналитичный характер нелинейнос­ тей проявляется не столь заметно, как, скажем, при гармонических колебаниях.

§ 1.10. Сведения из теории марковских процессов

Изложенные выше методы статистической динамики нелинейных систем дают приближенное решение задачи, пригодное лишь при не­ которых ограничениях., накладываемых на систему и входные про­ цессы. К этим ограничениям относятся, например, требование малости нелинейных членов, требование близости выходного процесса к нор­ мальному и т. п. Но даже при этих ограничениях мы не получаем при помощи указанных методов достаточно полной информации о выход­ ном процессе. Обычно эта информация ограничивается оценкой мате­ матических ожиданий, корреляционных функций и спектральных плот­ ностей. Между тем существуют методы, которые для некоторого класса нелинейных систем и внешних воздействий позволяют находить точ­ ные распределения выходных процессов, включая нестационарные и многомерные распределения. Эти методы основаны на теории марков­ ских процессов.

Случайный процесс называется марковским, если его распределе­ ние в момент времени t2 может быть выражено через распределение в предшествующий момент времени tx < t2 независимо от предшествую­ щей истории процесса. Таким образом, марковский процесс — это процесс без последействия. Марковские процессы являются абстрак­ цией реальных процессов. Однако многие реальные процессы могут приближенно трактоваться как марковские или во всяком случае мо­ гут рассматриваться как компоненты некоторых многомерных марков­ ских процессов.

Приведем некоторые сведения из теории марковских процессов, причем ограничимся наиболее важным для статистической динамики

случаем процессов с непрерывным временем и непрерывным множест­ вом состояний. Начнем с одномерного марковского процесса. Рассмот­ рим случайную функцию u(t), принимающую в последовательные мо­

менты времени t0 < tx <

< tn возможные значения

и0,

иг....... ип.

Введем условную плотность вероятности

 

 

 

смысл:

р(ип, tn \un- i ,

tn- 1; ...; иъ

tx; u0, t0),

имеющую следующий

 

 

 

 

 

I

 

 

 

p(Un, t n \Un-l,tn-l-, ...;

ux, t x, u0, t 0)d u n =

 

 

 

 

 

u0< и {to) <

u0+ du0;

 

 

 

p Un<u(.tnX u n + dun « i < «

(^i) <

u1 + du1;

 

 

 

 

 

Un- l <

и (tn- \) < un- i + dun~\

_

Если условная плотность

вероятности

удовлетворяет

соотношению

Р (Рп>

I tin1>tп11 .

I U\, t\, U-o, to) ==p {tin, tn I tin1>tn1)>

0 ^^)

то процесс u(t) называется марковским. Из соотношения (139) следует, что марковский процесс u(t) полностью определяется начальным рас­

пределением

р(и0, t0) и

условной плотностью

вероятности

р(ип, tn | ип-

1, t„-i). В самом деле, по теореме умножения

Р {Но, ^0»^1»^1»••• I Ип, tп) == Р (Мп* t„I Ип—11tn—1»

, Их, ^1» to) X

X р (Цп—\, t п— 1 | Чп—2 , tn—2i .

. . Ux, ti , UQ, t 0) . . . P ( U i ,

t x | UQ, to) P ( Wot * o ) .

Отсюда, учитывая формулу (139), находим

Р («о. ^о! «1. h ; ...; ип, tn)=p (ип, tn\un- i, tn- 1) р{ип- i,/„_i|wn_ 2, tn- 2)... X

X P («!, tx I «0, /0) P («0. to).

(140)

Функция p(un, tn \un- \ , tn~ 1), равная условной плотности вероят­ ности перехода из состояния ип—\, tn- 1 в состояние un,tn, называется переходной вероятностью. Переходная вероятность обладает обычными свойствами плотности вероятности и, в частности, удовлетворяет ус­ ловию нормировки

оо оо

§

Р (ип>tn I Un—i>tn—\) dun—\ — \ P(un, tn \ un- u tn- i) d u n = 1.

— 00

— 00

Переходная вероятность полностью характеризует свойства маркоьского'процесса.

Нетрудно получить интегральное уравнение, которому должна удовлетворять переходная вероятность. Рассмотрим три последователь­ ных момента времени t0 < tx < t2- Составляя очевидное соотношение

оо

р(м„Л; ы2. t2) = $ р (“оЛ ; tii, h\ u2,t^'dux,

— op

выразим входящие в него многомерные плотности через переходную вероятность согласно (140). В результате получим интегральное урав­ нение Смолуховского:

оо

 

Р 2. h I «о, to) = Jj Р 2. h | uv tx) р (ult ty I ы0, to) dUy.

(141)

Это уравнение можно получить также и несколько иным путем, рас­ сматривая связь между состояниями в моменты времени /0 и t2 через состояние в промежуточный момент времени t0 < ty < t2 и применяя формулу полной вероятности.

Теперь выведем дифференциальное уравнение относительно пере­ ходной вероятности. Будем исходить из интегрального уравнения (141).

Запишем

его для моментов времени tQ< t At < t (в дальнейшем

перейдем

к пределу

при At

0):

 

 

оо

 

p (u ,t\u 0, t 0) =

5 p{u,t\uy,t— At)p(uy,t— At\u0,t0)duy.

 

 

— оо

 

Здесь Uy — значение функции u(t) в момент t At. Умножим это урав­ нение на функцию Q(u), обращающуюся со всеми производными в нуль на границе области изменения и (в нашем случае при ±<х>), и аналити­ ческую в окрестности значения иу. В остальном функция Q(u) является произвольной. После умножения и интегрирования по и получим

оо

5p(u,t\u0, t 0)Q(u)du =

=$ \p(uy,t— At\u0,t0) ^ p(u,t\Uy,t—At)Q(u)du\dUy.

Разложим функцию Q(u) в ряд Тейлора в окрестности значения иг:

ОО

Q(«)= 2 ТГ^<А) ^

А —0

Подставим этот ряд в уравнение, изменим порядок интегрирования и суммирования и перенесем один из членов в левую часть. С учетом условия нормировки переходной вероятности имеем

оо

$ lp(u,t\u0, t 0)— p (Uy, t — At\ «о, /о)1 Q(“) du =

w

WO I

W

I

= 2 r r S |p (“i.<—A*l"o.<o)Q(*)(“i) \p{u,t\Uy,t—At){u—Uy)kdu\dUy.

k >

Следующий шаг состоит в почленном делении уравнения на At и в

переходе к пределу при At

0, Ui -+■ и:

 

00

сю

 

оо

 

Г др (и, t\u0, /0) Q(u)du =

2

1

$

(142)

- с о

Л - 1

S1

- о о

 

В правой части уравнения

(142) введены обозначения

 

 

 

оо

 

 

x h(u,t) = Пгп^

 

^

p { u ,t\u l t t — At)(u — u tfd u .

 

Выражения nh называются интенсивностями марковского процесса порядка k. Замечая, что и иг = Ди, можно переписать формулу для интенсивности в виде

x h(u,t)= lim

(143)

Здесь угловые скобки обозначают операцию взятия условного мате­ матического ожидания. При осреднении выражений Аuk величина ux(t) считается заданной.

Преобразуем правую часть уравнения (142), применяя интегриро­ вание по частям:

I

др (и, 11ц0, /0) Q (и) du =

dt

оооо

=S ( — /- )* [* * (“ . О Р (u,t\u0, t 0)]Q(u)du.

k^ 1 ^ —ОО'

'

Поскольку функция Q(u) является произвольной, то для равенства левой и правой частей необходимо выполнение соотношения

др_

dt

ё М

(144)

- i r ^ -

Итак, мы получили дифференциальное уравнение (144) относительно переходной вероятности,'р = р(и, t\ u 0, t0). Решение этого уравнения должно удовлетворять условию неотрицательности, условию норми­ ровки и начальному условию

р = 6(и — и0) (t = t0).

(I45)

Если функция u(t) является непрерывной, то в течение малых цн. тервалов времени At она будет получать малые приращения. Все цн_ тенсивности (143), начиная с третьей, будут равны нулю. Уравнецие (144) принимает вид

др

д

1 а2

Это уравнение, описывающее изменения переходной вероятности не­ прерывного марковского процесса, называется уравнением Фоккера— Планка—Колмогорова. Функция х^и, t) характеризует среднюю эво­ люцию процесса u{t) при условии, что u(t) = и и называется коэффи циентом сноса. Функция х 2(и, t) характеризует среднее квадратическое отклонение процесса при условии, что u(t) = и, и называется, коэффициентом диффузии. Заметим, что переходная вероятность р(и, /|а0, /0)> рассматриваемая как функция начального состояния u0i /0, удовлет­ воряет уравнению

др

др

1

д2 р

(147)

— — —- х ,--------- х2 — —,

д(о

д“о

2

ди2

 

которое является сопряженным по отношению к (146). Строгий вывод уравнений (146) и (147) можно найти в книге [40].

Заметим, что уравнению (146) удовлетворяет не только переходная

вероятность

p(u, t\u 0,

t0), но

и одномерная плотность вероятности

p(u, t). В самом деле,

умножая

уравнение (145) почленно на р(и0, /0)>

интегрируя

по и0 и учитывая, что

 

\

p(u,t\ «о, /о) Р («о. <о) du0= р (u, t),

придем к уравнению (146) относительно р(и, t). Начальное условие имеет вид

p = p(u0,t0) (t = t0),

(148)

где р(и0, t0) — одномерное распределение в начальный момент време­ ни. Определение переходной вероятности можно рассматривать как частный случай определения одномерной вероятности при начальном условии, заданном в форме (145).

Изложенную теорию можно обобщить применительно к многомер­

ным марковским

процессам.

Пусть u(/) = [«i(/), u2(t), ..., um(/)]—

/л-мерный

случайный процесс без последействия. Переходная

вероят­

ность р(u,

t \ u0, t0)

для этого процесса удовлетворяет интегральному

уравнению типа (141):

 

 

 

р (u2 ,/2 | u0, t0) = J р (u2, t21щ, t j p (ult tx| u0, *0) dulf

 

где u0, ux и u2 — реализации процесса u(/) в моменты времени

tx и t2

соответственно; йиг — элемент

объема в m-мерном пространстве. Обо­

значим приращение компонентов вектора и(/) через Аиъ Ды2, ..., Аит. Введем интенсивности многомерного марковского процесса

X ; ( u , / ) - I i m

At-+Q А/

Д/-*0 А/

А/ ►О

где угловыми скобками обозначена операция Взятия условного мате' матического ожидания. Если любая из компонент процесса меняется непрерывно, то интенсивности более высокого порядка, например

*;м(и, 0 =Н ш <Auj AUkДи/ >

м

будут равны нулю. Выполняя выкладки, аналогичные тем, который были сделаны ранее, придем к уравнению Колмогорова для многомер' ного марковского процесса:

др_

_ у _ Ё _ (х

р ) + 1 у у Л — (*Л р)-

(150)

dt

p i dui

2

 

 

 

Переходная вероятность р(u, t | и0, /„) должна удовлетворять урав' нению (150), а также условиям положительности, нормировки и на' чальному условию р = 6(и — и0) при i — t0. Как и в одномерном слу' чае, уравнению (150) удовлетворяет также плотность вероятности р(и, /)• При этом начальные условия берутся в виде

p = p(u0,t0) (/ = *„)•

(151)

§1.11. Применение теории марковских процессов

крешению задач статистической динамики

Для того чтобы применить аппарат теории марковских процессов к задачам статистической динамики, необходимо прежде всего уста­ новить класс систем, поведение которых может рассматриваться как непрерывный марковский процесс. Очевидно, что должны быть нало­ жены существенные ограничения на оператор в уравнении (5). Рассмот­ рим вначале случай, когда и(/) является одномерным процессом, a L — дифференциальным оператором.

Нетрудно заметить, что поведение системы будет определяться ее состоянием в какой-либо момент времени независимо от истории толь­ ко в том случае, если оператор L имеет первый порядок. Другими сло­ вами, стохастическое дифференциальное уравнение относительно u(t)

должно иметь вид

 

« + /(«) = 9(0-

(152)

Здесь f(u) — неслучайная функция. Далее,

внешнее воздействие q(t)

должно быть дельта-коррелированным; в противном случае история системы будет влиять на ее поведение через стохастическую связанность воздействия. Итак, внешнее воздействие <?(/) должно быть белым шу­ мом, т. е. удовлетворять условиям

<?(/)> = 0, < <7& ) <7(/,)> = s8 (/,— /,).

(153)

Вообще говоря, марковость процесса u{t) имеет место и в том случае, когда интенсивность белого шума s зависит от функции и и времени t. Мы все же в дальнейшем будем полагать белый шум стационарным,

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]