Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бендат Дж. Измерение и анализ случайных процессов

.pdf
Скачиваний:
71
Добавлен:
25.10.2023
Размер:
16.48 Mб
Скачать

108

Глава 3

Математическое ожидание функции Ч;?(/е) по всем возможны^ реализациям xk{t) из ансамбля {xk(t)} определяется уже знакомой формулой

4 1 = М [ 4 З Д ] = |Ч ( М .

(3.109)

где функция Ga.(/) определена уравнением (3.102).

Предположим теперь, что функция xk(t) поступает на вход узкополосного фильтра с центральной частотой /с и полосой про­ пускания Д/, причем частотная характеристика фильтра H(f)

имеет вид

 

 

м

>= [1

при 0 < / с- ( Л / / 2 К / < / с + (Л//2),

(3.110)

# ( / И

0

при других /.

 

 

 

В этом случае преобразование Фурье функции на выходе фильтра есть уже не Xk(f, Т), а H{])Xk(j, Т). Следовательно, уравнение (3.108), определяющее среднее значение квадрата реализации на выходе фильтра, примет вид

си

VHf* АЛ А )= 2 ііш 4 - П я (/)|2|Х а(/, T)\4f.

(3.111)

Т -ю э J

 

Находя математическое ожидание обеих частей последнего равен­ ства, получим

с»

/, + (Д//2)

 

41 (Л, Д/) = f I Я (/) I 2GA(/)d /=

j

Gx U)df.

(3.112)'

 

fr -

Ш/2)

 

Отсюда видно, что функция Gx(f) определяет скорость изменения среднего значения квадрата с частотой. Выражение | Xk{f, Т)|2

действует на реализацию xk{t) как узкополосный фильтр, который пропускает составляющие процесса только в некотором диапазо­ не частот и затем, прежде чем производить окончательную опера­ цию осреднения, возводит их в квадрат. Именно на этой основе построены аналоговые анализаторы спектральной плотности, рассмотренные в гл. 8. Подобного рода рассуждения позволяют доказать эквивалентность описанных в этой книге цифровых и аналоговых методов определения взаимной спектральной плот­ ности.

3.3. Эргодические случайные процессы

Рассмотрим две произвольные выборочные функции xk(t) и yk(t), принадлежащие слабо стационарным случайным процес­ сам {xk(t)\ и {yk(t)}. Эти стационарные процессы называются

Математические основы анализа случайных процессов

109

щ я а б о э р г о д и ч е с к и м и , если их средние значения и ковариационные "(корреляционные) функции, найденные о с р е д н е н и е м п о а н с а м б л ю (см. подразд. 3.2.1), совпадают с подобными характеристиками,

определенными

по произвольной паре выборочных функций

о с р е д н е н и е м по

в р е м е н и . В этом случае для определения статисти­

ческой структуры слабо стационарного процесса нет необходи­ мости собирать значительное количество данных, так как для этого достаточно всего одной пары выборочных функций.

Более конкретно средние значения отдельных выборочных

функций

xk(l) и yk(t) определяются осреднением по времени:

 

т

 

Ь

ftt (*)= гИт

 

 

0

 

 

т

 

 

V-„(k)==Um-^-\yk(t)dt.

(3.113)

 

Г—со 1 .1

 

 

0

 

Заметим,

что результат вычисления не зависит уже от t,

посколь­

ку осреднение производилось именно по t. Однако в общем случае результат зависит от конкретной выборочной функции, т. е. от индекса k.

Взаимные ковариационная и корреляционная функции реали­ заций xk(t) и yk(t + т) определяются осреднением по времени:

т

 

с хѵ(т> ft)==l|m4r Г [х*(0—МЧШ/аР + т)—V - y ( b ) ] d t =

Т —KJO J

J

 

 

0

 

 

т

 

= lim-4- { x k (ii)yk(t + T)dt px (% , (k)=

 

T —00 1

,)

 

 

0

 

= ^ ( T ,

k ) - ^ x {k)b l(k).

(3.114)

Автоковариацнонные и автокорреляционные функции имеют вид

 

 

 

 

 

т

Сх (т,

k)

=

lim -і- Г [xk(/)— (k)}[xk (/ + т) —і>.х (k)]dt =

 

 

 

Т->л 1 J

 

 

 

 

 

О

 

 

 

 

 

=/?*(*, Q - v - iW ,

4

 

 

 

 

7

С у ( т >

к )

=

Ѵ т

~

Г [ г / * ( 0 — М - у ( ^ ) ] [ £ * ( * + * ) — i t ^ k ) ] d t = R j T : , k ) — n y2 ( k ) .

 

 

 

Т —»-j o

•*

J

 

 

 

 

 

О

(3.115)

п о

Глава 3

Теперь эти характеристики следует сравнить с найденным^ осреднением по ансамблю средними значениями р^, и кова­ риационными функциями Сх(т), С,/(т), CxJx) стационарных слу­ чайных процессов (см. подразд. 3.2.1). Если оказывается, что независимо от k

М А)= (і </.

(3.116)

Cx (x,

k)=Cx (г),

 

Cy(T,

k)=Cy(X),

(3.117,)

Cxy(x,

k) = CxlJ{x),

 

то случайные процессы (xft(^)} и (г/*(0)

называются слабо эргоди^'

ческими. Если не только средние значения и ковариационные функ­ ции, но и все полученные осреднением по ансамблю статистиче­ ские характеристики совпадают с соответствующими средними по* времени, то случайные процессы называют строго эргодическими. Таким образом, строгая эргодичность влечет за собой и слабую эргодичность, но не наоборот. Для нормальных случайных про­ цессов оба понятия эргодичности совпадают.

Для того чтобы произвольный случайный процесс был эргодическим, он должен быть стационарным. Каждая выборочная функция должна характеризовать в описанном выше смысле все

другие функции;

поэтому неважно,

какую именно выборочную

функцию использовать для

расчета статистических характери­

стик осреднением

по времени.

 

.

Пример 3.12.

Незргодический стационарный случайный про­

цесс. Ниже дается простой

пример неэргодического стационар­

ного случайного

процесса.

Рассмотрим случайный

процесс

(;еД0}> состоящий

из гармонических

выборочных функций:

{**(0}= іх (k) sin [Щі + ѳ (*)!}■

Пусть амплитуда X(k) и начальная фаза Ѳ(£) — случайные ве­ личины, принимающие различные множества значений для каж­ дой выборочной функции. ЕслиѲ(й) имеет равномерное распределе­ ние, то характеристики процесса, рассчитанные осреднением по ансамблю в фиксированные моменты времени, не будут зависеть от времени; следовательно, процесс обладает свойством стацио­ нарности. Однако характеристики, рассчитанные осреднением по времени, не всегда будут одинаковыми для различных выбороч­ ных функций. Например, автоковариационная (или автокорре­ ляционная) функция, рассчитанная по отдельной выборочной^ функции, есть в данном случае

С*(т, k)= ^~~sm 2nfT .

Математические основы анализа случайных процессов

111

Поскольку X(k) представляет собой функцию k, Сх{т, k) Ф Сх(т). Следовательно, процесс не обладает свойством эргодичности. На этом пример 3.12 заканчивается.

Достаточные условия эргодичности. Существует два важных класса случайных процессов, которые заранее могут быть названы эргодическими. Первый — это класс гауссовских стационарных процессов с абсолютно непрерывной спектральной плотностью 115], т. е. со спектральной плотностью, не имеющей острых максимумов (дельта-функций), соответствующих беско­ нечной плотности среднего значения квадрата процесса на от­ дельных частотах. Ко второму классу (частный случай первого) ^относятся марковские процессы, обладающие перечисленными ^только что свойствами. (Марковским называется процесс, пове­ дение которого в будущем определяется только поведением в не­ посредственно предшествовавший момент времени.) Можно по­ казать, что автокорреляционная функция такого процесса имеет простую экспоненциальную форму [15].

Достаточные условия эргодичности случайного процесса та­ ковы:

I. Достаточные условия слабой эргодичности произвольног случайного процесса состоят в том, что процесс должен быть слабо стационарным и определенные осреднением по времени средние значения рх(&) и автоковариационные функции Сх(г, k) должны быть одинаковы для всех выборочных функций ин­ декса k.

Докажем это утверждение. По определению

т

о

Согласно предположению, \ix{k) не зависит от k. Следовательно, математическое ожидание рх(&) по k равно отдельной оценке

М [р* (*)] = Рх (k).

Кроме того, операция математического ожидания коммутативна относительно линейных преобразований. Следовательно,

^

М [|ix

т

)М] =[хкl i(i)]dt=\\mm 4 -

f- 4

т

( A

- Г t v f t = i v

 

Г-.00

1 J

Т ~*оо

1

J

1

Равенство MlxA(f)] = рх справедливо в силу предположения о слабой стационарности процесса. Таким образом,

ftr (/г)= іѵ

112

Глава 3

Аналогично

0

Сх (т, k)=Cx (т),

так как предположение о независимости Сх(х, k) от k дает

МІДДт,

к)\— Сх (т, к),

а из предположения о стационарности следует •

М[Сх (х, к)]=Сх (х).

I

Доказательство завершено.

II. Достаточные условия эргодичности нормального случай^ ного процесса состоят в том, что процесс должен быть слабо стационарным и автоковариационная функция должна удовле­

творять следующим четырем

соотношениям:

СО

о о

J I с х (т) I dx < оо,

I c l (x)dx < СХ),

 

(3.118а)

СО

с о

11ТСХ(т) ] dx < оо,

j Iт [С? (x)dx < С Х ).

— СО

— СО

Четыре условия (3.118а) могут быть заменены одним требованием?;

т

-^r

I С,, (х) I cfx---- » 0 при Т ---- >схэ.

(3.1186)

—т

 

 

 

Доказательство

приводится

ниже

в подразд. 6.2.1

и 6.2.2.

В этих подразделах показано,

что

полученные осреднением

по времени оценки математического ожидания и автоковариационной функции при выполнении условий (3.118а) или (3.1186) не зависят от того, по какой выборочной функции эти оценки по­ лучены. Тогда условия II следуют из условий I. На практике эти условия часто выполняются, что оправдывает допущенисэр го­ дичное™.

3.4. Гауссовские случайные процессы

Формально гауссовский (нормальный) случайный процесс определяется следующим образом; случайный процесс называется гауссовским, если для любой совокупности моментов

Математические основы анализа случайных процессов

ИЗ

времени \tn) случайные величины xk(t„) подчиняются многомер­ ному нормальному распределению, определяемому формулой (З.Зб)1*. Гауссовские случайные процессы весьма часто встре­ чаются в физических задачах, и, как правило, свойство «гауссовости» процесса можно предсказать теоретически на основе много­ мерной центральной предельной теоремы. Кроме того, можно показать, что если гауссовский процесс подвергается линейному преобразованию, то результат преобразования также будет га­ уссовским процессом. Это обстоятельство весьма важно при раз­ личных инженерных приложениях теории случайных процессов.

Рассмотрим функцию времени х(і), представляющую собой выборочную функцию эргодического гауссовского случайного 'процесса с нулевым средним. Заметим, что теперь уже нет необ­ ходимости вводить индекс k, так как одна выборочная функция характеризует весь ансамбль. Как следует из свойства эргодич­ ности, по поведению функции х(і) на достаточно большом отрезке времени можно определить те же статистические характеристики, что и путем усреднения по ансамблю для фиксированных момен­ тов времени. Отсюда вытекает, что плотность распределения мгно­ венных значений х(1), наблюдающихся на достаточно большом интервале времени, описывается законом Гаусса при нулевом среднем значении:

р (х) = (от, / 2я )-'е~хУ2с**.

(3.119)

.При нулевом среднем значении дисперсия о\ функции x(t) не за­ висит от t и имеет вид

сп

Т

 

 

о\ = М [X2 (()]= Jx2p (x)dx ==;

I X1(l)dt~

 

 

—со

О

 

 

OO

CO

 

= J s , ( f ) d f = 2 f SK( f ) d f =

j Gx (f)df.

(3.120)

—со

О

0

 

') Строго говоря, это не так. Формула (3.36) определяет невырожденное нормальное распределение, для которого существует плотность. Кроме него существуют вырожденные нормальные распределения, когда случайные ве­ личины связаны линеііными зависимостями. Общее определение проще всего дать следующим образом. Пусть (лц, х2, . . ., хп) — re-мерный случайный век­

тор. Тогда, если существует m-мерный (1 ^ ш ^ п) случайный вектор {уи

m

іи2< . . . . Уin), обладающий[плотностью вида (3.36) и такой, что х,• = УсцУ/,

*

/=1

I ^ I < п,

где ац — постоянные, то вектор (лц, х2, . . ., хп) называется нор­

мальным. При таком определении случайный процесс называется нормаль­

ным, если векторы (х((г). х(і2).......... х((п))

при любом п и любых tu t2, . . .,

ta нормальны.— Прим. ред.

"

I — 2244

114

Глава 3

Приближенное

равенство справедливо при больших Т. Таким об^і

разом, величины Sx(f) нлиОх(/) полностью характеризуют нормаль-' ную плотность распределения р(х), так как только эти функции определяют ах. Этот важный результат выдвигает функции Sx(f) или öx(J) на первый план при анализе реализаций случайных про­ цессов. Следует отметить, что здесь не налагается никаких огра­ ничений на вид спектральной плотности или связанной с ней авто­ корреляционной функции.

Если среднее значение x(t) не равно нулю, то плотность рас­ пределения описывается нормальным законом общего вида

р(х)=(ахУИп

 

(3.121)

где среднее значение не зависит от г! и равно

. *

 

СО

с о

 

jV(= М[х(і)] = j* xp(x)dx m -i-

jx(f)dt.

(3.122)

Приближенное равенство справедливо при больших Т. Диспер­ сия

о}= м [X(!) ~ цд » = м [хг (01--

(3.123)

Центральные моменты любого распределения определяются со­ отношением

 

 

 

СО

 

 

 

тп = Щ ( х - Ѵ-х)-]= j ( j c - |ixy P (x)dx,

(3.124)?

 

 

 

— СО

 

 

где штрих

у символа

т обозначает

центральный

момент. В

случае нормального

закона,

когда

р(х) описывается формулой

(3.121),.

 

 

 

 

 

 

т'п= 0

при п целом нечетном,

 

 

т'г„=(2п— 1)!! а |л,

п = 1 ,

2, 3...........

(3.125)

Таким образом,

 

 

і

 

 

 

 

 

 

/щ— 1, тЬ = а$, т'і=Ъа% и т. д.

 

Пусть

{*(/)} — гауссовский стационарный процесс (индекс k

для простоты исключен). Рассмотрим две случайные величины?* Хі = x{t) и х2 — х(і + т) для произвольной пары фиксированных моментов времени t и t + т. Предположим, что хг и х2 подчиня­ ются двумерному (совместному) нормальному распределению

Математические основы анализа случайных процессов

116

^нулевыми

средними и одинаковыми дисперсиями о2. По опреде­

лению

 

 

 

 

 

в о

 

 

oJ=M [дс2 (/)] = М [х2(/ -f т )]=

J х2р (x)dx,

(3.126)

 

 

— СО

 

|h

с о

 

 

Rx (т)=М [X (t)x (t + т)]==рл (т)о? = J J х±хф (хг, xjdxjdxv

(3.127)

/

— СО

 

 

 

 

 

где рх(х) =

Rx(x)/o2. Теперь, полагая р =

рЛ(г) и ц = 0, находим^

^тЬ совместная нормальная плотность распределения есть част­ ный случай формулы (3.366):

Р(х 1. ха) = (2тіо2/

1—р2)~х ехр

pity (4 —2pxxx2-V-xi)j. (3.128)

Можно непосредственно доказать,

что

 

 

 

СО

 

 

 

 

ß ' р (хъ x.,)dxxdx2 = 1.

 

(3.129)

 

—оо

 

 

 

Кроме того,

 

 

 

 

р(хi)=,

 

___ —*?/2tl2

.

(3.130)

U (x1( Xjdxz= (ax-yf2n)-*e

Ъ

- I

 

 

 

Аналогичной

формулой выражается функция р(х2). Согласно

определению,

две случайные

величины некоррелированы, если

р = 0. При р = 0 формула (3.128) сводится к виду

 

 

р(х 1, ^

= p W p W -

(3.131)

Рассмотрим четыре случайные величины х1} х2, х3 и xt, под­ чиняющиеся четырехмерному нормальному распределению, во­ обще говоря, с различными и отличными от нуля средними значе­ ниями. Из формулы (3/36) можно получить полезное соогношекние [30]

М [х1х2лг3д:4]= М [л^луМ [x3x4] + M [XjXgJM [xzxA] -\-

 

ьГ-

+ M [X]X4]M [XgXgj

(3.132)

Отметим, что рассматриваемые моменты четвертого порядка вы­ ражаются через все возможные произведения моментов второго порядка. В частности, если Xj = х{и), хй — у(и + т), х3 ■= дс(о),*

**

116 ...

Глава 8'

*4 = i/(ö + т), взаимная корреляционная функция стационар^

Rxy(t)=M[x(()y(t + x)],

(3.133)

а средние значения рЛ. совпадают и отличны от нуля, то

 

М [л-(и)у + т)х (и )у (V + т) ] =.=/??„ (х) + R x (u—u)Ry{v и) + .

 

+ R x y ( v — :u + x ) R yx ( и — и — т)—2|хф

(3.134)

3.5. Линейные преобразования и теоремы о дискретном представлении случайных процессов

3.5.1.Линейные преобразования случайных процессов

Динамическое поведение'некоторых простых линейных физи­ ческих систбм исследовалось с практических позиций в гл. 2. Теперь полезно кратко, но более детально рассмотреть матема­ тические свойства линейных преобразований случайных процесс сов. Знание этих основ необходимо при чтении гл. 5, в которой выводятся важные соотношения между входом и выходом для линейных систем, на вход которых поступают случайные про­ цессы.

Рассмотрим произвольный случайный процесс {,**(/))■ Опе­ ратор А, преобразующий выборочную функцию хк(1) в другую функцию ук(ѵ), может быть записан в виде

ук(ѵ) = А[хк(()\,

(3.13^

где А — функциональный оператор от xk(t). Аргумент ѵ может совпадать с t либо отличаться от него. Если, например, рассма­ триваемая операция представляет собой дифференцирование, то

V = t и yk{t) будет выборочной функцией производной (х/г(/)) случайного процесса { (/)} , конечно, в предположении сущест­ вования этой производной. Другой пример операции — интегри­ рование в определенных пределах. В этом случае ѵ ф t и функ­ ция ук(ѵ) будет случайной величиной, зависящей от индекса /г, функции xk{t) и определенных пределов интегрирования. Опера­ тор А может иметь самые различные формы. В последующем для простоты обозначения индекс k выборочного пространства опу-. скается.

Оператор А называется линейным и не зависящим от времени

(система с постоянными параметрами),

если для любой совокуп­

ности возможных значений хи х2, ...,

xN и постоянных ак, a2,ö

’••г &N

N

N

 

 

А

 

(3.136)

Я “**

= Y i aiA Ц Ь

 

 

 

.1=1

/=I

 

 

Математические основы анализа случайных процессов

117

ІЦначе говоря, операция должна быть аддитивной и однородной. Допустимые значения могут здесь представлять собой различные выборочные функции в момент t или различные значения одной выборочной функции для различных t.

Для любой

линейной операции, когда все рассматриваемые

' характеристики

существуют, операция нахождения математиче-

*ского ожидания случайных величин коммутативна с линейной операцией, т. е. при фиксированных t и ѵ

М \ у (!»)]= М [А \х (/)]]= Л |М [X (0)].

(3.137)

Доказательство этого уравнения очень несложно. Пусть x(t) принимает N дискретных значений хх, х2, ..., xN, а у{ѵ) принимает */Ѵсоответствующих дискретных значений ух, у2, ..., yN, где уг = = A[xt\. Тогда

 

 

) ] = ~ J] У і

=

Іs=1 А Ш

и

м

 

1=-1

 

 

 

 

 

 

 

 

М [х (*)]=-jjj-2*t-

 

 

А — линейный

<•=1

Теперь,

поскольку

оператор,

 

J j A

^

А

 

X,

= Л[М[х(01].

 

N (=і

 

I sі=1

 

Следовательно,

М [у (u)l^A lM lx (/)]}.

 

 

При

непрерывном

изменении

аргумента можно положить

N -*■ со

и использовать

соответствующий критерий сходимости,

как, например, формулу (3.140а). Доказательство завершено. Приведем весьма важное утверждение, доказательство кото­

рого вытекает непосредственно из определения. Если х(1) вы­ борочная функция слабо (строго) стационарного случайного про­ цесса и если оператор А линеен и не зависит от времени, то у{ѵ) = = А\х{1)\ образует слабо (строго) стационарный случайный про­ цесс. Другой очень важный результат доказывается в работах

[30, 411. Если х(і) имеет нормальный закон распределения и опе­ ратор А линеен, то у(ѵ) = А\х{1)\ также подчиняется нормаль­ ному закону распределения.

,<■ Интегральное преобразование выборочной функции х(() про- Т&вольного случайного процесса {*(/)} имеет вид

ь

і = \ * т т ,

(3.138)

Соседние файлы в папке книги из ГПНТБ