Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Химмельблау Д. Анализ процессов статистическими методами

.pdf
Скачиваний:
28
Добавлен:
27.10.2023
Размер:
31.74 Mб
Скачать

42

Глава 2

Дисперсия случайной переменной X (t) определяется выраже­ нием

\ (t) = Ц[Х (t)

- ііх

(t))2}

=

Var {X

(t)}

=

 

=

g { X 2

(t) -

2X

(t) yiX

(t) +

цх (t)}

=

 

 

 

 

=

g { X 2 (*)} -

(0. (2.2.8)

Например, поскольку математическое ожидание положения броу­ новской частицы из примера 2.2.1 равно нулю, дисперсию можно вычислить непосредственно по %{Х2 (t)}.

Дисперсию суммы случайных величин W = а^Х + a2Y + . . .

можно определить следующим образом. Вычитая математическое

ожидание суммы, а именно [iw

=

 

+ а2\Ху +

• • •» из величи­

ны

W — аіХ + a2Y

+

. . . и

возводя

полученную

разность

в квадрат,

находим

 

 

 

 

 

 

 

 

 

 

 

(W

-

= tat (X

-

рх)

+

a 2 ( Y - l i Y ) +

. . . ] 2 =

 

 

=

а\ (X -

u . x ) 2 +

a\{Y

-

u , r ) 2 +

. . .

+

2а,а2

(X

-

u.x ) (Y -

 

 

 

 

 

 

 

 

 

 

 

— ц у )

+ . . . .

Теперь вычислим дисперсию

W,

используя

это равенство

Ѵаг

{W} = % {{W — M 2 } =

 

 

 

 

 

 

 

 

=

a\ ЩХ -

цх)*}

+

à&{(Y

- Fr)2}

+

. . .

+

 

 

 

+

іагЦ(Х

-

\ix)

(Y

-

цу)}

+

 

(2.2.9)

В частном случае, когда все последовательные пары случай­ ных величин независимы (разд. 2.2.5), перекрестные члены в равен­ стве (2.2.9) исчезают и оно сводится к

Ѵаг

{W} - а\ Ѵаг {X} + а\ Ѵаг {У} + . . . .

(2.2.9а)

Положительное значение квадратного корня из дисперсии

называется

стандартным (средним квадратическим)

отклонением

и будет обозначаться ах (t). Если функция X (t) стационарна,

функциональная зависимость от t исчезает. Относительное

откло­

нение

(коэффициент

вариации) — безразмерная форма

стандарт­

ного

отклонения,

характеризующая относительное

рассеяние

величины X (t):

Автоковариацией случайной функции X (t) называется ковариация случайных функций X 4) и X (t2):

<Ухх (ti, h) =

%{[Х (h) -

[ix

(t,)] IX

(h) - p x (t2)}.

(2.2.10)

Д л я стационарного

ансамбля

 

 

 

 

 

<Ухх (т) =

г х х

(т) -

у?х.

(2.2.10а)

Распределения

вероятности и выборочная

статистика

43

2.2.4. Взаимная корреляционная

функция

 

Зависимость одной случайной функции X (t) от другой Y (t)

характеризуется взаимной корреляционной функцией этих функций

гХу (k, tz) = %{Х (tt) Y (t2)} = rYX (t2, h) = oo oo

=

j j жіф (ж, y; tu t2) dx dy.

(2.2.11)

 

— OO — O O

 

Заметим, что величина r x x

не является случайной, но может зави­

сеть от времени. Две случайные величины называются

некоррели-

•Х(і)

 

Ф и г .

2.2.3.

В з а и м н а я

к о р р е л я ц и о н н а я ф у н к ц и я .

 

рованными

*), если rXY

(tu

t2) =

Цх (U)

(^г)> и ортогональными,

если rXY

(tu t2)

0.

Д л я

стационарных

ансамблей,

используя

равенство

(2.1.9), имеем

 

 

 

 

 

 

 

гхг

(h,

h)

=

rXY (т) =

rYX (-%).

(2.2.12)

На фиг. 2.2.3 изображена корреляционная диаграмма для двух

случайных функций

X (it) и У (t). Величина rXY

(т) не обладает

максимумом при т =

0, как это имеет место для г х х

(т), и в отличие

от последней не является четной функцией т. Но при вычислении

корреляционных

функций rXY

(т) и rYX

(т) необходимо

провести

 

*) Две случайные величины X

и У

некоррелированы,

если

%

{XY}

=

=

%

{X}

% {У}, и

независимы, если р

(х, у)

— р (х) р (у).

Е с л и

величины

X

и

У независимы,

то

они т а к ж е

и некоррелированы (разд. 2.2.1).

Е с л и

%

{XY}

= 0, то X и Y

ортогональны . Некоррелированность — более

слабое

условие, чем независимость, потому что дл я некоррелированных

X

и

У,

вообще

говоря, % {/ (X) g (У)} ф

% {/ ( X ) } g

{g ( У ) } .

Н о

если

вели ­

чины

X

и У независимы, то g {f

(X) g (Y)}

=

S {f (X)}

<? {g

 

(Y)}.

 

 

44

Глава 2

 

расчеты лишь

для т > 0 из-за

свойств симметрии этих

функций.

Взаимные корреляционные функции используются при анали­

зе процессов в следующих целях:

 

1. Проверка статистической

независимости двух случайных

функций.

 

 

 

2. Оценка

импульсной и частотной характеристик

системы

без подачи импульса или синусоидального сигнала на вход про­ цесса (гл. 12).

3. Предсказание величины ошибок времени запаздывания в ста­ ционарных процессах при контрольных замерах (взаимная корре­ ляционная функция для линейных процессов будет иметь макси­

мум при разности времен,

равной

времени прохождения сигнала

в системе).

 

 

4.

Оценка амплитуд и

фурье-компонент величин, искажен­

ных

некоррелированным

шумом

и (или) другими сигналами.

[Шум не дает вклада в rXY

{%).]

 

5.

Определение путей прохождения входного сигнала по боль­

шой линейной системе (в коррелограмме каждому пути соответ­ ствует отдельный максимум).

Пример 2.2.4- Среднее значение и автокорреляционная функция случайной переменной в обыкновенном линейном дифференциальном уравнении

Модели многих процессов, особенно относящиеся к управле­ нию, описываются обыкновенным дифференциальным уравнением порядка п

ап

У<»>(*) +

У 0 " " 1 ' (t) + . . .

+

a0Y

(t)

=

X (t),

t >

0, (a)

где

 

 

 

 

 

 

 

 

 

 

 

 

X

(t)

— случайная

переменная

на

входе

системы;

 

 

Y

(t)

— случайная переменная на выходе системы, обусловлен­

ная переменной X

(t);

 

 

 

 

 

 

 

 

 

Y m

 

(t) =

— производная

степени

п от Y (t);

 

 

at

— постоянные,

не являющиеся

случайными величинами.

В начальных условиях также присутствует элемент случайно­

сти:

 

у<п-і,

(0) =

y-cn-2, (g) =

_ _

 

у

(0)

= 0.

 

(б)

 

 

= =

 

Предположим,

что требуется

по известным

данным

на

входе

и выходе

системы найти среднее значение Y (t) и ее автокорреля­

ционную

функцию,

поскольку плотность распределения вероят­

ности Y

не известна. Вычисляя математическое ожидание от обе­

их частей

уравнения

(а) и равенств (б) и используя (2.2.1), полу-

Распределения вероятности и выборочная статистика 45

чаем

 

 

а п ^ У ( п )

an-iVY(n-i)

+

• • •

+

ao^Y

=

Mot.

(в)

 

 

]iro^i)

(0)

=

Цу(п-2) (0) =

. . .

=

[iy (0)

=

0,

(г)

 

 

fV»>

(*)

=

ЦУ^ (t)},

iix (t)

=

ЦХ

(t)}.

 

Уравнения

(в) и

(г)

являются

детерминированной

моделью

для

PY и

дают искомое решение для

цТ:

 

 

 

 

 

 

 

 

Цу (t)

= CtUt

(0

+

C2[l2 (0 +

• • +

С„(ХП (0

+

 

Цр (*),

(д)

где

(iip (t)

— частное

 

решение

неоднородного

уравнения

(в),

а остальные члены правой части равенства (д) представляют собой общее решение соответствующего однородного уравнения. Сле­ довательно, если заданы математическое ожидание переменной X (t) и значения коэффициентов в уравнении (в), можно найти

детерминированное решение моделей,

представленных

уравнения­

ми (в) и (г).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Используя

определение

автокорреляционной

функции

 

 

гхх

h)

= ЦХ

(U) X

(t2)},

 

 

 

можно показать,

что

 

 

дгхх

(h,

h)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

dh

 

 

 

 

 

 

 

 

 

Гх-X'ih, ts)=

 

 

gh

 

 

 

 

 

 

Следовательно,

 

 

 

 

 

 

 

 

 

 

 

 

 

Tx-z- (h,

h) =

g 2 r

g ^ '

t z )

=

% {X'

(tt)

X'

(t2)}.

(e)

Д л я стационарного

процесса rXx

(hi

h)

— ?xx

(т)

и

 

 

 

 

 

 

гхх- О 0 = — 3 7 - »

 

 

 

 

 

 

 

 

 

 

DRXX>

( Т )

 

<Prxx

( 1 )

 

 

 

 

Вообще

 

 

 

 

 

 

 

 

 

 

 

 

 

 

гхшу<т>

{h,

t2)

= %

<PX(ti)

dmY(t2)

\

_ d ^ r X Y ( h ,

Ч)

\ ~ Щ

 

dtf

 

J

 

dt?

dtp

 

 

 

 

 

 

 

 

 

 

 

Автокорреляционную

функцию

r r r

(ti,

t2)

для

Y

(t) теперь

можно получить следующим образом. Сначала умножим уравне­

ния (а) и (б)

для

t =

t2 на

X

(ti):

 

 

 

 

 

X (h) [anY™

( г 2

) . + . . .

+a0Y

(t2)]

=

X (h)

X (t2),

(ж)

X

(h)

Y<n

(0)

=

. . . =

X (h)

Y

(0) =

0

(з)

46 Глава 2

и вычислим почленно, используя свойство (2.2.16), математическое

ожидание

от обеих частей

этих

равенств. В

результате получим

„ d n r X Y

h)

, „

d^rxYJh,

t2)

 

,

 

 

 

 

ö n

 

v a n

- x

Щ=і

 

г • •

 

 

 

 

 

 

 

 

 

• ••+а0гХг(к,

h) =

rxx(ti,

h),

(и)

 

 

^ Х ? 1 '

0 )

=-..=rXY(tu

0) = 0.

 

(к)

Уравнение

(и)

представляет

собой

обыкновенное

дифференци­

альное уравнение

для

rXY

(tu t2)

с независимой

переменной

tz

и параметром

 

Таким

образом,

при

условии что автокорреля­

ционная

функция

гXX (ti,

t2) задана, уравнения

(и) и

(к) можно

использовать для вычисления взаимной корреляционной функции

RXY (tu t2).

Затем умножим уравнения (а) и (б) для t = ti на Y (t2):

KY™ (*,) + . . .

+aQY

(t,))

Y

(t2)

=

X

(h)

Y

(t2),

(л)

y<»-i> (0) Y

(t2) =

. . .

=

Y

(0)

Y

(t2)

=

0

(m)

и снова вычисляя математическое ожидание от обеих частей»

получаем

обыкновенное

дифференциальное

уравнение

для

гYY

(tu

t2):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

дПгуу

(h,

h)

, д

g " - V y y

(tj, t2)

,

 

 

 

 

 

 

 

U n

Ш?

 

+an-i

щ=і

 

1- • • •

 

 

 

 

 

 

 

 

 

 

 

 

 

 

. . .

+ аоГгу (tu

 

t2) = rXY

(h,

h),

( H )

 

 

 

 

g " - l r y y ( 0 , t2)

 

 

 

,n

 

n

 

 

,

 

 

 

 

 

 

 

 

= . .

. = r y y ( 0 ,

h)

= U.

 

 

(0)

 

Д л я того

чтобы

найти

r Y Y (tu

tùi

нужно

решить

уравнения

(и)

и (к)

для

rXY

(ti, t2),

предполагая,

что

функция

г х х

(ti,

t2)

известна,

затем

подставить

результат

в

правую часть

уравнения

(н), которое после этого можно разрешить относительно искомой

функции r Y Y (tu

t2) с учетом условия (о).

В качестве

примера использования полученных соотношений

рассмотрим следующий процесс. Пусть в резервуар с устройством для перемешивания жидкости, изображенный на фиг. П.2.2.4, поступает раствор, концентрация которого представляет собой броуновскую случайную величину (пример 2.2.1). Д л я этого слу­ чая уже вычислялись среднее значение, дисперсия и автокорреля­ ционные функции. Следовательно, можно записать

ЦС0

(t)} =

0,

 

Ш{[С0 (h) - 0] [Со (t2) -

0]} =

гСос0 (к, h) = ah,

(п)

где а — параметр в плотности распределения вероятности для С0.

Распределения

вероятности

и выборочная

статистика

47

Уравнения (и) и (к) для этой модели принимают вид

drc0c (fî*

гг)

rc0c(ti,

t2) = rCQc0(ti,

h);

dt-.

 

 

 

 

 

 

rcoCoih,

h) = atu

rCoc(h,

0) =

0

и имеют следующее решение:

 

 

rc0c{tu t2) =

aLti(l

— e-b'f)t

 

(p)

где t*

= VIF.

 

 

 

 

 

 

 

 

Уравнения

(н) и

(о)

 

 

 

 

 

 

 

 

rfî^

>Г с с " і '

Гг) =

гс0 с

( Î I ,

*г),

 

имеют

решение

 

гсс(0,

іа ) = 0

 

 

 

 

 

 

 

 

 

 

 

r c c

( * i , fe)

=

a ( l - e - ' « / ' * )

( e - *

i / *

* _ l _ J L j .

( с )

Таким образом, автокорреляционную функцию случайной функ­ ции на выходе резервуара можно вычислить даже в том случае,

Вход

 

 

 

 

 

Выход

 

 

 

 

V

 

 

Ф и г . П . 2 . 2 . 4 .

Модель

аппарата

полного

перемешивания:

V ~

= FCo

- FC,

С (0) =

0,

где Со — к о н ц е н т р а ц и я

на

входе,

с л у ч а й н а я величина; С — т е к у щ а я к о н ­

ц е н т р а ц и я , с л у ч а й н а я величина;

F — скорость подачи; V — объем ж и д к о с т и .

если плотность распределения вероятности для этой функции не'известна.

2.2.5. Ковариация

и коэффициент

корреляции

Исследователю часто

требуется качественно, а если можно,

то и количественно оценить, существует ли между двумя вели­

чинами некоторая

связь. Например, увеличивается ли давление

в реакторе, если

увеличить мощность. Если известно совместное

распределение вероятности для двух величин, можно вычислить

некую меру

линейной зависимости между ними, называемую

коэффициентом

корреляции.

При

этом безразлично, являются

ли эти величины зависимыми

или

независимыми.

48 Глава 2

Взаимной

ковариационной

функцией,

 

или ковариацией (сокра­

щенно

Соѵ), двух

случайных

функций

 

X (t)

и Y

(t) называется

функция

 

 

 

 

 

 

 

 

 

 

Охт (tu

h)

=

ЦІХ

(t,) - Цх (ti)}

lY

(t2)

-

\iY

(t2)]}

=

 

OO

oo

 

 

 

 

 

 

 

 

 

=

j

j

(x — Цх) (y — Цг) p

(X,

y,

tu

t2)

dx dy.

(2.2.13)

o o — o o

Дл я стационарного ансамбля

 

 

°хт (т ) =

rxr

(т) —

 

(2.2.13а)

Так

как величина

ковариации

зависит от

единиц измерения X

и Y,

можно ввести две нормированные (безразмерные)

переменные

 

 

Х Ѵх

 

Y — ixy

 

 

 

о х(0) -

и

 

Оу(0)

'

 

где

аргумент (0)

означает

т =

0.

Коэффициентом

корреляции

для стационарного ансамбля называется ковариация этих двух нормированных переменных

Д л я некоррелированных величин X и Y их ковариация и коэф­ фициент корреляции равны нулю. Если І и У независимы, их кова­ риация и коэффициент корреляции также равны нулю; обратное

Ф и г.

2.2.4. Коэффициент

к о р р е л я ц и и

H его

экстремальные

и

нулевое з н а ­

 

чения пр и ах

=

су-

X

 

 

 

утверждение, однако, несправедливо, т. е. если pXY

=

0, то X и У

не обязательно независимы (хотя это и возможно).

Например,

две случайные величины, каждая из которых распределена по нор­ мальному закону, могут быть некоррелированы, но зависимы друг от друга; для того чтобы они были независимы, их совместное распределение должно быть нормальным. Попарной независимости многих случайных величин, входящих в разные наборы, недоста­ точно для независимости этих наборов.

Коэффициент корреляции позволяет оценивать ме_ру линейной

связи между двумя величинами при помощи одного

числаГТГоло-

жительная корреляция означает, что величина oXY

положительна

Распределения вероятности и выборочная статистика 49

(среднее квадратическое отклонение всегда положительно), тогда

как отрицательное значение aXY

означает,

что большие

значения

одной величины связаны

с малыми

значениями

другой.

На фиг. 2.2.4 приведены

графики со значениями коэффициента

корреляции, равными 0,

1 и — 1 .

 

 

Пример 2.2.5. Коэффициент корреляции

Пусть совместная плотность распределения вероятности двух случайных величин X и Y задана в виде

р (х, у) = X +

у, О < X < 1, 0 < Y < 1,

р (х, у) — О в остальной

области.

Требуется найти коэффициент корреляции.

Решение

 

1

1

 

 

 

 

 

 

Ѵ-х =

j j

x(x

+ y)dx

dy = ^2

,

 

0

0

 

 

 

 

 

 

 

1

1

 

 

 

 

 

 

Ц г =

j

j

y(x + y)dxdy

= ^2 .

 

0

0

 

 

 

 

 

 

 

1

1

 

 

 

 

 

 

V>X2= о^ 0j

x*(x + y)dxdy

= -c£=HY2,

<Ухт = Ш{(Х-Ѵх)

l

12 -IМ}~

144='

 

так как

 

î

î

 

 

 

 

 

 

 

 

 

 

 

 

g { X Y }

=

j

\xy{x

+

y)dxdy

=

± .

Тогда

 

о

0

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

QxY

144 _

 

1

 

 

 

o x 0 " / _

 

11 ~

~

11

 

 

 

 

 

 

144

 

 

 

Полученный результат указывает на слабую корреляцию меж­ ду X и У .

В табл. 2.2.1 приведены все рассмотренные до сих пор характе­ ристики ансамбля.

50

 

 

 

Глава

2

 

 

 

 

 

 

 

 

 

 

 

 

 

Таблица 2.2.1

 

 

 

Характеристики

ансамбля

Обозначение

Название функции

 

 

Математическое ожидание

Ѵ-х (0

Среднее

значение

% {X

(t)}

 

Ѵх% (0

Среднее

значение

%{Х*

(t)}

 

 

 

квадрата

 

 

 

 

 

 

 

 

Д и с п е р с и я

 

% ах ю-их

m

°x{t)

 

Среднее

квадратиче-

 

 

 

 

 

 

 

ское

(стандартное)

 

 

 

 

 

 

 

отклонение

 

 

 

 

 

 

Vx(t)

 

Относительное

откло­

ѵх

(t)lvx

(0

 

 

нение

(коэффициент

 

 

 

 

 

 

 

вариации)

 

 

 

(tj) X

 

ГХХ (*)

Автокорреляция *)

% {X

ш

rXY

(l)

К о р р е л я ц и я 1 )

 

%{X{h)Y(t2)}

 

°XX

(t)

Автоковариация х )

% {IX ( t t

) - И х (h)}[X (*2> —

aXY

(*)

К о в а р и а ц и я х )

 

% {X (t,) - |i* (ti)] [У (*a)-|iy ( Ш

PXY ( 1 )

Коэффициент

корре­

°XY

(WX

 

(0) «У (0)

ля ц и и г )

1)Для стационарных функций. отечественной литературе ajc^(t) называют авто­

корреляционной или просто корреляционной функцией, a Onçy—взаимной корреляцион­

ной функцией. Функции гхх(т) и rxY (Т) используются реже.—Прим. ред.)

 

 

2.2.6.

Моменты

случайной

величины

 

Моменты случайной величины имеют аналогию в механике.

Так, первый статический

момент равен произведению

массы

на плечо,

а центр тяжести

определяется

как

отношение первого

момента к

массе. Как среднее

значение,

так

и

дисперсия

пред­

ставляют

собой моменты, в которых весовой

функцией является

плотность

распределения

вероятности.

Среднее

значение — это

начальный

момент,

а дисперсия — центральный

момент.

Инва­

риантные

по времени моменты

порядка

п для одной случайной

величины приведены в табл. 2.2.2. Центральный момент третьего

порядка

служит

мерой

симметрии

распределения

случайной

величины относительно

ее

среднего

значения; центральный

момент

четвертого порядка

характеризует

остроту

максиму­

ма моды.

 

 

 

 

 

 

Д л я

двух непрерывных (не зависящих от времени)

случайных

величин

моменты

определяются следующим

образом:

 

 

 

о о

о о

 

 

 

 

Цц=

[ [ х\х{р(хі,

х2)аххах2.

(2.2.15)

Таблица 2.2.2

Начальные и центральные моменты случайной величины, не зависящей от времени

Непрерывная величина

Дискретная величина

Момент

Начальные моменты

х°р (x) dx = l

хр {x) dx = Цх

х2р (x) dx = u.jf 2

хпр (x) dx = }Xj£n

(x — nx)°P(x)dx

= l

(x —

y,x)p(x)dx=:0

>

(x — ]ix)%P (x) dx = a x

і = 1

2 Я(Ж{) = ЦХ

г = 1

2*?і> (гО = І*Л

і= 1

i= 1

Центральные моменты

оо

S(*і-ц*)°*(*і)=і

i= 1

S(*і-1*х)Р(ая) = 0

i= 1

2

(xi-Vx)2P{xi)

= «x

i =

1

 

[igt момент н у ­ левого п о р я д ­ ка

щ, момент пер ­ вого порядка (среднее зна­ чение X)

\iz, момент вто­ рого п о р я д к а

ц п , момент по­ р я д к а n

qMq, момент нулевого по­ рядка

oM\, момент первого по­ р я д к а

оМ2,

момент

второго

по-

ряда

(диспер­

с и я

X)

 

(х—\іх)пР

(x) dx

i= 1

ѣп,

момент

порядка п

4*

Соседние файлы в папке книги из ГПНТБ