Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Кавалеров, Г. И. Введение в информационную теорию измерений

.pdf
Скачиваний:
11
Добавлен:
22.10.2023
Размер:
12.18 Mб
Скачать

Перейдем далее к рассмотрению погрешностей интер­ поляции случайного процесса по дискретным во времени измерениям с учетом квантования в момент измерения. Используя методику, принятую в гл. 4, при ступенчатой интерпсляции имеем:

1 в (ік -)- т) = X (tu -|- т) —

(th) Y'вх(tu)

(tu);

(5-34)

a l ^ h

"О — а’ ( t k + х) + а1 Ѵ г ) + %

( t h ) +

 

( t h )

- -

% R x ( t h “ Ь т > til)

— 2 /?

( t i i ~ \ - t ,

t h )

j k

 

 

 

 

 

*y oX

 

 

 

~ 2 R vy(tk + i , t h) + 2R

(tu,tk) +

 

 

 

 

 

 

' -'ox

 

 

 

4“ 2/?

(tu,

tu)-\-2R

(tu, tu),

 

(5-35)

где О^тг^гГ.

 

' ‘ 'K

 

 

' / в Х*/

к

 

 

 

и

Увх(0— стационарные

и стационарно

Если X(t)

связанные случайные процессы и г/вх(0 = 0, то

 

 

 

 

1

(tu -f- т) I = I Y K(іи) |;

 

 

(5-36)

 

+

’) =

24 1 1 — Р* <-)] +

я'ца +

’», +

 

+ 2 К » Ол„ (0) -

DA ( -

’)] +

2 К ,К. (0) -

2R„К ( -

’Я +

 

 

 

+ 2R

(0).

 

'

(5-37)

 

 

 

 

-/вх-/ к

 

 

 

 

Из входящих в формулу (5-37) величин новыми являются только взанмнокорреляцпонные функции по­ грешности дискретности и x(t) и yBx(t) соответственно:

Rsu. СО=

R* Ь) +

Rxe.. (**) -

R**СО;

 

 

 

 

 

 

 

(0 );

 

V

(

°

) ä=, . (

°

) +ä w

. (Р) =

(5-38)

=

N -

1

(І+І)?

 

 

s

гур (зу)

f

uw (и I zy) du.

 

 

1=1

 

“7

 

 

1

Можно воспользоваться также выражением для взаимнокорреляцпонной функции сигнала и шумов квантования, полученным в |[Л. 1-3]. Отметим, что разли­ чие постановок задали в [Л. 1-3] и нашем случае состоит

13—301

193

в учете нами погрешностей і/вх. В наших обозначениях без учета //вх имеем:

D /т\

л_

00

_L (

1\j+ i

('J' 2я//у, т)

 

 

 

К х У к і } ~

^

Ъ

 

І {

} L

д »

J u = o ’

 

 

/=—оо

 

 

 

 

где 02.-V— двумерная характеристическая функция кван­ туемого сигнала с произвольным вещественным параме­ тром и. Используя это выражение, в предположении о нормальности X(t) и Увх(/) и их некоррелированности имеем:

R

 

(т) =о 2 [а2 рх (т) + а2

ри M IX

 

 

(•Ѵ+(/пх) !/кw

I * ' * '

' ‘

 

 

"вх "вх

 

 

00

 

 

2л=/=

 

+ 0wdX)

 

 

Х $ ] ( ~

l)j exp

 

(5-39)

 

 

Ф

.

 

/=1

 

 

 

 

 

 

 

 

 

 

 

Можно показать, что модули членов ряда, стоящего

под знаком суммы в формуле

(5-39),

удовлетворительно

аппроксимируются гиперболической зависимостью, так как ox2^>q2-

Кроме

того,

опираясь

на результаты,

полученные в

[Л. 1-3],

нетрудно выявить малость R

(-с)

по

сравнению

с

 

 

Тогда

 

 

 

 

 

О

 

і ) г « С і (т) -j- а~ -j- а“

— 2 (з" +

о"

) X

(th +

 

 

 

exp

2"2/2(«X + ° £ )

 

(5-40)

 

 

 

 

 

 

 

 

 

/=1

 

 

 

 

 

 

где Ск(т )— структурная

функция

X(f)

(см.

формулу

(1-13)].

 

по

формуле

(5-40) показывают, что при

Расчеты

большом

числе областей

квантования (Д1>

100) послед­

ним членом формулы можно заведомо пренебречь. Подобным же образом может быть определена по­

грешность при других видах интерполяции.

Отметим две особенности анализа дисперсии погреш­ ности квантования в динамике. Во-первых, при этом анализе не играет роли, каков порядок обобщенного марковского процесса, полученного после дискретиза­ ции. Во-вторых, дисперсия погрешности восстановления

194

дискретизированного и проквантованного процесса суще­ ственно зависит от применяемого метода интерполяции. В этом отношении расчет дисперсий погрешности суще­ ственно отличается от информационного анализа, являясь более простой, но более частной задачей

Даже при стационарности Х(1) погрешность интер­ поляции представляет собой нестационарный процесс.

В ряде случаев можно указать оптимальные соотно­ шения между интервалом времени между измерениями Т и шагом квантования по уровню q. Например, если измерения следуют непосредственно друг за другом че­ рез время, необходимое для считывания показаний, то имеется конкретная связь Т с q. Для развертывающих

АЦП и время-импульсных цифровых вольтметров

 

Т — TqN,

(5-41)

где Т,, определяется быстродействием нуль-органа. Если применяется ступенчатая интерполяция, то при условии монотонного спада автокорреляционной функции мини­ мум дисперсии сг/в.макс достигается при Т— Т0, удовле­ творяющем условиям:

д?х ( Т )

 

1

 

 

д Т

Е-

124

 

о

 

 

 

 

ч

 

 

чІ- II

 

 

d=P, ( Г )

 

 

L-T~q

 

д Г - 1

 

<

 

 

|г= Г 0

4 а х

)

 

 

 

 

В частности, при рЦт) — ехр(— а-г) имеем:

Та& ехр ( аГд) — JLTqj !2а^ .

(5-42)

(5-43)

Для преобразователей с поразрядным уравновешива­ нием при применении двоичного кода

T=Tqlog N,

(5-44)

откуда минимум максимальном дисперсии погрешности восстановления обеспечивается Т.= Т0, для которого

dpХ (Т)

г=г0

L2 In 2

(5-45)

дТ

6о£ Гд-22Го/7«

 

 

 

В рассмотренные примерах фактически показывается целесообразная связь быстродействия аппаратуры и чув-

13*

195

ствительности. Интересно отметить, что статистические характеристики YBX(t) не влияют на эти соотношения при ступенчатой интерполяции.

5-3. СПОРАДИЧЕСКАЯ ДИСКРЕТИЗАЦИЯ ПРИ КВАНТОВАНИИ ПО УРОВНЮ

Большинство существующих измерительных информационных систем построено на основе цикличес­ кого опроса, рассмотренного выше. В некоторых систе­ мах применяют измерение по вызову. Вместе с тем для решения ряда задач перспективным представляется спо­ радический принцип дискретизации.

Под спорадическим опросом [Л. 5-8] понимается изме­ рение в случайные моменты времени, определяемые хо­ дом конкретной реализации случайного процесса.

Примером воплощения такого принципа является рас­ сматриваемый ниже метод дискретизации при кванто­ вании по уровню, реализуемый в АЦП следящего дей­ ствия.

Пусть, как и раньше, истинное значение измеряемой

величины

X(t)

есть стационарный

случайный процесс,

причем

0

Требуется квантовать

величину X

с шагом

q = L/N = const. На первом

этапе

рассмотрения

погрешности измерения в момент снятия отсчета будем считать пренебрежимо малыми. В § 5-1 было показано [см. (5-13)], что при определенных условиях среднее чис­ ло пересечений в единицу времени процессом Х(і) гра­ ниц областей квантования по уровню равно:

Дя == ] / 2%а_ѵ, -J-.

В спорадической системе каждое такое пересечение является как бы заявкой на обслуживание [Л. 5-10]. Дру­ гими словами, в системе не возникает никакого сообще­ ния, пока X находится внутри кванта (г—l)q<x<iq, где і=1, 2, ..., N. В момент времени th>определяемый из ра­ венства x(til)=iq, возникает сообщение. Время обслужи­ вания одного сообщения, т. е. время считывания показа­ ний (и, если требуется, математической обработки и ре­ гистрации), обозначим через тп. Время пребывания процесса X{t) в границах ((і—\)q, iq] — случайная ве­ личина, обозначаемая как T(iq).

196

При нормальности процесса X (/) среднее значение

Т (iq) = Г Ѵ

exp

(0)

, ) q -

(/<7 —

T*iq ==

? -

T% =

Л')2

,n ,/g2

(2 /-

\ ) - X , \ _ j

 

exp

 

+

 

 

2^

+ Ф, {{ІЯ- X) ox '] - Ф, [(/<7 - q - X) зв '] j , (5-46)

где T*a_-l)q и T*iq — длительности выбросов соответст­ венно за уровень (i— \)q и iq; Ф, — форма интеграла вероятности (см. приложение 1). При больших значениях N последняя формула преобразуется к виду

Т (iq)

Ѵ2к ( iq — X

exp ( i q - x y

+

 

К

2<-

 

 

 

 

exp

(fr-ff)«

(5-47)

 

V2k

2®?.

 

Точность приближенного равенства в формуле (5-47) весьма велика и зависит от N. В частности, при іѴ= 100 и правильном выборе соотношения между ох й L по­ грешность не превышает 1,5%. Средняя по всем уров­ ням длительность интервалов времени между ближай­ шими пересечениями границ квантов

ТСѵ = ^ Т ( і д)р(гі) = ) Г \

(5-48)

і=і

 

где

 

р fa) = Ф, \(iq —X) а“ 1] — Ф, [(iq q — LY) ох].

(5-49)

Если T(iq)>Тп, то устройство к моменту возникнове­ ния новой заявки успевает освободиться от обслужива­ ния предыдущей. Если Т (iq) < т1Ь то в момент получения второй заявки система занята. В этом последнем случае возможны следующие варианты: либо система способна запомнить заявку, либо память отсутствует. В первом случае заявка, возникшая в то время, когда система была занята, спустя некоторое время і3 дождется момен­ та освобождения системы и вызовет новое сообщение; во втором случае сообщение будет потеряно. Возможно воз-

197

никновение белое чем одной заявки за время занятости системы то. Тогда для системы с запоминанием возмож­ на память по первому из возникших сообщении, по по­ следнему или по нескольким.

Успешность функционирования системы может быть оценена по критериям, принятым в теории массового обслуживания, например среднему времени задержки и вероятности потери сообщения (см., например, (Л. 5-4, 5-5]). Однако в данном случае эти критерии хотя и полу­ чили некоторое применение (см., например, [Л. 5-10, 5-11]), но отражают менее существенные особенности ИИ С по сравнению с развиваемыми ниже информацион­ ными оценками пли дисперсией погрешности восстанов­ ления процесса.

Следует оговорить, что сам по себе алгоритм спора­ дической дискретизации предполагает лишь процедуру определения моментов времени измерения {//,}. В эти мо­ менты может измеряться как полное значение х (//,), так и приращения. В последнем случае, если требуется опре­

делить полное значение х (4),

то имеет место накопле­

ние

погрешностей (например,

из-за сбоев). Кроме того,

для

восстановления процесса

А'(/д.) по дискретным во

времени измерениям могут применяться различные ме­ тоды интерполяции, рассмотренные в гл. 4.

Рассмотрим прежде всего систему без потерь сооб­ щений. Теоретически в любой системе с конечным и от­ личным от нуля временем обслуживания т,і, если искус­ ственно не наложить на нее условие иі(7\) = 0 при Ті,< <т„, всегда имеются отличные от нуля математическое ожидание времени задержки и вероятность потери сооб­ щений. При прочих равных условиях величина их тем меньше, чем меньше N и и чем медленнее изменяется процесс. Поэтому при наблюдении медленных процессов (например, давление в магистральном газопроводе) спо­ радическая система может работь практически без по­ терь сообщения.

Другими примерами возможных систем без потерь являются измерение температур тел с большой тепловой инерцией и наблюдение за осадкой грунтов в лаборато­ риях строительных учреждений.

Если для восстановления исходного непрерывного процесса после дискретизации вышеописанным образом применяется ступенчатая интерполяция, то в соответст­ вии с [Л. 2-9] автокорреляционная функция ня пыхопе

198

равна:

А/

I

iq

PS W

 

,('с) =

(«)

(5-50)

Ф1

 

/г!

и

,/=1

где ф(”)і — /г-я производная от интеграла вероятностей. Усредненная по всем интервалам квантования дис­ персия погрешности интерполяции приблизительно,равна q2l 12, а автокорреляционная функция погрешности

интерполяции в соответствии с [Л. 1-3]

R

2и2 U іѵ ехр

J

4/1=71= 4 [ 1 — Рх (t)J

1

<72

 

/1=1

 

 

причем формулы (5-50) и (5-51) выведены в предполо­ жении о нормальности процесса X(t).

Отметим, что во всех приведенных в данной главе формулах возможна замена х(і) на 2вх(0 =х(і) +у ПХ(0 . что позволяет увязать результаты данного параграфа с предыдущим материалом.

Перейдем далее к информационному описанию систе­ мы без потерь. Отличительной особенностью информа­ ционного анализа является возможность описания пото­ ка на выходе системы без учета методов интерполяции. В этом смысле информационный анализ описывает как бы предельные возможности восстановления. В данном случае, как во всякой спорадической системе, информа­ цию песет сам момент появления сообщения и характер сообщения. В данном случае характер сообщения — это знак сообщения, т. е. знак приращения. Первую состав­ ляющую количества информации назовем фазовой, вто­ рую— амплитудной. Для системы без потерь сообщений амплитудная составляющая / а не превышает 1 дв. ед.

Рассмотрим количество информации в фазе поступле­ ния измерения. Естественно, что эта величина /ф отлич­ на от пуля только в том случае, если интервалы времени между измерениями Т случайны. Предположим, что по­ ток заявок является простейшим, т. е. ординарен, стацио­ нарен и не имеет последействия. Запишем прежде всего дифференциальную энтропию величины Т в виде

СО

// (Г) = - J да (Г) log W (Г) dT,

(5-52)

где w ( T ) — плотность

вероятностей

Т. Так как

для

пуассоновского потока

с параметром

Хх плотность

ве­

роятностей

 

 

 

w(T)=XXexp (—ХхТ),

 

Н (Т) =log(eA,v).

(5-53)

В связи с тем, что любой измеритель времени имеет квантующее устройство, то фактически может быть заре­ гистрирована не непрерывная величина Г, а результат ее аналого-цифрового преобразования (время дискрети­ зации) Г д . Обозначим величину кванта через То- Анало­ говой ошибкой измерителя времени при измерении ма­ лых интервалов, как правило, можно пренебречь. Тогда вся ошибка измерения фазы поступления, сводится к по­ грешности дискретности Ут- Среднее значение условной энтропии равно:

со

Т0

 

 

Н (Т I Гд) == — £ Р (Ги) J W (ут) log W (ут) dyT,

(5-54)

А=1

О

 

 

 

где

кТ

 

 

 

Р (Ги) =

w(T)dT.

 

 

'j

 

(5-55)

 

(*—I) То

 

 

В частноегп, для пуассоновского потока в силу от­

сутствия последействия

 

 

 

 

w(yT) =Хх ехр [—І х{То—ут)1

(5-5G)

00

 

 

 

 

Учитывая, что ^ , р ( Т к) — ],

и меняя

порядок суммн-

А=1

 

 

 

 

рования и интегрирования, имеем:

 

 

То

 

 

 

 

Н (Т I Гд) = J Я, exp I - Я, (Г, -

ут)] X

 

О

 

 

 

 

X log {Я* ехр[—Я,(Г0—г/г)]} dyT=[ 1 - exp ( - l xT0)] l o g —

 

''■je

- Е Т ехР < - ;,-*7'»>-

<6-67>

При этом предполагалось, что величина уд- достаточ­ но мала, чтобы вероятностью появления нового измере­ ния за это время можно было пренебречь, т. е. 1—ро<С

< 1.

200

Количество информации в фазе поступления измере­

ния при пуассоновском потоке

 

Іф = Н(Т)—Н(Т\ Тя) =ехр (—кхТо) X

 

X Iogfexp (1 +ЯЖГ0)1_ІЛ-].

(5-58)

Нетрудно видеть, что при увеличении Хх фазовая

информация уменьшается, а

 

lim / ф — log- (е/Іх) = Н (7),

(5-59)

Го->0

 

что и следовало ожидать.

Таким образом, скорость передачи информации в си­

стеме без потерь сообщений

 

 

Е —АД/а + Ліі)

+ехр(—АдТо) X

 

X logfexp (1 +КхТо) АгД].

(5-60)

В реальных спорадических системах всегда

сущест­

вует отличная от нуля вероятность потери заявки, как это будет показано ниже. Однако полученные в данном

параграфе

 

результаты

 

оказываются

 

полезными

 

в ходе дальнейших выво­

 

дов.

 

 

 

 

Исследование систем

 

с потерями начнем с уче­

 

та

конечного

времени

 

обслуживания

заявки.

 

Пусть время,

необходи­

 

мое для измерения в спо­

 

радической системе, хиф'

 

ф.О. Если в системе нет

 

накопителя (памяти) за­

 

явок, то все заявки, воз­

Рис. 5-6. Временной график рабо­

никающие

за

время тп

ты спорадической одиоканальной

с

момента

предыдущего

системы без памяти.

измерения, будут потеря­ ны. Следующее измерение будет ’ вызвано первой же

заявкой, возникшей после освобождения от обслужива­ ния (рис. 5-6). При этом характер каждого измерения меняется — счет единичных приращений невозможен. Возможно либо измерение приращений, что связано с накоплением погрешности, либо измерение полных значений. Допустим, что реализуется второй вариант.

201

Количество информации в одном сообщении по-пре>к- нему будем описывать через амплитудную и фазовую компоненты. Нетрудно видеть, что

/а = Е Р „ К )//д ,(« + 1 ),

(5-61)

H=U

 

где рп(ті,)— вероятность появления п пересечений

гра­

ниц областей квантования по уровню процессом А'(/) за время обслуживания одной заявки; HN{n-\-\) опреде­ ляется формулой (5-23).

Компонента /ф определяется формулой (5-53), если поток пересечений простейший. При соблюдении усло­ вия пуассоновского потока имеем также: •

Рп Ы = Р % Г еХР -(- А*хи)-

(5-62)

Для нахождения скорости получения информации определим также интенсивность потока обслуживаемых заявок Запишем:

Ѵ= Ы 1 —Рп),

(5-63)

где рп — вероятность пеобслуживапия заявки, т. е.

появ­

ления такого пересечения, которое не послужит основа­ нием для измерения.

Вероятность рп можно определить как

 

рц= 1 1 (1 + Н ) - \

(5-64)

где Н — математическое ожидание числа потерянных за­ явок за время тп.

Для пуассоновского потока

 

Ы = £ 11Рп Ы = Яя-Еи.

(5-65)

/ 1=1

 

 

Подставляя (5-65) в (5-64) и (5-64) в (5-63), имеем:

X’

К

(5-66)

1+ Ххіа

 

 

202

Соседние файлы в папке книги из ГПНТБ