Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Кавалеров, Г. И. Введение в информационную теорию измерений

.pdf
Скачиваний:
11
Добавлен:
22.10.2023
Размер:
12.18 Mб
Скачать

Отсюда скорость

получения

информации на

выходе

системы относительно входа

 

 

 

 

СО

 

 

 

п\

ехр (— Яхт:и) II (п-\-

1) -j-

 

 

 

 

•rt=о

 

 

 

+ exp ( -

X j\) ( log

 

+ ХхГ0 log е

(5-67)

Из сравнения формул (5-25) и (5-67) получаем оцен­ ку разности скоростей получения информации в спора­ дической и циклической системах при ти=7' в виде

 

— £ц =

:ехр(— ХхТ ) Ѵ (ХхТ)пХ

 

 

 

 

 

аяі

 

 

77и (п + 1)

 

1

/і=0

 

X

 

-j- Хх ехр (—

ХхТ0) X

п\

+ КТ п + 1

 

X (1 +

W

—I

 

 

 

1 log [X-1ехр (1 + я*7’0)1-

( 5 - 6 8 )

Учитывая, что ХхТ<1, и используя лемму Абеля, не­ трудно вывести, что эта разность заведомо больше нуля.

Таким образом, данный спо­

дд. ед/с

радический алгоритм обеспе­

чивает

заведомое увеличе­

 

ние скорости получения ин­

 

формации

но

сравнению

 

с циклическим

при

ЯГ< 1.

 

На рис. 5-7 представлен ход

 

кривых Ес и Ец при ЯХ70<С 1,

 

іѴ= 16

и 7’ = Т и = 1 .

В

усло­

 

виях этого примера пересе­

 

чение

 

кривых

происходит

 

при

ЯкТіі= 1,28. Тот факт,

 

что Ец>Ес при больших Яжти

 

объясняется

 

уменьшением

Ряс. 5-7. Зависимость скорости

/ф и увеличением ра с ро­

стом

интенсивности

потока

передачи информации от ЯіТП

на

входе.

Окончательно

для циклической и спорадиче­

ской дискретизации без па­

можно сделать вывод, что

мяти.

спорадическая

система

без

сравнительно малых Яхтн,

памяти

целесообразна

при

т. е. при измерении процессов, изменяющихся медлен­ но по сравнению с быстродействием информационной си­ стемы.

203

Для повышения скорости передачи информации в спорадической системе воз'можно использование буфер­ ного запоминающего устройства. В этом случае частично заполняются паузы между измерениями, имевшие место

в

условиях применения

алгоритма,

рассмотренного

в

предыдущем параграфе.

Однако при

этом возникает

необходимость хранить в памяти не только мгновенное значение измеряемой величины, но и время его возник­

новения в соответствующем коде

Для такого кодирова­

ния следует оговорить диапазон

возможных значений

передаваемых величин временных интервалов Г,макс. Вы­ берем этот интервал из условия

/Д 7 > Д Ійкс)= е< 1,

(5-69)

где е — положительная величина, определяющая уровень значимости квантиля Тмакс. Для пуассоновского потока можно записать:

7 м а к с = — Я"’ Ine.

(5-70)

Число областей квантования временного интервала

Nt= Tmw T-' = - (Я Л )"1 Ьв.

(5-71)

Если время передачи одного разряда ДI и применяет­ ся двоичный код, то время передачи кода об отметке времени

Тф = Л/ logA^r = A/ log[—Ine (Я Л )-1]-

(5-72)

Время передачи всего сообщения

 

Тіі= Та+ Тф,

(5-73)

где

(5-74)

r a= AflogW

время передачи сообщения об амплитуде.

Оценим, как и в предыдущем случае, фазовую и

амплитудную компоненты количества информации на одно измерение. Что касается амплитудной составляю­

1 Простейшими устройствами памяти, фиксирующими мгновен­ ные значения измеряемой величины, могут служить кодирующие диски или запоминающие регистры при выводе результатов измере­ ния на цифропечать, информационную модель или устройства управ­ ления адаптивной дискретизацией, т. е. устройства, входящие непо­ средственно в измерительный канал.

204

щей, то она может быть выражена с помощью ранее выведенной формулы (5-61) с учетом значения тн из формулы (5-73)-. Для фазовой информации на основе вы­ вода, исходящего из формул (5-57) и (5-71) и построен­ ного по аналогии с предыдущими, имеем:

/7 I 7 Д) = (1 - е) exp ( - XХТ0) (log ^ - ХхТ 0log +

Н (Т) =\og(efXx) ;

/ ф = (1 — в) ехр (— ХхТ0) log [Я~‘ exp (1 + Яя7'0>]. (5-75)

Если система с неограниченной памятью и

1, то

рп = 0. Следовательно,

 

 

£ с .п — я х

ра (тп) н ц (it -)-1)- ]-

 

+ (1 — в) ехр (— Я,7'0) log [Хх 1exp (1 + Я ^ )]

I . (5-76)

Сравнивая формулы (5-76) и (5-67), молено показать, что эта скорость выше, чем в предыдущем случае, при

(5-77)

т. е. при ЛжТф<1, что практически всегда имеет место

(см. рис. 5-7).

Рассмотрим далее спорадические системы для изме­ рения не полных значений, а приращений. Кроме того, учтем конечность памяти. Прежде всего исследуем схе­ му с памятью одной первой заявки. Работа такой систе­ мы протекает следующим образом. Если за время пере­ дачи сообщения не возникает ни одной новой заявки, то по истечении времени ха измерение прекращается до мо­ мента возникновения следующей заявки. Предположим далее, что за время передачи сообщения ти возникло п новых заявок, где п 1, 2, 3 и т. д. В соответствии с при­ нятым нами алгоритмом система передает сведения о том состоянии, которое соответствует началу передачи. Немедленно вслед за первым следует второе сообщение,

205

несущее информацию о последнем состоянии параметра к моменту окончания предыдущей передачи, т. е. об п переходах с уровня на уровень (рис. 5-8). Подобная про­ цедура повторяется, так что, вообще говоря, могут обра­

 

зовываться цуг и

(последо­

 

вательности)

сообщений лю­

 

бой

длительности.

Каждое

 

последующее

сообщение

в

 

цуге

 

несет

информацию

 

о состоянии

параметра

к

 

моменту начала данной пе­

 

редачи.

Так

же,

как

и

 

в предыдущем выводе, бу­

 

дем

разделять

количество

 

информации ■на амплитуд­

 

ную составляющую / а и фа­

Рис. 5-8. Временной график ра­

зовую /ф. И та и другая

зависит

от числа

переходов

боты спорадической одпока-

п с

уровня

на уровень

за

налышй системы с памятью па

одно сообщение.

время тп-

прежде

всего

 

Оценим

 

амплитудную

информацию.

Частное значение безусловной энтропии Я„ при наличии п переходов определяется как

Нп= — 2 £ Р(т I п)logр (т\'п) - р (01п) logр (0 \п), (5-78) Ш=1

где р(т\п) определяется из формул (5-14) или (5-19). Это означает, что верхняя оценка энтропии (в двоичных

единицах) в сечении сетки переходов (см. рис. 5-3)

Я0 =

= 0; Я 1 = 1; Я2= 1,5; # з=

1,8; Я* = 2,03; Я5 = 2,20;

Я6=

= 2,34; Я7 = 2,44; Я8=2,54;

Я9 = 2,63; Я10=2,71; Яц = 2,77;

Ні2=2,84 и т. д. Согласно этим значениям первое сооб­

щение

в цуге

всегда имеет среднюю

энтропию Яа1=

= Яі=1

дв.ед.,

а второе и каждое из последующих

 

 

00

 

 

 

Яа2= І Р „ Ы Я п,

(5-79)

 

 

/г=І

 

где /?7і(ти)— вероятность п заявок (переходов с уровня на уровень) за время обслуживания одного сообщения ти. Если поток заявок простейший, то

Рп К ) = -( ^ г ~ ехР (— я^ и ),

(5 -80)

206

причем кх — интенсивность потока пересечений случай­ ным процессом шкалы квантования по уровню, значение которой оговорено в начале параграфа.

Вероятность образования цуга из k сообщений

 

<7/i=tl—exp (—^Tn)]'t_iexp (—tat,,).

(5-81)

Поэтому среднее количество информации на одно со­

общение

 

 

 

 

! + ( * + ! ) 5 ] а ,(*)Я„

 

 

k = \

/1=1

 

 

со

 

 

=

- Г U - е х Р

1 e x p ( - я^х) X

 

 

/f=l

 

 

 

00

 

 

X

1 . + ( k + l ) £ ^

e x p ( - ЯЛ ,) І І п

(5-82)

Перейдем к оценке фазовой информации для этого алгоритма. Обозначим интервал времени между двумя последовательными пересечениями случайным процессом X(t) границ квантов через Т. Безусловная энтропия слу­ чайной величины Т согласно формуле (5-53) равна log(e/Xx). Однако в данном случае имеются отличные от нуля вероятность потерн сообщения и время задержки. Поэтому количество фазовой информации не равно без­ условной энтропии. Вследствие этого необходимо вычис­ лить условную энтропию Н(Т\Ті), где 74— интервал времени между началами двух последовательных считы­ ваний показаний (обслуживания заявок). Если обслужи­

вания следуют одно за другим, то

Ті—т

„> Т.

Если же

цуг состоит из одного сообщения,

то Т1=

Т > х

п. В соот­

ветствии с этим плотность вероятности 7\ может быть

получена

в виде

О

при Г, < хн;

 

 

 

 

ш(Г,) =

[1 — ехр(—Яхх„)] о(Т, — Xu)—J—

(5-83)

 

+Я* exp (— X j \ )

при Г, >

 

где 8 (х) — дельта-функция Дирака.

 

Интегральный закон распределения

 

 

I

1 — ехр (— 1ХТ)

при 7’1= Х И> 7 ’;

 

F ( T \ T J = I

1— ехр (— Ял )

(5-84)

 

I

1

при Т = Tt ==* хи.

 

207

Условная плотность вероятности

 

О

при Т1

 

и>(П 7\)=

Ус exp (— К Т )

при Т, =

1 К->Т-, (5-85)

1— exp (— К ч )

 

О

при 7", =

7' > т:и.

Поэтому

условная

энтропия при Г, |> тп

равняется

нулю, а при Т1= ъ

 

 

 

 

Я ( Г \ Т ,)=

fa»(7'|7’I)logo;(7'|7’1) ^

=

 

= 1°g

- ехр(-

У.Лі))

К ч ехр (—К ч )

. (5-86)

In 2 [1 — exp (— AÄxu)J

 

 

 

 

Тот факт,

что # (7 ’|7’і) = 0 при 7’> ти, отражает от­

сутствие задержки в обслуживании заявки, т. е. нулевое значение времени задержки при этих условиях. В общем

случае плотность

вероятности

времени

задержки

w (Q —

К ехр (— Мз)

при

0 < / ' з

ехр (— Х,.-:,,)—I

 

t3>

(5-87)

 

О

при

"ь„.

Естественно, что величина іл существенно неотрица­ тельна. Энтропия этой величины

Н (4) -

log

ехр (— І хі а) — 1

К ч ехр (— Кч)

(5-88)

Ке

 

In 2 [I — ехр (— Лжхн)] ’

Фазовая

информация

на одно

измерение для

рас­

смотренного

алгоритма

 

 

 

 

/ф =

Я (Г) -

[ 1 -е х р ( -

Ял ,)] Я I Г,) =

 

=

ехр (— ЯлО lo g ^ - +

ll — ехР (— ЯэЛи)] X

 

х { !п;2-; ? Л ! . 7 - й ) ]

-

logi‘ -

ехр(- ^ .)]}n 6 -8 9 )

а суммарная информация

 

 

 

 

 

 

 

/= /а + /ф .

(5-90)

Следует иметь в виду, что при необходимости и в этом случае возможно уточнение формулы для / а с учетом

208

эффекта отражения от краев шкалы. Окончательный ре­ зультат для этого случая имеет вид:

СО

 

/„ = ехр ( - АЛ і) + 2

Яд, («) ехр ( - АЛ і), (5-91)

/і =

і

где значения HN(n) приведены в § 5-1.

Для определения скорости получения информации оценим величину математического ожидания числа поте­ рянных (необслуженных) заявок за время ти:

СО

0 0

Й =

£

( « - \)р, Ы = ехр ( -

АЛі) 53 ( ^ § 7 =

 

 

п=2

со

 

 

п—2

 

 

 

 

 

 

 

= ехр ( -

АЛі) 53 -(X*'tn)n/t(!n +

1}-

- 2 ехр ( - Ал ,) X

 

 

 

П -1

 

 

 

 

 

 

00

 

 

 

 

 

X Е

-

1 +

ехр ( - АЛ ),

(5-92)

 

 

Я=1

 

 

 

 

где /7Д =

Н(1 -(- II)-1 — вероятность потери заявки.

 

Математическое ожидание числа заявок, обслуживае­

мых в единицу времени,

 

 

 

 

Хх— А* (1

ра) Къ + ехр (— КъУ

(5,93)

Поэтому скорость прохождения информации по та­

кому измерительному тракту

 

 

 

 

 

'К ъ +

ехр (— Х*іп) (Д + /ф).

(5-94)

Рассмотрим далее измерительный канал с передачей приращений без памяти. В такой системе все заявки на обслуживание, поступившие во время обслуживания дру­ гой заявки, теряются. Следовательно, если за время обслуживания первой заявки (время ты) поступило п за­ явок, то только следующая, (и+2)-я заявка вызовет пе­ редачу сообщения. При соблюдении условий вывода пре­ дыдущих формул этого параграфа амплитудная инфор­

мация

00

 

 

/ . =

53

ехр ( - К ъ ) H N (п + 1),

(5-95)

п

14—301

209

Где //jvC«+1) по-прежнему определяется в боОтветствйй с § 4-2. Для определения фазовой компоненты количест­ ва информации отметим, что в простейшем потоке зая­ вок любая часть временного интервала между заявками имеет то же распределение вероятностей, что и весь ин­ тервал. Поэтому

Я.*ехр [— Хх (Т}

w (7’,) =

О

Кроме того,

О

®(7'І 17’) =

8( Г ,- Г )

■'..)] при

(5-96)

при Г, < V

 

при Т < ти;

(5-97)

при 7’> х и,

 

где б(.ѵ)— дельта-функция Дирака. Поэтому энтропии равны:

Н(Ті) =\og(e/Xx) ; Я (Г 1|7’) = 0.

(5-98)

При пренебрежимо малых погрешностях измерения временных интервалов фазовая компонента информа­ ции равна:

 

/ф = \og(e/Xx).

(5-99)

Математическое ожидание

числа потерянных за время

Тд 5НЯВОК

 

со

 

 

 

 

Н =

 

. ) = ЯЛіІ

(5-100)

 

£ " Р и К

 

 

П—1

 

 

 

а вероятность потери

заявки

 

 

 

 

Ра1+ Дхи

(5-101)

Интенсивность потока сообщений на выходе системы

 

 

Хг — -

 

К

(5-102)

 

 

 

1+ Д1и ’

 

а скорость передачи информации на выходе

 

X Г| ]

£ = Я г (/а -(-/ф):

+ д% X

 

ехр ( - Ш HN Ql + 1)+ log -i-

(5-103)

L„=o

 

 

 

 

 

210

Сравним изменение скорости передачи информации в зависимости от Х.хтп для циклической и двух рассмо­ тренных вариантов спорадической систем (рис. 5-9). Сле­ дует иметь в виду, что в расчетах данного параграфа амплитудная информация выражена в единицах абсо­ лютной энтропии, а фазопая — в единицах относительной энтропии. Однако при использовании величины Е для сравнения алгоритмов это обстоятельство не играет роли.

бит/с бит/с

Рис. 5-9. Зависимость

скорости передачи информации от

Я,хти

в системах с различными алгоритмами.

 

/ — циклический алгоритм;

2 — спорадический алгоритм без памяти;

3 —

спорадический алгоритм с

памятью одной заявки.

 

Расчетные примеры показывают, что циклический алгоритм при малых интенсивностях входящего потока (т. е. при малых AxTn) обеспечивает заведомо меньшую скорость передачи информации, чем любой из рассмо­ тренных спорадических. При увеличении Ххтп скорость передачи информации увеличивается, достигает макси­ мума, а затем уменьшается. Без учета затрат на аппа­ ратуру в ряде случаев имеются вполне определенные границы целесообразности применения спорадических алгоритмов (рис. 5-9,а). Рисунок 5-9,6 соответствует на­ чальному участку рис. 5-9,а, что объясняется сравни­ тельно большими значениями т» для этого случая.

Таким образом информационный анализ показывает, что спорадическая система далеко не всегда выгоднее циклической. Однако существует достаточно широкий и практически важный класс случаев, когда применение таких систем оправдано. Кроме того, в ряде случаев при­ менение спорадического алгоритма диктуется техниче­ скими соображениями, например спецификой применяе-

14*

211

мого канала связи или 'включением данного измери­ тельного устройства в другую типичную систему массо­ вого обслуживания (например, телеизмерения с исполь­ зованием городских АТС).

Рассмотренные в настоящем параграфе спорадиче­ ские алгоритмы не исчерпывают, естественно, всего клас­ са таких алгоритмов. Ниже будет рассмотрен еще один из возможных алгоритмов спорадического опроса (см. § 6-4).

5-4. ПРИМЕНЕНИЕ МЕТОДА МОНТЕ-КАРЛО ДЛЯ АНАЛОГО-ЦИФРОВОГО ПРЕОБРАЗОВАНИЯ

Интересным примером совмещения операций ана­ лого-цифрового преобразования и усреднения в одном устройстве является преобразователь, действующий по методу Монте-Карло и демонстрирующий плодотвор­ ность последовательного вероятностно-статистического подхода не только к анализу процесса измерения, но и

Рис. 5-10. Структурная схема аналого-цифрового преобразователя по методу Монте-Карло.

к конструированию измерительного устройства. Подоб­ ные преобразователи были впервые предложены в [Л. 5-19]. Достоинствами этих устройств являются про­ стота конструкции, невысокие требования к исполнению элементов и узлов, а также возможность выполнения в этих устройствах функционального преобразования.

Для пояснения принципа работы преобразователя об­ ратимся к структурной схеме, представленной на рис. 5-10. Работа схемы протекает следующим образом. Измеряемый процесс x(t) поступает на предварительный

212

Соседние файлы в папке книги из ГПНТБ