книги из ГПНТБ / Кавалеров, Г. И. Введение в информационную теорию измерений
.pdfОтсюда скорость |
получения |
информации на |
выходе |
|
системы относительно входа |
|
|
|
|
|
СО |
|
|
|
1Т |
п\ |
ехр (— Яхт:и) II (п-\- |
1) -j- |
|
|
|
|
||
|
•rt=о |
|
|
|
+ exp ( - |
X j\) ( log |
|
+ ХхГ0 log е |
(5-67) |
Из сравнения формул (5-25) и (5-67) получаем оцен ку разности скоростей получения информации в спора дической и циклической системах при ти=7' в виде
|
— £ц = |
:ехр(— ХхТ ) Ѵ (ХхТ)пХ |
|
||
|
|
|
|
аяі |
|
|
77и (п + 1) |
|
1 |
/і=0 |
|
X |
|
-j- Хх ехр (— |
ХхТ0) X |
||
п\ |
+ КТ п + 1 |
||||
|
X (1 + |
W |
—I |
|
|
|
1 log [X-1ехр (1 + я*7’0)1- |
( 5 - 6 8 ) |
Учитывая, что ХхТ<1, и используя лемму Абеля, не трудно вывести, что эта разность заведомо больше нуля.
Таким образом, данный спо |
дд. ед/с |
||||||
радический алгоритм обеспе |
|||||||
чивает |
заведомое увеличе |
|
|||||
ние скорости получения ин |
|
||||||
формации |
но |
сравнению |
|
||||
с циклическим |
при |
ЯГ< 1. |
|
||||
На рис. 5-7 представлен ход |
|
||||||
кривых Ес и Ец при ЯХ70<С 1, |
|
||||||
іѴ= 16 |
и 7’ = Т и = 1 . |
В |
усло |
|
|||
виях этого примера пересе |
|
||||||
чение |
|
кривых |
происходит |
|
|||
при |
ЯкТіі= 1,28. Тот факт, |
|
|||||
что Ец>Ес при больших Яжти |
|
||||||
объясняется |
|
уменьшением |
Ряс. 5-7. Зависимость скорости |
||||
/ф и увеличением ра с ро |
|||||||
стом |
интенсивности |
потока |
передачи информации от ЯіТП |
||||
на |
входе. |
Окончательно |
для циклической и спорадиче |
||||
ской дискретизации без па |
|||||||
можно сделать вывод, что |
мяти. |
||||||
спорадическая |
система |
без |
сравнительно малых Яхтн, |
||||
памяти |
целесообразна |
при |
т. е. при измерении процессов, изменяющихся медлен но по сравнению с быстродействием информационной си стемы.
203
Для повышения скорости передачи информации в спорадической системе воз'можно использование буфер ного запоминающего устройства. В этом случае частично заполняются паузы между измерениями, имевшие место
в |
условиях применения |
алгоритма, |
рассмотренного |
в |
предыдущем параграфе. |
Однако при |
этом возникает |
необходимость хранить в памяти не только мгновенное значение измеряемой величины, но и время его возник
новения в соответствующем коде |
Для такого кодирова |
ния следует оговорить диапазон |
возможных значений |
передаваемых величин временных интервалов Г,макс. Вы берем этот интервал из условия
/Д 7 > Д Ійкс)= е< 1, |
(5-69) |
где е — положительная величина, определяющая уровень значимости квантиля Тмакс. Для пуассоновского потока можно записать:
7 м а к с = — Я"’ Ine. |
(5-70) |
Число областей квантования временного интервала
Nt= Tmw T-' = - (Я Л )"1 Ьв. |
(5-71) |
Если время передачи одного разряда ДI и применяет ся двоичный код, то время передачи кода об отметке времени
Тф = Л/ logA^r = A/ log[—Ine (Я Л )-1]- |
(5-72) |
Время передачи всего сообщения |
|
Тіі= Та+ Тф, |
(5-73) |
где |
(5-74) |
r a= AflogW |
—время передачи сообщения об амплитуде.
Оценим, как и в предыдущем случае, фазовую и
амплитудную компоненты количества информации на одно измерение. Что касается амплитудной составляю
1 Простейшими устройствами памяти, фиксирующими мгновен ные значения измеряемой величины, могут служить кодирующие диски или запоминающие регистры при выводе результатов измере ния на цифропечать, информационную модель или устройства управ ления адаптивной дискретизацией, т. е. устройства, входящие непо средственно в измерительный канал.
204
щей, то она может быть выражена с помощью ранее выведенной формулы (5-61) с учетом значения тн из формулы (5-73)-. Для фазовой информации на основе вы вода, исходящего из формул (5-57) и (5-71) и построен ного по аналогии с предыдущими, имеем:
/7 (Г I 7 Д) = (1 - е) exp ( - XХТ0) (log ^ - ХхТ 0log +
Н (Т) =\og(efXx) ;
/ ф = (1 — в) ехр (— ХхТ0) log [Я~‘ exp (1 + Яя7'0>]. (5-75)
Если система с неограниченной памятью и |
1, то |
|
рп = 0. Следовательно, |
|
|
£ с .п — я х |
ра (тп) н ц (it -)-1)- ]- |
|
+ (1 — в) ехр (— Я,7'0) log [Хх 1exp (1 + Я ^ )] |
I . (5-76) |
Сравнивая формулы (5-76) и (5-67), молено показать, что эта скорость выше, чем в предыдущем случае, при
(5-77)
т. е. при ЛжТф<1, что практически всегда имеет место
(см. рис. 5-7).
Рассмотрим далее спорадические системы для изме рения не полных значений, а приращений. Кроме того, учтем конечность памяти. Прежде всего исследуем схе му с памятью одной первой заявки. Работа такой систе мы протекает следующим образом. Если за время пере дачи сообщения не возникает ни одной новой заявки, то по истечении времени ха измерение прекращается до мо мента возникновения следующей заявки. Предположим далее, что за время передачи сообщения ти возникло п новых заявок, где п —1, 2, 3 и т. д. В соответствии с при нятым нами алгоритмом система передает сведения о том состоянии, которое соответствует началу передачи. Немедленно вслед за первым следует второе сообщение,
205
несущее информацию о последнем состоянии параметра к моменту окончания предыдущей передачи, т. е. об п переходах с уровня на уровень (рис. 5-8). Подобная про цедура повторяется, так что, вообще говоря, могут обра
|
зовываться цуг и |
(последо |
|||||
|
вательности) |
сообщений лю |
|||||
|
бой |
длительности. |
Каждое |
||||
|
последующее |
сообщение |
в |
||||
|
цуге |
|
несет |
информацию |
|||
|
о состоянии |
параметра |
к |
||||
|
моменту начала данной пе |
||||||
|
редачи. |
Так |
же, |
как |
и |
||
|
в предыдущем выводе, бу |
||||||
|
дем |
разделять |
количество |
||||
|
информации ■на амплитуд |
||||||
|
ную составляющую / а и фа |
||||||
Рис. 5-8. Временной график ра |
зовую /ф. И та и другая |
||||||
зависит |
от числа |
переходов |
|||||
боты спорадической одпока- |
п с |
уровня |
на уровень |
за |
|||
налышй системы с памятью па |
|||||||
одно сообщение. |
время тп- |
прежде |
всего |
||||
|
Оценим |
||||||
|
амплитудную |
информацию. |
Частное значение безусловной энтропии Я„ при наличии п переходов определяется как
Нп= — 2 £ Р(т I п)logр (т\'п) - р (01п) logр (0 \п), (5-78) Ш=1
где р(т\п) определяется из формул (5-14) или (5-19). Это означает, что верхняя оценка энтропии (в двоичных
единицах) в сечении сетки переходов (см. рис. 5-3) |
Я0 = |
|
= 0; Я 1 = 1; Я2= 1,5; # з= |
1,8; Я* = 2,03; Я5 = 2,20; |
Я6= |
= 2,34; Я7 = 2,44; Я8=2,54; |
Я9 = 2,63; Я10=2,71; Яц = 2,77; |
Ні2=2,84 и т. д. Согласно этим значениям первое сооб
щение |
в цуге |
всегда имеет среднюю |
энтропию Яа1= |
= Яі=1 |
дв.ед., |
а второе и каждое из последующих |
|
|
|
00 |
|
|
|
Яа2= І Р „ Ы Я п, |
(5-79) |
|
|
/г=І |
|
где /?7і(ти)— вероятность п заявок (переходов с уровня на уровень) за время обслуживания одного сообщения ти. Если поток заявок простейший, то
Рп К ) = -( ^ г ~ ехР (— я^ и ), |
(5 -80) |
206
причем кх — интенсивность потока пересечений случай ным процессом шкалы квантования по уровню, значение которой оговорено в начале параграфа.
Вероятность образования цуга из k сообщений
|
<7/i=tl—exp (—^Tn)]'t_iexp (—tat,,). |
(5-81) |
|
Поэтому среднее количество информации на одно со |
|||
общение |
|
|
|
|
! + ( * + ! ) 5 ] а ,(*)Я„ |
|
|
|
k = \ |
/1=1 |
|
|
со |
|
|
= |
- Г U - е х Р |
1 e x p ( - я^х) X |
|
|
/f=l |
|
|
|
00 |
|
|
X |
1 . + ( k + l ) £ ^ |
e x p ( - ЯЛ ,) І І п |
(5-82) |
Перейдем к оценке фазовой информации для этого алгоритма. Обозначим интервал времени между двумя последовательными пересечениями случайным процессом X(t) границ квантов через Т. Безусловная энтропия слу чайной величины Т согласно формуле (5-53) равна log(e/Xx). Однако в данном случае имеются отличные от нуля вероятность потерн сообщения и время задержки. Поэтому количество фазовой информации не равно без условной энтропии. Вследствие этого необходимо вычис лить условную энтропию Н(Т\Ті), где 74— интервал времени между началами двух последовательных считы ваний показаний (обслуживания заявок). Если обслужи
вания следуют одно за другим, то |
Ті—т |
„> Т. |
Если же |
цуг состоит из одного сообщения, |
то Т1= |
Т > х |
п. В соот |
ветствии с этим плотность вероятности 7\ может быть
получена |
в виде |
О |
при Г, < хн; |
|
|
|
|
||
ш(Г,) = |
[1 — ехр(—Яхх„)] о(Т, — Xu)—J— |
(5-83) |
||
|
+Я* exp (— X j \ ) |
при Г, > |
|
|
где 8 (х) — дельта-функция Дирака. |
|
|||
Интегральный закон распределения |
|
|||
|
I |
1 — ехр (— 1ХТ) |
при 7’1= Х И> 7 ’; |
|
F ( T \ T J = I |
1— ехр (— Ял ) |
(5-84) |
||
|
I |
1 |
при Т = Tt ==* хи. |
|
207
Условная плотность вероятности
|
О |
при Т1 |
|
и>(П 7\)= |
Ус exp (— К Т ) |
при Т, = |
1 К->Т-, (5-85) |
1— exp (— К ч ) |
|||
|
О |
при 7", = |
7' > т:и. |
Поэтому |
условная |
энтропия при Г, |> тп |
равняется |
|||
нулю, а при Т1= ъ |
|
|
|
|
||
Я ( Г \ Т ,)= — |
fa»(7'|7’I)logo;(7'|7’1) ^ |
= |
|
|||
= 1°g |
- ехр(- |
У.Лі)) |
К ч ехр (—К ч ) |
. (5-86) |
||
In 2 [1 — exp (— AÄxu)J |
||||||
|
|
|
|
|||
Тот факт, |
что # (7 ’|7’і) = 0 при 7’> ти, отражает от |
сутствие задержки в обслуживании заявки, т. е. нулевое значение времени задержки при этих условиях. В общем
случае плотность |
вероятности |
времени |
задержки |
|
w (Q — |
К ехр (— Мз) |
при |
0 < / ' з |
|
ехр (— Х,.-:,,)—I |
|
t3> |
(5-87) |
|
|
О |
при |
"ь„. |
Естественно, что величина іл существенно неотрица тельна. Энтропия этой величины
Н (4) - |
log |
ехр (— І хі а) — 1 |
К ч ехр (— Кч) |
(5-88) |
|||
Ке |
|
In 2 [I — ехр (— Лжхн)] ’ |
|||||
Фазовая |
информация |
на одно |
измерение для |
рас |
|||
смотренного |
алгоритма |
|
|
|
|
||
/ф = |
Я (Г) - |
[ 1 -е х р ( - |
Ял ,)] Я (Г I Г,) = |
|
|||
= |
ехр (— ЯлО lo g ^ - + |
ll — ехР (— ЯэЛи)] X |
|
||||
х { !п;2-; ? Л ! . 7 - й ) ] |
- |
logi‘ - |
ехр(- ^ .)]}n 6 -8 9 ) |
||||
а суммарная информация |
|
|
|
|
|||
|
|
|
/= /а + /ф . |
(5-90) |
Следует иметь в виду, что при необходимости и в этом случае возможно уточнение формулы для / а с учетом
208
эффекта отражения от краев шкалы. Окончательный ре зультат для этого случая имеет вид:
СО |
|
/„ = ехр ( - АЛ і) + 2 |
Яд, («) ехр ( - АЛ і), (5-91) |
/і = |
і |
где значения HN(n) приведены в § 5-1.
Для определения скорости получения информации оценим величину математического ожидания числа поте рянных (необслуженных) заявок за время ти:
СО |
0 0 |
Й = |
£ |
( « - \)р, Ы = ехр ( - |
АЛі) 53 ( ^ § 7 = |
|
||
|
п=2 |
со |
|
|
п—2 |
|
|
|
|
|
|
|
|
= ехр ( - |
АЛі) 53 -(X*'tn)n/t(!n + |
1}- |
- 2 ехр ( - Ал ,) X |
|
||
|
|
П -1 |
|
|
|
|
|
|
00 |
|
|
|
|
|
X Е |
- |
1 + |
ехр ( - АЛ ), |
(5-92) |
|
|
|
Я=1 |
|
|
|
|
где /7Д = |
Н(1 -(- II)-1 — вероятность потери заявки. |
|
||||
Математическое ожидание числа заявок, обслуживае |
||||||
мых в единицу времени, |
|
|
|
|||
|
Хх— А* (1 |
ра) — Къ + ехр (— КъУ |
(5,93) |
|||
Поэтому скорость прохождения информации по та |
||||||
кому измерительному тракту |
|
|
|
|||
|
|
'К ъ + |
ехр (— Х*іп) (Д + /ф). |
(5-94) |
Рассмотрим далее измерительный канал с передачей приращений без памяти. В такой системе все заявки на обслуживание, поступившие во время обслуживания дру гой заявки, теряются. Следовательно, если за время обслуживания первой заявки (время ты) поступило п за явок, то только следующая, (и+2)-я заявка вызовет пе редачу сообщения. При соблюдении условий вывода пре дыдущих формул этого параграфа амплитудная инфор
мация |
00 |
|
|
/ . = |
53 |
ехр ( - К ъ ) H N (п + 1), |
(5-95) |
п =О
14—301 |
209 |
Где //jvC«+1) по-прежнему определяется в боОтветствйй с § 4-2. Для определения фазовой компоненты количест ва информации отметим, что в простейшем потоке зая вок любая часть временного интервала между заявками имеет то же распределение вероятностей, что и весь ин тервал. Поэтому
Я.*ехр [— Хх (Т}
w (7’,) =
О
Кроме того,
О
®(7'І 17’) =
8( Г ,- Г )
■'..)] при |
(5-96) |
|
при Г, < V |
||
|
||
при Т < ти; |
(5-97) |
|
при 7’> х и, |
||
|
где б(.ѵ)— дельта-функция Дирака. Поэтому энтропии равны:
Н(Ті) =\og(e/Xx) ; Я (Г 1|7’) = 0. |
(5-98) |
При пренебрежимо малых погрешностях измерения временных интервалов фазовая компонента информа ции равна:
|
/ф = \og(e/Xx). |
(5-99) |
|||
Математическое ожидание |
числа потерянных за время |
||||
Тд 5НЯВОК |
|
со |
|
|
|
|
Н = |
|
. ) = ЯЛіІ |
(5-100) |
|
|
£ " Р и К |
||||
|
|
П—1 |
|
|
|
а вероятность потери |
заявки |
|
|
||
|
|
Ра— 1+ Дхи |
(5-101) |
||
Интенсивность потока сообщений на выходе системы |
|||||
|
|
Хг — - |
|
К |
(5-102) |
|
|
|
1+ Д1и ’ |
|
|
а скорость передачи информации на выходе |
|
||||
X Г| ] |
£ = Я г (/а -(-/ф): |
+ д% X |
|
||
ехр ( - Ш HN Ql + 1)+ log -i- |
(5-103) |
||||
L„=o |
|
|
|
|
|
210
Сравним изменение скорости передачи информации в зависимости от Х.хтп для циклической и двух рассмо тренных вариантов спорадической систем (рис. 5-9). Сле дует иметь в виду, что в расчетах данного параграфа амплитудная информация выражена в единицах абсо лютной энтропии, а фазопая — в единицах относительной энтропии. Однако при использовании величины Е для сравнения алгоритмов это обстоятельство не играет роли.
бит/с бит/с
Рис. 5-9. Зависимость |
скорости передачи информации от |
Я,хти |
в системах с различными алгоритмами. |
|
|
/ — циклический алгоритм; |
2 — спорадический алгоритм без памяти; |
3 — |
спорадический алгоритм с |
памятью одной заявки. |
|
Расчетные примеры показывают, что циклический алгоритм при малых интенсивностях входящего потока (т. е. при малых AxTn) обеспечивает заведомо меньшую скорость передачи информации, чем любой из рассмо тренных спорадических. При увеличении Ххтп скорость передачи информации увеличивается, достигает макси мума, а затем уменьшается. Без учета затрат на аппа ратуру в ряде случаев имеются вполне определенные границы целесообразности применения спорадических алгоритмов (рис. 5-9,а). Рисунок 5-9,6 соответствует на чальному участку рис. 5-9,а, что объясняется сравни тельно большими значениями т» для этого случая.
Таким образом информационный анализ показывает, что спорадическая система далеко не всегда выгоднее циклической. Однако существует достаточно широкий и практически важный класс случаев, когда применение таких систем оправдано. Кроме того, в ряде случаев при менение спорадического алгоритма диктуется техниче скими соображениями, например спецификой применяе-
14* |
211 |
мого канала связи или 'включением данного измери тельного устройства в другую типичную систему массо вого обслуживания (например, телеизмерения с исполь зованием городских АТС).
Рассмотренные в настоящем параграфе спорадиче ские алгоритмы не исчерпывают, естественно, всего клас са таких алгоритмов. Ниже будет рассмотрен еще один из возможных алгоритмов спорадического опроса (см. § 6-4).
5-4. ПРИМЕНЕНИЕ МЕТОДА МОНТЕ-КАРЛО ДЛЯ АНАЛОГО-ЦИФРОВОГО ПРЕОБРАЗОВАНИЯ
Интересным примером совмещения операций ана лого-цифрового преобразования и усреднения в одном устройстве является преобразователь, действующий по методу Монте-Карло и демонстрирующий плодотвор ность последовательного вероятностно-статистического подхода не только к анализу процесса измерения, но и
Рис. 5-10. Структурная схема аналого-цифрового преобразователя по методу Монте-Карло.
к конструированию измерительного устройства. Подоб ные преобразователи были впервые предложены в [Л. 5-19]. Достоинствами этих устройств являются про стота конструкции, невысокие требования к исполнению элементов и узлов, а также возможность выполнения в этих устройствах функционального преобразования.
Для пояснения принципа работы преобразователя об ратимся к структурной схеме, представленной на рис. 5-10. Работа схемы протекает следующим образом. Измеряемый процесс x(t) поступает на предварительный
212