Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Hart_Izmerit_texnika.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
5.96 Mб
Скачать

1.4. Измерительные

устройства как инфор­мационные системы

1.4.1. Системная концепция и ее распространение на средства измерений

1.24. Что означает термин «система» и каким образом его можно распространить на сред­ства измерений?

В принципе любое техническое устройство может рассматриваться как система-вопрос лишь в степени детализации. При использовании системных понятий для описания какой-либо части объекта (объектив­ной реальности) эту часть отде­ляют от окружения таким образом, чтобы в поле рассмотрения осталось лишь конечное число наиболее важ­ных взаимодействий с этой средой. Последние могут носить характер вещественных и (или) энергетичес­ких связей, выражаемых в обмене информацией (см. рис. 1.13). Если

внимание исследователя концентри­руется только на обмене информа­цией между рассматриваемым объектом и окружающей его средой, то об объекте говорят как об информационной системе. Выда­ваемая этой системой информация по форме и содержанию зависит от входной информации. Приведенная на рис. 1.9 модель измерительного преобразователя в виде передаточ­ного звена является примером прос­тейшего схематичного изображения информационной системы. К этой системе может подводиться инфор­мационный поток в виде множества входных величин (х^, ..., х^). В результате их обработки в системе (выполнением операций, описывае­мых определенными математичес­кими зависимостями) на выходе системы выдаются соответствую­щие выходные величины (;c„i, ..., :

Х )1' ] -'an .1 • •

Определенные связи (зависимое- ] ти), существующие между входными і и выходными величинами, именуют I передаточными свойствами (харак- а теристиками) системы. Одинаковые к системы характеризуются одинако- л

выми свойствами и характеристи- о ками. у

Одним из преимуществ систем- д ного подхода к исследованию объек- м тов является возможность приложе- сі ния характеристик, измеренных т< у одной системы, к другой системе, bi отличающейся своим построением

от первой, но имеющей такие же cfl передаточные свойства. При рас- не смотрении средств измерений как ра кибернетических систем удается на глубже проникнуть в их суть, лучше не. понять их поведение, исследовать их жа —————— ви,

1) Согласно принятым в отечественной чи] литературе представлениям, речь здесь идет Оц

о так называемой информационно-измери- по;

тельной системе, на вход которой поступают дд., измеряемые величины. Поэтому ниже гово-

рится именно об информационно-измери- ки-тельных системах (ИИС).- Прим. перев.

характеристики, в том числе по­грешности измерений, а также пере­дачу и обработку результатов изме­рений. Если пренебречь воздейст­вием влияющих величин и полагать, что в данный момент времени па вход системы поступает единствен­ная измеряемая величина х^, кото­рой соответствует одна выходная величина х^, то такую систему мож­но описать статической характерис­тикой (1.6) вида х^ ==/(-v„). Для более общего анализа необходимо учиты­вать изменение этих величин во времени; поэтому выражение (1.6) должно быть поелстявп»»и" " """-

/^меряемая величина лишь в редких случаях сохраняет постоянное зна­чение в процессе измерений. Часто постоянство измеряемой величины является кажущимся, так как она наблюдается на фоне помех, кото­рые приходится оценивать, чтобы исключить из результата измерения. Примером сказанного может слу­жить измерение длины / металличес­кого бруска, которая постоянна лишь при неизменной температуре окружающей среды. Поэтому для учета ее влияния при измерении длины надо знать и температуру на момент измерения и четко пред­ставлять себе, что длина, как и температура, является зависимой от времени величиной, т. е. / = /(/).

Из последнего примера можно делать вывод еще об одном важ-юм ограничении при системном >ассмотрении средств измерений:

[аряду с входными величинами ;ельзя не учитывать влияния окру-сающей среды, проявляющегося в иде воздействий влияющих вели-нн, в том числе помех и шумов. •ценивание и ограничение влияния эдобных мешающих воздействий-

іжнейшая задача системотехни-I.

В заключение можно выделить

следующие общие положения, кото­рыми надо руководствоваться при рассмотрении средств измерений в качестве ИИС:

а) важнейшими видами взаимо­действия ИИС с окружающей средой являются отбор ин­формации, определение значе­ний измеряемых величин и выдача их в виде выходной информации;

б) существует причинно-след­ственная связь между входной и выходной информацией в направлении от входа к вы­ходу, т. е. х^ -> х,;

в) желательно, чтобы ИИС как можно меньше влияла на входную (измеряемую) вели­чину;

г) воздействие помех и вызы­ваемые ими погрешности иг­рают при этом второстепен­ную роль;

д) в автономных измерительных устройствах материальные связи с окружающей средой нередко отсутствуют, а нали­чие или отсутствие энергети­ческих связей не имеет су­щественного значения для рассмотрения (их наличие обычно вызывает появление дополнительных шумов и помех);

е) для ИИС весьма желательна не имеющая запаздывания ли­нейная передаточная харак­теристика вида Хд = КрХр в любой момент времени, где Кр- коэффициент передачи, или передаточный коэффи­циент, рассмотренный при обсуждении вопр. 2.3. Обычно в реальных системах наблю­дается та или иная задержка в появлении выходного сигна­ла относительно момента воз­никновения входного сигна­ла, и связь между входной и выходной величинами описы­

вается дифференциальным уравнением (см. гл. 3);

ж) передаточная характеристика ИИС должна быть воспроиз­водимой и инвариантной от­носительно времени, т.е. за­висимость между входной и выходной величинами не должна изменяться со време­нем.

7.25. Что такое вообще «информация»?

Существует ряд определений по­нятия информации, что свидетель­ствует об их неудовлетворительнос­ти. Поэтому для уяснения этого понятия необходимо рассмотреть некоторые важнейшие свойства ин­формации, исключая такие ее чело­веческие аспекты, как семантика (значимость информации для лю­дей) и прагматика (воздействие ин­формации на людей). Значимость измерительной информации следует рассматривать с точки зрения ее получения, т.е. выбора одного или нескольких значений измеряемой величины из имеющегося множест­ва, что связано со статистическим подходом.

Каждое средство измерений обеспечивает выделение и восприя­тие информации, что схематично отражено на рис. 1.21, о, в сравне­нии с передачей и обработкой сиг­налов в информационной системе, схематично показанных на рис. 1.21, а. Элементы этих схем представляют собой операции над информацией (сигналами), а не фи­зические устройства.

Формальное совпадение опера­ций-не единственная причина того, чтобы измерение рассматривать как процесс получения (поиска) инфор­мации. Есть еще одно общее свойст­во, характерное для всех информа­ционных процессов, в том числе и

Рис. 1.21. Операции восприятия и обработки информации в информационной системе (а) и отдельном средстве измерений (б).

для измерительных,- это устранение или уменьшение неопределенности и недостоверности информации.

7.26. Что означает «информация» в измери­тельной технике?

Один из подходов к толкованию информации в измерительной тех­нике основан на положениях теории вероятностей, включающих оценку вероятности измеренного значения. Если до начала измерений известно, что вероятность ри того, что зна­чение искомой величины заключено в определенном интервале, весьма мала, то эту вероятность оценивают путем измерений. Вероятность ри определенного значения измеряемой величины тем меньше, чем больше число т уровней квантования или различимых ступеней значений этой величины. Если полагать, что каж­дое значение измеряемой величины в пределах измерений может по­явиться с одной и той же вероят­ностью

возможного значения этой величины составит

Число различимых ступеней т измеряемой величины зависит от погрешности средства измерений. Поясним сказанное на примере шка­лы гипотетического измерительного прибора, изображенной на рис. 1.22. Абсолютная погрешность, с кото­рой выполняется каждое измерение, составляет е = ± 1 (деление шкалы), а относительная погрешность е° = = + 0,05 или +5%. Иначе говоря, измеренное значение может быть заключено, к примеру, между 1 и 3, если указатель показывает цифру 2. В начале шкалы слева от 0 может быть деление — 1. Число т делений (различимых значений) в данном случае составляет

Рассмотрим другой пример-изме­ритель тока с пределами от 0 до 10 А с «ценой» деления (шагом) шкалы 0,1 А. И хотя число делений на шкале равно 100, вследствие того, что е° = 0,025, оказывается, что w=21, т.е. различимы значения О, 0,5, 1,0, ..., 9,5, 10 при абсолютной погрешности е = ± 0,25 А. Веро­ятность появления любого из пере­численных различимых значений составит /?у = 21~1 = 0,0476, или pv = 4,76%. Если желательно знать

то вероятность появления любого

Рис. 1.22. Иллюстрация зависимости числа различимых ступеней квантования т от по­грешности средства измерения на примере шкалы прибора.

измеренное значение на ± 0,5 А точнее, то при упомянутой выше вероятности это исключено, что и иллюстрирует рис. 1.23, где показа­на часть шкалы измерителя тока с положением стрелки против значе­ния 4,7 А. При этом значение 4,5 А характеризуется 100% -й вероят­ностью, а значение 5 А исключается, так как последнее лежит за грани­цами погрешности. Если хотят узнать силу тока точнее на ±0,1 А, то вероятность значения 4,7 А сос­тавит только 20%; при этом воз­можны значения 4,5 и 4,6 А, а также 4,8 и 4,9 А, лежащие в пределах границ погрешности ± е. Вероят­ность появления определенного зна­чения изменяется в рассмотренном случае от 4,76 до 100%.

Измерения можно трактовать (в статистическом смысле) как поиск информации с уменьшением ее неопределенности и увеличением вероятности.

7.27. В каких единицах измеряют информацию?^

Проще всего уменьшить неопре­деленность информации, если реше­ние заключается в выборе одного из двух значений или представляет

1) Являясь свойством материи, информа­ция может рассматриваться как величина. Однако это свойство сложное, многомерное, и результат его измерения может быть пред-

собой высказывание типа «Да» или «Нет». В измерительной технике подобные решения связаны с опре­делением двух граничных значений. Примером может служить опреде­ление уровня электропроводящей жидкости в резервуаре (рис. 1.24). При погружении в жидкость элек­трода, соединенного с катушкой определенного реле, последнее сра­батывает, и загорается соответст­вующая лампа, «отвечая» утверди­тельно на вопрос: «Уровень жид­кости Ар $t 0,25 hy ?».

Для подобного рода решений число различимых значений величи­ны от = 2 и вероятность появления одного из значений этой величины ро = 0,5. Однозначный ответ на по­добного рода вопрос представляет собой единицу количества информа­ции Ну, которая называется «бит». В последнем рассмотренном случае Ну = 2 бит, что иллюстрирует табл. 1.9, в которой приведены воп-

ставлен многомерным вектором. В отличие от такой многомерной величины, как объем, для которой существует жесткая функцио­нальная связь с ее составляющими-длиной, шириной и высотой, взаимосвязь между раз­личными характеристиками информации еще не установлена. Вследствие этого единицы информации как многомерного вектора пока не установлены. Однако при синтактическом анализе, когда сообщения рассматриваются как символы, абстрагированные от содержа­ния, и предметом исследований являются частота появления этих символов (знаков кода), связи между ними и др., информацию определяют как меру уменьшения неопре­деленности знаний о каком-либо предмете в познавательном процессе. Для оценки сте­пени неопределенности знаний разработано большое количество различных математи­ческих мер. Здесь рассмотрена простейшая из них-структурная или логарифмическая мера неопределенности информации, предложен­ная Хартли (мера Хартли). Она характеризу­ет информацию преимущественно по объему (количеству). Далее, в освещении вопр. 1.29 рассмотрена другая, статистическая мера, называемая энтропией, которую предложил Шеннон (мера Шеннона). Последняя характе­ризует информацию по объему и новизне. Прим. перев.

росы относительно четырех воз­можных уровней жидкости в резер­вуаре (см. рис. 1.24).

При 8 возможных измеряемых уровнях потребуется задать 3 воп­роса, при 16-4 вопроса и т.д. В общем случае число ответов сос­тавит т = Т, где г- число вопросов.

Рассмотрим измерительный при­бор, имеющий две шкалы-грубую и точную. Цена деления точной шкалы уменьшена по сравнению с грубой. Значение измеренной вели­чины определяется суммой показа­ний обеих шкал. Примером такого

измерительного прибора является микрометр, схематично изображен­ный на рис. 1.25. На его поворотной головке нанесено 50 делений (точная шкала). При числах 13 на шпинделе (грубая шкала) и 0,27 на поворотной головке измеряемая величина соста­вит 13,27 мм. В этом случае коли­чества информации также должны суммироваться, и количество Н^ измеренной информации равно

Так как каждому делению грубой шкалы с числом делений w,.p соот­ветствует то„, делений точной шка­лы, то общее число делений обеих шкал т^, т.е. число возможных различимых уровней двухшкального измерительного прибора, составит

Из приведенных соотношений вытекают два общих условия, кото­рым должны удовлетворять мате­матические выражения для опреде-

ления количества информации:

1) согласно выражению (1.27), количества информации, получае­мые в отдельных опытах, всегда суммируют;

2) при наступлении известного со­бытия, вероятность которого ру = 1, информация оказывается нулевой,

выражение (1.27) можно предста­вить в логарифмическом виде:

т.е. выполняется первое из условий (требование аддитивности)1). Если р = 1 и w == 1, то Н =lg^m = О и выполняется второе из упомянутых выше условий. Случай р = 0 не имеет смысла для измерений.

1.28. Как кодируют числа?

Количественно информацию обычно представляют в двоичном виде (в виде двоичных чисел), так как два противоположных состоя­ния легко воспроизводятся многими техническими средствами и распоз­наются с весьма высокой вероят­ностью (например, отсутствие или наличие тока в реле, отсутствие или наличие напряжения на выходе тран­зисторного ключа, отсутствие или наличие пневматического давления на выходе пневмореле и др.). При этом соответствующие сигналы обозначают, т.е. их кодируют, зна­чениями 0 и 1. Подобным же обра­зом, используя двоичное решающее правило, кодируют и многоразряд-

" Логарифмическая мера информации определяется выбором основания логариф­мов д. При а = 2 она называется двоичной единицей (бит), при а = 10-десятичной (дит), при а = е- натуральной (нит). Далее двоич­ные логарифмы обозначены lb (lg^ = lb).-Прим. перев.

ные числа. Предположим, что шкала прибора имеет 64 деления и предел измерения равен 64. Допустим, из­меряемая величина равна 41. Обоз­начив утвердительный и отрица­тельный ответы на вопрос: «Это число больше, чем ...?» соответст­венно «I» и «О», воспользуемся правилом поиска числа 41 по двоич­ному правилу, т.е. последователь­ным делением числа 64 на 2 и срав­нением искомого числа с частными. Порядок отыскания - алгоритм графически показан на рис. 1.26. Следуя выделенному пути (обозна­чен утолщенными стрелками), мож­но определить двоичные разряды, т.е. двоичное число 101001, являю­щееся кодом числа 41. Графическое отображение путей поиска чисел в двоичном виде называют двоичным деревом (рис. 1.26).

В приведенном примере т = 64, значит, г = 6, что равно числу двоич­ных шагов поиска или числу разря­дов искомого двоичного числа. Основание таких чисел равно 2 (у десятичных равно 10). Показатели степеней двоичного числа сум­мируют по модулю 2. Так, напри­мер, десятичное число 235 в двоич­ном виде записывают следующим образом: 1-27 + 1-26 + 1-25 +0•24+ + 1-23 + 1 -21 + 1-2° = 128 + 64 + +32+8+2+1= 235. Как видим, каждый разряд двоичного числа обозначен 0 или 1, а двоичные числа представляются общим выражением

где а,- целое число (0 или 1).

В табл. 1.10 приведены десятич­ные числа от 0 до 15 и их двоичные эквиваленты. Здесь т = 16, г = 4, і = 3. В двоичных числах разряды записывают слева направо в поряд­ке убывания их старшинства.

Количество информации, как по­казано выше, Н= \Ът = lb(l/r„) бит. Возвращаясь к рис. 1.24 в качестве

Рис. 1.26. Графическое изображение алго­ритма двоичного поиска числа.

примера, можно сказать, что в этом случае Н = 1Ь4 = 2 бит. Если, в другом случае, имеется измеритель­ный прибор класса точности 0,5, т. е. его абсолютная погрешность е = = ± 0,5, относительная погреш­ность е° = ± 0,005, а шкала разбита на 100 делений, то, согласно выра­жению (1.26), т = (2 • 0,005)-1 + 1 =

Таблица 1.10

Десятичное число

23

Двоичное

22

число

2'

Код

0

0

0

0

0

0000

1

0

0

0

1

0001

2

0

0

1

0

0010

3

0

0

1

1

0011

4

0

1

0

0

0100

5

0

1

0

1

0101

6

0

1

1

0

0110

7

0

1

1

1

0111

8

1

0

0

0

1000

9

1

0

0

1

1001

10

1

0

1

0

1010

11

1

0

1

1

1011

12

1

1

0

0

1100

13

1

1

0

1

1101

14

1

1

1

0

1110

15

1

1

1

1

1111

==101, а количество информации, выдаваемое этим прибором, состав­ляет Н = 1Ь 101 = 6,65 бит (т. е. каж­дое измеренное значение содержит информацию в 6,65 бит). Дробную часть обычно округляют до бли­жайшего целого, т. е. 6.65 бит округ­ляют до 7. Это необходимо для операций с битами в технических устройствах, что упрощает их реа­лизацию и операции над числами. Так, например, число 7 бит на пер­фоленте кодируется семью от­верстиями. При наличии дробной части пришлось бы использовать вторую строку.

1.29. Изменяется ли количество информации при измерениях, если измеряемые значения рас­пределены неравномерно, т.е. не равновероятно их появление?

На практике обычно имеется представление об ожидаемых значе­ниях измеряемой величины, т. е. о ее более и менее вероятных значениях.

В качестве примера можно ука­зать на изменения напряжения в

сети переменного тока, контроли­руемого вольтметром с пределами измерений от 0 до 300 В, при номи­нальном напряжении в сети 220 В. Очевидно, что значения напряжения вблизи пределов измерений имеют нулевую вероятность (если сеть не аварийная), а вблизи номинального значения вероятности значений мак­симальны. Кривая зависимости ве­роятности появления значений нап­ряжения в функции от этих значений изображена (для гипотетического случая) на рис. 1.27. Изменения зна­чений, измеренные за какой-то пе­риод, зависят от нагрузочной спо­собности (допускаемой мощности) и колебаний нагрузки.

При определении среднего зна­чения (среднего количества) инфор­мации Н важную роль играет раз­личие вероятностей разных значе­ний. Если возможности появления каждого из значений равновероят­ны, то количество информации, со­держащееся в каждом измеренном значении, считается равным сред­нему значению. В противном случае полученные значения должны быть предварительно усреднены с учетом их «весов» (при этом наиболее ве­роятному значению соответствует и наибольший «вес»). Тем самым оп­ределяют так называемое взвешен­ное среднее (подробнее см. при рас­смотрении вопр. 2.25). Весовыми коэффициентами являются сами вероятности.

Рис. 1.27. Кривая вероятностей значений на­пряжения в промышленной сети (возможный случай).

Из последнего выражения видно, что при равномерном (равновероят­ном) распределении значений изме­ряемой величины каждое из них со­держит количество информации Яо=Я=1Ь(1/^).

Выражение (1.31) аналогично статистической энтропии в термо­динамике и по аналогии также наз­вано энтропией, или вероятностной (статистической) мерой информа­ции. Она характеризует способность источника отдавать информацию и представляет собой количествен­ную меру неопределенности инфор­мации, т. е. ее количества. Среднее количество информации Н макси­мально при равномерном распре­делении измеряемых значений1).

Вернемся к примеру измерителя уровня жидкости, схематично изоб­раженного на рис. 1.24. В нем на­хождение уровня в контролируемых точках оценивается высказываниями «Да» или «Нет». Если одно из зна­чений уровня повторяется чаще, т. е. имеет большую вероятность, чем другие, то среднее значение инфор­мации становится менее Ibw. Если все 4 значения уровня имеют еди­ничную вероятность, то среднее ко­личество информации становится

1) В этом случае оно равно Н =

т | |

= — У — 1Ь — = Ibm, и неопределенность,

v= і т т

выраженная вероятностной мерой, совпадает с неопределенностью, выраженной простей­шей логарифмической мерой- Прим. перев.

Рис. 1.28. График зависимости среднего ко­личества информации Н в функции вероят­ности высказывания «Да».

равным 0. Если вероятность утвер­дительного ответа равна р^, то вероятность противоположного вы­сказывания составит 1 —Pi, и сред­нее значение количества информа­ции определяется выражением

Графическое изображение этой за­висимости относительно /?i пред­ставлено на рис. 1.28.

Случай равномерного распреде­ления вероятностей значений изме­ряемой величины не характерен для практики измерений, поэтому обыч­но среднее количество информации оказывается меньше возможного максимального теоретического зна­чения.

1.30. Имеет ли для из­мерений какое-нибудь зна­чение скорость передачи, т. е. ее максимально воз­можное количество, пере­даваемое за определенное время?

Как известно (и частично это показано при обсуждении вопр. 1.25-1.29), значительную роль в развитии

измерительной техники играла и играет теория информации. Правда, при единичных измерениях, выпол­няемых обычно с помощью стре­лочных приборов, определение сред­него количества информации оказы­вается невозможным. Во многих же других случаях- анализе и опреде­лении погрешностей, экспертном оценивании методов измерений, при цифровых измерениях, обработ­ке и передаче измеренных данных (впрочем, как и при непрерывных измерениях быстропротекающих процессов) - целесообразно исполь­зовать методы теории информации. Для того чтобы подготовить чита­теля к восприятию подобного под­хода, рассмотрим некоторые поло­жения и понятия теории информа­ции, связанные с фактором времени, в частности энтропию как функцию времени. Если каждое отдельно измеряемое значение из п статисти­чески независимых значений, обра­зующих определенное количество М информации, содержит среднее количество информации Я, то эти величины можно связать между со­бой следующим соотношением:

Для случая равномерного распре­деления значений, представляемых т уровнями,

Из последнего соотношения можно сделать важные качественные выво­ды: количество информации (инфор­мативность) измерений возрастает с увеличением количества измерений (числа отсчетов) наблюдаемой вели­чины и числа различимых ступеней ее квантования, а также с умень­шением погрешности измерений.

Количество информации, полу­чаемое в единицу времени, опреде­ляется как поток информации, или производительность источника, и измеряется в единицах [М] == бит/с.

По аналогии с выражением (1.33) можно записать:

Если именуемое временем установ­ления показаний, или тактом, время, необходимое для получения (пере­дачи) одного измеренного значения (dn = 1), обозначить через 7д, то средний поток информации можно определить следующим образом:

Максимально возможный поток информации С,, передаваемый через канал связи, называют емкостью канала; она имеет также размер­ность единицы потока [С, ] == бит/с. Под емкостью канала средства из­мерения (по аналогии) можно по­нимать максимально возможное ко­личество информации, получаемое за определенное время. Так как чис­ло т различимых уровней квантова­ния средства измерения является определенным и постоянным, то, на основании выражений (1.34) и (1.35), емкость этого средства пропорцио­нальна максимальному числу от­счетов Я„акс ' ПОЛуЧеННОМу Зй уК&-

занное определенное время, т. е. С, ~ "макс • ^ практике измерений этот предел обычно недостижим и М < С,. Сказанное можно пояснить следующим примером. Предполо­жим, что используется электроизме­рительный прибор класса точности 1,6 с временем установления 7д = = 0,8 мс. Емкость канала этого прибора, при допущении равномер­ного распределения измеряемых значений, составляет С, = 6,26 кбит/с, что доказывается следующим рас­четом. Согласно выражению (1.26),

m=2|O.OЇ6І+l=32'25п0 (L30) вычисляем Ну = lb 32,25 = 5,008, и из (1.36) следует, что С, = (1/0,8 мс) х х 5,008 бит --= 6,26 кбит/с.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]