
- •1.1. Общие термины и определения
- •Глава 1
- •1.2. Измерения как процесс
- •1.2.1. Измерения- основа экспериментальных работ
- •1.2.2. Погрешность измерений -определяющий критерий в измерительной технике
- •1.2.3. Организация
- •1.3. Физические величины и единицы измерений
- •1.4. Измерительные
- •1.4.1. Системная концепция и ее распространение на средства измерений
- •1.4.2. Сигналы
- •1.4.3. Блок-схемы передачи сигналов
- •2.1. Пределы измерений,
- •2.2. Характеристики погрешностей
- •2.2.1. Понятие погрешностей и их задание
- •2.2.3. Характеристики погреінвюстей результатов измерений
- •2.2.4. Характеристики погрешностей средств измерений
- •2.2.5. Надежность средств измерений
- •3.1. Динамические свойства линейного передаточного звена
- •3.2. Определение динамических параметров и характеристик
- •3.3. Динамические погрешности и возможности их уменьшения
- •4.1. Общие методы измерений
- •4.2. Методы измерений физических величин
- •4.2.1. Измерения геометрических, механических и тепловых величин
- •4.2.2. Преобразование механических и тепловых величии в соответствующие сигналы, пригодные для их дальнейшей передачи и обработки
- •4.2.3. Измерения электрических величин и параметров излучения
- •4.2.4. Измерения состава и свойств веществ р
- •4.2.5. Измерения дискретных величин
- •5.1. Первичные и вторичные измерительные преобразователи
1.4. Измерительные
устройства как информационные системы
1.4.1. Системная концепция и ее распространение на средства измерений
1.24. Что означает термин «система» и каким образом его можно распространить на средства измерений?
В принципе любое техническое устройство может рассматриваться как система-вопрос лишь в степени детализации. При использовании системных понятий для описания какой-либо части объекта (объективной реальности) эту часть отделяют от окружения таким образом, чтобы в поле рассмотрения осталось лишь конечное число наиболее важных взаимодействий с этой средой. Последние могут носить характер вещественных и (или) энергетических связей, выражаемых в обмене информацией (см. рис. 1.13). Если
внимание исследователя концентрируется только на обмене информацией между рассматриваемым объектом и окружающей его средой, то об объекте говорят как об информационной системе. Выдаваемая этой системой информация по форме и содержанию зависит от входной информации. Приведенная на рис. 1.9 модель измерительного преобразователя в виде передаточного звена является примером простейшего схематичного изображения информационной системы. К этой системе может подводиться информационный поток в виде множества входных величин (х^, ..., х^). В результате их обработки в системе (выполнением операций, описываемых определенными математическими зависимостями) на выходе системы выдаются соответствующие выходные величины (;c„i, ..., :
Х )1' ] -'an .1 • •
Определенные связи (зависимое- ] ти), существующие между входными і и выходными величинами, именуют I передаточными свойствами (харак- а теристиками) системы. Одинаковые к системы характеризуются одинако- л
выми свойствами и характеристи- о ками. у
Одним из преимуществ систем- д ного подхода к исследованию объек- м тов является возможность приложе- сі ния характеристик, измеренных т< у одной системы, к другой системе, bi отличающейся своим построением
от первой, но имеющей такие же cfl передаточные свойства. При рас- не смотрении средств измерений как ра кибернетических систем удается на глубже проникнуть в их суть, лучше не. понять их поведение, исследовать их жа —————— ви,
1) Согласно принятым в отечественной чи] литературе представлениям, речь здесь идет Оц
о так называемой информационно-измери- по;
тельной системе, на вход которой поступают дд., измеряемые величины. Поэтому ниже гово-
рится именно об информационно-измери- ки-тельных системах (ИИС).- Прим. перев.
характеристики, в том числе погрешности измерений, а также передачу и обработку результатов измерений. Если пренебречь воздействием влияющих величин и полагать, что в данный момент времени па вход системы поступает единственная измеряемая величина х^, которой соответствует одна выходная величина х^, то такую систему можно описать статической характеристикой (1.6) вида х^ ==/(-v„). Для более общего анализа необходимо учитывать изменение этих величин во времени; поэтому выражение (1.6) должно быть поелстявп»»и" " """-
/^меряемая величина лишь в редких случаях сохраняет постоянное значение в процессе измерений. Часто постоянство измеряемой величины является кажущимся, так как она наблюдается на фоне помех, которые приходится оценивать, чтобы исключить из результата измерения. Примером сказанного может служить измерение длины / металлического бруска, которая постоянна лишь при неизменной температуре окружающей среды. Поэтому для учета ее влияния при измерении длины надо знать и температуру на момент измерения и четко представлять себе, что длина, как и температура, является зависимой от времени величиной, т. е. / = /(/).
Из последнего примера можно делать вывод еще об одном важ-юм ограничении при системном >ассмотрении средств измерений:
[аряду с входными величинами ;ельзя не учитывать влияния окру-сающей среды, проявляющегося в иде воздействий влияющих вели-нн, в том числе помех и шумов. •ценивание и ограничение влияния эдобных мешающих воздействий-
іжнейшая задача системотехни-I.
В заключение можно выделить
следующие общие положения, которыми надо руководствоваться при рассмотрении средств измерений в качестве ИИС:
а) важнейшими видами взаимодействия ИИС с окружающей средой являются отбор информации, определение значений измеряемых величин и выдача их в виде выходной информации;
б) существует причинно-следственная связь между входной и выходной информацией в направлении от входа к выходу, т. е. х^ -> х,;
в) желательно, чтобы ИИС как можно меньше влияла на входную (измеряемую) величину;
г) воздействие помех и вызываемые ими погрешности играют при этом второстепенную роль;
д) в автономных измерительных устройствах материальные связи с окружающей средой нередко отсутствуют, а наличие или отсутствие энергетических связей не имеет существенного значения для рассмотрения (их наличие обычно вызывает появление дополнительных шумов и помех);
е) для ИИС весьма желательна не имеющая запаздывания линейная передаточная характеристика вида Хд = КрХр в любой момент времени, где Кр- коэффициент передачи, или передаточный коэффициент, рассмотренный при обсуждении вопр. 2.3. Обычно в реальных системах наблюдается та или иная задержка в появлении выходного сигнала относительно момента возникновения входного сигнала, и связь между входной и выходной величинами описы
вается дифференциальным уравнением (см. гл. 3);
ж) передаточная характеристика ИИС должна быть воспроизводимой и инвариантной относительно времени, т.е. зависимость между входной и выходной величинами не должна изменяться со временем.
7.25. Что такое вообще «информация»?
Существует ряд определений понятия информации, что свидетельствует об их неудовлетворительности. Поэтому для уяснения этого понятия необходимо рассмотреть некоторые важнейшие свойства информации, исключая такие ее человеческие аспекты, как семантика (значимость информации для людей) и прагматика (воздействие информации на людей). Значимость измерительной информации следует рассматривать с точки зрения ее получения, т.е. выбора одного или нескольких значений измеряемой величины из имеющегося множества, что связано со статистическим подходом.
Каждое средство измерений обеспечивает выделение и восприятие информации, что схематично отражено на рис. 1.21, о, в сравнении с передачей и обработкой сигналов в информационной системе, схематично показанных на рис. 1.21, а. Элементы этих схем представляют собой операции над информацией (сигналами), а не физические устройства.
Формальное совпадение операций-не единственная причина того, чтобы измерение рассматривать как процесс получения (поиска) информации. Есть еще одно общее свойство, характерное для всех информационных процессов, в том числе и
Рис. 1.21. Операции восприятия и обработки информации в информационной системе (а) и отдельном средстве измерений (б).
для измерительных,- это устранение или уменьшение неопределенности и недостоверности информации.
7.26. Что означает «информация» в измерительной технике?
Один из подходов к толкованию информации в измерительной технике основан на положениях теории вероятностей, включающих оценку вероятности измеренного значения. Если до начала измерений известно, что вероятность ри того, что значение искомой величины заключено в определенном интервале, весьма мала, то эту вероятность оценивают путем измерений. Вероятность ри определенного значения измеряемой величины тем меньше, чем больше число т уровней квантования или различимых ступеней значений этой величины. Если полагать, что каждое значение измеряемой величины в пределах измерений может появиться с одной и той же вероятностью
возможного значения этой величины составит
Число различимых ступеней т измеряемой величины зависит от погрешности средства измерений. Поясним сказанное на примере шкалы гипотетического измерительного прибора, изображенной на рис. 1.22. Абсолютная погрешность, с которой выполняется каждое измерение, составляет е = ± 1 (деление шкалы), а относительная погрешность е° = = + 0,05 или +5%. Иначе говоря, измеренное значение может быть заключено, к примеру, между 1 и 3, если указатель показывает цифру 2. В начале шкалы слева от 0 может быть деление — 1. Число т делений (различимых значений) в данном случае составляет
Рассмотрим другой пример-измеритель тока с пределами от 0 до 10 А с «ценой» деления (шагом) шкалы 0,1 А. И хотя число делений на шкале равно 100, вследствие того, что е° = 0,025, оказывается, что w=21, т.е. различимы значения О, 0,5, 1,0, ..., 9,5, 10 при абсолютной погрешности е = ± 0,25 А. Вероятность появления любого из перечисленных различимых значений составит /?у = 21~1 = 0,0476, или pv = 4,76%. Если желательно знать
то вероятность появления любого
Рис. 1.22. Иллюстрация зависимости числа различимых ступеней квантования т от погрешности средства измерения на примере шкалы прибора.
Измерения можно трактовать (в статистическом смысле) как поиск информации с уменьшением ее неопределенности и увеличением вероятности.
7.27. В каких единицах измеряют информацию?^
Проще всего уменьшить неопределенность информации, если решение заключается в выборе одного из двух значений или представляет
1) Являясь свойством материи, информация может рассматриваться как величина. Однако это свойство сложное, многомерное, и результат его измерения может быть пред-
собой высказывание типа «Да» или «Нет». В измерительной технике подобные решения связаны с определением двух граничных значений. Примером может служить определение уровня электропроводящей жидкости в резервуаре (рис. 1.24). При погружении в жидкость электрода, соединенного с катушкой определенного реле, последнее срабатывает, и загорается соответствующая лампа, «отвечая» утвердительно на вопрос: «Уровень жидкости Ар $t 0,25 hy ?».
Для подобного рода решений число различимых значений величины от = 2 и вероятность появления одного из значений этой величины ро = 0,5. Однозначный ответ на подобного рода вопрос представляет собой единицу количества информации Ну, которая называется «бит». В последнем рассмотренном случае Ну = 2 бит, что иллюстрирует табл. 1.9, в которой приведены воп-
ставлен многомерным вектором. В отличие от такой многомерной величины, как объем, для которой существует жесткая функциональная связь с ее составляющими-длиной, шириной и высотой, взаимосвязь между различными характеристиками информации еще не установлена. Вследствие этого единицы информации как многомерного вектора пока не установлены. Однако при синтактическом анализе, когда сообщения рассматриваются как символы, абстрагированные от содержания, и предметом исследований являются частота появления этих символов (знаков кода), связи между ними и др., информацию определяют как меру уменьшения неопределенности знаний о каком-либо предмете в познавательном процессе. Для оценки степени неопределенности знаний разработано большое количество различных математических мер. Здесь рассмотрена простейшая из них-структурная или логарифмическая мера неопределенности информации, предложенная Хартли (мера Хартли). Она характеризует информацию преимущественно по объему (количеству). Далее, в освещении вопр. 1.29 рассмотрена другая, статистическая мера, называемая энтропией, которую предложил Шеннон (мера Шеннона). Последняя характеризует информацию по объему и новизне. Прим. перев.
росы относительно четырех возможных уровней жидкости в резервуаре (см. рис. 1.24).
При 8 возможных измеряемых уровнях потребуется задать 3 вопроса, при 16-4 вопроса и т.д. В общем случае число ответов составит т = Т, где г- число вопросов.
Рассмотрим измерительный прибор, имеющий две шкалы-грубую и точную. Цена деления точной шкалы уменьшена по сравнению с грубой. Значение измеренной величины определяется суммой показаний обеих шкал. Примером такого
измерительного прибора является микрометр, схематично изображенный на рис. 1.25. На его поворотной головке нанесено 50 делений (точная шкала). При числах 13 на шпинделе (грубая шкала) и 0,27 на поворотной головке измеряемая величина составит 13,27 мм. В этом случае количества информации также должны суммироваться, и количество Н^ измеренной информации равно
Так как каждому делению грубой шкалы с числом делений w,.p соответствует то„, делений точной шкалы, то общее число делений обеих шкал т^, т.е. число возможных различимых уровней двухшкального измерительного прибора, составит
Из приведенных соотношений вытекают два общих условия, которым должны удовлетворять математические выражения для опреде-
1) согласно выражению (1.27), количества информации, получаемые в отдельных опытах, всегда суммируют;
2) при наступлении известного события, вероятность которого ру = 1, информация оказывается нулевой,
выражение (1.27) можно представить в логарифмическом виде:
т.е. выполняется первое из условий (требование аддитивности)1). Если р = 1 и w == 1, то Н =lg^m = О и выполняется второе из упомянутых выше условий. Случай р = 0 не имеет смысла для измерений.
1.28. Как кодируют числа?
Количественно информацию обычно представляют в двоичном виде (в виде двоичных чисел), так как два противоположных состояния легко воспроизводятся многими техническими средствами и распознаются с весьма высокой вероятностью (например, отсутствие или наличие тока в реле, отсутствие или наличие напряжения на выходе транзисторного ключа, отсутствие или наличие пневматического давления на выходе пневмореле и др.). При этом соответствующие сигналы обозначают, т.е. их кодируют, значениями 0 и 1. Подобным же образом, используя двоичное решающее правило, кодируют и многоразряд-
" Логарифмическая мера информации определяется выбором основания логарифмов д. При а = 2 она называется двоичной единицей (бит), при а = 10-десятичной (дит), при а = е- натуральной (нит). Далее двоичные логарифмы обозначены lb (lg^ = lb).-Прим. перев.
ные числа. Предположим, что шкала прибора имеет 64 деления и предел измерения равен 64. Допустим, измеряемая величина равна 41. Обозначив утвердительный и отрицательный ответы на вопрос: «Это число больше, чем ...?» соответственно «I» и «О», воспользуемся правилом поиска числа 41 по двоичному правилу, т.е. последовательным делением числа 64 на 2 и сравнением искомого числа с частными. Порядок отыскания - алгоритм графически показан на рис. 1.26. Следуя выделенному пути (обозначен утолщенными стрелками), можно определить двоичные разряды, т.е. двоичное число 101001, являющееся кодом числа 41. Графическое отображение путей поиска чисел в двоичном виде называют двоичным деревом (рис. 1.26).
В приведенном примере т = 64, значит, г = 6, что равно числу двоичных шагов поиска или числу разрядов искомого двоичного числа. Основание таких чисел равно 2 (у десятичных равно 10). Показатели степеней двоичного числа суммируют по модулю 2. Так, например, десятичное число 235 в двоичном виде записывают следующим образом: 1-27 + 1-26 + 1-25 +0•24+ + 1-23 + 1 -21 + 1-2° = 128 + 64 + +32+8+2+1= 235. Как видим, каждый разряд двоичного числа обозначен 0 или 1, а двоичные числа представляются общим выражением
где а,- целое число (0 или 1).
В табл. 1.10 приведены десятичные числа от 0 до 15 и их двоичные эквиваленты. Здесь т = 16, г = 4, і = 3. В двоичных числах разряды записывают слева направо в порядке убывания их старшинства.
Количество информации, как показано выше, Н= \Ът = lb(l/r„) бит. Возвращаясь к рис. 1.24 в качестве
Рис. 1.26. Графическое изображение алгоритма двоичного поиска числа.
примера, можно сказать, что в этом случае Н = 1Ь4 = 2 бит. Если, в другом случае, имеется измерительный прибор класса точности 0,5, т. е. его абсолютная погрешность е = = ± 0,5, относительная погрешность е° = ± 0,005, а шкала разбита на 100 делений, то, согласно выражению (1.26), т = (2 • 0,005)-1 + 1 =
Таблица 1.10
|
||||||
Десятичное число
|
|
23
|
Двоичное 22
|
число 2'
|
2°
|
Код
|
0
|
|
0
|
0
|
0
|
0
|
0000
|
1
|
|
0
|
0
|
0
|
1
|
0001
|
2
|
|
0
|
0
|
1
|
0
|
0010
|
3
|
|
0
|
0
|
1
|
1
|
0011
|
4
|
|
0
|
1
|
0
|
0
|
0100
|
5
|
|
0
|
1
|
0
|
1
|
0101
|
6
|
|
0
|
1
|
1
|
0
|
0110
|
7
|
|
0
|
1
|
1
|
1
|
0111
|
8
|
|
1
|
0
|
0
|
0
|
1000
|
9
|
|
1
|
0
|
0
|
1
|
1001
|
10
|
|
1
|
0
|
1
|
0
|
1010
|
11
|
|
1
|
0
|
1
|
1
|
1011
|
12
|
|
1
|
1
|
0
|
0
|
1100
|
13
|
|
1
|
1
|
0
|
1
|
1101
|
14
|
|
1
|
1
|
1
|
0
|
1110
|
15
|
|
1
|
1
|
1
|
1
|
1111
|
==101, а количество информации, выдаваемое этим прибором, составляет Н = 1Ь 101 = 6,65 бит (т. е. каждое измеренное значение содержит информацию в 6,65 бит). Дробную часть обычно округляют до ближайшего целого, т. е. 6.65 бит округляют до 7. Это необходимо для операций с битами в технических устройствах, что упрощает их реализацию и операции над числами. Так, например, число 7 бит на перфоленте кодируется семью отверстиями. При наличии дробной части пришлось бы использовать вторую строку.
1.29. Изменяется ли количество информации при измерениях, если измеряемые значения распределены неравномерно, т.е. не равновероятно их появление?
На практике обычно имеется представление об ожидаемых значениях измеряемой величины, т. е. о ее более и менее вероятных значениях.
В качестве примера можно указать на изменения напряжения в
сети переменного тока, контролируемого вольтметром с пределами измерений от 0 до 300 В, при номинальном напряжении в сети 220 В. Очевидно, что значения напряжения вблизи пределов измерений имеют нулевую вероятность (если сеть не аварийная), а вблизи номинального значения вероятности значений максимальны. Кривая зависимости вероятности появления значений напряжения в функции от этих значений изображена (для гипотетического случая) на рис. 1.27. Изменения значений, измеренные за какой-то период, зависят от нагрузочной способности (допускаемой мощности) и колебаний нагрузки.
При определении среднего значения (среднего количества) информации Н важную роль играет различие вероятностей разных значений. Если возможности появления каждого из значений равновероятны, то количество информации, содержащееся в каждом измеренном значении, считается равным среднему значению. В противном случае полученные значения должны быть предварительно усреднены с учетом их «весов» (при этом наиболее вероятному значению соответствует и наибольший «вес»). Тем самым определяют так называемое взвешенное среднее (подробнее см. при рассмотрении вопр. 2.25). Весовыми коэффициентами являются сами вероятности.
Рис. 1.27. Кривая вероятностей значений напряжения в промышленной сети (возможный случай).
Из последнего выражения видно, что при равномерном (равновероятном) распределении значений измеряемой величины каждое из них содержит количество информации Яо=Я=1Ь(1/^).
Выражение (1.31) аналогично статистической энтропии в термодинамике и по аналогии также названо энтропией, или вероятностной (статистической) мерой информации. Она характеризует способность источника отдавать информацию и представляет собой количественную меру неопределенности информации, т. е. ее количества. Среднее количество информации Н максимально при равномерном распределении измеряемых значений1).
Вернемся к примеру измерителя уровня жидкости, схематично изображенного на рис. 1.24. В нем нахождение уровня в контролируемых точках оценивается высказываниями «Да» или «Нет». Если одно из значений уровня повторяется чаще, т. е. имеет большую вероятность, чем другие, то среднее значение информации становится менее Ibw. Если все 4 значения уровня имеют единичную вероятность, то среднее количество информации становится
1) В этом случае оно равно Н =
т | |
= — У — 1Ь — = Ibm, и неопределенность,
v= і т т
выраженная вероятностной мерой, совпадает с неопределенностью, выраженной простейшей логарифмической мерой- Прим. перев.
Рис. 1.28. График зависимости среднего количества информации Н в функции вероятности высказывания «Да».
равным 0. Если вероятность утвердительного ответа равна р^, то вероятность противоположного высказывания составит 1 —Pi, и среднее значение количества информации определяется выражением
Графическое изображение этой зависимости относительно /?i представлено на рис. 1.28.
Случай равномерного распределения вероятностей значений измеряемой величины не характерен для практики измерений, поэтому обычно среднее количество информации оказывается меньше возможного максимального теоретического значения.
1.30. Имеет ли для измерений какое-нибудь значение скорость передачи, т. е. ее максимально возможное количество, передаваемое за определенное время?
Как известно (и частично это показано при обсуждении вопр. 1.25-1.29), значительную роль в развитии
измерительной техники играла и играет теория информации. Правда, при единичных измерениях, выполняемых обычно с помощью стрелочных приборов, определение среднего количества информации оказывается невозможным. Во многих же других случаях- анализе и определении погрешностей, экспертном оценивании методов измерений, при цифровых измерениях, обработке и передаче измеренных данных (впрочем, как и при непрерывных измерениях быстропротекающих процессов) - целесообразно использовать методы теории информации. Для того чтобы подготовить читателя к восприятию подобного подхода, рассмотрим некоторые положения и понятия теории информации, связанные с фактором времени, в частности энтропию как функцию времени. Если каждое отдельно измеряемое значение из п статистически независимых значений, образующих определенное количество М информации, содержит среднее количество информации Я, то эти величины можно связать между собой следующим соотношением:
Для случая равномерного распределения значений, представляемых т уровнями,
Из последнего соотношения можно сделать важные качественные выводы: количество информации (информативность) измерений возрастает с увеличением количества измерений (числа отсчетов) наблюдаемой величины и числа различимых ступеней ее квантования, а также с уменьшением погрешности измерений.
Количество информации, получаемое в единицу времени, определяется как поток информации, или производительность источника, и измеряется в единицах [М] == бит/с.
По аналогии с выражением (1.33) можно записать:
Если именуемое временем установления показаний, или тактом, время, необходимое для получения (передачи) одного измеренного значения (dn = 1), обозначить через 7д, то средний поток информации можно определить следующим образом:
Максимально возможный поток информации С,, передаваемый через канал связи, называют емкостью канала; она имеет также размерность единицы потока [С, ] == бит/с. Под емкостью канала средства измерения (по аналогии) можно понимать максимально возможное количество информации, получаемое за определенное время. Так как число т различимых уровней квантования средства измерения является определенным и постоянным, то, на основании выражений (1.34) и (1.35), емкость этого средства пропорциональна максимальному числу отсчетов Я„акс ' ПОЛуЧеННОМу Зй уК&-
занное определенное время, т. е. С, ~ "макс • ^ практике измерений этот предел обычно недостижим и М < С,. Сказанное можно пояснить следующим примером. Предположим, что используется электроизмерительный прибор класса точности 1,6 с временем установления 7д = = 0,8 мс. Емкость канала этого прибора, при допущении равномерного распределения измеряемых значений, составляет С, = 6,26 кбит/с, что доказывается следующим расчетом. Согласно выражению (1.26),
m=2|O.OЇ6І+l=32'25• п0 (L30) вычисляем Ну = lb 32,25 = 5,008, и из (1.36) следует, что С, = (1/0,8 мс) х х 5,008 бит --= 6,26 кбит/с.