2. Характеристики средств измерений
Физическая величина – это свойство общее в качественном отношении многим объектам, но в количественном характеризующее каждый отдельный объект.
Измерения – это сравнение значений физических величин с ее единицей с помощью специальных технических средств.
Погрешность – это отклонение результата измерений от действительного значения измеряемой величины.
Причины, влияющие на погрешность: метод измерения, средства измерения.
Методическая погрешность – погрешность, содержащаяся в методе измерения.
Rт = R0 (1+αТ)
Rт = R0 (1+αТ+βТ2)
2.1 Погрешности средств измерений
Классификационный признак |
Виды погрешностей СИ |
Определение |
Характер проявления |
Систематическая |
- составляющая погрешности СИ, принимаемая постоянной или закономерно изменяющаяся. |
Случайная |
- составляющая погрешности СИ, изменяющаяся случайным образом. |
|
Условия применения |
Основная |
- погрешность СИ, определяемая в нормальных условиях его применения. |
Дополнительная |
- составляющая погрешности СИ, дополнительно возникающая вследствие отклонения какой-либо из влияющих величин от нормального ее значения или вследствие ее выхода за пределы нормальной области значений. |
|
Режим применения |
Статическая |
- погрешность СИ, применяемого при измерении физической величины, принимаемой за неизменную. |
Динамическая |
- погрешность СИ, возникающая дополнительно при измерении переменной физической величины и обусловленная несоответствием его реакции на скорость (частоту) изменения входного сигнала. |
|
Форма представления |
Абсолютная |
- погрешность СИ, выраженная в единицах измеряемой физической величины. |
Относительная |
- погрешность СИ, выраженная отношением абсолютной погрешности средства измерений к действительному значению измеренной физической величины в пределах диапазона измерений. |
|
Приведенная |
- относительная погрешность, в которой абсолютная погрешность средства измерений отнесена к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона. |
Абсолютную, относительную и приведенную погрешности средств измерений вычисляют соответственно по следующим формулам:
; (7.1)
; (7.2)
, (7.3)
где – значение измеряемой величины; – истинное значение измеряемой величины; – действительное значение измеряемой величины, найденное экспериментально и настолько приближающееся к истинному размеру, что может быть использовано вместо него; – нормирующее значение, равное конечному значению шкалы прибора, диапазону измерений или длине шкалы, если она нелинейная.
При анализе погрешностей средств измерений рассматривают зависимость погрешности СИ от значения измеряемой величины, проявляющуюся в отличии номинальной функции преобразования СИ от его реальной функции преобразования. По этому признаку погрешности разделяют на аддитивную, мультипликативную, нелинейных искажений, обратного хода (гистерезиса).
Аддитивная погрешность – поступательное смещение реальной функции преобразования относительно номинальной функции преобразования и возникновение погрешности, постоянной в каждой точке шкалы.
Мультипликативная погрешность – погрешность, линейно возрастающая или убывающая с ростом измеряемой величины.
Погрешность обратного хода (гистерезиса) выражается в несовпадении реальной функции преобразования при увеличении (прямой ход) и уменьшении (обратный ход) измеряемой величины.
Пределы допускаемых погрешностей средств измерений нормируют классом точности. Класс точности – это обобщенная характеристика, определяемая пределами допускаемых основных и дополнительных погрешностей, а также другими свойствами, влияющими на точность, значения которых устанавливают в стандартах на отдельные виды средств измерений.
Погрешности средств измерений нормируют следующим образом:
1) если аддитивная погрешность преобладает над мультипликативной, нормируют абсолютную или приведенную погрешности:
,
;
2) если мультипликативная погрешность преобладает над аддитивной, нормируют предел допускаемой относительной погрешности :
;
3) если аддитивная и мультипликативная погрешности проявляются одновременно, нормируют предел абсолютной или относительной погрешностей:
,
,
где – конечное значение шкалы прибора; , , и – положительные числа, выбираемые из ряда
(1,5; 2; 2,5; 4; 5; 6)∙10n, (n=1, 0, -1, -2 и т.д.).
Обозначение классов точности в документации и на средствах измерений приведены в табл. 7.2.
Таблица 7.2