Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информационно - измерительная техника_крат сод.doc
Скачиваний:
3
Добавлен:
01.05.2025
Размер:
6.44 Mб
Скачать

Причины возникновения и способы исключения систематических погрешностей

Природа и происхождение систематических погрешностей обычно обусловлены спецификой конкретного измерения. Обнаружение и исключение систематических погрешностей во многом зависит от мастерства и опыта оператора. Существуют некоторые общие причины возникновения систематических погрешностей, в соответствии с которыми их подразделяют на методические, инструментальные и субъективные.

Систематические погрешности могут оставаться постоянными либо закономерно изменяться. В последнем случае их подразделяют на прогрессирующие (возрастающие или убывающие), периодические и изменяющиеся по сложному закону.

Существуют специальные методы организации измерений, устраняющие систематические погрешности. К ним относятся, например, метод замещения и метод компенсации погрешности по знаку. При проведении автоматических измерений широко используются схемные методы коррекции систематических погрешностей. Компенсационное включение преобразователей, различные цепи температурной и частотной коррекции являются примерами их реализации.

Новые возможности появились в результате внедрения в измерительную технику устройств, содержащих микропроцессорные средства. С помощью последних удается производить исключение или коррекцию многих видов систематических погрешностей. Особенно это относится к инструментальным погрешностям. Автоматическое введение поправок, связанных с неточностями градуировки, расчет и исключение дополнительных и динамических погрешностей, исключение погрешностей, обусловленных смещением нуля - эти и другие корректировки позволяют существенно повысить точность измерений.

Следует, однако, заметить, что какая-то часть систематической погрешности, несмотря на все усилия, остается не исключенной. Эта часть входит в результат измерения и искажает его.

Основные характеристики измерительных приборов и преобразователей

Входной величиной измерительного прибора является его измеряемая величина. Наибольшее и наименьшее значения измеряемой величины, для которых нормированы погрешности, называются пределами измерения. Область значений, заключенная между верхним и нижним пределами измерения, называется диапазоном измерений. От диапазона измерений следует отличать диапазон показаний, который охватывает область значений шкалы, ограниченную конечным и начальным значениями шкалы. Таким образом, диапазон измерений, охватывающий часть шкалы, в пределах которой измерения могут быть проведены с нормируемой погрешностью, более узок, чем диапазон показаний, охватывающий всю шкалу.

Выходной величиной измерительного прибора является изменение состояния отсчетного устройства, например положения стрелки стрелочного прибора.

Функция (уравнение) преобразования - функциональная зависимость между выходной величиной у и входной величиной х. Как и любая функция, функция преобразования может задаваться аналитически (уравнением), таблично или графически. Обычно желательно, чтобы функция преобразования была линейной.

Чувствительность - это отношение изменения выходной величины измерительного прибора или измерительного преобразователя к вызвавшему ее изменению входной величины. Чувствительность определяется выражением

S = dy/dx (3.4)

и может быть определена при любом способе задания функции преобразования.

Для прибора или преобразователя может определяться абсолютная, относительная и приведенная погрешности.

Абсолютная погрешность прибора в данной точке диапазона измерения равна

 = хп - хи (3.5)

где хп - показание прибора; хи - истинное значение измеряемой величины. Однако в связи с тем, что истинное значение неизвестно, на практике вместо него используется действительное значение х. В качестве х принимают показания более точного, образцового прибора.

Абсолютная погрешность прибора выражается в тех же единицах, что и измеряемая величина.

Относительная погрешность прибора равна отношению абсолютной погрешности к истинному значению измеряемой величины и обычно выражается в процентах:

 = ( /х) *100 = [(хп - хи )/ хи] *100. (3.6)

Приведенная погрешность прибора  также выражается в процентах и равна отношению абсолютной погрешности к нормирующему значению xN, которое принимается равным верхнему пределу измерений (если нулевая отметка находится на краю или вне шкалы) или диапазону измерения (если нулевая отметка находится внутри диапазона измерений):

 = (/хN) * 100 = [(хп - хи)/хN] * 100. (3.7)

Значения абсолютной, относительной и приведенной погрешностей используются для нормирования погрешности приборов.

Различают номинальную функцию преобразования измерительного преобразователя уном= f ном(х), которую он должен иметь согласно государственным стандартам, техническим условиям или другим нормативным документам, и реальную у = f (х), которую он имеет в действительности. Разность значений действительной и номинальной функций преобразования при одном и том же значении входной величины определяет абсолютную погрешность преобразователя по выходу:

 y = y – y ном. (3.8)

Погрешность создается преобразователем. Однако часто бывает полезно знать значение входного сигнала, соответствующего погрешности преобразователя. Абсолютным значением погрешности преобразователя по входу называется разность

 х = х ном - х, (3.9)

где х - истинное значение входной величины; х ном - значение входной величины, определяемое по номинальной функции преобразования уном= f ном(х), при значении выходной величины уном , соответствующей истинному значению х.

Дополнительная погрешность возникает при отклонении условий испытания и эксплуатации средства измерения от нормальных условий.

Нормирование погрешности средств измерения производится по максимально допускаемым значениям основной и дополнительной погрешностей (ГОСТ 8.401-80). Погрешность средств измерения не должна превышать заданных пределов.

Средствам измерения присваивается класс точности. Это обобщенная метрологическая характеристика, определяемая пределами допускаемых основной и дополнительных погрешностей, значения которых устанавливаются в стандартах на отдельные виды средств измерения. Класс точности обозначается числом, соответствующим нормированной основной погрешности средства измерения.

Класс точности стрелочных и самопишущих приборов, как правило, обозначается одним числом, равным максимально допускаемому значению основной приведенной погрешности, класс точности цифровых приборов, мостов и компенсаторов указывается в виде дроби. Конкретные ряды классов точности устанавливаются в стандартах на отдельные виды средств измерения.