Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Метрология, стандартизация и сертификация.docx
Скачиваний:
7
Добавлен:
20.09.2019
Размер:
76.16 Кб
Скачать

Классификация погрешностей

Качество средств и результатов измерений принято характеризовать, указывая их погрешности. Введение понятия "погрешность" требует определения и четкого разграничения трех понятий: истинного и действительного значений измеряемой физической величины и результата измерения.

Истинное значение физической величины — это значение, идеальным образом отражающее свойство данного объекта как в количественном, так и в качественном отношении. Оно не зависит от средств нашего познания и является той абсолютной истиной, к которой мы стремимся, пытаясь выразить ее в виде числовых значений. На практике это абстрактное понятие приходится заменять понятием "действительное значение".

Действительное значение физической величины — значение, найденное экспериментально и настолько приближающееся к истинному, что для данной цели оно может быть использовано вместо него.

Результат измерения представляет собой приближенную оценку истинного значения величины, найденную путем измерения.

Понятие "погрешность" - одно из центральных в метрологии, где используются понятия "погрешность результата измерения" и "погрешность средства измерения". Погрешность результата измерения — это разница между результатом измерения X и истинным (или действительным) значением Q измеряемой величины:

Δ = X — Q. (4.1)

Она указывает границы неопределенности значения измеряемой величины. Погрешность средства измерения — разность между показанием СИ и истинным (действительным) значением измеряемой ФВ. Она характеризует точность результатов измерений, проводимых данным средством.

Эти два понятия во многом близки друг к другу и классифицируются по одинаковым признакам.

По характеру проявления погрешности делятся на случайные, систематические, прогрессирующие и грубые (промахи),

Заметим, что из приведенного выше определения погрешности никак не следует, что она должна состоять из каких-либо составляющих. Деление погрешности на составляющие было введено для удобства обработки результатов измерений исходя из характера их проявления.

В процессе формирования метрологии было обнаружено, что погрешность не является постоянной величиной. Путем элементарного анализа установлено, что одна ее часть проявляется как постоянная величина, а другая — изменяется непредсказуемо. Эти части назвали систематической и случайной погрешностями.

Изменение погрешности во времени представляет собой нестационарный случайный процесс.

Случайная погрешность — составляющая погрешности измерения, изменяющаяся случайным образом (по знаку и значению) в серии повторных измерений одного и того же размера ФВ, проведенных с одинаковой тщательностью в одних и тех же условиях. В появлении таких погрешностей не наблюдается какой-либо закономерности, они обнаруживаются при повторных измерениях одной и той же величины в виде некоторого разброса получаемых результатов. Случайные погрешности неизбежны, неустранимы и всегда присутствуют в результате измерения. Описание случайных погрешностей возможно только на основе теории случайных процессов и математической статистики.

В отличие от систематических случайные погрешности нельзя исключить из результатов измерений путем введения поправки, однако их можно существенно уменьшить путем увеличения числа наблюдений. Поэтому для получения результата, минимально отличающегося от истинного значения измеряемой величины, проводят многократные измерения требуемой величины с последующей математической обработкой экспериментальных данных.

Большое значение имеет изучение случайной погрешности как функции номера наблюдения i или соответствующего ему момента времени ti проведения измерений, т.е. ∆i = ∆(ti). Отдельные значения погрешности являются значениями функции ∆(t), следовательно, погрешность измерения есть случайная функция времени. При проведении многократных измерений получается одна реализация такой функции. Повтор серии измерений даст нам другую реализацию этой функции, отличающуюся от первой, и т. д. Погрешность, соответствующая каждому i-му измерению, является сечением случайной функции ∆(t). В каждом сечении данной функции можно найти среднее значение, вокруг которого группируются погрешности в различных "реализациях. Если через полученные таким образом средние значения провести плавную кривую, то она будет характеризовать общую тенденцию изменения погрешности во времени.

Систематическая погрешность — составляющая погрешности измерения, остающаяся постоянной или закономерно меняющаяся при повторных измерениях одной и той же ФВ. Их отличительный признак заключается в том, что они могут быть предсказаны, обнаружены и благодаря этому почти полностью устранены введением соответствующей поправки.

Прогрессирующая (дрейфовая) погрешность — это непредсказуемая погрешность, медленно меняющаяся во времени. Впервые это понятие было введено в монографии М.Ф. Маликова "Основы метрологии", изданной в 1949 г.

Отличительные особенности прогрессирующих погрешностей:

• они могут быть скорректированы поправками только в данный момент времени, а далее вновь непредсказуемо изменяются;

• изменения прогрессирующих погрешностей во времени — нестационарный случайный процесс, и поэтому в рамках хорошо разработанной теории стационарных случайных процессов они могут быть описаны лишь с известными оговорками.

Прогрессирующая погрешность — это понятие, специфичное для нестационарного случайного процесса изменения погрешности во времени, оно не может быть сведено к понятиям случайной и систематической погрешностей. Последние характерны лишь для стационарных случайных процессов. Прогрессирующая погрешность может возникнуть вследствие как непостоянства во времени текущего математического ожидания нестационарного случайного процесса, так и изменения во времени его дисперсии или формы закона распределения.

Понятие прогрессирующей погрешности широко используется при исследовании динамики погрешностей СИ [5] и метрологической надежности последних.

Грубая погрешность (промах) — это случайная погрешность результата отдельного наблюдения, входящего в ряд измерений, которая для данных условий резко отличается от остальных результатов этого ряда. Они, как правило, возникают из-за ошибок или неправильных действий оператора (его психофизиологического состояния, неверного отсчета, ошибок в записях или вычислениях, неправильного включения приборов или сбоев в их работе и др.)- Возможной причиной возникновения промахов также могут быть кратковременные резкие изменения условий проведения измерений. Если промахи обнаруживаются в процессе измерений, то результаты, их содержащие, отбрасывают.

По способу выражения различают абсолютную, относительную и приведенную погрешности.

Абсолютная погрешность описывается формулой (4.1) и выражается в единицах измеряемой величины. Однако она не может в полной мере служить показателем точности измерений, так как одно и то же ее значение, например, Δ = 0,05 мм при X = 100 мм соответствует достаточно высокой точности измерений, а при X = 1 мм — низкой. Поэтому и вводится понятие относительной погрешности. Относительная погрешность — это отношение абсолютной погрешности измерения к истинному значению измеряемой величины:

δ = Δ/Q = (X - Q)/Q.

Эта наглядная характеристика точности результата измерения не годится для нормирования погрешности СИ, так как при изменении значений Q принимает различные значения вплоть до бесконечности при Q = О. В связи с этим для указания и нормирования погрешности СИ используется еще одна разновидность погрешности — приведенная.

Приведенная погрешность — это относительная погрешность, в которой абсолютная погрешность СИ отнесена к условно принятому значению QN, постоянному во всем диапазоне измерений или его части:

γ - A/QN = (X - Q)/QN.

Условно принятое значение QN называют нормирующим. Чаще всего за него принимают верхний предел измерений данного СИ, применительно к которым и используется главным образом понятие "приведенная погрешность".

В зависимости от места возникновения различают инструментальные, методические и субъективные погрешности.

Инструментальная погрешность обусловлена погрешностью применяемого СИ. Иногда эту погрешность называют аппаратурной.

Методическая погрешность измерения обусловлена:

• отличием принятой модели объекта измерения от модели, адекватно описывающей его свойство, которое определяется путем измерения;

• влиянием способов применения СИ. Это имеет место, например, при измерении напряжения вольтметром с конечным значением внутреннего сопротивления. В данном случае вольтметр шунтирует участок цепи, на котором измеряется напряжение, и оно оказывается меньше, чем было до присоединения вольтметра;

• влиянием алгоритмов (формул), по которым производятся вычисления результатов измерений;

• влиянием других факторов, не связанных со свойствами используемых средств измерения.

Отличительной особенностью методических погрешностей является то, что они не могут быть указаны в нормативно-технической документации на используемое СИ, поскольку от него не зависят, а должны определяться оператором в каждом конкретном случае. В связи с этим оператор должен четко различать фактически измеряемую им величину и величину, подлежащую измерению.

Субъективная (личная) погрешность измерения обусловлена погрешностью отсчета оператором показаний по шкалам СИ, диаграммам регистрирующих приборов. Они вызываются состоянием оператора, его положением во время работы, несовершенством органов чувств, эргономическими свойствами СИ. Характеристики личной погрешности определяют на основе нормированной номинальной цены деления шкалы измерительного прибора (или диаграммной бумаги регистрирующего прибора) с учетом способности "среднего оператора" к интерполяции в пределах деления шкалы.

По зависимости абсолютной погрешности от значений измеряемой величины различают погрешности

• аддитивные Δβ, не зависящие от измеряемой величины;

• мультипликативные ΔΜ, которые прямо пропорциональны измеряемой величине;

• нелинейные ΔΗ, имеющие нелинейную зависимость от измеряемой величины.

Эти погрешности применяют в основном для описания метрологических характеристик СИ. Разделение погрешностей на аддитивные, мультипликативные и нелинейные весьма существенно при решении вопроса о нормировании и математическом описании погрешностей СИ.

Примеры аддитивных погрешностей — от постоянного груза на чашке весов, от неточной установки на нуль стрелки прибора перед измерением, от термо-ЭДС в цепях постоянного тока. Причинами возникновения мультипликативных погрешностей могут быть: изменение коэффициента усиления усилителя, изменение жесткости мембраны датчика манометра или пружины прибора, изменение опорного напряжения в цифровом вольтметре.

По влиянию внешних условий различают основную и дополнительную погрешности СИ. Основной называется погрешность СИ, определяемая в нормальных условиях его применения. Для каждого СИ в нормативно-технических документах оговариваются условия эксплуатации — совокупность влияющих величин (температура окружающей среды, влажность, давление, напряжение и частота питающей сети и др.), при которых нормируется его погрешность. Дополнительной называется погрешность СИ, возникающая вследствие отклонения какой-либо из влияющих величин.

В зависимости от влияния характера изменения измеряемых величин погрешности СИ делят на статические и динамические. Статическая погрешность — это погрешность СИ применяемого для измерения ФВ, принимаемой за неизменную

Динамической называется погрешность СИ, возникающая дополнительно при измерении переменной ФВ и обусловленная несоответствием его реакции на скорость (частоту) изменения измеряемого сигнала.