Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебник ИнфТиСисУпрТезПр.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
11.24 Mб
Скачать

3.3. Основные понятия об измерениях

Основное уравнение измерения имеет вид

Q=nU, (3.1)

где Q — значение физической величины; п — размер физической величины; U — единица физической величины.

По способу получения результата измерения подразделяются на прямые, косвенные, совокупные и совместные.

Прямые измерения — это измерения, при которых искомое значение измеряемой величины находится непосредственно из опытных данных, т. е. сравнением ее с единицей физической ве­личины или по показаниям измерительных приборов, отградуи­рованных в этих единицах.

Косвенные измерения — это измерения, при которых искомое значение измеряемой величины находится на основании извест­ной зависимости между этой величиной и величинами, получае­мыми прямыми измерениями.

Совокупные измерения — это одновременные измерения не­скольких одноименных величин, при которых искомое значение измеряемой величины находится путем решения системы уравне­ний, получаемой при прямых измерениях различных сочетаний этих величин.

Совместные измерения — это одновременные измерения не­скольких не одноименных величин в целях нахождения зависи­мости между ними.

Измерения проводятся различными методами, под которыми подразумевается совокупность приемов, принципов и средств из­мерений. В современной метрологии имеют место четыре основ­ных метода измерений.

  1. Метод непосредственной оценки заключается в определении значения измеряемой величины непосредственно по отчетному устройству измерительного прибора прямого действия. Таким об­разом, этот метод характеризуется прямым преобразованием зна­чения измеряемой величины в выходную величину, показывае­мую или записываемую прибором.

  2. Метод сравнения с мерой, или метод сравнения, заключает­ся в сравнении измеряемой величины с величиной, воспроизво­димой мерой.

  3. Дифференциальный метод заключается в сравнении с ме­рой, при котором на измерительный прибор воздействует раз­ность между измеряемой величиной и известной величиной, вос­производимой мерой.

  4. Нулевой (компенсационный) метод заключается в сравнении с мерой, при котором результирующий эффект воздействия вели­чин на прибор сравнения доводится до нуля.

Погрешности измерений и измерительных устройств

Результат любого измерения отличается от истинного значе­ния измеряемой величины на некоторое значение, зависящее от точности методов и средств измерений, квалификации оператора, производящего измерения, условий, при которых они осуществля­ются. Отклонение результата измерения от истинного значения из­меряемой величины называется погрешностью измерения.

Различают абсолютные погрешности измерения, которые вы­ражаются в единицах измеряемой величины, т. е.

Д -(3.2)

где А — абсолютная погрешность измерения; X— значение, полу­ченное при измерении; Хи — истинное значение измеряемой ве­личины.

Относительная погрешность измерения — это отношение аб­солютной погрешности измерения к истинному значению изме­ряемой величины, т. е.

5 = Д/*„, (3.3)

где 8 — относительная погрешность измерения.

Относительную погрешность часто выражают в процентах ис­тинного значения измеряемой величины, т. е.

8% = (А/Хи)Ю0%. (3.4)

Однако истинное значение величины остается неизменным, поэтому вместо него пользуются действительны^ значением ве­личины или размером эталона. Действительное значение рассчи­тывается соответствующими методами, о чем будем говорить при рассмотрении методов расчета погрешностей.

На практике часто используют понятие — «точность измере­ний», которая определяет близость результата измерений к истин­ному значению измеряемой величины.

В зависимости от характера проявления погрешности измере­ний подразделяются на систематические, случайные и грубые (промахи).

Погрешность Д является результирующей погрешностью, ко­торая определяется суммой, состоящей из систематической Дс и случайной Д° погрешностей, т. е. Д = Дс + д°.

Систематические погрешности — это составляющая погрешно­стей измерений, остающаяся постоянной или закономерно изме­няющаяся при повторных измерениях одной и той же величины. Систематические погрешности возникают при несоответствии действительного значения меры, с помощью которой производят измерение, ее номинальному значению. Например, такие по­грешности могут возникать при изменении силы рабочего тока (его уменьшении) в цепи потенциометра. К ним относят погреш­ности метода измерений, инструментальную погрешность, по­грешность считывания, погрешность интерполяции и экстраполя­ции и другие. Систематические погрешности неизбежны, однако влияние их можно устранить или исключить путем введения со­ответствующих поправок, тщательной регулировки, компенсации и т. д.

Случайные погрешности — это составляющая погрешностей из­мерений, изменяющаяся случайно при повторных измерениях одной и той же величины. Возникают они вследствие вариации показывающего измерительного прибора, округления при считы­вании показаний, влияния температуры окружающей среды и вибраций, наличия посторонних электромагнитных полей и т. п. Для учета влияния случайных погрешностей одну и ту же вели­чину измеряют много раз, а результаты измерений обрабатывают с помощью специальных математических методов (усреднения).

Грубые погрешности (промахи) — это составляющая погрешно­стей измерений, существенно превышающая ожидаемую при дан­ных условиях измерений погрешность. При обработке результа­тов измерений те из них, которые содержат грубые погрешности, как правило, отбрасываются и не учитываются. Причиной воз­никновения грубых погрешностей может быть ошибка оператора, возникновение сильной кратковременной помехи, толчок, нару­шение электрического контакта и т. д.

Природа и происхождение систематических погрешностей обусловлены спецификой проведения конкретного эксперимен­та — процесса измерения. Поэтому обнаружение и исключение систематических погрешностей во многом зависит от мастерства измерителя-оператора, от того, насколько глубоко он изучил конкретные условия проведения измерений и особенно приме­няемых им методов и средств. При этом существуют некоторые общие причины возникновения систематических погрешностей, в соответствии с которыми их подразделяют на методические, ин­струментальные и субъективные.

Методические погрешности формируются: от несовершенства метода измерения; использования упрощенных допущений и предположений при выводе формул; влияния измерительного устройства на объект измерения. Например, процесс измерения температуры с помощью термопары может содержать методиче­скую погрешность, вызванную нарушением температурного ре­жима исследуемого объекта, вследствие внесения в него термопа­ры и искажения температурного (теплового) поля.

Инструментальные погрешности зависят от погрешностей при­меняемых средств измерения. Причинами инструментальных по­грешностей могут быть неточность градуировки измерительных устройств, их конструктивное несовершенство, изменение экс­плуатационных характеристик во времени и т. д., и т. п. Источ­никами этого вида погрешностей также могут быть влияния внешних магнитных и электрических полей, воздействие вибра­ций, а также отклонение от нормальных условий эксплуатации данного средства измерения.

Субъективные погрешности обусловлены низкой квалификаци­ей экспериментатора, которые формируются из-за неправильного отсчета показаний прибора человеком-оператором, его невнима­тельности, рассеянности и неуравновешенности и т. п., т. е. че­ловеческим фактором.

Систематические погрешности могут оставаться постоянными либо закономерно изменяться. Их определение осуществляется путем многократного повторения процесса измерения физиче­ской величины.

Обнаружение причин и источников систематических погреш­ностей позволяет принять меры к их устранению путем введения соответствующей поправки:

С = Хипр, ' (3.5)

где С — поправка, значение величины, одноименной с измеряе­мой; Хи истинное значение измеряемой величины; Хпр значе­ние величины, полученное с помощью измерительного прибора (устройства).

Полученную поправку нужно алгебраически прибавить к по­казанию прибора

К = Хпр+С.

Поправка определяется с помощью поверки технического средства, сопоставления и использования соответствующих таб­лиц и графиков, а также расчетным способом определения по­правочных значений.

В результате внедрения в измерительную технику информаци­онных технологий появилась возможность с помощью статистики исключать и корректировать некоторые виды систематических погрешностей (например, инструментальную и субъективную со­ставляющие погрешности).

Однако полностью исключить систематическую погрешность не представляется возможным, и какая-то часть ее остается. Эта часть входит в результат измерений и искажает его. В таких слу­чаях можно использовать метод сопоставления, сравнения изме­ренных значений физической величины с подобными результата­ми, полученными в других лабораториях, выполненными други­ми экспериментаторами.

Случайные погрешности, в основном, оцениваются с помощью математического аппарата описания случайных величин методами теории вероятностей и математической статистики. Согласно этим методам, случайная величина наиболее полно характеризу­ется своим законом распределения (или плотностью распределе­ния) вероятностей. В измерительной практике чаще всего прини­маются нормальная и равномерная плотность распределения. Для описания случайных погрешностей целесообразно применять нормальный закон распределения вероятностей, который можно записать в следующем виде:

где Y(A°) — плотность вероятностей случайной погрешности Д°.

Анализ выражения показывает, что при малых значениях 5 ве­роятнее получить малую погрешность измерений, чем при больших.

Рассмотрим оценки параметров распределения случайных по­грешностей прямых измерений как основополагающих в измери­тельной технике.

Например, если было осуществлено п прямых измерений од­ной и той же величины, то в общем случае в каждом из актов измерений погрешность будет равной

Л,

где Д, — погрешность /-го измерения; Xt результат /-го измере­ния; Хи истинное значение.

Так как истинное значение измеряемой величины неизвестно, то непосредственно случайную абсолютную погрешность вычис­лить не представляется возможным. При практических расчетах вынуждены вместо X использовать ее оценку.

Обычно принимают за истинное значение физической вели­чины ее среднее арифметическое значение данных измерений:

X=(X]+X2 + ...+Xn)/n=^Xi/n,

где Xj — результаты отдельных измерений; п — число измерений.

Аналогично относительно Д, можно определить отклонение результату каждого измерения от среднего значения X, т. е. Д, =Х,-Х, а далее вычислить значение среднеквадратичной по­грешности данного ряда измерений:

Согласно теории вероятностей, при достаточно большом чис­ле измерений, имеющем независимые случайные погрешности, оценка с сходится по вероятности с с. Поэтому

Так как среднее арифметическое значение X также является случайной величиной, имеет смысл понятие среднеквадратичного отклонения среднего арифметического значения X. Эта величина обозначается сср и определяется как

_ Таким образом значение сср характеризует степень разброса X. Следовательно, X определяется как оценка истинного значе­ния измеряемой величины, а сср является средней квадратичной погрешностью результата измерений. _

Среднее арифметическое значение X, полученное в результате вычислений, является оценкой истинного значения Хи, но не сов­падает с его значением и отличается на значение погрешности. Для ее оценки вводятся понятия: Рд — доверительной вероятности, т. е.

Рд=Р(-А<Хи-Х<А) (3.6)

и доверительного интервала, т. е.

Р„=Р(Х-А<Хи< Х + А). (3.7)

Вероятность Рд называется доверительной вероятностью, а интервал значений измеряемой величины от (Л'-Д) до

(j+Д) — доверительным интервалом.

Вышеуказанные неравенства обозначают, что с вероятностью Рд доверительный интервал от (X -А) до (Z+Д) соответствует

истинному значению Хи.

Таким образом, чтобы характеризовать случайную погреш­ность достаточно полно, надо пользоваться двумя значения­ми — доверительной вероятностью и соответствующим ей довери­тельным интервалом.

Если закон распределения вероятностей погрешностей извес­тен, то по заданной вероятности можно определить доверитель­ный интервал. Например, при достаточно большом числе изме­рений (л >20...30) часто бывает оправданным использование нор­мального закона распределения погрешности, а при небольшом числе измерений (п < 20), результаты которых принадлежат нор­мальному закону распределения, целесообразно пользоваться рас­пределением Стьюдента. Это распределение погрешности имеет плотность вероятностей, практически совпадающих с нормаль­ным законом при больших п, но значительно отличающуюся от нормального при малых п.

Наиболее практичной формой записи результата измерений является нижеследующая:

я; Д; Днн-Д„; Рд,

где а — результат измерения в единицах физической величины; А — погрешность измерения; А, и А, - верхняя и нижняя грани­цы погрешности измерения; Рд доверительная вероятность.

Метрологические свойства средств измерений описываются путем указания номинальных значений основных характеристик средства измерения и допускаемых отклонений от них. Специфи­ческой метрологической характеристикой средств измерений яв­ляется их погрешность. Сведения о погрешностях средств изме­рений необходимы для оценки погрешностей измерений.

Показания, полученные с помощью средств измерений (или измерительных устройств), всегда в большей или меньшей степе­ни отличаются от действительного значения измеряемой величи­ны. Поэтому разность между показанием прибора Хпр, и истин­ным значением измеряемой величины Хи называется абсолютной погрешностью Дил измерительного прибора (средства измерений):

Дил (3.8)

Так как истинное значение измеряемой величины остается неизменным, то на практике вместо него пользуются действи­тельным значением измеряемой величины, т. е. значением вели­чины, определенной по отсчетному устройству средства измере­ний, принятого за эталон, и выраженной в единицах этой вели­чины.

Отношение абсолютной погрешности измерительного прибора к истинному значению измеряемой им величины называется от­носительной погрешностью и выражается в долях или процентах измеряемой величины.

На практике абсолютную погрешность обычно относят к по­казанию измерительного прибора, т. е.

Аип={Хпри)/Хпр. (3.9)

Величину относительной погрешности можно использовать в качестве одной из характеристик точности средства измерений.

Поправкой к показанию измерительного прибора называется величина, равная абсолютному значению абсолютной погрешно­сти и противоположная ей по знаку

С -Xипр.

Для определения действительного значения измеряемой вели­чины эта поправка должна быть алгебраически прибавлена к по­казанию измерительного прибора:

X„=xv+C. (3.10)

Метрологической характеристикой точности технических средств измерений являются пределы основной и дополнитель­ной погрешностей.

Основной погрешностью называется погрешность средства измерений, используемого в нормальных условиях, определенных ГОСТами или другими техническими условиями на средства из­мерений. 1

Под нормальными условиями применения средств измерений следует понимать условия их эксплуатации, при которых влияю­щие величины (температура окружающего воздуха, давление ок­ружающей среды, ее влажность, напряжение электропитания, частота тока, вибрация и т. п.) имеют нормальные значения или находятся в пределах нормальных значений.

Дополнительной погрешностью называется погрешность сред­ства измерений, вызываемая действием на него условий при от­клонении их действительных значений от нормальных (норма­тивных) или при выходе за пределы нормальных значений.

Под пределами основной и дополнительной погрешностей следует понимать наибольшую (без учета знака) погрешность средства измерений, при которой оно может быть признано год­ным и допущено к применению. Пределы допустимых основной и дополнительной погрешностей средств измерений устанавлива­ются в виде абсолютных и приведенных погрешностей.

Приведенные погрешности средства измерений (измерительного прибора) определяются отношением погрешности измерительного прибора к нормирующему значению, т. е. к верхнему пределу из­мерений, диапазону измерений, длине шкалы и др.

Средства измерений в зависимости от значения величины ос­новной приведенной погрешности подразделяются на классы точности, которые представляют собой число, равное наибольше­му допустимому значению основной погрешности в процентах, при этом у этого числа символ «процент» не указывается. Таким образом, цифра класса точности показывает значение, которое не превышает приведенную погрешность данного средства измере­ний при его использовании в этих условиях измерений.

Классы точности характеризуют свойства средств измерений в отношении точности, однако они не являются непосредственным показателем точности измерений, выполненных с помощью этих средств, так как точность зависит от метода измерений и усло­вий выполнения измерений.

Классы точности, которые присваиваются средствам измере­ний, выбираются из ряда следующих чисел: К = (1; 1,5; 2,0; 2,5; 3,0; 4,0; 5,0; 6,0) ■ 10", где п = 1; 0; -1; -2; ... .

Конкретные классы точности устанавливаются в стандартах на отдельные виды средств измерений. Чем меньше число, обо­значающее класс точности, тем меньше пределы допускаемых погрешностей. Как правило, для средств измерений класс точно­сти устанавливается не более значения 4,0. #