- •Понятие метрологии.
- •Основные сведения в метрологической терминологии (физическая величина, единица физической величины и т.Д.).
- •Классификация измерений.
- •Погрешности измерений. Классификация.
- •Понятия: средство измерения измерительный прибор, измерительный преобразователь, измерительная система, измерительная установка.
- •Шкалы измерительных приборов. Виды шкал.
- •Понятия, связанные с формированием шкалы. Принцип формирования шкалы (понятие натурального ряда, реперных точек и т.Д.).
- •Понятия, связанные с понятием шкалы (отметки шкалы, диапазон шкалы, диапазон измерения и т.Д.).
- •Чувствительность. Определение чувствительности поверяемого си.
- •Структурные схемы измерительных устройств и измерительных систем.
- •Погрешности си. Расчет погрешностей си. Анализ, способ исключения.
- •Определения градуировки, регулировки, калибровки.
- •Поверка, виды поверок.
- •Виды поверки
- •Поверочные схемы
- •Методы поверки
Классификация измерений.
Прямые измерения – это измерения, в которых искомое значение величины является результатом измерений.
Косвенные измерения – это определение искомого значения физической величины на основании результатов прямых измерений других физических величин, функционально связанных с искомой величиной.
Совокупные измерения – это проводимые одновременно измерения нескольких одноимённых величин, при которых искомое значение величины определяют путем решения системы уравнений, полученных при прямых измерениях различных сочетаний этих величин.
Совместные измерения – производимые одновременно измерения двух или нескольких не одноименных величин для нахождения функциональной зависимости между ними.
Методы измерений. Классификация.
Метод измерений – это прием или совокупность приемов сравнения измеряемой величины с ее единицей в соответствии с реализованным принципом измерений.
Метод непосредственной оценки - метод измерений, при котором значение величины определяют непосредственно по отчетному устройству измерительного прибора прямого действия. Средство измерения прямого действия – устройство, в котором преобразование измерительной информации осуществляется строго в одном направлении с входом на выход.
Метод сравнения с мерой - метод измерений, при котором измеряемую величину сравнивают с величиной, воспроизводимой мерой. Этот метод имеет следующие модификации:
а) метод дополнения – метод сравнения с мерой, в котором значение измеряемой величины дополняется мерой этой же величины с таким расчетом, чтобы на прибор сравнение воздействовала их сумма, равная заранее заданному значению;
б) дифференциальный метод – метод сравнения с мерой, в котором измеряемая величина сравнивается с однородной величиной, имеющей известное значение, незначительно отличающееся от значения измеряемой величины, при котором измеряется разность между этими двумя величинами;
в) нулевой метод – метод сравнения с мерой, в котором результирующий эффект воздействия измеряемой величины и меры на прибор сравнения доводят до нуля;
г) метод измерения замещением - метод сравнения с мерой, в котором измеряемую величину замещают мерой с известным значением величины.
Средство измерения – это техническое средство, предназначенное для измерений, имеющее нормированные метрологические характеристики, воспроизводящее и хранящее единицу физической величины.
Метрологическая характеристика средств измерений – это характеристика одного из свойств средства измерений, влияющих на результат измерений или его погрешность.
Погрешности измерений. Классификация.
Истинное значение физической величины — это значение, идеальным образом отражающее свойство данного объекта как в количественном, так и в качественном отношении.
Действительное значение физической величины. — значение, найденное экспериментально и настолько приближающееся к истинному, что для данной цели оно может быть использовано вместо него.
Результат измерения представляет собой приближенную оценку истинного значения величины, найденную путем измерения.
Погрешность результата измерения — это разница между результатом измерения X и истинным (или действительным) значением Q измеряемой величины.
Погрешность средства измерения — разность между показанием СИ и истинным (действительным) значением измеряемой ФВ.
Точность измерения – это степень приближения результата измерения к истинному значению.
По характеру проявления погрешности делятся на случайные, систематические, прогрессирующие и грубые (промахи).
Случайная погрешность — составляющая погрешности измерения, изменяющаяся случайным образом (по знаку и значению) в серии повторных измерений одного и того же размера ФВ, проведенных с одинаковой тщательностью в одних и тех же условиях.
Систематическая погрешность — составляющая погрешности измерения, остающаяся постоянной или закономерно меняющаяся при повторных измерениях одной и той же ФВ.
Прогрессирующая (дрейфовая) погрешность — это непредсказуемая погрешность, медленно меняющаяся во времени.
Грубая погрешность (промах) — это случайная погрешность результата отдельного наблюдения, входящего в ряд измерений, которая для данных условий резко отличается от остальных результатов этого ряда.
По способу выражения различают абсолютную, относительную и приведенную погрешности.
Классификация средств измерений (характеристики СИ, используемых в лабораторной работе).
Метрологические характеристики: сущность, определения.
Метрологические характеристики — это характеристики свойств средства измерений, оказывающие влияние на результат измерения и его погрешности. Характеристики, устанавливаемые нормативно-техническими документами, называются нормируемыми, а определяемые экспериментально — действительными.
Метрологические характеристики СИ позволяют:
• определять результаты измерений и рассчитывать оценки характеристик инструментальной составляющей погрешности измерения в реальных условиях применения СИ;
• рассчитывать MX каналов измерительных систем, состоящих из ряда средств измерений с известными MX;
• производить оптимальный выбор СИ, обеспечивающих требуемое качество измерений при известных условиях их применения;
• сравнивать СИ различных типов с учетом условий применения.
Сущность нормирования метрологических характеристик.
При разработке принципов выбора и нормирования средств измерений необходимо придерживаться ряда положений:
1. Основным условием возможности решения всех перечисленных задач является наличие однозначной связи между нормированными MX и инструментальными погрешностями. Эта связь устанавливается посредством математической модели инструментальной составляющей погрешности, в которой нормируемые MX должны быть аргументами. При этом важно, чтобы номенклатура MX и способы их выражения были оптимальны.
2. Нормирование MX средств измерений должно производиться исходя из единых теоретических предпосылок. Это связано с тем, что в измерительных процессах могут участвовать СИ, построенные на различных принципах.
3. Нормируемые MX должны быть выражены в такой форме, чтобы с их помощью можно было обоснованно решать практически любые измерительные задачи и одновременно достаточно просто проводить контроль СИ на соответствие этим характеристикам.
4. Нормируемые MX должны обеспечивать возможность статистического объединения, суммирования составляющих инструментальной погрешности измерений.
5. Нормируемые MX должны быть инвариантны к условиям применения и режиму работы СИ и отражать только его свойства. Выбор MX необходимо осуществлять так, чтобы пользователь имел возможность рассчитывать по ним характеристики СИ в реальных условиях эксплуатации.
6. Нормируемые MX, приводимые в нормативно-технической документации, отражают свойства не отдельно взятого экземпляра СИ, а всей совокупности СИ данного типа, т.е. являются номинальными. Под типом понимается совокупность СИ, имеющих одинаковое назначение, схему и конструкцию и удовлетворяющих одним и тем же требованиям, регламентированным в технических условиях. Метрологические характеристики отдельного СИ данного типа могут быть любыми в пределах области значений номинальных MX.
Понятие класса точности, виды, нормирование.
Класс точности средства измерения – это обобщенная характеристика СИ, выражаемая пределами допускаемых значений его основной и дополнительной погрешностей, а также другими характеристиками, влияющими на точность. Классы точности устанавливаются для средства измерения, у которых суммарная погрешность нормируется в виде пределов допускаемой основной и дополнительной погрешностей. Эти пределы могут выражаться в форме абсолютных, относительных и приведённых погрешностей.
Пределы допускаемой основной погрешности СИ, определяемые классом точности — это интервал, в котором находится значение основной погрешности СИ. Если СИ имеет незначительную случайную составляющую, то определение СИ относится к нахождению систематической погрешности и случайной погрешности, обусловленной гистерезисом, и является достаточно строгим. При этом предел DСИ = D0SP + 0,5НОР.
Если СИ имеет существенную случайную погрешность, то для него определение предела допускаемой основной погрешности является нечетким. Его следует понимать как интервал, в котором находится значение основной погрешности с неизвестной вероятностью, близкой к единице:
DСИ = ±(D0SP + K[D̊0] + 0,5H0P) где К — коэффициент, зависящий от доверительной вероятности Р.
Предел допускаемой дополнительной погрешности, вызванной изменением влияющей величины , может быть найден с использованием функции влияния Y(x): DДСИ = [dY(x)/d]max. B частности, если Y(x) = A, то DДСИ = .
Классы точности СИ устанавливаются в стандартах или технических условиях. Средство измерений может иметь два и более класса точности.
Пределы допускаемых основной и дополнительной погрешностей выражают в форме приведенных, относительных или абсолютных погрешностей. Выбор формы представления зависит от характера изменения погрешностей в пределах диапазона измерений, а также от условий применения и назначения СИ.
Пределы допускаемой абсолютной основной погрешности устанавливаются по одной из формул: = ±а или = ± (а + bх), где х — значение измеряемой величины или число делений, отсчитанное по шкале; a, b — положительные числа, не зависящие от х. Первая формула описывает чисто аддитивную погрешность, а вторая — сумму аддитивной и мультипликативной погрешностей.
Пределы допускаемой приведенной основной погрешности определяются по формуле = /xN = ±р, где xn — нормирующее значение, выраженное в тех же единицах, что и ; р — отвлеченное положительное число, выбираемое из ряда значений: (1; 1,5; 2; 2,5; 4; 5; 6)10n; n=1; 0; -1; -2;...
Нормирующее значение xn устанавливается равным большему из пределов измерений (или модулей) для СИ с равномерной, практически равномерной или степенной шкалами и для измерительных преобразователей, если нулевое значение выходного сигнала находится на краю или вне диапазона измерений.
Для СИ, шкала которых имеет условный нуль, хы равно модулю разности пределов измерений.
Для
приборов с существенно неравномерной
шкалой xn
принимают
равным всей длине шкалы или ее части,
соответствующей диапазону измерений.
В этом случае пределы абсолютной
погрешности выражают, как и длину шкалы,
в единицах длины, а на средстве измерений
класс точности условно обозначают,
например, в виде значка
, где 0,5 — значение числа р. В остальных
рассмотренных случаях класс точности
обозначают конкретным числом р, например
1,5. Обозначение наносится на циферблат,
щиток или корпус прибора. Пределы
допускаемой относительной основной
погрешности определяются по формуле
= /х
= ±q
, если
=
а. Значение постоянного числа q
устанавливается так же, как и значение
числа р. Класс точности на прибор
обозначается в виде
,
где 0,5 — конкретное значение q.
В случае, если абсолютная погрешность задается формулой (а + bх), пределы допускаемой относительной основной погрешности
где с, d — отвлеченные положительные числа, выбираемые из ряда: (1; 1,5; 2; 2,5; 4; 5; 6)10n; п=1; 0; -1; -2 и т.д.; xk — больший (по модулю) из пределов измерений.
В стандартах или технических условиях на СИ указывается минимальное значение Х0 , начиная с которого применим принятый способ выражения пределов допускаемой относительной погрешности. Отношение xk/x0 называется динамическим диапазоном измерения.
Предел допускаемой дополнительной погрешности дси может указываться в виде:
• постоянного значения для всей рабочей области влияющей величины или постоянных значений по интервалам рабочей области влияющей величины;
• отношения предела допускаемой дополнительной погрешности, соответствующего регламентированному интервалу влияющей величины, к этому интервалу;
• зависимости предела дcи от влияющей величины (предельной функции влияния);
• функциональной зависимости пределов допускаемых отклонений от номинальной функции влияния.
